KR20230141302A - System for creating background data for artificial intelligent for recognizing object in virtual space - Google Patents

System for creating background data for artificial intelligent for recognizing object in virtual space Download PDF

Info

Publication number
KR20230141302A
KR20230141302A KR1020220040685A KR20220040685A KR20230141302A KR 20230141302 A KR20230141302 A KR 20230141302A KR 1020220040685 A KR1020220040685 A KR 1020220040685A KR 20220040685 A KR20220040685 A KR 20220040685A KR 20230141302 A KR20230141302 A KR 20230141302A
Authority
KR
South Korea
Prior art keywords
virtual space
information
unit
background data
learning
Prior art date
Application number
KR1020220040685A
Other languages
Korean (ko)
Inventor
박형오
김정훈
박현준
Original Assignee
주식회사 비솔
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비솔 filed Critical 주식회사 비솔
Priority to KR1020220040685A priority Critical patent/KR20230141302A/en
Publication of KR20230141302A publication Critical patent/KR20230141302A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Architecture (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 미리 설정된 가상의 공간에 제공되어 미리 설정된 가상의 공간을 구성하는 스페이스 셋팅 유닛; 스페이스 셋팅 유닛의 미리 설정된 가상의 공간 정보를 수신하여, 미리 설정된 가상의 공간 상에 오버래핑하며, 미리 설정된 가상의 공간에 선택적 변수를 제공하는 파라미터 유닛; 및 오브젝트로 형성되어, 미리 설정된 가상의 공간 상에 제공되며, 스페이스 셋팅 유닛과 파라미터 유닛으로부터 제공되는 미리 설정된 가상의 공간과 선택적 변수를 인식하는 에센셜 유닛을 포함하는 기술적 사상을 개시한다. The present invention provides a space setting unit that is provided in a preset virtual space and configures the preset virtual space; a parameter unit that receives preset virtual space information of the space setting unit, overlaps it on the preset virtual space, and provides optional variables to the preset virtual space; and an essential unit formed as an object, provided in a preset virtual space, and recognizing the preset virtual space and optional variables provided from a space setting unit and a parameter unit.

Description

가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템{System for creating background data for artificial intelligent for recognizing object in virtual space}System for creating background data for AI learning to recognize objects in virtual space {System for creating background data for artificial intelligent for recognizing object in virtual space}

본 발명은 자율 주행을 위한 자동차의 가상 공간 상의 딥러닝을 위한 합성 데이터를 생성하는 것에 대한 것으로, 보다 자세하게는, 미리 설정된 가상의 공간을 구성하고 가상의 공간 상에 노이즈인 선택적 변수를 적용하여 오브젝트가 가상의 공간에 제공되도록 하는, 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템에 관한 기술분야이다. The present invention relates to generating synthetic data for deep learning in the virtual space of a car for autonomous driving. More specifically, it constructs a preset virtual space and applies an optional variable, which is noise, to the virtual space to create an object. This is a technical field related to a background data generation system for AI learning for object discrimination in virtual space, which allows it to be provided in virtual space.

4차 산업혁명과 함께 인공지능을 포함한 디지털 신기술에 쏠렸던 전 세계적 관심은 포스트 코로나 시대와 맞물려 더욱 증폭되고 있다. 실제로 인공지능 시장 규모는 가파르게 성장하고 있다. IDC에서는 2021년 전 세계 인공지능 시장 규모를 전년 대비 16.4% 성장한 3천 275억 달러로 전망하였고, 2024년까지 5천 543억 달러에 이를 것이라는 예측을 발표했다. PwC는 인공지능이 글로벌 경제에 미치는 경제적 가치가 2030년 15조 7,000억 달러에 달할 것으로 추산하며 오늘날 가장 큰 시장 기회를 창출할 것이라고 기대했다.With the Fourth Industrial Revolution, global interest in new digital technologies, including artificial intelligence, is growing further in line with the post-corona era. In fact, the size of the artificial intelligence market is growing rapidly. IDC predicted the global artificial intelligence market size to be $327.5 billion in 2021, up 16.4% from the previous year, and announced a forecast that it would reach $554.3 billion by 2024. PwC estimates that the economic value of artificial intelligence to the global economy will reach $15.7 trillion by 2030, and that it will create the largest market opportunity today.

2020년대에 들어오면서 인공지능이 기술 흐름의 중요한 역할을 하고 있지만, 현실에서 직면하고 있는 문제는 학습데이터에 해당한다. Entering the 2020s, artificial intelligence is playing an important role in the technological flow, but the problem we face in reality is learning data.

뛰어난 알고리즘이더라도 양질의 데이터 없이는 학습이 불가능하기 때문이다. 인공지능 학습을 통한 서비스, 기술의 고도화를 위해서는 수많은 양질의 데이터가 뒷받침돼야 한다. 이러한 양질의 데이터는 향후 스마트시티를 비롯해 자율주행, 스마트팩토리, 스마트 안정 등 다양한 서비스모델의 기반이 될 전망이다. Even if it is an excellent algorithm, learning is impossible without high-quality data. In order to advance services and technologies through artificial intelligence learning, numerous high-quality data must be supported. Such high-quality data is expected to become the basis for various service models such as smart cities, autonomous driving, smart factories, and smart stability in the future.

이와 관련된 기술을 발전을 위하여서는 인공지능 및 머신러닝 응용을 위하여 대규모의 큐레이팅된 데이터셋이 필요하며, 전 세계적으로도 이러한 데이터셋을 수집하기 위하여 인공지능 학습데이터 구축을 위한 많은 예산과 투자가 이루어지고 있다. In order to develop related technologies, large-scale curated datasets are needed for artificial intelligence and machine learning applications, and large budgets and investments have been made around the world to collect these datasets and build artificial intelligence learning data. I'm losing.

실제 데이터의 수집/레이블링 작업에 어려운 문제를 해결하기 위한 방법 중 하나는 합성데이터를 생성하는 방법이며, 합성데이터를 생성하는 방법에 대한 기술의 발전도 이루어지고 있다. One of the ways to solve difficult problems in collecting/labeling real data is to generate synthetic data, and technology for generating synthetic data is also being developed.

합성데이터를 생성하는 방법에 대한 선행 특허문헌으로서, "머신 러닝의 학습성능 강화장치 및 방법(공개번호 제10-2019-0054782호, 이하 특허문헌1이라 한다. )"이 존재한다. As a prior patent document on a method for generating synthetic data, there is “Machine Learning Learning Performance Enhancement Apparatus and Method (Publication No. 10-2019-0054782, hereinafter referred to as Patent Document 1).”

특허문헌1의 경우, 이미지 합성을 통해 다양하고 강건한 학습 이미지를 생성하여 머신 러닝(machine learning)의 학습 성능을 향상, 강화시킬 수 있는 머신 러닝의 학습성능 강화장치 및 방법에 관한 것으로, 적어도 하나의 무기 객체가 포함된 3D CAD 모델의 학습 데이터를 출력하는 학습 데이터 모듈; 학습 데이터에 포함된 3D 무기 객체의 유형에 기초하여 각도, 원근 및 방향이 상이한 복수의 2D 무기 객체 이미지를 생성하고, 생성된 복수의 2D 무기 객체 이미지와 하나 이상의 배경 이미지 및 디지털 노이즈를 합성하여 학습 이미지를 생성하는 학습 성능 강화 모듈; 및 생성된 학습 이미지를 신경망 모델부 및 신경망 연산 프레임워크에서 제공된 신경망 모델 및 신경망 연산에 따라 패턴 학습 및 무기 객체의 인식하는 머신 러닝을 수행하는 고속 클러스터 컴퓨팅 모듈을 포함할 수 있다.In the case of Patent Document 1, it relates to an apparatus and method for enhancing the learning performance of machine learning that can improve and strengthen the learning performance of machine learning by generating diverse and robust learning images through image synthesis, and includes at least one A learning data module that outputs training data of a 3D CAD model containing weapon objects; Based on the type of 3D weapon object included in the learning data, multiple 2D weapon object images with different angles, perspectives, and directions are generated, and learning is performed by combining the multiple generated 2D weapon object images with one or more background images and digital noise. a learning performance enhancement module that generates images; And it may include a high-speed cluster computing module that performs machine learning for pattern learning and recognition of weapon objects on the generated learning image according to the neural network model and neural network operation provided by the neural network model unit and the neural network operation framework.

또 다른 특허문헌으로는 "게임 엔진 기반의 머신 러닝 학습이미지 생성 장치 및 방법(등록번호 제10-1947650호, 이하 특허문헌2라 한다. )"이 존재한다. Another patent document is “Game engine-based machine learning learning image generation device and method (Registration No. 10-1947650, hereinafter referred to as Patent Document 2).”

특허문헌 2의 경우, 다양한 게임 관련 이미지를 생성하여 머신 러닝 프로세스의 학습 성능을 강화할 수 있는 게임 엔진 기반의 머신 러닝 학습이미지 생성 장치 및 방법에 관한 것으로, 적어도 하나의 게임 객체가 포함된 CAD 기반의 학습 데이터를 출력하는 학습 데이터 모듈; 및 CAD 기반의 학습 데이터를 신경망 모델부 및 신경망 연산 프레임워크에서 제공된 신경망 모델 및 신경망 연산에 따라 패턴 학습 및 게임 객체의 인식하는 머신 러닝을 수행하는 고속 클러스터 컴퓨팅 모듈; 및 학습 데이터 모듈와 고속 클러스터 컴퓨팅 모듈사이에 구비되어, CAD 기반의 학습 데이터에 포함된 복수의 3D CAD 모델을 검출하여, 검출된 복수의 3D CAD 모델에 환경 모사 이미지와 데이터 증강 이미지를 합성하여 머신 러닝에 사용될 복수의 2D 학습 이미지를 생성하는 게임 엔진 적용모듈을 포함할 수 있다.In the case of Patent Document 2, it relates to a game engine-based machine learning learning image generation device and method that can enhance the learning performance of the machine learning process by generating various game-related images, and is a CAD-based device containing at least one game object. A learning data module that outputs learning data; and a high-speed cluster computing module that performs machine learning to learn patterns and recognize game objects using CAD-based learning data according to the neural network model and neural network operation provided by the neural network model unit and neural network operation framework; And it is provided between the learning data module and the high-speed cluster computing module, detects a plurality of 3D CAD models included in the CAD-based learning data, and synthesizes the environment simulation image and data augmented image with the detected plurality of 3D CAD models for machine learning. It may include a game engine application module that generates a plurality of 2D learning images to be used.

영상인식을 위한 자동 학습 방법에 대한 특허문헌으로서, "자동학습 관리장치 및 방법(공개번호 제10-2020-0064044호, 이하 특허문헌3이라 한다. )"이 존재한다. As a patent document on an automatic learning method for image recognition, there is "Automatic Learning Management Device and Method (Publication No. 10-2020-0064044, hereinafter referred to as Patent Document 3.)".

특허문헌 3의 경우, 사용자 단말기로부터의 학습명령에 따라 영상인식(image recognition)을 위한 학습모델(learning model)의 학습 요청신호를 학습서버(learning server)로 요청하고, 학습서버로부터 학습 요청신호에 대응한 학습결과를 입력받고, 입력된 학습결과를 등록하고, 학습된 학습모델에 대한 평가를 빌드서버(build server)에 요청하고, 빌드서버로부터 평가결과를 제공받는 평가 요청하고, 평가결과를 등록하여 평가결과에 따라 부족한 데이터에 대한 선별요청신호 및 합성영상(composite image) 생성신호를 출력하여 학습모델의 학습이 반복적으로 수행되도록 동작하는 학습수단을 포함하는 것을 특징으로 한다.In the case of Patent Document 3, a learning request signal for a learning model for image recognition is requested from the learning server according to a learning command from the user terminal, and a learning request signal is received from the learning server. Receive the corresponding learning results, register the input learning results, request evaluation of the learned learning model from the build server, request evaluation to receive evaluation results from the build server, and register the evaluation results. Accordingly, it is characterized by including a learning means that operates to repeatedly perform learning of the learning model by outputting a selection request signal and a composite image generation signal for insufficient data according to the evaluation results.

특허문헌 3의 경우, 일반적인 합성 영상을 반복적으로 수행하도록 하는 것으로 출력된 합성 데이터는 환경의 다양성, 변동성, 균일성에 대한 데이터를 생성하는 내용에 대하여 언급하지 않고 있으며, 특허문헌 1 내지 2의 경우, 차량 기반의 합성 데이터 생성을 목적으로 하지 않기에 차량 모델에 대한 실시간 인식 및 범죄 예방, 추적을 목적으로 하는 합성 데이터의 생성에 대한 내용이 부족하다. In the case of Patent Document 3, the synthesized data output by repeatedly performing a general composite image does not mention the content of generating data on the diversity, variability, and uniformity of the environment, and in the case of Patent Documents 1 and 2, Since it is not intended to generate vehicle-based synthetic data, there is a lack of information on the creation of synthetic data for the purpose of real-time recognition of vehicle models and crime prevention and tracking.

공개번호 제10-2019-0054782호Publication number 10-2019-0054782 등록번호 제10-1947650호Registration number 10-1947650 공개번호 제10-2020-0064044호Publication number 10-2020-0064044

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템은 상기한 바와 같은 종래 문제점을 해결하기 위해 안출된 것으로서, 다음과 같은 해결하고자 하는 과제를 제시한다.The background data generation system for AI learning for object discrimination in virtual space according to the present invention was designed to solve the conventional problems described above, and presents the following problems to be solved.

첫째, 차량 3D 모델과 배경 이미지를 자동 합성하여 고품질의 방대한 차량기반 합성 데이터를 생성한다. First, it automatically synthesizes vehicle 3D models and background images to generate high-quality, massive vehicle-based synthetic data.

둘째, 주행 또는 차량 모델을 분류하는 AI모델 개발 및 AI성능 평가를 통하여 합성데이터의 적합성을 검증하고자 한다. Second, we aim to verify the suitability of synthetic data by developing an AI model that classifies driving or vehicle models and evaluating AI performance.

셋째, 차량 3D 모델 데이터를 입력 받아 합성데이터와 레이블링 데이터로 출력하고자 한다. Third, we want to receive vehicle 3D model data and output it as synthetic data and labeling data.

넷째, 출력된 합성 및 레이블링 데이터셋의 정보를 기반으로 메타 데이터를 생성하며, 통계/분석 및 시각화를 하여 합성데이터의 다양성, 변동성, 균일성에 대한 품질검사를 수행하고자 한다. Fourth, we intend to generate metadata based on the information of the output synthetic and labeling datasets, and conduct quality checks on the diversity, variability, and uniformity of the synthetic data through statistics/analysis and visualization.

본 발명의 해결 과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템은 상기의 해결하고자 하는 과제를 위하여 다음과 같은 과제 해결 수단을 가진다.The background data generation system for AI learning for object discrimination in virtual space according to the present invention has the following means for solving the problems described above.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템은 미리 설정된 가상의 공간에 제공되어 상기 미리 설정된 가상의 공간을 구성하는 스페이스 셋팅 유닛(space setting unit); 상기 스페이스 셋팅 유닛의 상기 미리 설정된 가상의 공간 정보를 수신하여, 상기 미리 설정된 가상의 공간 상에 오버래핑하며, 상기 미리 설정된 가상의 공간에 선택적 변수를 제공하는 파라미터 유닛(parameter unit); 및 오브젝트로 형성되어, 상기 미리 설정된 가상의 공간 상에 제공되며, 상기 스페이스 셋팅 유닛과 상기 파라미터 유닛으로부터 제공되는 상기 미리 설정된 가상의 공간과 상기 선택적 변수를 인식하는 에센셜 유닛(essential unit)을 포함하는 것을 특징으로 할 수 있다. The background data generation system for AI learning for object discrimination in virtual space according to the present invention includes a space setting unit provided in a preset virtual space and configuring the preset virtual space; a parameter unit that receives the preset virtual space information of the space setting unit, overlaps it on the preset virtual space, and provides optional variables to the preset virtual space; and an essential unit formed as an object, provided in the preset virtual space, and recognizing the preset virtual space and the optional variable provided from the space setting unit and the parameter unit. It can be characterized as:

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 상기 스페이스 셋팅 유닛은, 상기 미리 설정된 가상 공간에 대한 백그라운드 데이터를 형성하는 백그라운드 데이터 생성부; 및 상기 미리 설정된 가상의 공간의 3차원 볼륨 정보에 기초하여 상기 오브젝트와 상기 백그라운드 데이터를 재구성하는 볼륨 재구성부를 포함하는 것을 특징으로 할 수 있다. The space setting unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention includes a background data generator that forms background data for the preset virtual space; and a volume reconstruction unit that reconstructs the object and the background data based on 3D volume information of the preset virtual space.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 상기 파라미터 유닛은, 상기 선택적 변수를 제공하는 노이즈를 생성하는 파라미터 생성부; 및 상기 미리 설정된 가상의 공간 상에 상기 노이즈를 오버래핑하여, 상기 미리 설정된 가상의 공간 상에 시각적 혹은 물리적인 상기 선택적 변수를 제공하는 파라미터 제공부를 포함하는 것을 특징으로 할 수 있다. The parameter unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention includes: a parameter generator for generating noise providing the optional variable; and a parameter providing unit that overlaps the noise on the preset virtual space and provides the visual or physical optional variable on the preset virtual space.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 상기 파라미터 생성부는, 상기 미리 설정된 가상의 영역 내에 임의의 외부 객체에 대한 노이즈 정보를 제공하여 랜덤 데이터를 형성하는 객체 노이즈 생성부; 및 상기 미리 설정된 가상의 공간 상에 임의의 환경에 대한 노이즈 정보를 제공하여 랜덤 데이터를 형성하는 환경 노이즈 생성부를 포함하는 것을 특징으로 할 수 있다. The parameter generator of the background data generation system for AI learning for object discrimination in virtual space according to the present invention includes an object noise generator that forms random data by providing noise information about an arbitrary external object within the preset virtual area; and an environmental noise generator that generates random data by providing noise information about an arbitrary environment in the preset virtual space.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 상기 파라미터 유닛은, 상기 미리 설정된 공간에 제공된 상기 백그라운드 데이터와 상기 임의의 환경에 대한 노이즈 정보를 오버래핑하여 상기 오브젝트에게 제공하되, 상기 미리 설정된 가상의 공간은, 상기 임의의 환경에 대한 노이즈 정보에 의하여 선택적으로 물리적인 변화를 제공하는 것을 특징으로 할 수 있다. The parameter unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention overlaps the background data provided in the preset space and noise information for the arbitrary environment and provides the object to the object, A preset virtual space may be characterized by selectively providing physical changes based on noise information about the arbitrary environment.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 상기 파라미터 유닛은, 상기 미리 설정된 공간에 제공된 상기 백그라운드 데이터와 임의의 외부 객체에 대한 노이즈 정보를 오버래핑하여 상기 오브젝트에게 제공하되, 상기 미리 설정된 가상의 공간은, 상기 임의의 외부 객체에 대한 노이즈 정보에 의하여 선택적으로 물리적인 변화를 제공하는 것을 특징으로 할 수 있다. The parameter unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention overlaps the background data provided in the preset space and noise information about an arbitrary external object and provides the object to the object, The preset virtual space may be characterized by selectively providing physical changes based on noise information about the arbitrary external object.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 상기 에센셜 유닛은, 상기 오브젝트를 상기 스페이스 셋팅 유닛에 렌더링하는 오브젝트 렌더링부를 포함하는 것을 특징으로 할 수 있다. The essential unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention may be characterized as including an object rendering unit that renders the object to the space setting unit.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 상기 에센셜 유닛은, 상기 오브젝트의 움직임 크기 및 위치에 근거하여 오브젝트를 레이블링하는 레이블링부를 더 포함하는 것을 특징으로 할 수 있다. The essential unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention may further include a labeling unit that labels the object based on the movement size and position of the object.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 상기 에센셜 유닛은, 상기 오브젝트를 인식하여, 상기 오브젝트의 부위 정보를 분석하고 추출하는 정보 추출부; 상기 오브젝트의 부위 정보를 수신하여, 미리 결정된 특정 부위 정보를 확대 및 증폭하는 정보 증폭부; 및 상기 미리 결정된 특정 부위 정보를 미리 저장된 정보와의 매칭을 통해 상기 오브젝트를 확인하는 정보 확인부를 포함하는 것을 특징으로 할 수 있다. The essential unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention includes an information extraction unit that recognizes the object, analyzes and extracts information on the part of the object; an information amplification unit that receives information on a part of the object and enlarges and amplifies information on a predetermined specific part; and an information confirmation unit that confirms the object by matching the predetermined specific part information with pre-stored information.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 상기 정보 확인부는, 상기 오브젝트의 부위 정보 중 적어도 하나 이상을 특정 부위 정보로 결정하고, 결정된 특정 부위 정보에 대한 패턴을 분석하여 상기 오브젝트에 대한 크기와 움직임을 예측하는 것을 특징으로 할 수 있다. The information confirmation unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention determines at least one of the part information of the object as specific part information, analyzes the pattern for the determined specific part information, and It may be characterized by predicting the size and movement of the object.

이상과 같은 구성의 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템은 다음과 같은 효과를 제공한다.The background data generation system for AI learning for object discrimination in virtual space according to the present invention configured as described above provides the following effects.

첫째, 합성데이터의 다양한 데이터 제공을 위하여 노이즈 데이터와 배경 데이터를 오버래핑하도록 한다.First, to provide a variety of synthetic data, noise data and background data are overlapped.

둘째, 메타데이터의 생성을 통하여 다양성, 변동성, 균일성에 대한 합성 데이터의 품질을 제공하고자 한다. Second, we aim to provide the quality of synthetic data in terms of diversity, variability, and uniformity through the creation of metadata.

셋째, 차량 모델을 특정 부위로 인식하고, 특정 부위에 대한 증폭을 통하여 다양한 차량 모델에 대한 분류가 가능하도록 한다. Third, the vehicle model is recognized as a specific part, and classification of various vehicle models is possible through amplification of the specific part.

본 발명의 효과는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 각 구성을 통해 오브젝트와 배경 데이터가 형성된 것을 도시한 개념도이다.
도2는 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 각 유닛을 도시한 블록도이다.
도3은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 파라미터 유닛 중 객체 노이즈 생성부를 통하여 노이즈가 생성되고, 파라미터 제공부를 통해 백그라운드 데이터에 노이즈가 제공되는 것을 도시한 것이다.
도4는 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 파라미터 유닛 중 환경 노이즈 생성부를 통하여 노이즈가 생성되고, 파라미터 제공부를 통해 백그라운드 데이터에 노이즈가 제공되는 것을 도시한 것이다.
도5는 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 정보 추출부를 통해 오브젝트의 정보가 추출되는 것을 도시한 것이다.
도6은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 정보 증폭부를 통해 오브젝트의 미리 결정된 특정 부위 정보가 확대 및 증폭되고 특정 부위 정보 중 헤드라이트에 대한 패턴을 파악하는 것을 도시한 것이다.
도7은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 정보 증폭부를 통해 오브젝트의 미리 결정된 특정 부위 정보가 확대 및 증폭되고 특정 부위 정보 중 라디에이터 그릴에 대한 패턴을 파악하는 것을 도시한 것이다.
도8은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 정보 증폭부를 통해 오브젝트의 미리 결정된 특정 부위 정보가 확대 및 증폭되고 특정 부위 정보 중 오브젝트의 쉐잎(shape)에 대한 패턴을 파악하는 것을 도시한 것이다.
도9는 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 스페이스 셋팅 유닛의 각 하위 구성을 도시한 블록도이다.
도10은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 파라미터 유닛의 하위구성을 도시한 블록도이다.
도11은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 에센셜 유닛의 하위구성을 도시한 블록도이다.
Figure 1 is a conceptual diagram showing the formation of objects and background data through each configuration of the background data generation system for AI learning for object discrimination in virtual space according to the present invention.
Figure 2 is a block diagram showing each unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention.
Figure 3 shows that noise is generated through the object noise generator among the parameter units of the background data generation system for AI learning for object discrimination in virtual space according to the present invention, and noise is provided to the background data through the parameter provider.
Figure 4 shows that among the parameter units of the background data generation system for AI learning for object discrimination in virtual space according to the present invention, noise is generated through the environmental noise generator and noise is provided to the background data through the parameter provider.
Figure 5 shows object information being extracted through the information extraction unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention.
Figure 6 shows that the information on a predetermined specific part of the object is enlarged and amplified through the information amplification unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention, and the pattern for the headlight is identified among the specific part information. It was done.
Figure 7 shows that information on a predetermined specific part of an object is enlarged and amplified through the information amplification unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention, and that the pattern for the radiator grill is identified among the specific part information. It was done.
Figure 8 shows that information on a predetermined specific part of an object is enlarged and amplified through the information amplification unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention, and a pattern for the shape of the object among the specific part information is shown. It shows what to understand.
Figure 9 is a block diagram showing each sub-configuration of the space setting unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention.
Figure 10 is a block diagram showing the sub-configuration of the parameter unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention.
Figure 11 is a block diagram showing the sub-configuration of essential units of the background data generation system for AI learning for object discrimination in virtual space according to the present invention.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 기술적 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. The background data generation system for AI learning for object discrimination in virtual space according to the present invention can make various changes and have several embodiments. Specific embodiments will be illustrated in the drawings and explained in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the technical spirit and scope of the present invention.

도 1은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 각 구성을 통해 오브젝트와 배경 데이터가 형성된 것을 도시한 개념도이다. 도2는 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 각 유닛을 도시한 블록도이다. 도3은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 파라미터 유닛 중 객체 노이즈 생성부를 통하여 노이즈가 생성되고, 파라미터 제공부를 통해 백그라운드 데이터에 노이즈가 제공되는 것을 도시한 것이다. 도4는 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 파라미터 유닛 중 환경 노이즈 생성부를 통하여 노이즈가 생성되고, 파라미터 제공부를 통해 백그라운드 데이터에 노이즈가 제공되는 것을 도시한 것이다. 도5는 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 정보 추출부를 통해 오브젝트의 정보가 추출되는 것을 도시한 것이다. 도6은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 정보 증폭부를 통해 오브젝트의 미리 결정된 특정 부위 정보가 확대 및 증폭되고 특정 부위 정보 중 헤드라이트에 대한 패턴을 파악하는 것을 도시한 것이다. 도7은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 정보 증폭부를 통해 오브젝트의 미리 결정된 특정 부위 정보가 확대 및 증폭되고 특정 부위 정보 중 라디에이터 그릴에 대한 패턴을 파악하는 것을 도시한 것이다. 도8은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 정보 증폭부를 통해 오브젝트의 미리 결정된 특정 부위 정보가 확대 및 증폭되고 특정 부위 정보 중 오브젝트의 쉐잎(shape)에 대한 패턴을 파악하는 것을 도시한 것이다. 도9는 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 스페이스 셋팅 유닛의 각 하위 구성을 도시한 블록도이다. 도10은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 파라미터 유닛의 하위구성을 도시한 블록도이다. 도11은 본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 에센셜 유닛의 하위구성을 도시한 블록도이다. Figure 1 is a conceptual diagram showing the formation of objects and background data through each configuration of the background data generation system for AI learning for object discrimination in virtual space according to the present invention. Figure 2 is a block diagram showing each unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention. Figure 3 shows that noise is generated through the object noise generator among the parameter units of the background data generation system for AI learning for object discrimination in virtual space according to the present invention, and noise is provided to the background data through the parameter provider. Figure 4 shows that among the parameter units of the background data generation system for AI learning for object discrimination in virtual space according to the present invention, noise is generated through the environmental noise generator and noise is provided to the background data through the parameter provider. Figure 5 shows object information being extracted through the information extraction unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention. Figure 6 shows that the information on a predetermined specific part of the object is enlarged and amplified through the information amplification unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention, and the pattern for the headlight is identified among the specific part information. It was done. Figure 7 shows that information on a predetermined specific part of an object is enlarged and amplified through the information amplification unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention, and that the pattern for the radiator grill is identified among the specific part information. It was done. Figure 8 shows that information on a predetermined specific part of an object is enlarged and amplified through the information amplification unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention, and a pattern for the shape of the object among the specific part information is shown. It shows what to understand. Figure 9 is a block diagram showing each sub-configuration of the space setting unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention. Figure 10 is a block diagram showing the sub-configuration of the parameter unit of the background data generation system for AI learning for object discrimination in virtual space according to the present invention. Figure 11 is a block diagram showing the sub-configuration of essential units of the background data generation system for AI learning for object discrimination in virtual space according to the present invention.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템은 스페이스 셋팅 유닛(space setting unit, 100), 파라미터 유닛(parameter unit, 200), 에센셜 유닛(essential unit, 300)을 포함한다. The background data generation system for AI learning for object discrimination in virtual space according to the present invention includes a space setting unit (100), a parameter unit (200), and an essential unit (300).

먼저, 스페이스 셋팅 유닛(100)의 경우, 미리 설정된 가상의 공간에 제공되어 미리 설정된 가상의 공간을 구성할 수 있다. First, in the case of the space setting unit 100, it is provided in a preset virtual space to configure a preset virtual space.

스페이스 셋팅 유닛(100)의 경우, 가상의 공간에 3차원(3D)의 공간을 형성할 수 있다. In the case of the space setting unit 100, a three-dimensional (3D) space can be formed in a virtual space.

파라미터 유닛(200)의 경우, 스페이스 셋팅 유닛(100)의 미리 설정된 가상의 공간 정보를 수신하여, 미리 설정된 가상의 공간 상에 오버래핑(overlapping)하며, 미리 설정된 가상의 공간에 선택적 변수를 제공할 수 있다. In the case of the parameter unit 200, it is possible to receive preset virtual space information of the space setting unit 100, overlap on the preset virtual space, and provide optional variables to the preset virtual space. there is.

파라미터 유닛(200)은 스페이스 셋팅 유닛(100)에서 형성된 3차원 공간을 기초하여 환경 또는 객체를 추가하여 선택적인 변수를 제공할 수 있다. The parameter unit 200 may provide optional variables by adding an environment or object based on the three-dimensional space formed in the space setting unit 100.

스페이스 셋팅 유닛(100)은 실제 환경과 유사한 공간을 미리 설정된 가상의 공간에 형성하며, 파라미터 유닛(200)은 공간 상에서의 물리적 환경 변화를 제공할 수 있다. The space setting unit 100 forms a space similar to a real environment in a preset virtual space, and the parameter unit 200 can provide changes to the physical environment in the space.

예컨대, 파라미터 유닛(200)의 경우, 공간 상에 비, 눈, 안개, 구름과 같은 효과를 제공하는 것으로, 파라미터 유닛(200)에서 제공되는 효과는 미리 설정된 가상의 공간에 선택적 변수로 제공되어질 수 있다. For example, in the case of the parameter unit 200, effects such as rain, snow, fog, and clouds are provided in space, and the effects provided by the parameter unit 200 can be provided as optional variables in a preset virtual space. there is.

여기서 파라미터 유닛(200)에 대한 선택적 변수를 형성하는 것에 대한 내용은 후술하기로 한다. Here, details on forming optional variables for the parameter unit 200 will be described later.

에센셜 유닛(300)의 경우, 오브젝트(1)로 형성되어, 미리 설정된 가상의 공간 상에 제공되며, 스페이스 셋팅 유닛(100)과 파라미터 유닛(200)으로부터 제공되는 미리 설정된 가상의 공간과 선택적 변수를 인식할 수 있다. In the case of the essential unit 300, it is formed as an object 1 and is provided in a preset virtual space, and includes a preset virtual space and optional variables provided from the space setting unit 100 and the parameter unit 200. It can be recognized.

도 1에 도시된 바와 같이, 스페이스 셋팅 유닛(100)과 파라미터 유닛(200)은 에센셜 유닛(300)의 오브젝트(1)가 학습할 환경에 대한 데이터를 제공하는 것이다. As shown in FIG. 1, the space setting unit 100 and the parameter unit 200 provide data about the environment in which the object 1 of the essential unit 300 will learn.

에센셜 유닛(300)은 스페이스 셋팅 유닛(100)과 파라미터 유닛(200)이 제공하는 3차원의 미리 설정된 가상의 공간 상에 제공되며, 주어지는 배경과 환경 조건을 인식함으로 가상의 공간 상에서 다양한 조건과 환경을 제공받을 수 있다. The essential unit 300 is provided in a three-dimensional preset virtual space provided by the space setting unit 100 and the parameter unit 200, and recognizes the given background and environmental conditions to create various conditions and environments in the virtual space. can be provided.

또한, 에센셜 유닛(300)의 오브젝트(1)는 미리 설정된 가상의 공간 상에서 다양한 각도, 방향으로 동작하고 이동할 수 있다. Additionally, the object 1 of the essential unit 300 can operate and move at various angles and directions in a preset virtual space.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 스페이스 셋팅 유닛(100)은, 백그라운드 데이터 생성부(110) 및 볼륨 재구성부(120)를 포함할 수 있다. The space setting unit 100 of the background data generation system for AI learning for object discrimination in virtual space according to the present invention may include a background data generation unit 110 and a volume reconstruction unit 120.

백그라운드 데이터 생성부(110)의 경우, 미리 설정된 가상 공간에 대한 백그라운드 데이터를 형성할 수 있다. In the case of the background data generator 110, background data for a preset virtual space can be formed.

백그라운드 데이터(background data)는 물리적 환경을 구현하기 위한 배경적인 환경을 제공하는 데이터에 해당할 수 있다. Background data may correspond to data that provides a background environment for implementing a physical environment.

예컨대, 백그라운드 데이터 생성부(110)는 가상 공간에서 형성된 특정한 환경을 생성하는 것으로, 실제와 유사한 공간적, 시간적 공간(space)을 제공할 수 있는 것이다. For example, the background data generator 110 creates a specific environment created in a virtual space and can provide a spatial and temporal space similar to reality.

볼륨 재구성부(120)의 경우, 미리 설정된 가상의 공간의 3차원 볼륨(volume) 정보에 기초하여 오브젝트(1)와 백그라운드 데이터를 재구성할 수 있다. In the case of the volume reconstruction unit 120, the object 1 and background data can be reconstructed based on 3D volume information of a preset virtual space.

볼륨 재구성부(120)는 에센셜 유닛(300)의 오브젝트(1)가 스페이스 셋팅 유닛(100)이 형성된 미리 설정된 가상의 공간에 제공되는 경우, 미리 설정된 가상의 공간에 대한 3차원 볼륨 정보에 기초하여, 오브젝트(1)의 3차원 볼륨 정보와 미리 설정된 가상의 공간에 대한 3차원 볼륨 정보를 재구성할 수 있다. When the object 1 of the essential unit 300 is provided in a preset virtual space where the space setting unit 100 is formed, the volume reconstruction unit 120 provides 3D volume information about the preset virtual space. , 3D volume information of the object 1 and 3D volume information of a preset virtual space can be reconstructed.

볼륨 재구성부(120)는 미리 설정된 가상의 공간 상에 오브젝트(1)가 제공되는 경우, 미리 설정된 가상의 공간에 매칭되도록 오브젝트(1)를 가상의 공간 상에 제공하는 것으로, 미리 설정된 가상의 공간에 대한 백그라운드 데이터의 크기, 볼륨과 오브젝트(1)의 크기(size), 볼륨이 매칭되도록 하는 것이다. When the object 1 is provided in a preset virtual space, the volume reconstruction unit 120 provides the object 1 in the virtual space to match the preset virtual space. The size of the background data, volume and object (1) size (size) and volume are matched.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 파라미터 유닛(200)은 도 10의 블록도와 같이, 파라미터 생성부(210), 파라미터 제공부(220)를 포함할 수 있다. The parameter unit 200 of the background data generation system for AI learning for object discrimination in virtual space according to the present invention may include a parameter generator 210 and a parameter provider 220, as shown in the block diagram of FIG. 10.

파라미터 생성부(210)는, 선택적 변수를 제공하는 노이즈(noise)를 생성할 수 있다. The parameter generator 210 may generate noise that provides optional variables.

파라미터 생성부(210)의 경우, 노이즈를 생성하는 것으로, 노이즈의 경우, 가상의 3차원 공간 상에 공간적, 시간적으로 제공되는 것으로, 가상의 상황을 구현하도록 하는 시뮬레이션 상황을 제공하는 것에 해당할 수 있다. In the case of the parameter generator 210, noise is generated, and noise is provided spatially and temporally in a virtual three-dimensional space, which may correspond to providing a simulation situation to implement a virtual situation. there is.

예컨대, 노이즈의 경우, 현실을 반영하여 노이즈가 제공될 수도 있으나, 가상의 상황을 생성할 수도 있다. For example, in the case of noise, noise may be provided to reflect reality, but may also create a virtual situation.

파라미터 제공부(220)는 미리 설정된 가상의 공간 상에 노이즈를 오버래핑하여, 미리 설정된 가상의 공간 상에 시각적 혹은 물리적인 선택적 변수를 제공할 수 있다. The parameter provider 220 may overlap noise on a preset virtual space and provide visual or physical optional variables on the preset virtual space.

파라미터 제공부(220)의 경우, 오브젝트(1)에 선택적 변수를 제공하기 위하여 다양한 효과와 움직임을 제공할 수 있다. In the case of the parameter provider 220, various effects and movements can be provided to provide optional variables to the object 1.

파라미터 제공부(220)는 물리엔진(physics engine)을 적용하여 미리 설정된 가상의 공간 상에 노이즈를 오버래핑 할 수 있으며, 물리엔진을 통하여 현실을 반증한 물리법칙과 동일한 동작과 환경을 제공하도록 할 수 있다. The parameter provider 220 can overlap noise in a preset virtual space by applying a physics engine, and can provide the same operation and environment as the physical laws that disprove reality through the physics engine. there is.

예컨대, 물리엔진을 적용하는 경우, 소프트웨어의 적용을 통하여 미리 설정된 가상의 공간 상에 적용되도록 할 수 있으며, 종래의 언리얼 엔진(Unreal Engine) 등에서 사용하는 함수를 스페이스 셋팅 유닛(100)과 파라미터 유닛(200)에 적용하여 물리적인 움직임을 형성하도록 할 수도 있다. For example, when applying a physical engine, it can be applied on a preset virtual space through the application of software, and the functions used in the conventional Unreal Engine, etc. are divided into a space setting unit 100 and a parameter unit ( 200) can also be applied to form physical movement.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 파라미터 생성부(210)는, 객체 노이즈 생성부(211), 환경 노이즈 생성부(212)을 포함할 수 있다. The parameter generator 210 of the background data generation system for AI learning for object discrimination in virtual space according to the present invention may include an object noise generator 211 and an environmental noise generator 212.

객체 노이즈 생성부(211)의 경우, 미리 설정된 가상의 영역 내에 임의의 외부 객체에 대한 노이즈 정보를 제공하여 랜덤 데이터를 형성할 수 있다. In the case of the object noise generator 211, random data can be formed by providing noise information about an arbitrary external object within a preset virtual area.

환경 노이즈 생성부(212)의 경우, 미리 설정된 가상의 공간 상에 임의의 환경에 대한 노이즈 정보를 제공하여 랜덤 데이터를 형성할 수 있다. In the case of the environmental noise generator 212, random data can be formed by providing noise information about an arbitrary environment in a preset virtual space.

도 3 내지 도 4에 도시된 바와 같이, 객체 노이즈 생성부(211)와 환경 노이즈 생성부(212)는 각각이 객체와 환경에 대한 노이즈를 생성할 수 있다. As shown in FIGS. 3 and 4, the object noise generator 211 and the environment noise generator 212 may each generate noise for the object and the environment.

객체 노이즈 생성부(211)의 경우, 도 3에 도시된 바와 같이, 예컨대, 사람, 동물, 건물, 장애물 등과 같은 대상에 해당할 수 있다. In the case of the object noise generator 211, as shown in FIG. 3, for example, it may correspond to an object such as a person, an animal, a building, an obstacle, etc.

또한, 장애물의 경우, 지형적인 장애물 또는 인공적인 장애물에 해당할 수 있다. Additionally, obstacles may be geographical obstacles or artificial obstacles.

환경 노이즈 생성부(212)의 경우, 도 4에 도시된 바와 같이, 예컨대, 비, 구름, 눈, 지진, 태풍과 같은 자연적인 조건에 대한 상태의 노이즈를 생성할 수 있다. In the case of the environmental noise generator 212, as shown in FIG. 4, noise of natural conditions such as rain, clouds, snow, earthquakes, and typhoons can be generated.

환경 노이즈 생성부(212)의 경우, 미리 설정된 가상의 공간 상에 제공되는 광량, 광선의 변화에 대한 노이즈도 생성 가능할 수 있다. In the case of the environmental noise generator 212, it may also be possible to generate noise about changes in the amount of light or rays provided in a preset virtual space.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 파라미터 유닛(200)은, 미리 설정된 공간에 제공된 백그라운드 데이터와 임의의 환경에 대한 노이즈 정보를 오버래핑하여 오브젝트(1)에게 제공할 수 있다. The parameter unit 200 of the background data generation system for AI learning for object discrimination in virtual space according to the present invention can provide the object 1 by overlapping background data provided in a preset space and noise information about an arbitrary environment. there is.

미리 설정된 가상의 공간은, 임의의 환경에 대한 노이즈 정보에 의하여 선택적으로 물리적인 변화를 제공할 수 있다. A preset virtual space can selectively provide physical changes based on noise information about an arbitrary environment.

아울러, 파라미터 유닛(200)은, 미리 설정된 공간에 제공된 백그라운드 데이터와 임의의 외부 객체에 대한 노이즈 정보를 오버래핑하여 오브젝트(1)에게 제공할 수 있다. In addition, the parameter unit 200 may provide the object 1 by overlapping background data provided in a preset space and noise information about an arbitrary external object.

미리 설정된 가상의 공간은, 임의의 외부 객체에 대한 노이즈 정보에 의하여 선택적으로 물리적인 변화를 제공할 수 있다. A preset virtual space can selectively provide physical changes based on noise information about arbitrary external objects.

도 3 내지 도 4에 도시된 바와 같이, 객체 노이즈 생성부(211)와 환경 노이즈 생성부(212)에서 생성된 노이즈가 파라미터 제공부(220)를 통하여 미리 설정된 가상의 공간 상에 제공되는 것이며, 미리 설정된 가상의 공간 상의 백그라운드 데이터에 오버래핑되어 노이즈가 형성될 수 있다. As shown in FIGS. 3 and 4, the noise generated by the object noise generator 211 and the environment noise generator 212 is provided in a preset virtual space through the parameter provider 220, Noise may be formed by overlapping background data in a preset virtual space.

예컨대, 환경 노이즈 생성부(212)에서 생성된 노이즈가 눈에 해당하는 경우, 파라미터 제공부(220)를 통하여 백그라운드 데이터 상에 환경으로 제공되어 눈이 오는 미리 설정된 가상의 공간을 형성할 수 있는 것이다. For example, if the noise generated by the environmental noise generator 212 corresponds to snow, it can be provided as an environment on the background data through the parameter provider 220 to form a preset virtual space where it snows. .

객체 노이즈 생성부(211)의 경우도 예컨대, 객체 노이즈 생성부(211)에서 생성된 노이즈가 개(동물)에 해당하는 경우, 백그라운드 데이터 상에 객체로서 제공되어 동작하는 개가 미리 설정된 가상의 공간에 형성되는 것이다. In the case of the object noise generator 211, for example, if the noise generated by the object noise generator 211 corresponds to a dog (animal), the dog that is provided as an object on the background data and operates is located in a preset virtual space. It is formed.

이러한, 환경 노이즈 생성부(212)와 객체 노이즈 생성부(211)를 통하여 생성된 노이즈는 파라미터 제공부(220)를 통하여 미리 설정된 가상의 공간 상에 임의의 환경과 변수를 제공하며, 선택적으로 물리적인 변화를 제공할 수 있다. The noise generated through the environmental noise generator 212 and the object noise generator 211 provides random environments and variables in a preset virtual space through the parameter provider 220, and optionally provides physical can provide change.

에센셜 유닛(300)은 오브젝트 렌더링부(310)을 더 포함할 수 있다. The essential unit 300 may further include an object rendering unit 310.

오브젝트 렌더링(object rendering)부(310)의 경우, 오브젝트(1)를 스페이스 셋팅 유닛(100)의 미리 설정된 가상의 공간 상에 렌더링(rendering)할 수 있다. In the case of the object rendering unit 310, the object 1 may be rendered on a preset virtual space of the space setting unit 100.

에센셜 유닛(300)은, 레이블링(labelling)부(320)를 더 포함할 수 있다. The essential unit 300 may further include a labeling unit 320.

레이블링부(320)의 경우, 오브젝트(1)의 움직임 크기 및 위치에 근거하여 오브젝트(1)를 레이블링할 수 있다. In the case of the labeling unit 320, the object 1 can be labeled based on the movement size and position of the object 1.

오브젝트(1)에 대한 레이블링을 위하여 오브젝트(1)의 움직임과 위치를 확인하고 오브젝트(1)의 움직임 크기와 위치에 근거하여 오브젝트(1)를 레이블링 할 수도 있다. To label the object 1, the movement and position of the object 1 can be checked and the object 1 can be labeled based on the movement size and position of the object 1.

또한, 오브젝트(1)에 대한 레이블링 위하여 오브젝트(1)에 대한 부위 정보의 인식을 통하여 오브젝트(1)의 레이블링이 가능하도록 할 수도 있다. Additionally, in order to label the object 1, labeling of the object 1 may be possible through recognition of part information about the object 1.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 에센셜 유닛(300)은, 도 11의 블록도에 도시된 바와 같이, 정보 추출부(330), 정보 증폭부(340), 정보 확인부(350)를 더 포함할 수 있다. The essential unit 300 of the background data generation system for AI learning for object discrimination in virtual space according to the present invention includes an information extraction unit 330, an information amplification unit 340, and an information extraction unit 330, as shown in the block diagram of FIG. 11. It may further include a confirmation unit 350.

먼저, 정보 추출부(330)의 경우, 오브젝트(1)를 인식하여, 오브젝트(1)의 부위 정보를 분석하고 추출할 수 있다. First, the information extraction unit 330 can recognize the object 1 and analyze and extract information on parts of the object 1.

정보 추출부는(330)는 오브젝트(1)에 대한 쉐잎(shape), 윤곽, 헤드라이트(headlight), 공기흡입구, 안개등에 대한 각 부위별 정보를 추출할 수 있다. The information extraction unit 330 can extract information for each part of the object 1, such as shape, outline, headlight, air intake, and fog lamp.

아울러, 정보 추출부(330)는 오브젝트(1)에 대한 전체적인 아우라, 오브젝트(1)의 전체적인 길이, 오브젝트(1)의 전체적인 둥글고 각진 정도에 대한 정보를 추출할 수도 있다. In addition, the information extraction unit 330 may extract information about the overall aura of the object 1, the overall length of the object 1, and the overall roundness and angularity of the object 1.

이러한 오브젝트(1)에 대한 전체적인 정보는 부위별 정보에 대하여 하나 또는 그 이상을 포함할 수도 있다. The overall information about the object 1 may include one or more pieces of information for each part.

정보 증폭부(340)의 경우, 오브젝트(1)의 부위 정보를 수신하여, 미리 결정된 특정 부위 정보를 확대 및 증폭할 수 있다. In the case of the information amplification unit 340, information on a part of the object 1 may be received, and information on a predetermined specific part may be enlarged and amplified.

도 5 내지 도 8에 도시된 바와 같이, 정보 증폭부(340)는 정보 추출부(330)를 통하여 추출된 각 부위별 정보 중 미리 결정된 특정 부위 정보를 확대 및 증폭할 수 있으며, 예컨대, 도 7에 도시된 바와 같이, 미리 결정된 특정 부위 정보가 헤드라이트로 확정하는 경우, 헤드라이트의 각 수평적 비율, 수직적 비율 그리고 헤드라이트를 구성하는 각 부위의 각도적 비율 등을 분석하고 미리 결정된 특정 부위 정보에 대한 패턴을 분석하게 된다. As shown in FIGS. 5 to 8, the information amplification unit 340 may enlarge and amplify information on a predetermined specific region among the information for each region extracted through the information extraction unit 330, for example, in FIG. 7 As shown, when the predetermined specific part information is confirmed to be a headlight, the horizontal ratio, vertical ratio, and angular ratio of each part constituting the headlight are analyzed and the predetermined specific part information is analyzed. The pattern for is analyzed.

도 8에 도시된 바와 같이, 정보 증폭부(340)는 미리 결정된 특정 부위 정보가 전면부의 라디에이터 그릴 또는 헤드라이트 사이의 전면부로 확정하는 경우, 라디에이터 그릴(또는 헤드라이트 사이의 전면부)의 수평적 비율, 수직적 비율, 각도적 비율을 분석하고 이들 정보에 대한 패턴을 분석하게 될 수 있다. As shown in FIG. 8, when the predetermined specific area information is determined to be the front radiator grill or the front part between the headlights, the information amplification unit 340 determines the horizontal area of the radiator grill (or the front part between the headlights). You may analyze proportions, vertical proportions, and angular proportions, and analyze patterns for this information.

또한, 도 9에 도시된 바와 같이, 정보 증폭부(340)는 미리 결정된 특정 부위 정보가 오브젝트(1)의 전체적인 쉐잎으로 확정하는 경우, 오브젝트(1)의 전체 길이, 수평 비율, 수직적 비율, 각도적 비율을 분석하고 이들 정보에 대한 패턴을 분석하게 될 수 있다. In addition, as shown in FIG. 9, when the information on a predetermined specific part is determined as the overall shape of the object 1, the information amplification unit 340 determines the overall length, horizontal ratio, vertical ratio, and angle of the object 1. You can analyze enemy ratios and analyze patterns for this information.

정보 증폭부(340)에서 확정하는 미리 결정된 특정 부위 정보의 경우, 미리 결정되어질 수 있는 것으로 오브젝트(1)의 패턴을 분석하기 적절한 부위로 결정될 수 있도록 한다. In the case of information on a predetermined specific part determined by the information amplification unit 340, it can be determined in advance as an appropriate part for analyzing the pattern of the object 1.

예컨대, 오브젝트(1)의 문, 사이드 미러(side mirror)의 경우, 오브젝트(1)를 분석하기 위한 적절한 부위 정보에 해당하지 않는 것일 수 있기에 오브젝트(1)를 외형으로 파악하기 적절한 헤드라이트, 라디에이터 그릴, 테일램프, 안개등과 같은 부위 정보로 결정될 수 있다. For example, in the case of the door and side mirror of object (1), they may not correspond to appropriate part information for analyzing object (1), so headlights and radiators that are appropriate for identifying object (1) by its appearance. It can be determined based on information on areas such as grills, tail lights, and fog lights.

정보 확인부(350)의 경우, 미리 결정된 특정 부위 정보를 미리 저장된 정보와의 매칭을 통해 오브젝트를 확인할 수 있다. In the case of the information confirmation unit 350, the object can be confirmed by matching predetermined specific part information with pre-stored information.

정보 확인부(350)의 경우, 정보 증폭부(340)로부터 특정 부위에 대한 정보를 수신하고 미리 저장된 정보와의 매칭을 통하여 오브젝트(1)를 확인할 수 있다. In the case of the information confirmation unit 350, information about a specific part can be received from the information amplification unit 340 and the object 1 can be confirmed through matching with pre-stored information.

본 발명에 따른 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템의 정보 확인부(350)는, 오브젝트(1)의 부위 정보 중 적어도 하나 이상을 특정 부위 정보로 결정하고, 결정된 특정 부위 정보에 대한 패턴을 분석하여 오브젝트(1)에 대한 크기와 움직임을 예측할 수 있다. The information confirmation unit 350 of the background data generation system for AI learning for object discrimination in virtual space according to the present invention determines at least one of the part information of the object 1 as specific part information, and provides information on the determined specific part information. By analyzing the pattern, the size and movement of the object (1) can be predicted.

오브젝트(1)에 대한 정보 추출과 정보의 증폭을 통하여 부위 정보를 획득한 경우, 오브젝트(1)에 대한 특정 정보의 패턴을 분석하여 오브젝트(1)에 대하여 확인할 수 있다. When part information is obtained through information extraction and amplification of information about the object (1), the object (1) can be confirmed by analyzing the pattern of specific information about the object (1).

정보 증폭부(340)는 정보 추출부(330)를 통하여 추출된 정보의 정밀도를 높이도록 할 수 있으며, 정보 확인부(350)는 정보를 확인하여 오브젝트(1)에 미리 저장된 정보와 매칭하여 오브젝트(1)에 대한 명확한 정보를 불러옴을 통하여 미리 결정된 가상의 공간 상에서 오브젝트(1)의 학습이 정확하게 이루어지도록 할 수 있다. The information amplification unit 340 can increase the precision of the information extracted through the information extraction unit 330, and the information confirmation unit 350 checks the information and matches it with the information pre-stored in the object 1 to determine the object 1. By retrieving clear information about (1), it is possible to accurately learn object (1) in a predetermined virtual space.

본 발명의 권리 범위는 특허청구범위에 기재된 사항에 의해 결정되며, 특허 청구범위에 사용된 괄호는 선택적 한정을 위해 기재된 것이 아니라, 명확한 구성요소를 위해 사용되었으며, 괄호 내의 기재도 필수적 구성요소로 해석되어야 한다.The scope of rights of the present invention is determined by the matters stated in the patent claims, and the parentheses used in the patent claims are not used for selective limitation, but are used for clear elements, and the descriptions within the parentheses are also interpreted as essential elements. It has to be.

1: 오브젝트
100: 스페이스 셋팅 유닛
110: 백그라운드 데이터 생성부
120: 볼륨 재구성부
200: 파라미터 유닛
210: 파라미터 생성부
220: 파라미터 제공부
211: 객체 노이즈 생성부
212: 환경 노이즈 생성부
300: 에센셜 유닛
310: 오브젝트 렌더링부
320: 레이블링부
330: 정보 추출부
340: 정보 증폭부
350: 정보 확인부
1: Object
100: Space setting unit
110: Background data generation unit
120: Volume reconstruction unit
200: Parameter unit
210: Parameter creation unit
220: Parameter provision unit
211: Object noise generator
212: Environmental noise generation unit
300: Essential unit
310: Object rendering unit
320: Labeling unit
330: Information extraction unit
340: Information amplification unit
350: Information confirmation unit

Claims (10)

미리 설정된 가상의 공간에 제공되어 상기 미리 설정된 가상의 공간을 구성하는 스페이스 셋팅 유닛(space setting unit);
상기 스페이스 셋팅 유닛의 상기 미리 설정된 가상의 공간 정보를 수신하여, 상기 미리 설정된 가상의 공간 상에 오버래핑하며, 상기 미리 설정된 가상의 공간에 선택적 변수를 제공하는 파라미터 유닛(parameter unit); 및
오브젝트로 형성되어, 상기 미리 설정된 가상의 공간 상에 제공되며, 상기 스페이스 셋팅 유닛과 상기 파라미터 유닛으로부터 제공되는 상기 미리 설정된 가상의 공간과 상기 선택적 변수를 인식하는 에센셜 유닛(essential unit)을 포함하는 것을 특징으로 하는, 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템.
a space setting unit provided in a preset virtual space to configure the preset virtual space;
a parameter unit that receives the preset virtual space information of the space setting unit, overlaps it on the preset virtual space, and provides optional variables to the preset virtual space; and
It is formed as an object, is provided on the preset virtual space, and includes an essential unit that recognizes the preset virtual space and the optional variable provided from the space setting unit and the parameter unit. Characterized by a background data generation system for AI learning for object identification in virtual space.
제1항에 있어서, 상기 스페이스 셋팅 유닛은,
상기 미리 설정된 가상 공간에 대한 백그라운드 데이터를 형성하는 백그라운드 데이터 생성부; 및
상기 미리 설정된 가상의 공간의 3차원 볼륨 정보에 기초하여 상기 오브젝트와 상기 백그라운드 데이터를 재구성하는 볼륨 재구성부를 포함하는 것을 특징으로 하는, 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템.
The method of claim 1, wherein the space setting unit,
a background data generator that forms background data for the preset virtual space; and
A background data generation system for AI learning for object discrimination in a virtual space, comprising a volume reconstruction unit that reconstructs the object and the background data based on the three-dimensional volume information of the preset virtual space.
제2항에 있어서, 상기 파라미터 유닛은,
상기 선택적 변수를 제공하는 노이즈를 생성하는 파라미터 생성부; 및
상기 미리 설정된 가상의 공간 상에 상기 노이즈를 오버래핑하여, 상기 미리 설정된 가상의 공간 상에 시각적 혹은 물리적인 상기 선택적 변수를 제공하는 파라미터 제공부를 포함하는 것을 특징으로 하는, 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템.
The method of claim 2, wherein the parameter unit is:
a parameter generator that generates noise providing the optional variables; and
AI learning for object discrimination in virtual space, comprising a parameter provider that overlaps the noise on the preset virtual space and provides the visual or physical optional variables on the preset virtual space. Background data generation system.
제3항에 있어서, 상기 파라미터 생성부는,
상기 미리 설정된 가상의 영역 내에 임의의 외부 객체에 대한 노이즈 정보를 제공하여 랜덤 데이터를 형성하는 객체 노이즈 생성부; 및
상기 미리 설정된 가상의 공간 상에 임의의 환경에 대한 노이즈 정보를 제공하여 랜덤 데이터를 형성하는 환경 노이즈 생성부를 포함하는 것을 특징으로 하는, 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템.
The method of claim 3, wherein the parameter generator,
an object noise generator that forms random data by providing noise information about an arbitrary external object within the preset virtual area; and
A background data generation system for AI learning for object discrimination in a virtual space, comprising an environmental noise generator that provides noise information about an arbitrary environment in the preset virtual space to form random data.
제4항에 있어서, 상기 파라미터 유닛은,
상기 미리 설정된 공간에 제공된 상기 백그라운드 데이터와 상기 임의의 환경에 대한 노이즈 정보를 오버래핑하여 상기 오브젝트에게 제공하되,
상기 미리 설정된 가상의 공간은,
상기 임의의 환경에 대한 노이즈 정보에 의하여 선택적으로 물리적인 변화를 제공하는 것을 특징으로 하는, 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템.
The method of claim 4, wherein the parameter unit is:
The background data provided in the preset space and the noise information for the random environment are overlapped and provided to the object,
The preset virtual space is,
A background data generation system for AI learning for object discrimination in virtual space, characterized in that it selectively provides physical changes based on noise information about the arbitrary environment.
제5항에 있어서, 상기 파라미터 유닛은,
상기 미리 설정된 공간에 제공된 상기 백그라운드 데이터와 임의의 외부 객체에 대한 노이즈 정보를 오버래핑하여 상기 오브젝트에게 제공하되,
상기 미리 설정된 가상의 공간은,
상기 임의의 외부 객체에 대한 노이즈 정보에 의하여 선택적으로 물리적인 변화를 제공하는 것을 특징으로 하는, 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템.
The method of claim 5, wherein the parameter unit is:
The background data provided in the preset space and noise information about an arbitrary external object are overlapped and provided to the object,
The preset virtual space is,
A background data generation system for AI learning for object discrimination in virtual space, characterized in that it selectively provides physical changes based on noise information about the arbitrary external object.
제1항에 있어서, 상기 에센셜 유닛은,
상기 오브젝트를 상기 스페이스 셋팅 유닛에 렌더링(rendering)하는 오브젝트 렌더링부를 포함하는 것을 특징으로 하는, 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템.
The method of claim 1, wherein the essential unit is:
A background data generation system for AI learning for object discrimination in virtual space, comprising an object rendering unit that renders the object to the space setting unit.
제7항에 있어서, 상기 에센셜 유닛은,
상기 오브젝트의 움직임 크기 및 위치에 근거하여 오브젝트를 레이블링하는 레이블링부를 더 포함하는 것을 특징으로 하는, 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템.
The method of claim 7, wherein the essential unit is:
A background data generation system for AI learning for object discrimination in virtual space, further comprising a labeling unit that labels the object based on the movement size and position of the object.
제8항에 있어서, 상기 에센셜 유닛은,
상기 오브젝트를 인식하여, 상기 오브젝트의 부위 정보를 분석하고 추출하는 정보 추출부;
상기 오브젝트의 부위 정보를 수신하여, 미리 결정된 특정 부위 정보를 확대 및 증폭하는 정보 증폭부; 및
상기 미리 결정된 특정 부위 정보를 미리 저장된 정보와의 매칭을 통해 상기 오브젝트를 확인하는 정보 확인부를 포함하는 것을 특징으로 하는, 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템.
The method of claim 8, wherein the essential unit is:
an information extraction unit that recognizes the object, analyzes and extracts information on parts of the object;
an information amplification unit that receives information on a part of the object and enlarges and amplifies information on a predetermined specific part; and
A background data generation system for AI learning for object discrimination in virtual space, comprising an information confirmation unit that confirms the object by matching the predetermined specific part information with pre-stored information.
제9항에 있어서, 상기 정보 확인부는,
상기 오브젝트의 부위 정보 중 적어도 하나 이상을 특정 부위 정보로 결정하고, 결정된 특정 부위 정보에 대한 패턴을 분석하여 상기 오브젝트에 대한 크기와 움직임을 예측하는 것을 특징으로 하는, 가상 공간상의 오브젝트 판별용 AI학습용 배경 데이터 생성 시스템.



The method of claim 9, wherein the information confirmation unit,
AI learning for object discrimination in virtual space, characterized in that at least one of the part information of the object is determined as specific part information, and the pattern for the determined specific part information is analyzed to predict the size and movement of the object. Background data generation system.



KR1020220040685A 2022-03-31 2022-03-31 System for creating background data for artificial intelligent for recognizing object in virtual space KR20230141302A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220040685A KR20230141302A (en) 2022-03-31 2022-03-31 System for creating background data for artificial intelligent for recognizing object in virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220040685A KR20230141302A (en) 2022-03-31 2022-03-31 System for creating background data for artificial intelligent for recognizing object in virtual space

Publications (1)

Publication Number Publication Date
KR20230141302A true KR20230141302A (en) 2023-10-10

Family

ID=88292414

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220040685A KR20230141302A (en) 2022-03-31 2022-03-31 System for creating background data for artificial intelligent for recognizing object in virtual space

Country Status (1)

Country Link
KR (1) KR20230141302A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101947650B1 (en) 2017-11-14 2019-05-20 국방과학연구소 Apparatus and method for generating learning image in game engine-based machine learning
KR20190054782A (en) 2017-11-14 2019-05-22 국방과학연구소 Apparatus and method for enhancing learning capacility for machine learning
KR20200064044A (en) 2018-11-13 2020-06-05 현대모비스 주식회사 Method And Apparatus for Managing Automatic Learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101947650B1 (en) 2017-11-14 2019-05-20 국방과학연구소 Apparatus and method for generating learning image in game engine-based machine learning
KR20190054782A (en) 2017-11-14 2019-05-22 국방과학연구소 Apparatus and method for enhancing learning capacility for machine learning
KR20200064044A (en) 2018-11-13 2020-06-05 현대모비스 주식회사 Method And Apparatus for Managing Automatic Learning

Similar Documents

Publication Publication Date Title
Saha et al. Translating images into maps
Reiher et al. A sim2real deep learning approach for the transformation of images from multiple vehicle-mounted cameras to a semantically segmented image in bird’s eye view
Li et al. The ParallelEye dataset: A large collection of virtual images for traffic vision research
US10235601B1 (en) Method for image analysis
Schwarz et al. Graf: Generative radiance fields for 3d-aware image synthesis
US11748446B2 (en) Method for image analysis
Wu et al. Mars: An instance-aware, modular and realistic simulator for autonomous driving
JP2017151973A (en) Generation of a virtual world to assess real-world video analysis performance
US11094134B1 (en) System and method for generating synthetic data
Brekke et al. Multimodal 3d object detection from simulated pretraining
Paulin et al. Review and analysis of synthetic dataset generation methods and techniques for application in computer vision
Song et al. Synthetic datasets for autonomous driving: A survey
Zhang et al. Nerf-lidar: Generating realistic lidar point clouds with neural radiance fields
Balakrishnan et al. Multimedia concepts on object detection and recognition with F1 car simulation using convolutional layers
Ren et al. Object insertion based data augmentation for semantic segmentation
WO2022193604A1 (en) Devices, systems, methods, and media for point cloud data augmentation using model injection
Fang et al. LiDAR-CS dataset: LiDAR point cloud dataset with cross-sensors for 3D object detection
Stauner et al. SynPeDS: A synthetic dataset for pedestrian detection in urban traffic scenes
CN113283457A (en) Training method of generator neural network for applying data equal variance
CN117036733A (en) Urban road scene characteristic line extraction method
KR20230141302A (en) System for creating background data for artificial intelligent for recognizing object in virtual space
Venator et al. Enhancing collaborative road scene reconstruction with unsupervised domain alignment
Bai et al. Cyber mobility mirror for enabling cooperative driving automation: A co-simulation platform
KR20230142198A (en) System for creating background data for artificial intelligent by patterning for object in virtual space
Zhuo et al. A novel vehicle detection framework based on parallel vision