KR20220039533A - Self improving object recognition method and system through image capture - Google Patents
Self improving object recognition method and system through image capture Download PDFInfo
- Publication number
- KR20220039533A KR20220039533A KR1020210036107A KR20210036107A KR20220039533A KR 20220039533 A KR20220039533 A KR 20220039533A KR 1020210036107 A KR1020210036107 A KR 1020210036107A KR 20210036107 A KR20210036107 A KR 20210036107A KR 20220039533 A KR20220039533 A KR 20220039533A
- Authority
- KR
- South Korea
- Prior art keywords
- server
- user
- object recognition
- verification
- shooting condition
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 98
- 238000012795 verification Methods 0.000 claims abstract description 108
- 238000012549 training Methods 0.000 claims abstract description 26
- 238000013473 artificial intelligence Methods 0.000 claims description 104
- 230000002860 competitive effect Effects 0.000 claims description 24
- 238000010200 validation analysis Methods 0.000 claims description 8
- 230000015556 catabolic process Effects 0.000 claims description 5
- 238000012913 prioritisation Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013480 data collection Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 101150071665 img2 gene Proteins 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/987—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns with the intervention of an operator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/04—Payment circuits
- G06Q20/06—Private payment circuits, e.g. involving electronic currency used among participants of a common payment scheme
- G06Q20/065—Private payment circuits, e.g. involving electronic currency used among participants of a common payment scheme using e-cash
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Development Economics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Economics (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 이미지 캡처를 통한 자기개선 사물 인식 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for self-improving object recognition through image capture.
인공지능을 이용하여 사물을 인식하는 인공지능 이미지 인식 기술은, 이미지 내의 특정 사물을 분류하는 기술(classification), 여러 사물을 동시에 검출하는 기술(detection), 사물을 픽셀 단위로 식별하여 분할하는 기술(segmentation) 등을 포함할 수 있다. 딥 러닝으로 인해 인공지능 이미지 인식 기술의 품질 수준이 높아지고 있으나, 딥 러닝은 학습 과정에서 대규모의 데이터와 컴퓨팅 파워를 요구한다.Artificial intelligence image recognition technology that recognizes objects using artificial intelligence is a technology that classifies a specific object in an image (classification), a technology that detects multiple objects simultaneously (detection), and a technology that identifies and divides objects in units of pixels ( segmentation) and the like. Although the quality level of artificial intelligence image recognition technology is increasing due to deep learning, deep learning requires large-scale data and computing power in the learning process.
이러한 인공지능 학습의 한계를 극복하기 위해, 문제를 해결하기 위해 스스로 필요한 특징을 찾아 적절하게 표현하여 학습에 필요한 어노테이션(annotation)을 줄이기 위한 자기 지도 학습(self-supervised learning), 학습에 크게 기여할 수 있는 데이터를 먼저 선별하여 어노테이션하고 학습하는 액티브 러닝(active learning), 학습 자동화, 원천 도메인으로부터 목표 도메인을 학습시키는 전이 학습(transfer learning) 등 다양한 기술에 대한 연구가 활발하다.In order to overcome this limitation of artificial intelligence learning, self-supervised learning to reduce the annotations required for learning by finding the characteristics necessary for solving problems and expressing them appropriately, can greatly contribute to learning. Research on various technologies such as active learning, which selects and annotates existing data first, and transfer learning, which learns a target domain from a source domain, is active.
본 발명이 해결하고자 하는 과제는, 다양한 조건이 결합된 데이터셋을 사물 인식을 위한 인공지능 모델을 학습시키기 위한 학습 데이터로 제공할 수 있는 사물 인식 방법 및 시스템을 제공하는 것이다.An object of the present invention is to provide an object recognition method and system capable of providing a dataset in which various conditions are combined as learning data for learning an artificial intelligence model for object recognition.
또한, 본 발명이 해결하고자 하는 과제는, 사물 인식 모델과 촬영 조건 예측 모델을 함께 사용함으로써, 다양한 촬영 조건의 촬영 이미지로부터 사물을 정확하게 인식할 수 있는 사물 인식 방법 및 시스템을 제공하는 것이다.Another object of the present invention is to provide an object recognition method and system capable of accurately recognizing objects from photographed images under various photographing conditions by using an object recognition model and a photographing condition prediction model together.
특히, 인공지능 시스템은, 알려지지 않은 새로운 데이터로 인해 혼란이 발생할 수 있으며, 이러한 경우 해당 데이터를 정렬, 분류 및 라벨링을 한 다음 새로운 학습 모델에 다시 도입하기 위해 인간(데이터 과학자 또는 엔지니어)의 개입이 필요한 것이 일반적이다. 이에 본 발명의 실시 예들에 따르면, 엔지니어나 데이터 과학자와 같은 인간의 개입이 없이 전체 프로세스를 자동화하였기 때문에 새로운 데이터로 인한 혼란을 방지하고 학습 모델에 도입하기 위해 별도의 인간의 개입을 필요로 하지 않는다.In particular, AI systems can be disrupted by unknown new data, in which case human (data scientist or engineer) intervention is required to sort, classify, and label that data and then re-introduce it into a new learning model. What you need is usually Accordingly, according to embodiments of the present invention, since the entire process is automated without human intervention such as an engineer or a data scientist, a separate human intervention is not required to prevent confusion due to new data and introduce it into the learning model. .
또한, 인공지능 시스템은 일반적으로 누락된 데이터가 무엇인지 또는 다양한 조건에서 정확성을 개선하기 위해 어떤 새로운 데이터가 필요한지 알 수 없으며, 전통적으로 데이터 과학자 또는 엔지니어의 개입이 필요한데, 이는 시간이 많이 걸리고 비용이 많이 들게 된다. 이에 본 발명의 실시 예들에 따르면, 자동화된 프로세스를 통해, 인공지능 시스템의 정확도 개선을 위해, 인간(엔지니어 또는 데이터 과학자)의 투입 없이도 문제점을 자가 진단하고, 인식률을 높이기 위해 필요한 특정 데이터를 인식하고 제공하므로, 비용과 시간을 절약할 수 있다.Additionally, AI systems typically do not know what data is missing or what new data is needed to improve accuracy under various conditions, which traditionally requires the intervention of a data scientist or engineer, which is time consuming and costly. it will cost a lot Accordingly, according to embodiments of the present invention, through an automated process, in order to improve the accuracy of the artificial intelligence system, the problem is self-diagnosed without the input of a human (engineer or data scientist), and specific data required to increase the recognition rate is recognized and This can save you money and time.
본 발명의 일 실시 예에 따른 사물 인식 방법은, 사용자 단말을 통해 제1 촬영 이미지를 수집하는 단계; 상기 제1 촬영 이미지의 촬영 조건을 예측하는 단계; 상기 예측된 촬영 조건을 이용하여 상기 제1 촬영 이미지를 검증하고 검증 데이터셋에 추가하는 단계; 상기 검증 데이터셋을 이용하여 사물 인식 모델을 학습시키는 단계; 및 상기 학습된 사물 인식 모델을 이용하여, 제2 촬영 이미지가 나타내는 사물의 인식 결과를 획득하는 단계를 포함할 수 있다.An object recognition method according to an embodiment of the present invention includes: collecting a first photographed image through a user terminal; predicting a shooting condition of the first captured image; verifying the first photographed image using the predicted photographing condition and adding it to a verification dataset; training an object recognition model using the verification dataset; and using the learned object recognition model, obtaining a recognition result of the object indicated by the second captured image.
상기 촬영 조건을 예측하는 단계는, 상기 제1 촬영 이미지를 메타데이터 분류 서버에 제공하는 단계; 및 상기 메타데이터 분류 서버의 복수의 촬영 조건 예측 모델을 이용하여 상기 제1 촬영 이미지의 촬영 조건을 예측하는 단계를 포함할 수 있다.The predicting of the shooting condition may include: providing the first captured image to a metadata classification server; and predicting the shooting condition of the first captured image by using a plurality of shooting condition prediction models of the metadata classification server.
상기 제1 촬영 이미지의 촬영 조건은 제1 세부 촬영 조건 및 제2 세부 촬영 조건을 포함하고, 상기 복수의 촬영 조건 예측 모델 중 일부는 상기 제1 세부 촬영 조건에 대한 예측을 위해 사용되고, 다른 일부는 상기 제2 세부 촬영 조건에 대한 예측을 위해 사용될 수 있다.The photographing conditions of the first photographed image include a first detailed photographing condition and a second detailed photographing condition, some of the plurality of photographing condition prediction models are used to predict the first detailed photographing condition, and others are It may be used for prediction of the second detailed photographing condition.
상기 사물 인식 방법은, 상기 예측된 촬영 조건을 레이블로 포함하는 상기 검증 데이터셋을 이용하여 상기 복수의 촬영 조건 예측 모델을 학습시키는 단계를 더 포함할 수 있다.The method for recognizing an object may further include training the plurality of photographing condition prediction models using the verification dataset including the predicted photographing condition as a label.
상기 촬영 이미지를 검증 데이터셋에 추가하는 단계는, 사용자에게 퀴즈를 제공하는 단계; 상기 퀴즈에 대한 답에 기초하여 상기 제1 촬영 이미지를 검증하는 단계; 및 상기 검증된 제1 촬영 이미지를 상기 검증 데이터셋에 추가하는 단계를 포함할 수 있다.The step of adding the captured image to the verification dataset may include: providing a quiz to a user; verifying the first captured image based on an answer to the quiz; and adding the verified first captured image to the verification dataset.
상기 사용자에게 퀴즈를 제공하는 단계는, 검증 정확도(validation accuracy)를 나타내는 ABR(Accuracy Breakdown Report)에 기초하여 PRL(Prioritization Ranking List)를 생성하는 단계; 및 상기 PRL에 기초하여 상기 사용자에게 퀴즈를 제공하는 단계를 포함할 수 있다.The providing of the quiz to the user may include: generating a Prioritization Ranking List (PRL) based on an Accuracy Breakdown Report (ABR) indicating validation accuracy; and providing a quiz to the user based on the PRL.
상기 사물 인식 방법은, 상기 사용자의 퀴즈 점수에 기초하여, 복수의 사용자 중에서 전문가(oracle)를 선정하는 단계를 더 포함하고, 상기 사용자에게 퀴즈를 제공하는 단계는, 상기 전문가에게 퀴즈를 제공하는 단계를 포함할 수 있다.The method for recognizing objects may further include selecting an expert (oracle) from among a plurality of users based on the user's quiz score, and providing the user with the quiz may include: providing the quiz to the expert; may include
상기 복수의 사용자 중에서 전문가를 선정하는 단계는, 복수의 이전(previous) 퀴즈 스코어 및 현재 퀴즈 스코어에 기초하여 정확도 스코어(accuracy score)를 계산하는 단계; 및 상기 복수의 사용자 중에서 상기 정확도 스코어가 소정의 상위 범위에 해당하는 사용자를 상기 전문가로 선정하는 단계를 포함할 수 있다.The selecting of an expert from among the plurality of users may include: calculating an accuracy score based on a plurality of previous quiz scores and a current quiz score; and selecting a user whose accuracy score falls within a predetermined upper range from among the plurality of users as the expert.
상기 사물 인식 방법은, 사용자에게 경쟁 도전(competition challenges)을 제공하는 단계; 및 상기 사용자로부터 제공받은 상기 경쟁 도전에 대한 답에 기초하여 상기 사용자에게 리워드를 제공하는 단계를 더 포함할 수 있다.The object recognition method may include: providing competition challenges to a user; and providing a reward to the user based on an answer to the competitive challenge provided from the user.
상기 사용자에게 경쟁 도전을 제공하는 단계는, 검증 정확도를 나타내는 ABR에 기초하여 PRL를 생성하는 단계; 및 상기 PRL에 기초하여 사용자에게 경쟁 도전을 제공하는 단계를 포함할 수 있다.Providing the user with a competitive challenge may include: generating a PRL based on an ABR indicating verification accuracy; and providing a competitive challenge to the user based on the PRL.
상기 사물 인식 방법은, 미리 준비된 데이터셋을 이용하여 초기 사물 인식 모델을 생성하는 단계를 더 포함할 수 있다.The method for recognizing an object may further include generating an initial object recognition model using a pre-prepared data set.
상기 사물 인식 방법은, 미리 준비된 데이터셋을 이용하지 않고 초기 사물 인식 모델을 생성하는 단계를 더 포함할 수 있다.The object recognition method may further include generating an initial object recognition model without using a pre-prepared dataset.
본 발명의 일 실시 예에 따른 사물 인식 시스템은, 사용자 단말을 통해 수집된 제1 촬영 이미지의 촬영 조건을 예측하는 메타데이터 분류 서버; 상기 예측된 촬영 조건을 이용하여 상기 제1 촬영 이미지를 검증하고 검증 데이터셋에 추가하는 검증 서버; 상기 검증 데이터셋을 이용하여 사물 인식 모델을 학습시키는 AI(Artificial Intelligence) 학습 서버; 및 상기 학습된 사물 인식 모델을 이용하여, 제2 촬영 이미지가 나타내는 사물의 인식 결과를 획득하는 예측 서버를 포함할 수 있다.An object recognition system according to an embodiment of the present invention includes: a metadata classification server for predicting a shooting condition of a first captured image collected through a user terminal; a verification server that verifies the first captured image using the predicted shooting condition and adds it to a verification dataset; an artificial intelligence (AI) learning server for learning an object recognition model using the verification dataset; and a prediction server configured to obtain a recognition result of an object indicated by the second captured image by using the learned object recognition model.
상기 메타데이터 분류 서버는, 복수의 촬영 조건 예측 모델을 이용하여 상기 제1 촬영 이미지의 촬영 조건을 예측할 수 있다.The metadata classification server may predict a shooting condition of the first captured image by using a plurality of shooting condition prediction models.
상기 제1 촬영 이미지의 촬영 조건은 제1 세부 촬영 조건 및 제2 세부 촬영 조건을 포함하고, 상기 복수의 촬영 조건 예측 모델 중 일부는 상기 제1 세부 촬영 조건에 대한 예측을 위해 사용되고, 다른 일부는 상기 제2 세부 촬영 조건에 대한 예측을 위해 사용될 수 있다.The photographing conditions of the first photographed image include a first detailed photographing condition and a second detailed photographing condition, some of the plurality of photographing condition prediction models are used to predict the first detailed photographing condition, and others are It may be used for prediction of the second detailed photographing condition.
상기 AI 학습 서버는, 상기 예측된 촬영 조건을 레이블로 포함하는 상기 검증 데이터셋을 이용하여 상기 복수의 촬영 조건 예측 모델을 학습시킬 수 있다.The AI learning server may train the plurality of shooting condition prediction models by using the verification dataset including the predicted shooting condition as a label.
상기 검증 서버는, 사용자에게 퀴즈를 제공하고, 상기 퀴즈에 대한 답에 기초하여 상기 제1 촬영 이미지를 검증한 후, 상기 검증된 제1 촬영 이미지를 상기 검증 데이터셋에 추가할 수 있다.The verification server may provide a quiz to the user, verify the first photographed image based on an answer to the quiz, and then add the verified first photographed image to the verification dataset.
상기 사물 인식 시스템은, 검증 정확도(validation accuracy)를 나타내는 ABR(Accuracy Breakdown Report)에 기초하여 PRL(Prioritization Ranking List)를 생성하는 검증 우선순위 서버를 더 포함하고, 검증 서버는, 상기 PRL에 기초하여 상기 사용자에게 퀴즈를 제공할 수 있다.The object recognition system further includes a verification priority server that generates a Prioritization Ranking List (PRL) based on an Accuracy Breakdown Report (ABR) indicating validation accuracy, wherein the verification server includes: A quiz may be provided to the user.
상기 검증 서버는, 상기 사용자의 퀴즈 점수에 기초하여, 복수의 사용자 중에서 전문가(oracle)를 선정하고, 상기 전문가에게 퀴즈를 제공할 수 있다.The verification server may select an expert (oracle) from among a plurality of users based on the user's quiz score, and provide a quiz to the expert.
상기 검증 서버는, 복수의 이전(previous) 퀴즈 스코어 및 현재 퀴즈 스코어에 기초하여 정확도 스코어(accuracy score)를 계산하고, 상기 복수의 사용자 중에서 상기 정확도 스코어가 소정의 상위 범위에 해당하는 사용자를 상기 전문가(oracle)로 선정할 수 있다.The verification server calculates an accuracy score based on a plurality of previous quiz scores and a current quiz score, and selects a user whose accuracy score falls within a predetermined upper range among the plurality of users as the expert (oracle) can be selected.
상기 사물 인식 시스템은, 사용자에게 경쟁 도전(Competition Challenges)을 제공하고, 상기 사용자로부터 제공받은 상기 경쟁 도전에 대한 답에 기초하여 상기 사용자에게 리워드를 제공하는 인센티브 서버를 더 포함할 수 있다.The object recognition system may further include an incentive server that provides competition challenges to the user and provides a reward to the user based on answers to the competition challenges provided by the user.
상기 사물 인식 시스템은, 검증 정확도를 나타내는 ABR에 기초하여 PRL를 생성하는 인센티브 우선순위서버를 더 포함하고, 상기 인센티브 서버는, 상기 PRL에 기초하여 사용자에게 경쟁 도전을 제공할 수 있다.The object recognition system may further include an incentive priority server that generates a PRL based on an ABR indicating verification accuracy, and the incentive server may provide a competitive challenge to the user based on the PRL.
상기 AI 학습 서버는, 미리 준비된 데이터셋을 이용하여 초기 사물 인식 모델을 생성할 수 있다.The AI learning server may generate an initial object recognition model using a pre-prepared dataset.
상기 AI 학습 서버는, 미리 준비된 데이터셋을 이용하지 않고 초기 사물 인식 모델을 생성할 수 있다.The AI learning server may generate an initial object recognition model without using a pre-prepared dataset.
본 발명의 일 실시 예에 따른 컴퓨터로 판독 가능한 매체는, 컴퓨터에, 사용자 단말을 통해 제1 촬영 이미지를 수집하는 단계; 상기 제1 촬영 이미지의 촬영 조건을 예측하는 단계; 상기 예측된 촬영 조건을 이용하여 상기 제1 촬영 이미지를 검증하고 검증 데이터셋에 추가하는 단계; 상기 검증 데이터셋을 이용하여 사물 인식 모델을 학습시키는 단계; 및 상기 학습된 사물 인식 모델을 이용하여, 제2 촬영 이미지가 나타내는 사물의 인식 결과를 획득하는 단계를 실행시키기 위한 프로그램을 기록할 수 있다.A computer-readable medium according to an embodiment of the present invention includes the steps of: collecting, in a computer, a first photographed image through a user terminal; predicting a shooting condition of the first captured image; verifying the first photographed image using the predicted photographing condition and adding it to a verification dataset; training an object recognition model using the verification dataset; and using the learned object recognition model, a program for executing a step of obtaining a recognition result of an object indicated by the second captured image may be recorded.
본 발명의 실시 예들에 따르면, 대규모의 데이터와 컴퓨팅 파워를 들이지 않으면서도, 이전에 알지 못했거나 불확실한 사물에 대한 촬영 이미지에 대한 인식 정확도를 효과적으로 높일 수 있어, 그 인식 품질을 확실하게 개선할 수 있다.According to embodiments of the present invention, it is possible to effectively increase the recognition accuracy of a photographed image of a previously unknown or uncertain object without spending a large amount of data and computing power, and thus the recognition quality can be reliably improved. .
도 1a 및 도 1b는 본 발명의 일 실시 예에 따른 사물 인식 시스템을 설명하기 위한 블록도들이다.
도 2는 본 발명의 일 실시 예에 따른 사물 인식 시스템을 설명하기 위한 블록도이다.
도 3a 및 도 3b는 본 발명의 일 실시 예에 따른 사물 인식 방법을 설명하기 위한 흐름도들이다.
도 4는 본 발명의 일 실시 예에 따른 사물 인식 시스템을 설명하기 위한 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 사물 인식 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 일 실시 예에 따른 사물 인식 방법을 설명하기 위한 흐름도이다.
도 7a 및 도 7b는 본 발명의 일 실시 예에 따른 사물 인식 시스템을 설명하기 위한 블록도들이다.
도 8은 본 발명의 일 실시 예에 따른 사물 인식 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 실시 예들에 따른 사물 인식 방법 및 시스템을 구현하기 위한 컴퓨팅 장치를 설명하기 위한 블록도이다.1A and 1B are block diagrams illustrating an object recognition system according to an embodiment of the present invention.
2 is a block diagram illustrating an object recognition system according to an embodiment of the present invention.
3A and 3B are flowcharts illustrating an object recognition method according to an embodiment of the present invention.
4 is a block diagram illustrating an object recognition system according to an embodiment of the present invention.
5 is a flowchart illustrating a method for recognizing an object according to an embodiment of the present invention.
6 is a flowchart illustrating a method for recognizing an object according to an embodiment of the present invention.
7A and 7B are block diagrams for explaining an object recognition system according to an embodiment of the present invention.
8 is a flowchart illustrating a method for recognizing an object according to an embodiment of the present invention.
9 is a block diagram illustrating a computing device for implementing an object recognition method and system according to embodiments of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement them with reference to the accompanying drawings. However, the present invention may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification and claims, when a part "includes" a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated.
또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 본 명세서에서 설명되는 적어도 하나의 기능이나 동작을 처리할 수 있는 단위를 의미할 수 있으며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as "... unit", "... group", and "module" described in the specification may mean a unit capable of processing at least one function or operation described in the present specification, which It may be implemented in hardware or software or a combination of hardware and software.
도 1a 및 도 1b는 본 발명의 일 실시 예에 따른 사물 인식 시스템을 설명하기 위한 블록도들이다.1A and 1B are block diagrams illustrating an object recognition system according to an embodiment of the present invention.
도 1a를 참조하면, 본 발명의 일 실시 예에 따른 사물 인식 시스템(1)은 예측 서버(10), 메타데이터 분류 서버(12), AI 학습 서버(14), 데이터셋 서버(16), 모바일 어플리케이션이 실행되는 사용자 단말(18, 34), 인센티브 우선순위 서버(20), 인센티브 서버(22), 검증 우선순위 서버(30) 및 검증 서버(32)를 포함할 수 있다.Referring to FIG. 1A , an
본 실시 예에서, 도 1a에 도시된 예측 서버(10), 메타데이터 분류 서버(12), AI 학습 서버(14), 데이터셋 서버(16), 인센티브 우선순위 서버(20), 인센티브 서버(22), 검증 우선순위 서버(30) 및 검증 서버(32)는 논리적으로 구분된 것일 뿐 물리적인 구분을 나타내는 것은 아니다. 즉, 도 1a의 예측 서버(10), 메타데이터 분류 서버(12), AI 학습 서버(14), 데이터셋 서버(16), 인센티브 우선순위 서버(20), 인센티브 서버(22), 검증 우선순위 서버(30) 및 검증 서버(32) 중 적어도 일부 요소들은 하나의 엔티티로서 구현될 수도 있고, 도 1a 상에는 하나의 번호로 참조되는 요소가 복수의 엔티티로서 구현될 수도 있음은 물론이다.In this embodiment, the
또한, 본 명세서에서 "서버"라는 요소는, 도 9에 도시된 것과 같은 컴퓨팅 장치와 같이 프로세서 및 메모리를 갖춘 하드웨어 장치를 지칭할 수도 있고, 임의의 컴퓨팅 장치 상에서 실행되어 서비스를 제공할 수 있는 소프트웨어 자체를 지칭할 수도 있으며, 때로는 하드웨어와 소프트웨어의 조합으로 구현된 형태를 지칭할 수도 있다.In addition, in this specification, the element "server" may refer to a hardware device having a processor and memory, such as a computing device as shown in FIG. 9, and software that can be executed on any computing device to provide a service It may refer to itself, and sometimes may refer to a form implemented as a combination of hardware and software.
한편, 모바일 어플리케이션이 실행되는 사용자 단말(18, 34)은 스마트폰, 태블릿 컴퓨터, 노트북 컴퓨터 등을 지칭할 수 있으나, 본 발명의 범위가 이에 제한되는 것은 아니며, 모바일 어플리케이션 또는 반드시 모바일로 한정되지 않는 임의의 어플리케이션을 실행시킬 수 있는 임의의 운영체제가 설치된 임의의 컴퓨팅 장치를 지칭할 수 있다.On the other hand, the
이제 도 1a를 참조하여, 이미지 인식 정확도 증가를 위해 학습에 필요한 조건의 이미지를 자동으로 제공하고 인식률을 스스로 개선하여 다양한 촬영 조건의 촬영 이미지로부터 사물을 인식할 수 있는 사물 인식 시스템(1)에 대해 설명하도록 한다.Now, with reference to FIG. 1A , an
먼저, 사용자 단말(18) 상에서 실행되는 모바일 어플리케이션은 사물을 촬영할 수 있다. 구체적으로, 모바일 어플리케이션은, 사용자 단말(18)에 탑재된 카메라를 이용하여 사물 촬영을 수행하고, 촬영 이미지를 수집할 수 있다. 본 명세서에서는 설명의 편의를 위해 사물이 차량인 경우로 가정하여 설명하지만, 사물의 범위가 차량으로 제한되는 것은 아니다.First, the mobile application executed on the
모바일 어플리케이션에 의해 촬영된 촬영 이미지는, 예측 서버(10), 메타데이터 분류 서버(12) 또는 데이터셋 서버(16)에 제공될 수 있다.The captured image captured by the mobile application may be provided to the
예측 서버(10)는, 학습된 사물 인식 모델을 이용하여, 촬영 이미지가 나타내는 사물의 인식 결과를 획득하고, 해당 인식 결과를 모바일 어플리케이션에 제공할 수 있다. 예를 들어, 예측 서버(10)는, 촬영 이미지가 나타내는 차량을 인식하여 모델 및 제조사를 인식 결과로서 획득하고, 이를 모바일 어플리케이션에 제공함으로써 사용자 단말(18)에 표시할 수 있다. 이에 따라 사용자 단말(18)의 사용자는 차량을 촬영하기만 하면 해당 차량의 모델 및 제조사 정보를 얻을 수 있다.The
AI 학습 서버(14)는 예측 서버(10)가 사물을 인식하기 위해 사용하는 사물 인식 모델을 학습시키고, 학습된 사물 인식 모델을 예측 서버(10)에 제공할 수 있다.The
여기서, 사물 인식 모델은 뉴럴 네트워크 기반의 예측 모델일 수 있다. 여기서 뉴럴 네트워크는 이미지 인식에 많이 사용되는 CNN(Convolutional Neural Network)로 구현될 수 있으나, 본 발명의 범위가 이에 제한되지는 않는다. 뉴럴 네트워크 기반의 인공지능 예측 모델은, 이미지 정보의 복잡성으로 인해 인식률에 한계가 존재한다. 즉, 인공지능 예측 모델은 때때로 이미지에서 사물을 인식하지 못하거나, 다른 사물로 인식하는 등 부정확한 판단을 내릴 수 있다. 이에 인공지능 예측 모델의 정확도를 높이기 위한 방안들에 대한 연구가 활발하다.Here, the object recognition model may be a prediction model based on a neural network. Here, the neural network may be implemented as a convolutional neural network (CNN), which is widely used for image recognition, but the scope of the present invention is not limited thereto. The neural network-based AI prediction model has limitations in recognition rate due to the complexity of image information. In other words, the AI prediction model may sometimes make inaccurate judgments, such as not recognizing an object in an image or recognizing it as another object. Accordingly, research on methods to increase the accuracy of artificial intelligence prediction models is active.
이와 관련하여, 큐레이션된 데이터 또는 이미지를 데이터셋에 수동으로 추가하는 방안, 대량의 데이터 수집을 자동화하고 인간 또는 다른 인공지능 모델로 필터링하는 방안 등이 있으나, 이와 같은 방식들은 예측 모델의 성능 개선에 그다지 효과적이지 않은 데이터 또는 이미지를 상당량 수집하게 되거나, 특정 유용한 이미지의 하위 섹션에 대해서만 유효한 데이터 또는 이미지만을 수집할 수 있으며, 수집 시간이 상당히 소요되는데, 수집한 이미지에 비해 예측 모델의 성능 개선에 사용할 수 있는 데이터 또는 이미지가 적어 비효율적이라는 단점이 있다.In this regard, there are methods to manually add curated data or images to the dataset, methods to automate the collection of large amounts of data, and methods for filtering with human or other artificial intelligence models, but these methods improve the performance of predictive models You will collect a significant amount of data or images that are not very effective for There is a disadvantage that it is inefficient because there are few data or images that can be used.
또한, 인공지능 예측 모델은 이상적인 조건에서 사물을 인식할 수 있다 하더라도, 조건이 달라진 경우, 동일한 사물에 대한 인식률이 떨어지는 경우가 많이 있다. 따라서 이상적인 조건이 아닌 현실의 다양한 조건에 대해서도 높은 정확도를 보장하기 위해서는 데이터셋에 다양한 비 이상적인 조건(또는 비정상적인 조건)이 결합된 다수의 데이터 또는 이미지가 포함될 필요가 있다.Also, although the AI prediction model can recognize an object under ideal conditions, when the conditions change, the recognition rate for the same object is often lowered. Therefore, in order to guarantee high accuracy even for various conditions in reality that are not ideal conditions, it is necessary to include a large number of data or images in which various non-ideal conditions (or abnormal conditions) are combined in the dataset.
한편, 인공지능 예측 모델에 사용되는 데이터를 자동화하여 수집할 수 있다고 하더라도, 수집한 데이터 중 새로운 데이터를 자동으로 정확하고 효율적으로 분류하거나 레이블링하는 것은 다른 문제이며, 대체로 인간이 수동적으로 새로운 데이터를 분류하거나 레이블링하거나, 다른 인공지능 모델을 사용해야 한다. 다른 인공지능 모델을 사용하는 경우에는 데이터셋을 통해 이미지를 인식하도록 학습시켜 새로운 데이터를 올바르게 분류하고 레이블을 지정할 수 있어야 한다.On the other hand, even if data used in artificial intelligence predictive models can be collected automatically, it is another matter to automatically, accurately and efficiently classify or label new data among the collected data, and usually humans manually classify new data. , label it, or use another AI model. With other AI models, you need to be able to properly classify and label new data by training it to recognize images through a dataset.
이러한 문제들을 해결하기 위해, 본 발명의 실시예는, 예측 서버(10)에서 사물 인식을 위해 사용되는 사물 인식 모델에 추가로, 메타데이터 예측 메커니즘, 사용자 검증 메커니즘 및 사용자 보상 메커니즘을 도입하였다. 이들 메타데이터 예측 메커니즘, 사용자 검증 메커니즘 및 사용자 보상 메커니즘으로 인해, 사물 인식 모델의 개선에 큰 도움이 되지 않는 데이터 또는 이미지를 수집하는데 시간과 컴퓨팅 자원을 소모하지 않으면서, 엔지니어나 데이터 과학자가 이미지나 데이터를 분류 또는 레이블링을 하거나, 문제가 있는 이미지를 수동으로 식별할 필요가 없으며, 궁극적으로 사물 인식 모델을 가장 효과적으로 개선시킬 수 있는 구체적인 데이터 또는 이미지를 획득할 수 있도록 하였다. 이에 따라, 사물 인식 시스템(1)은 이전에는 전혀 알지 못했던(Zero Accuracy/Unknown) 이미지 또는 정확도가 낮았던(Low Accuracy) 이미지를 인식할 수 있다.In order to solve these problems, the embodiment of the present invention introduces a metadata prediction mechanism, a user verification mechanism, and a user compensation mechanism in addition to the object recognition model used for object recognition in the
이에 따라 사물 인식 시스템(1)은 인식이 어려웠던 데이터를 정확하게 인식할 수 있게 되며, 사물 인식 모델을 가장 효과적으로 개선시킬 수 있는 학습 데이터를 더 많이 획득할 수 있다. 예를 들어, 사용자가 비가 내리는 밤에 파란색 2020년형 메르세데스 벤츠 CLS의 이미지를 후면에서 기울어진 각도로 촬영하면, 사물 인식에 있어서 너무 많은 불확실한 요소가 존재하기 때문에 일반적인 예측 시스템은 매우 낮은 정확도의 결과를 제공하게 된다.Accordingly, the
이러한 불확실한 정확도 낮은 이미지들은 사용자(특히, 2020년형 메르세데스 벤츠 CLS를 식별해주고 보상을 받은 유저)에 의해 자동으로 검증을 위해 퀴즈 시스템을 구현하는 서버(30, 32)로 전송되며, 메타데이터 분류 서버(12)는 사용자로부터 제공받은 이미지를 촬영 조건 예측 모델을 통해 자동으로 확인한 후, 중요한 촬영 조건 또는 변수(예를 들어, 조명 조건, 촬영 각도, 색상, 촬영 시간 등)를 식별한다.These uncertain low-accuracy images are transmitted to the
즉, 메타데이터 분류 서버(12)는, 복수의 촬영 조건 예측 모델을 이용하여, 촬영 이미지의 촬영 조건을 예측할 수 있다. 여기서 촬영 조건이란, 촬영 시점(오전, 오후, 낮, 밤 등), 날씨(맑음, 흐림), 촬영 각도, 광량(밝은 환경, 어두운 환경) 등 촬영 이미지에 영향을 미칠 수 있는 임의의 조건(또는 환경)을 의미할 수 있다. 이에 따라, 메타데이터 분류 서버(12)는 촬영 이미지로부터 촬영 조건을 예측할 수 있는데, 그 예측 결과는 사용자 단말(18)을 통해 사용자에게 제공될 수도 있지만, 촬영 이미지가 나타내는 사물의 인식률을 높이기 위해 사용될 수도 있다.That is, the
AI 학습 서버(14)는 메타데이터 분류 서버(12)가 촬영 조건을 예측하기 위해 사용하는 복수의 촬영 조건 예측 모델을 학습시키고, 학습된 복수의 촬영 조건 예측 모델을 메타데이터 분류 서버(12)에 제공할 수 있다.The
데이터셋 서버(16)는 검증 데이터셋 서버(160) 및 미검증 데이터셋 서버(162)를 포함할 수 있다. 검증 데이터셋 서버(160)는 촬영 이미지가 나타내는 사물이 검증된 촬영 이미지 데이터의 집합을 관리하는 서버이고, 미검증 데이터셋 서버(162)는 나타난 사물이 무엇인지 검증되기 전의 촬영 이미지 데이터의 집합을 관리하는 서버일 수 있다. 특히, 본 발명의 실시예에서 검증이라는 용어는 사용자에 의한 검증을 의미할 수 있고, 미검증이라는 용어는 사용자에 의해 검증되지 않은 것을 의미할 수 있다.The
퀴즈 시스템을 구현하는 검증 우선순위 서버(30) 및 검증 서버(32)는 사용자 단말(34)의 사용자에게 퀴즈를 제공하고 그 답을 수집하는 방식으로 촬영 이미지에 대한 검증을 수행하며, 경쟁 도전 시스템을 구현하는 인센티브 우선순위 서버(20) 및 인센티브 서버(22)는 사용자 단말(18)의 사용자에게 경쟁 도전(Competition Challenges)을 제공하고 그 답에 기초하여 사용자에게 리워드를 제공할 수 있다.The
메타데이터 분류 서버(12)는 또한 퀴즈 시스템에 의해서 개선될 수 있으며, 경쟁 도전 시스템은 퀴즈 데이터와 결합될 수 있다.The
메타데이터 분류 서버(12)는 촬영 조건(기울어진 각도로 차량 후면이 촬영됨, 비오는 밤, 차량 색상은 파란색)를 예측하며, 메타데이터 분류 서버(12)에 의해 예측된 촬영 조건을 검증하기 위해 자동으로 경쟁 도전 시스템을 생성하여 사용자에게 해당 이미지(즉, 비오는 밤에 기울어진 각도로 차량 뒤쪽에서 찍힌 2020년형 메르세데스 벤츠 CLS 이미지)를 보여줄 수 있다.The
이러한 방식으로, 사물 인식 시스템(1)은 전혀 알지 못했던(Zero Accuracy/Unknown) 이미지 또는 정확도가 낮았던(Low Accuracy) 이미지를 자동으로 검증하여 데이터셋을 강화함으로써, 향후 사물 인식 시스템(1)이 이러한 유형의 사물을 높은 정확도로 인식할 수 있도록 한다.In this way, the
전술한 우수한 메커니즘으로 인해, 사물 인식 시스템(1)은 이전에는 정보가 전혀 없었던 새로운 사물을 자동으로 신속하게 인식할 수 있으며, 새롭거나 생소한 사물을 인식하기 위해 사물 인식 모델을 학습시키기 위한 학습 데이터를 자동으로 획득할 수 있다. 또한, 메타데이터에 대해 예측을 수행함으로써, 비정상적인 조건에서 인공지능 예측 모델의 정확도를 떨어뜨렸던 복잡도가 높은 이미지를 높은 정확도로 인식할 수 있을 뿐 아니라, 새로운 데이터를 학습 데이터셋에 자동으로 입력할 수 있다. 즉, 복잡도가 높거나 새로운 사물이라는 점 등을 이유로 인공지능 예측 모델의 정확도를 떨어뜨렸던 데이터를, 궁극적으로 사물 인식 모델을 가장 효과적으로 개선시킬 수 있는 학습 데이터로 만들고, 이를 이용하여 인공지능 예측 모델을 스스로 개선시켜 나감으로써, 이전에는 전혀 알지 못했던(Zero Accuracy/Unknown) 이미지 또는 정확도가 낮았던(Low Accuracy) 이미지에 대한 인식률을 높이는 작업을 자동화하여 수행할 수 있으며, 충분한 데이터가 없는 경우에도 학습 모델을 생성할 수 있고, 시간이 지남에 따라 학습 모델의 인식률을 높일 수 있다.Owing to the excellent mechanism described above, the
한편, AI 학습 서버(14)가 학습된 사물 인식 모델을 예측 서버(10)에 제공하거나, 학습된 복수의 촬영 조건 예측 모델을 메타데이터 분류 서버(12)에 제공하기 위해, 모델을 학습시키는 방식은 FB(Fine-tuned Bootstrapping) 방식 또는 ZLB(Zero-Lite Bootstrapping) 방식을 포함할 수 있다.On the other hand, the
FB 방식은, 도 1a에 도시된 것과 같이, AI 학습 서버(14)가 모델을 최초로 학습시키는 경우 미리 준비된 데이터셋(Traditional Dataset, TD)을 이용하는 방식일 수 있다. 즉, 사물 인식 시스템이 활성화(activate)되기 전에 미리 준비된 데이터셋으로 모델, 즉 사물 인식 모델 및 복수의 촬영 조건 예측 모델을 최초로 학습시킬 수 있으며, FB 방식에 따르면 사물 인식 시스템이 활성화될 때 높은 초기 정확도를 얻을 수 있다. 즉, 시스템이 활성화되면, 예측 서버(10)에 제공되는 첫 번째 이미지(또는 데이터)가 정확하게 식별될 가능성이 높다.The FB method may be a method of using a previously prepared dataset (Traditional Dataset, TD) when the
이와 다르게, ZLB 방식은, 도 1b에 도시된 것과 같이, AI 학습 서버(14)가 모델을 최초로 학습시키는 경우 미리 준비된 데이터셋을 이용하지 않는 방식일 수 있다. 즉, 모델 학습에 있어서, 초기 데이터셋(initial dataset)이 없는 경우를 말하며, 사물 인식 모델 및 복수의 촬영 조건 예측 모델은, 사물 인식 시스템이 활성화되기 전에 준비되는 어떠한 데이터도 사용하지 않고 학습될 수 있다. ZLB 방식에 따르면, 사물 인식 시스템이 활성화될 때 그 초기 정확도는 FB 방식 대비 낮을 수 있다.Alternatively, the ZLB method may be a method that does not use a pre-prepared dataset when the
ZLB 방식은 ZKB(Zero Knowledge Bootstrap) 방식 및 PKB(Partial Knowledge Bootstrap) 방식을 포함할 수 있다. ZKB 방식에서는 AI 학습 서버(14) 어떠한 카테고리도 정의되지 않으며, 초기에 예측 서버(10)로 입력되는 이미지는 "알 수 없음(unknown)"으로 인식될 수 있다. 즉, 예측 서버(10)의 사물 인식 모델의 초기 정확도(initial accuracy)는 0이라고 할 수 있다. "알 수 없음"으로 인식된 이미지는 검증 서버(32)에 전달되며, 검증 서버(32)를 통해 사용자에 의해 해당 이미지에 대한 카테고리가 설정, 즉 분류될 수 있다. 이와 같이 분류 및 식별된 데이터는 검증된 데이터로서 검증 데이터셋 서버(160)에 제공될 수 있다. 그리고 검증된 데이터는, 예측 서버(10) 및 메타데이터 분류 서버(12)에 대한 사물 인식 모델 및 복수의 촬영 조건 예측 모델을 학습시키기 위해, AI 학습 서버(14)에 의해 사용될 수 있다.The ZLB method may include a Zero Knowledge Bootstrap (ZKB) method and a Partial Knowledge Bootstrap (PKB) method. In the ZKB method, no category of the
PKB 방식에서는 인간(예를 들어 엔지니어 또는 데이터 과학자)가 카테고리를 설정하며, 설정 당시에는 해당 카테고리에 아무런 데이터가 없을 수 있다(즉, 카테고리의 뼈대(skeleton)만 설정될 수 있다). PKB 방식은 ZKB 방식과 달리 예측 서버(10)의 사물 인식 모델의 초기 정확도가 0은 아니지만, 미리 준비된 데이터셋을 이용하는 FB 방식보다는 여전히 낮은 편이다. 사물 인식 시스템이 활성화되면, 이미지(또는 데이터)가 예측 서버(10)에 제공되고, 해당 이미지(또는 데이터)는 매우 낮은 정확도(very low confidence rate)로 잘못 인식될 가능성이 매우 높다. 매우 낮은 정확도로 잘못 인식된 이미지(또는 데이터)는 검증 서버(32)에 전달되며, 검증 서버(32)를 통해 사용자에 의해 해당 이미지(또는 데이터)가 분류될 수 있다. 이와 같이 분류 및 식별된 데이터는 검증된 데이터로서 검증 데이터셋 서버(160)에 제공될 수 있다. 그리고 검증된 데이터는, 예측 서버(10) 및 메타데이터 분류 서버(12)에 대한 사물 인식 모델 및 복수의 촬영 조건 예측 모델을 학습시키기 위해, AI 학습 서버(14)에 의해 사용될 수 있다.In the PKB method, a human (eg, engineer or data scientist) sets the category, and at the time of setting, there may be no data in the corresponding category (ie, only the skeleton of the category can be set). In the PKB method, unlike the ZKB method, the initial accuracy of the object recognition model of the
이하에서는 도 2 내지 도 8을 참조하여, 본 발명의 사물 인식 시스템 및 사물 인식 방법에 대해 구체적으로 설명하도록 한다.Hereinafter, an object recognition system and an object recognition method of the present invention will be described in detail with reference to FIGS. 2 to 8 .
도 2는 본 발명의 일 실시 예에 따른 사물 인식 시스템을 설명하기 위한 블록도이다.2 is a block diagram illustrating an object recognition system according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시 예에 따른 사물 인식 시스템(2)은 예측 서버(10), 메타데이터 분류 서버(12), AI 학습 서버(14), 데이터셋 서버(16) 및 모바일 어플리케이션이 실행되는 사용자 단말(18)을 포함할 수 있다.Referring to FIG. 2 , the
사용자 단말(18)의 모바일 어플리케이션은 사용자로 하여금 차량을 촬영하도록 할 수 있다. 즉, 모바일 어플리케이션은 사용자 단말(18)을 통해 제1 촬영 이미지(IMG1)를 수집할 수 있다. 모바일 어플리케이션은 사용자로 하여금 차량 촬영을 유도하여, 촬영 이미지의 수집량을 늘릴 수 있다.The mobile application of the
사용자가 촬영한 제1 촬영 이미지(IMG1)는 미검증 촬영 이미지이므로, 미검증 데이터셋 서버(162)로 전송될 수 있다. 미검증 데이터셋 서버(162)는 제1 촬영 이미지(IMG1)를 미검증 데이터셋으로 저장해 두었다가, 데이터셋의 검증을 위해 인센티브 우선순위 서버(20) 및 검증 우선순위 서버(30)에 제공할 수 있다.Since the first captured image IMG1 captured by the user is an unverified captured image, it may be transmitted to the
또한, 제1 촬영 이미지(IMG1)는 예측 서버(10)로 전송될 수 있으며, 예측 서버(10)는 사물 인식 모델(M0)을 이용하여 촬영 이미지가 나타내는 차량을 인식하고, 해당 차량의 모델 및 제조사 정보를 획득할 수 있다. 여기서, 사물 인식 모델(M0)은 CNN(Convolutional Neural Network) 모델 구조를 가질 수 있으나, 본 발명의 범위가 이에 제한되는 것은 아니다. 인식 결과인 해당 차량의 모델 및 제조사 정보는 사용자 단말(18)의 모바일 어플리케이션에 다시 제공될 수 있다.In addition, the first captured image IMG1 may be transmitted to the
또한, 제1 촬영 이미지(IMG1)는 모바일 어플리케이션으로부터 메타데이터 분류 서버(12)로도 전송될 수 있으며, 메타데이터 분류 서버(12)는 복수의 촬영 조건 예측 모델(M1, M2, M3)을 이용하여 제1 촬영 이미지(IMG1)의 촬영 조건을 예측한 후, 예측된 촬영 조건(PC)을 사용자 단말(18)의 모바일 어플리케이션에 다시 제공할 수 있다. 즉, 메타데이터 분류 서버(12)는 예측 모델의 컬렉션(collection)을 이용하여 촬영 조건을 예측할 수 있다. 물론, 본 발명의 범위가 이에 제한되는 것은 아니며, 메타데이터 분류 서버(12)는 단일의 예측 모델만을 이용할 수도 있다.Also, the first captured image IMG1 may be transmitted from the mobile application to the
여기서 사물 인식 모델(M0)은 촬영 이미지(IMG1)가 나타내는 차량의 모델 및 제조사를 인식할 수 있으며, 복수의 촬영 조건 예측 모델(M1, M2, M3)은 촬영 이미지(IMG1)의 촬영 조건을 예측할 수 있다. 특히, 촬영 이미지(IMG1)의 촬영 조건은 여러 세부 촬영 조건들을 포함할 수 있다. 세부 촬영 조건들은, 예를 들어, 촬영 시점(오전, 오후, 낮, 밤 등), 날씨(맑음, 흐림), 촬영 각도, 광량(밝은 환경, 어두운 환경) 등 촬영 이미지에 영향을 미칠 수 있는 임의의 조건(또는 환경)을 포함할 수 있다. 복수의 촬영 조건 예측 모델(M1, M2, M3) 중 일부는, 여러 세부 촬영 조건들 중 일부를 예측하기 위해 사용될 수 있으며, 복수의 촬영 조건 예측 모델(M1, M2, M3) 중 다른 일부는, 여러 세부 촬영 조건들 중 다른 일부를 예측하기 위해 사용될 수 있다. 예를 들어, 촬영 조건 예측 모델(M1)은 촬영 당시의 날씨를 예측하기 위해 사용될 수 있고, 촬영 조건 예측 모델(M2)은 촬영 각도를 예측하기 위해 사용될 수 있으며, 촬영 조건 예측 모델(M3)은 촬영 당시의 광량을 예측하기 위해 사용될 수 있다.Here, the object recognition model M0 may recognize the model and manufacturer of the vehicle indicated by the photographed image IMG1, and the plurality of photographing condition prediction models M1, M2, and M3 may predict the photographing conditions of the photographed image IMG1. can In particular, the photographing condition of the photographed image IMG1 may include several detailed photographing conditions. Detailed shooting conditions are, for example, the shooting time (morning, afternoon, day, night, etc.), weather (sunny, cloudy), shooting angle, light level (bright environment, dark environment), etc. that may affect the shooting image. may include the conditions (or environment) of Some of the plurality of shooting condition prediction models (M1, M2, M3) may be used to predict some of several detailed shooting conditions, and other parts of the plurality of shooting condition prediction models (M1, M2, M3) include: It can be used to predict other parts of several detailed shooting conditions. For example, the shooting condition prediction model M1 may be used to predict the weather at the time of shooting, the shooting condition prediction model M2 may be used to predict the shooting angle, and the shooting condition prediction model M3 may be It can be used to predict the amount of light at the time of shooting.
한편, 메타데이터 분류 서버(12)는 데이터셋 서버(16)로부터 검증 촬영 이미지(VD) 또는 미검증 촬영 이미지(UD)를 수신하고, 복수의 촬영 조건 예측 모델(M1, M2, M3)을 이용하여 수신된 촬영 이미지(VD, UD)에 대해 촬영 조건들을 예측한 후, 예측된 촬영 조건(PC)을 촬영 이미지(VD, UD)에 레이블링하여 다시 데이터셋 서버(16)로 전송할 수 있다. 즉, 메타데이터 분류 서버(12)는, 촬영 시점(오전, 오후, 낮, 밤 등), 날씨(맑음, 흐림), 촬영 각도, 광량(밝은 환경, 어두운 환경) 등 촬영 이미지에 영향을 미칠 수 있는 임의의 조건(또는 환경)을 포함하는 촬영 조건에 대한 정보가 없는 촬영 이미지(VD, UD)에 대해 촬영 조건들을 예측한 후, 그 예측 결과를 레이블링할 수 있다. 촬영 조건이 레이블링된 촬영 이미지(VD, UD)는, 모델(M0, M1, M2, M3)을 학습시키기 위한 학습 데이터로 사용될 수 있다.Meanwhile, the
AI 학습 서버(14)는 다양한 차량에 대한 학습 데이터셋을 입력 받을 수 있다. 구체적으로, AI 학습 서버(14)는 데이터셋 서버(16)로부터 검증 데이터셋(VD)을 학습 데이터셋으로 입력 받을 수 있다. AI 학습 서버(14)는 입력 받은 학습 데이터셋으로 사물 인식 모델(M0)을 학습시킬 수 있고, 학습된 사물 인식 모델(M0)을 예측 서버(10)에 제공할 수 있다.The
특히, AI 학습 서버(14)는 데이터셋 서버(16)로부터 촬영 조건이 레이블링된 검증 데이터셋(VD)을 학습 데이터셋으로 입력 받을 수 있다. AI 학습 서버(14)는 입력 받은 촬영 조건이 레이블링된 학습 데이터셋으로 복수의 촬영 조건 예측 모델(M1, M2, M3)을 학습시킬 수 있고, 복수의 촬영 조건 예측 모델(M1, M2, M3)을 메타데이터 분류 서버(12)에 제공할 수 있다.In particular, the
한편, AI 학습 서버(14)는 학습을 완료된 후, ABR(Accuracy Breakdown Report)를 데이터셋 서버(16)에 전송할 수 있다. 여기서 ABR은 검증 정확도(validation accuracy)를 나타내는 것으로, 데이터셋의 검증을 위해 인센티브 우선순위 서버(20) 및 검증 우선순위 서버(30)에 제공될 수 있다. 여기서 ABR은, 데이터셋의 크기, 검증 정확도, 잘못 분류되었음을 알리는 사용자의 리포팅, 인공지능 모델에 의해 낮은 신뢰도(low confidence)로 예측되는 차량 모델, 인공지능 모델에 의한 예측 결과와 전문가의 분류 결과 사이에 상당한 불일치를 갖는 차량 모델 또는 조건과 같은 정보를 포함할 수 있다.Meanwhile, the
본 발명의 다양한 실시 예에서, 메타데이터 분류 서버(12)는 자동화된 방식으로 사물 인식 시스템(2)의 예측 성능을 보다 정확하고 강건하게 만들 수 있다.In various embodiments of the present disclosure, the
많은 수의 차량 또는 사물을 지원하기 위해, 그리고 엄청난 수의 다양한 상황과 조건에서 사용될 수 있도록 하기 위해, 사물 인식 시스템(2)은 저조도, 야간, 눈 내리는 날씨, 희소한 색상, 특이한 각도 등 다양한 조건에서 다수의 차량 또는 사물을 인식해야 한다. 이러한 특이한 조건은 인공지능 인식 정확도를 떨어뜨릴 수 있다.In order to support a large number of vehicles or objects, and to be able to be used in a huge number of different situations and conditions, the
사물 인식 시스템(2)은, 인공지능 인식 정확도를 향상시키기 위해, 새로운 인공지능 모델을 학습시키기 위해 사용되기 전에 분류 및 라벨링되어야 하는 많은 양의 혼동 데이터(confusing data)를 수집한다. 그런데 이러한 작업은 전통적으로 수동으로 이루어질 수 있는 것이지만, 이러한 수많은 데이터 또는 이미지를 정렬하고 분류하는 데 너무 많은 시간이 소요된다.The
메타데이터 분류 서버(12)는 조건들을 자동으로 식별하여, 데이터에 적절한 레이블을 지정하고 향후 인공지능 예측 모델의 학습에 사용 가능하도록 할 수 있다. 이와 같이 분류되고 레이블이 지정된 데이터는 새롭고 더 정확한 인공지능 예측 모델의 학습을 위해 분석되고 사용되며, 새로운 인공지능 예측 모델은 인공지능 인식 정확도를 향상시킨다.The
구체적으로, 인공지능 시스템이 갖는 정확도 약점은, 인공지능 예측 모델이 제대로 작동하지 않는 조건을 식별해야만 해결될 수 있다. 따라서 데이터 분석이 수행되어야 한다. 예를 들어, 데이터 분석을 통해, 인공지능 인식이 낮에는 잘 작동하지만 밤에는 그렇지 않다는 점이 식별되거나, 인공지능 인식이 전방 각도의 차량 이미지에서는 잘 작동하지만 후방 각도의 차량 이미지에서는 그렇지 않다는 점이 식별되어야만, 정확도를 개선시킬 수 있다. 이에 메타데이터 분류 서버(12)는 상세한 인공지능 예측 모델 정확도 보고서(즉, AI 학습 서버(14)가 생성하는 ABR)를 생성하기 위해 필요한, 조건에 대한 레이블을 생성할 수 있다. 이와 같은 인공지능 예측 모델 정확도 보고서는 검증되어야 할 데이터의 우선순위를 지정하기 위해 검증 우선순위 서버(30)에 사용되거나, 수집되어야 할 데이터의 우선순위를 지정하기 위해 인센티브 우선순위 서버(20)에 사용될 수 있다.Specifically, the accuracy weaknesses of AI systems can only be addressed by identifying conditions in which AI prediction models do not work properly. Therefore, data analysis must be performed. For example, through data analysis, it must be identified that AI recognition works well during the day but not at night, or that AI recognition works well on images of a vehicle from a front angle but not with an image of a vehicle from the rear. , can improve accuracy. Accordingly, the
인공지능 예측 모델에 낮에 정면 각도에서 촬영된 BMW 3 시리즈의 이미지가 주어지는 경우 그 인식 정확도는 높을 것이지만, 후방 각도에서 촬영된 BMW 3 시리즈의 이미지가 주어지는 경우에는 그 인식 정확도가 떨어질 수 있다. 이에 메타데이터 분류 서버(12)는, 데이터에 자동으로 레이블링을 하기 위해, 그 인공지능 예측 모델을 이용하여 이미지 또는 데이터에 어떤 조건들이 있는지를 예측한다.When an image of the
이후, 메타데이터 분류 서버(12)는, 학습 결과, 밤에 후방 각도에서 촬영된 촬영 이미지를 식별 및 분류할 수 있게 되며, 이것은 인센티브 우선순위 서버(20)가 데이터 수집의 우선순위를 (밤에 후방 각도에서 촬영된 BMW 3 시리즈로) 지정하여, 새로운 인공지능 학습을 위한 학습 데이터를 제공함으로써, 사물 인식 시스템(3)의 인식 정확도를 높일 수 있다.Thereafter, the
특히, 사물 인식 시스템은, 메타데이터 예측 메커니즘, 사용자 검증 메커니즘 및 사용자 보상 메커니즘과 함께 작동하여, 인공지능 예측 모델을 학습시키기 위한 학습 데이터를 자동으로 발굴해 나감으로써, 지속적으로 정확도를 높이고 스스로 기능을 확장해갈 수 있어서, 적은 양의 데이터만으로도 인식 모델을 생성하고 그 인식 정확도를 향상시킬 수 있다.In particular, the object recognition system works together with the metadata prediction mechanism, user verification mechanism, and user reward mechanism to automatically discover learning data to train the AI prediction model, thereby continuously improving the accuracy and self-functioning. Because it can be extended, it is possible to create a recognition model with only a small amount of data and to improve the recognition accuracy.
도 3a 및 도 3b는 본 발명의 일 실시 예에 따른 사물 인식 방법을 설명하기 위한 흐름도들이다.3A and 3B are flowcharts illustrating an object recognition method according to an embodiment of the present invention.
도 3a를 참조하면, 본 발명의 일 실시 예에 따른 사물 인식 방법은, 미리 준비된 데이터셋을 이용하여 초기 사물 인식 모델을 생성하는 단계(S301); 사용자 단말(18)을 통해 제1 촬영 이미지(IMG1)를 수집하는 단계(S303); 제1 촬영 이미지(IMG1)를 메타데이터 분류 서버(12)에 제공하는 단계(S305); 메타데이터 분류 서버(12)의 복수의 촬영 조건 예측 모델(M1, M2, M3)을 이용하여, 제1 촬영 이미지(IMG1)의 촬영 조건을 예측하는 단계(S307); 예측된 촬영 조건(PC)을 이용하여 제1 촬영 이미지(IMG1)를 검증하고 검증 데이터셋에 추가하는 단계(S309); 검증 데이터셋을 이용하여 사물 인식 모델(M0)을 스스로 학습시키는 단계(S311); 및 학습된 사물 인식 모델(M0)을 이용하여, 제2 촬영 이미지(IMG2)가 나타내는 사물의 인식 결과를 획득하는 단계(S313)를 포함할 수 있다.Referring to FIG. 3A , the method for recognizing an object according to an embodiment of the present invention includes generating an initial object recognition model using a pre-prepared dataset (S301); Collecting the first captured image (IMG1) through the user terminal 18 (S303); providing the first captured image IMG1 to the metadata classification server 12 (S305); predicting the shooting conditions of the first captured image IMG1 by using the plurality of shooting condition prediction models M1, M2, and M3 of the metadata classification server 12 (S307); verifying the first photographed image IMG1 using the predicted photographing condition PC and adding it to the verification dataset (S309); self-learning the object recognition model (M0) using the verification dataset (S311); and using the learned object recognition model M0 to obtain a recognition result of the object indicated by the second captured image IMG2 ( S313 ).
이어서 도 3b를 참조하면, 본 발명의 일 실시 예에 따른 사물 인식 방법은, 미리 준비된 데이터셋 없이 ZKB 또는 PKB 방식으로 초기 사물 인식 모델을 생성하는 단계(S302); 사용자 단말(18)을 통해 제1 촬영 이미지(IMG1)를 수집하는 단계(S303); 제1 촬영 이미지(IMG1)를 메타데이터 분류 서버(12)에 제공하는 단계(S305); 메타데이터 분류 서버(12)의 복수의 촬영 조건 예측 모델(M1, M2, M3)을 이용하여, 제1 촬영 이미지(IMG1)의 촬영 조건을 예측하는 단계(S307); 예측된 촬영 조건(PC)을 이용하여 제1 촬영 이미지(IMG1)를 검증하고 검증 데이터셋에 추가하는 단계(S309); 검증 데이터셋을 이용하여 사물 인식 모델(M0)을 스스로 학습시키는 단계(S311); 및 학습된 사물 인식 모델(M0)을 이용하여, 제2 촬영 이미지(IMG2)가 나타내는 사물의 인식 결과를 획득하는 단계(S313)를 포함할 수 있다.Next, referring to FIG. 3B , the method for recognizing an object according to an embodiment of the present invention includes generating an initial object recognition model using a ZKB or PKB method without a pre-prepared data set ( S302 ); Collecting the first captured image (IMG1) through the user terminal 18 (S303); providing the first captured image IMG1 to the metadata classification server 12 (S305); predicting the shooting conditions of the first captured image IMG1 by using the plurality of shooting condition prediction models M1, M2, and M3 of the metadata classification server 12 (S307); verifying the first photographed image IMG1 using the predicted photographing condition PC and adding it to the verification dataset (S309); self-learning the object recognition model (M0) using the verification dataset (S311); and using the learned object recognition model M0 to obtain a recognition result of the object indicated by the second captured image IMG2 ( S313 ).
즉, 도 3a에 따른 사물 인식 방법에서는 도 1a와 관련하여 전술한 FB 방식에 따라 모델 학습이 이루어지고, 도 3b에 따른 사물 인식 방법에서는 도 1b와 관련하여 전술한 ZLB 방식에 따라 모델 학습이 이루어질 수 있다.That is, in the object recognition method according to FIG. 3A, model learning is performed according to the FB method described above with respect to FIG. 1A, and in the object recognition method according to FIG. 3B, model learning is performed according to the ZLB method described with reference to FIG. 1B. can
단계(S307)와 관련하여, 제1 촬영 이미지(IMG1)의 촬영 조건은 제1 세부 촬영 조건 및 제2 세부 촬영 조건을 포함하고, 복수의 촬영 조건 예측 모델(M1, M2, M3) 중 일부는 제1 세부 촬영 조건에 대한 예측을 위해 사용되고, 다른 일부는 제2 세부 촬영 조건에 대한 예측을 위해 사용될 수 있다.In relation to step S307 , the shooting conditions of the first shooting image IMG1 include the first detailed shooting conditions and the second detailed shooting conditions, and some of the plurality of shooting condition prediction models M1 , M2 , and M3 are It may be used for prediction of the first detailed photographing condition, and the other part may be used for prediction of the second detailed photographing condition.
또한, 상기 방법은, 예측된 촬영 조건(PC)을 레이블로 포함하는 검증 데이터셋을 이용하여 복수의 촬영 조건 예측 모델(M1, M2, M3)을 학습시키는 단계를 더 포함할 수 있다.In addition, the method may further include training the plurality of shooting condition prediction models M1 , M2 , and M3 using a verification dataset including the predicted shooting condition PC as a label.
본 실시예에 따른 사물 인식 방법에 대한 더욱 구체적인 내용에 대해서는 도 1a 내지 도 2와 관련하여 전술한 내용을 참조할 수 있으며, 중복되는 내용에 대해서는 그 설명을 생략하도록 한다.For more detailed information on the method for recognizing an object according to the present embodiment, reference may be made to the above-described content with reference to FIGS. 1A to 2 , and a description thereof will be omitted for overlapping content.
도 4는 본 발명의 일 실시 예에 따른 사물 인식 시스템을 설명하기 위한 블록도이다.4 is a block diagram illustrating an object recognition system according to an embodiment of the present invention.
도 4를 참조하면, 본 발명의 일 실시 예에 따른 사물 인식 시스템(3)은, 예측 서버(10), 메타데이터 분류 서버(12), AI 학습 서버(14), 데이터셋 서버(16), 검증 우선순위 서버(30), 검증 서버(32) 및 모바일 어플리케이션이 실행되는 사용자 단말(18, 34)을 포함할 수 있다.Referring to FIG. 4 , the
사용자는 사용자 단말(18)의 모바일 어플리케이션을 통해 차량을 촬영한 후, 제1 촬영 이미지(IMG1)를 데이터셋 서버(16)로 전송할 수 있다. 데이터셋 서버(16), 특히 미검증 데이터셋 서버(162)는 미검증 데이터셋(UD)을 메타데이터 분류 서버(12)에 전송하고, 메타데이터 분류 서버(12)는 예측된 촬영 조건(PC)을 미검증 데이터셋(UD)에 레이블링할 수 있다. 그리고 메타데이터 분류 서버(12)는 레이블링된 미검증 데이터셋(UD)을 데이터셋 서버(16)로 전송할 수 있다.After the user captures the vehicle through the mobile application of the
데이터셋 서버(16), 특히 검증 데이터셋 서버(160)는 촬영 조건이 레이블링된 검증 데이터셋(VD)을 AI 학습 서버(14)에 전송할 수 있고, AI 학습 서버(14)는 레이블링된 검증 데이터셋(VD)을 이용하여 모델(M0, M1, M2, M3)을 학습시킬 수 있다. 또한, AI 학습 서버(14)는 검증 정확도를 나타내는 ABR을 생성한 후, ABR을 데이터셋 서버(16)로 전송할 수 있다.The
여기서 ABR은, 데이터셋의 크기, 검증 정확도, 잘못 분류되었음을 알리는 사용자의 리포팅, 인공지능 모델에 의해 낮은 신뢰도(low confidence)로 예측되는 차량 모델, 인공지능 모델에 의한 예측 결과와 전문가의 분류 결과 사이에 상당한 불일치를 갖는 차량 모델 또는 조건과 같은 정보를 포함할 수 있다.Here, ABR is defined as the size of the dataset, verification accuracy, user's report indicating that it was misclassified, the vehicle model predicted with low confidence by the AI model, and the difference between the prediction result by the AI model and the expert classification result. may contain information such as vehicle models or conditions with significant discrepancies in .
데이터셋 서버(16)는 ABR을 검증 우선순위 서버(30)에 전송할 수 있다. 검증 우선순위 서버(30)는 PRL(Prioritization Ranking List)를 생성하고, PRL을 검증 서버(32)에 전송할 수 있다. 검증 서버(32)는 PRL에 기초하여 사용자 단말(34)의 모바일 어플리케이션을 통해 사용자에게 퀴즈(QUIZ)를 제공할 수 있다.The
여기서 PRL은, 차량 모델 또는 도전에 대한 우선순위 랭킹(priority ranking)을 포함할 수 있다. 이들 랭킹은 인공지능 모델의 정확도를 극대화화기 위해 어느 데이터를 수집할지 여부를 결정하기 위한 것으로, 이를 위해 다양한 랭킹 알고리즘이 사용될 수 있다.Here, the PRL may include a priority ranking for a vehicle model or a challenge. These rankings are for determining which data to collect in order to maximize the accuracy of the AI model, and for this purpose, various ranking algorithms may be used.
랭킹 알고리즘의 일 예로, ABR에 기초하여 촬영된 이미지 각각에 스코어링을 하는 방법이 있다. 예를 들어, 낮에 전면을 촬영한 차량의 촬영 이미지보다, 밤에 후면을 촬영한 차량의 촬영 이미지의 우선순위가 더 높을 수 있다. 한편, 데이터셋 서버(16)에 제조사와 조건에 대한 데이터가 거의 없는 촬영 이미지의 우선순위가, 제조사와 조건에 대한 다량의 데이터를 이미 가지고 있는 촬영 이미지보다 더 높을 수 있다.As an example of the ranking algorithm, there is a method of scoring each image taken based on ABR. For example, the priority of the photographed image of the vehicle photographed at night may be higher than that of the photographed image of the vehicle photographed at the front during the day. On the other hand, the priority of the photographed image having little data on the manufacturer and the condition in the
즉, 인공지능 모델을 개선시킬 여지가 높은 촬영 이미지일수록 우선순위가 높고, 인공지능 모델을 개선시킬 여지가 낮은 촬영 이미지일수록 우선순위가 낮다. 이러한 목적을 달성하기 위해 랭킹 스코어는, 이미 존재하는 학습 데이터의 양, 차량 모델 및 제조사에 대한 검증 정확도, 잘못 분류되었음을 알리는 사용자의 리포팅, 인공지능 예측의 신뢰도, 인공지능 모델에 의한 예측 결과와 전문가의 분류 결과 사이의 불일치 여부 등을 고려하여 결정될 수 있다.That is, a shot image with a high potential for improvement of the AI model has a higher priority, and a shot image with a low room for improvement of the AI model has a lower priority. To achieve this purpose, the ranking score is based on the amount of training data that already exists, the verification accuracy for vehicle models and manufacturers, user reporting to inform that they are misclassified, the reliability of artificial intelligence predictions, prediction results by artificial intelligence models and experts It may be determined in consideration of whether there is a discrepancy between the classification results of .
한편, 사용자들은 퀴즈의 일부로 다양한 촬영 조건 하에서 주어진 차량에 대한 모델 및 제조사 정보를 검증할 수 있다. 예를 들어, 사용자들은 객관식 또는 주관식으로 주어지는 질문의 일부로서 촬영 이미지에 표시된 차량의 모델 및 제조사를 고를 수 있다. 물론, 촬영 조건 자체가 퀴즈로 출제될 수도 있다.Meanwhile, users may verify model and manufacturer information for a given vehicle under various shooting conditions as part of the quiz. For example, users may select a model and make of a vehicle displayed in a photographed image as part of a multiple-choice or multiple-choice question. Of course, the shooting conditions themselves may be presented as a quiz.
검증 우선순위 서버(30)가 생성한 PRL에 기초하여 퀴즈가 생성될 수 있으며, 이들 퀴즈는 사용자 단말(34)의 모바일 어플리케이션에 제공된다. 퀴즈는 향후 인공지능 모델을 더 효과적으로 학습시킬 수 있는 촬영 이미지를 검증하도록 설계될 수 있다.Quiz may be generated based on the PRL generated by the
사용자는 사용자 단말(34)의 모바일 어플리케이션을 통해 퀴즈(QUIZ)에 대한 답(ANS)을 할 수 있으며, 퀴즈(QUIZ)에 관한 데이터는 다시 검증 서버(32)에 제공될 수 있다. 검증 서버(32)는 사용자들의 퀴즈(QUIZ)에 관한 데이터를 수집하고, 이로부터 제1 촬영 이미지를 검증한 다음, 검증된 제1 촬영 이미지를 검증 데이터셋에 추가, 즉, 검증 데이터셋 서버(160)에 저장할 수 있다.The user may give an answer (ANS) to the quiz (QUIZ) through the mobile application of the user terminal (34), and data on the quiz (QUIZ) may be provided to the verification server (32) again. The
특히, 퀴즈는 메타데이터 분류 서버(12)에 의해 예측된 촬영 조건을 검증하기 위한 내용을 가질 수 있으며, 퀴즈에 관한 데이터를 이용하여 촬영 조건에 대한 검증을 수행할 수 있으며, 검증된 촬영 조건이 레이블링된 촬영 이미지를 이용하여 메타데이터 분류 서버(12)의 촬영 조건 예측 모델을 학습시킴에 따라, 사물 인식 시스템(3)의 예측 성능을 개선할 수 있다.In particular, the quiz may have content for verifying the shooting condition predicted by the
도 5는 본 발명의 일 실시 예에 따른 사물 인식 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a method for recognizing an object according to an embodiment of the present invention.
도 5를 참조하면, 본 발명의 일 실시 예에 따른 사물 인식 방법은, 검증 정확도를 나타내는 ABR에 기초하여 PRL를 생성하는 단계(S501); PRL에 기초하여 상기 사용자에게 퀴즈를 제공하는 단계(S503); 퀴즈에 대한 답에 기초하여 제1 촬영 이미지(IMG1)를 검증하는 단계(S505); 및 검증된 제1 촬영 이미지(IMG1)를 검증 데이터셋에 추가하는 단계(S507)를 포함할 수 있다.Referring to FIG. 5 , a method for recognizing an object according to an embodiment of the present invention includes generating a PRL based on an ABR indicating verification accuracy ( S501 ); providing a quiz to the user based on the PRL (S503); verifying the first captured image IMG1 based on the answer to the quiz (S505); and adding the verified first captured image IMG1 to the verification dataset ( S507 ).
본 실시예에 따른 사물 인식 방법에 대한 더욱 구체적인 내용에 대해서는 도 1a 내지 도 4와 관련하여 전술한 내용을 참조할 수 있으며, 중복되는 내용에 대해서는 그 설명을 생략하도록 한다.For more detailed information on the method for recognizing an object according to the present embodiment, reference may be made to the above-described content with reference to FIGS. 1A to 4 , and the overlapping description will be omitted.
도 6은 본 발명의 일 실시 예에 따른 사물 인식 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a method for recognizing an object according to an embodiment of the present invention.
도 6을 참조하면, 본 발명의 일 실시 예에 따른 사물 인식 방법은, 복수의 이전(previous) 퀴즈 스코어 및 현재 퀴즈 스코어에 기초하여 정확도 스코어(accuracy score)를 계산하는 단계(S601); 및 복수의 사용자 중에서 정확도 스코어가 소정의 상위 범위에 해당하는 사용자를 전문가(oracle)로 선정하는 단계(S603); 전문가에게 퀴즈를 제공하는 단계(S605); 퀴즈에 대한 답에 기초하여 제1 촬영 이미지(IMG1)를 검증하는 단계(S607); 및 검증된 제1 촬영 이미지(IMG1)를 검증 데이터셋에 추가하는 단계(S609)를 포함할 수 있다.Referring to FIG. 6 , the method for recognizing an object according to an embodiment of the present invention includes calculating an accuracy score based on a plurality of previous quiz scores and a current quiz score ( S601 ); and selecting a user whose accuracy score falls within a predetermined upper range from among a plurality of users as an expert (oracle) (S603); providing a quiz to an expert (S605); verifying the first captured image IMG1 based on the answer to the quiz (S607); and adding the verified first captured image IMG1 to the verification dataset ( S609 ).
본 실시예에 따른 사물 인식 방법에 대한 더욱 구체적인 내용에 대해서는 도 1a 내지 도 4와 관련하여 전술한 내용을 참조할 수 있으며, 중복되는 내용에 대해서는 그 설명을 생략하도록 한다.For more detailed information on the method for recognizing an object according to the present embodiment, reference may be made to the above-described content with reference to FIGS. 1A to 4 , and the overlapping description will be omitted.
전문가 시스템의 구체적인 일 예를 들면 다음과 같다.A specific example of an expert system is as follows.
1. 사용자는 위에서 설명한 바와 같이 실제 차량을 스캔할 수 있다.1. The user can scan the real vehicle as described above.
2. 사용자 스캔의 전체 사본 버전이 새로 스캔된 차량 이미지의 데이터베이스 인 퀴즈 저장소로 전송된다.2. A full copy version of the user scan is sent to the quiz repository, a database of newly scanned vehicle images.
3. 메타 데이터 분류 서버는 자동차의 방향, 색상, 날씨 조건, 조명 조건, 풍경, 이미지 속 사람 등과 같은 스캔된 각 이미지에 대한 속성을 생성한다.3. The metadata classification server creates attributes for each scanned image, such as the vehicle's orientation, color, weather conditions, lighting conditions, landscape, and people in the image.
4. 새로운 퀴즈 또는 경쟁 도전이 생성되면, 새로운 차량 스캔 이미지를 무작위로 선택하거나 특정 기준에 따라 선택의 우선 순위를 지정할 수 있다.4. When a new quiz or competitive challenge is created, new vehicle scan images can be randomly selected or the selection can be prioritized according to specific criteria.
다음과 같은 경우 새 사용자 스캔의 우선 순위를 지정할 수 있다.You can prioritize new user scans in the following cases:
·사용자가 AI 분류가 잘못되었다고 보고한 경우・When a user reports that the AI classification is incorrect
·AI 학습 데이터 소스 데이터베이스에 특정 차량 모델에 대한 이미지가 거의 또는 전혀 없는 경우When there are few or no images for a specific vehicle model in the AI training data source database.
·특히 중요한 속성(야간 스캔, 후방 스캔 등)에 대한 이미지가 거의 또는 전혀 없는 경우Few or no images, especially for important attributes (night scans, back scans, etc.)
·많은 전문가가 AI 인식 서버와 비교하여 스캔을 다르게 분류한 경우When many experts have classified scans differently compared to AI-aware servers
·AI 자동차 모델 인식 서버가 스캔에 대해 인식 신뢰도가 낮은 것으로 플래그를 지정한 경우(얘를 들어, AI 모델 출력 신호가 특정 임계 값 0.5 미만인 경우)When the AI car model recognition server flags the scan as having low recognition confidence (for example, when the AI model output signal is below a certain threshold value of 0.5)
·(인센티브 시스템으로부터) 인식된 차량 모델 또는 사용자 지정 차량 모델이 AI 인식 시스템을 학습했을 때 정확도가 낮은 것으로 관찰되는 경우, AI 차량 모델 인식 시스템이 특정 조건의 스캔을 정확하게 식별하는 데 어려움을 겪는 경우(예를 들어 밤에 촬영된 검은색 BMW i8의 스캔)When a recognized vehicle model (from an incentive system) or a custom vehicle model is observed to have low accuracy when trained with the AI recognition system, when the AI vehicle model recognition system has difficulty accurately identifying scans for specific conditions (e.g. a scan of a black BMW i8 shot at night)
우선 순위가 지정된 스캔은 현재 배포된 AI 모델의 약점을 식별하고 수정하는 데 사용할 수 있기 때문에 중요하다.Prioritized scans are important because they can be used to identify and fix weaknesses in currently deployed AI models.
5. 퀴즈 또는 도전 과제를 위해 새 차량 스캔이 선택될 수 있다.5. A new vehicle scan may be selected for a quiz or challenge.
6. 선택된 스캔들은 퀴즈 또는 챌린지를 만드는 데 사용되며, 새 스캔과 확인 검증된 스캔의 비율을 조정할 수 있다. 즉, Y %의 새로운 스캔과 (100 - Y) %의 이미 검증된 스캔을 섞어서 선택될 수 있다. 예를 들어, Y = 20은 퀴즈에 20 %의 새로운 차량의 스캔이 포함되고 80 %가 이미 검증된 차량의 스캔임을 의미할 수 있다. 퀴즈의 난이도는 이전 퀴즈에서 얻은 차량 모델 식별의 사용자 정확도 비율을 기반으로 조정할 수 있다.6. Selected scans are used to create a quiz or challenge, and you can adjust the ratio of new scans to verified verified scans. That is, Y % of new scans and (100 - Y) % of already validated scans can be mixed and chosen. For example, Y = 20 may mean that the quiz includes scans of 20% new vehicles and 80% are scans of already verified vehicles. The difficulty of the quiz can be adjusted based on the percentage of user accuracy of vehicle model identification obtained in the previous quiz.
7. 사용자는 모바일 어플리케이션을 통해 표시된 퀴즈 또는 경쟁 도전에 대해, 표시되는 차량 스캔을 식별하도록 요청 받는다.7. The user is asked to identify a displayed vehicle scan for a displayed quiz or competitive challenge via the mobile application.
사용자는 검증된 스캔 차량 모델 분류와 비교하여 선택한 정확성에 따라 보상(게임 내 보상, 포인트, 상금, 암호화 토큰, 상품 등)을 받으며, 사용자는 이전 퀴즈가 높은 정확도로 답변된 경우 보너스 보상을 받을 수 있다(일관된 정확도를 보상하고 다른 사용자가 퀴즈에 답하지 못하도록 함).Users are rewarded (in-game rewards, points, prizes, crypto tokens, prizes, etc.) according to their chosen accuracy compared to the validated scan vehicle model classification, and users can receive bonus rewards if previous quizzes are answered with high accuracy. Yes (compensate for consistent accuracy and prevent other users from answering the quiz).
8. 사용자가 완료한 각 퀴즈 또는 경쟁 도전에 대해 정확도 점수가 계산되며, 이전 퀴즈 점수와 현재 퀴즈 점수의 평균이 사용자 점수를 결정하기 위해 사용된다. 점수가 높은 사용자는 사용자 스캔에서 차량 모델 분류를 정확하게 파악할 수 있다. 점수 계산의 일 예는 다음과 같다.8. For each quiz or competitive challenge completed by the user, an accuracy score is calculated, and the average of the previous and current quiz scores is used to determine the user's score. Users with high scores can accurately identify vehicle model classifications in user scans. An example of score calculation is as follows.
점수 = ([이전 M 개 퀴즈의 평균 정확도]-[이전 M 개 퀴즈의 표준 편차]) * p + ([현재 퀴즈의 정확도] * (1-p))Score = ([Average accuracy of previous M quizzes] - [Standard deviation of previous M quizzes]) * p + ([Accuracy of current quiz] * (1-p))
여기서 M은 계산에 사용된 이전 퀴즈의 수이고 p는 백분율이다. 이전 퀴즈의 정확도에서 높은 표준 편차로 사용자를 처벌하게 되면, 일관성이 없는 사용자를 제거하거나 다른 사용자가 퀴즈에 답할 수 있도록 할 수 있다.where M is the number of previous quizzes used in the calculation and p is a percentage. Punishing users with high standard deviations from the accuracy of previous quizzes can either eliminate users who are inconsistent or allow other users to answer the quiz.
9. 높은 점수를 받은 사용자가 전문가(Oracle)로 선택된다. 예를 들어, 가장 높은 점수를 받은 사용자의 상위 10 %를 전문가로 선택할 수 있다.9. The user with the highest score is selected as an expert (Oracle). For example, you can select the top 10% of users with the highest scores as experts.
10. 퀴즈에 포함된 각각의 새로운 스캔에 대해 전문가의 답변은 스캔에 표시되는 차량 모델을 결정하는 데 사용된다. 이러한 전문가 답변은 여러 퀴즈를 통해 이루어지게 되고, 충분한 전문가 사용자가 새로운 차량 스캔을 분류하면 집계된 답변이 계산된다. 예를 들어, 새로운 차량 스캔에 100 개의 전문가 답변이 있고 그 중 90 %가 스캔을 BMW X3로 식별하면 스캔은 BMW X3로 분류되고 스캔은 검증된 것으로 표시된다.10. For each new scan included in the quiz, the expert's answer is used to determine the vehicle model displayed in the scan. These expert answers are made through several quizzes, and when enough expert users classify a new vehicle scan, an aggregated answer is calculated. For example, if a new vehicle scan has 100 expert answers and 90% of them identify the scan as a BMW X3, the scan will be classified as a BMW X3 and the scan will be marked as validated.
전문가들 사이에서 합의를 결정할 수 없다면 이는 일종의 수동 개입을 의미할 수 있다. 또는, 인센티브 서버는 전문가 퀴즈 답변에서 사용자 스캔의 우선 순위를 지정하는 데 집중할 수 있다.If a consensus cannot be reached among experts, this could mean some kind of manual intervention. Alternatively, the incentive server may focus on prioritizing user scans in expert quiz answers.
11. 성공적으로 분류된 스캔은 검증된 사용자 스캔 데이터베이스(데이터 세트 서버)에 복사되고 향후 퀴즈에 통합된다. 검증된 사용자 스캔 데이터베이스(데이터 세트 서버)는 주기적으로 AI 시스템과 공유되며 향후 자동차 인식 AI 모델을 학습시키기 위해 사용된다.11. Successfully classified scans are copied to a validated user scan database (data set server) and incorporated into future quizzes. The validated user scan database (data set server) is periodically shared with the AI system and used to train future car recognition AI models.
도 7a 및 도 7b는 본 발명의 일 실시 예에 따른 사물 인식 시스템을 설명하기 위한 블록도들이다.7A and 7B are block diagrams for explaining an object recognition system according to an embodiment of the present invention.
도 7a를 참조하면, 본 발명의 일 실시 예에 따른 사물 인식 시스템(4)은, 예측 서버(10), 메타데이터 분류 서버(12), AI 학습 서버(14), 데이터셋 서버(16), 인센티브 우선순위 서버(20) 및 인센티브 서버(22)를 포함할 수 있다.Referring to FIG. 7A , the
사용자는 사용자 단말(18)의 모바일 어플리케이션을 통해 차량을 촬영한 후, 제1 촬영 이미지(IMG1)를 데이터셋 서버(16)로 전송할 수 있다. 데이터셋 서버(16), 특히 미검증 데이터셋 서버(162)는 미검증 데이터셋(UD)을 메타데이터 분류 서버(12)에 전송하고, 메타데이터 분류 서버(12)는 예측된 촬영 조건(PC)을 미검증 데이터셋(UD)에 레이블링할 수 있다. 그리고 메타데이터 분류 서버(12)는 레이블링된 미검증 데이터셋(UD)을 데이터셋 서버(16)로 전송할 수 있다.After the user captures the vehicle through the mobile application of the
데이터셋 서버(16), 특히 검증 데이터셋 서버(160)는 촬영 조건이 레이블링된 검증 데이터셋(VD)을 AI 학습 서버(14)에 전송할 수 있고, AI 학습 서버(14)는 레이블링된 검증 데이터셋(VD)을 이용하여 모델(M0, M1, M2, M3)을 학습시킬 수 있다. 또한, AI 학습 서버(14)는 검증 정확도를 나타내는 ABR을 생성한 후, ABR을 데이터셋 서버(16)로 전송할 수 있다.The
데이터셋 서버(16)는 ABR을 인센티브 우선순위 서버(20)에 전송할 수 있다. 인센티브 우선순위 서버(20)는 PRL을 생성하고, PRL을 인센티브 서버(22)에 전송할 수 있다. 인센티브 서버(22)는 PRL에 기초하여 사용자 단말(18)의 모바일 어플리케이션을 통해 사용자에게 경쟁 도전(CC)을 제공할 수 있다.The
경쟁 도전(CC)은 사용자로 하여금 특정 조건(특정 촬영 조건) 하에서 차량의 모델 또는 제조사를 찾도록 하는 것일 수 있다. 예를 들어, 특정 조건 하에서 촬영된 촬영 이미지가 나타내는 차량의 모델 또는 제조사를 사용자로 하여금 입력하도록 할 수 있다. 또는, 경쟁 도전(CC)은 사용자로 하여금 특정 조건 하에서 차량을 촬영하고, 해당 조건을 입력하도록 유도할 수도 있다. 이와 같이, 사용자는 사용자 단말(34)의 모바일 어플리케이션을 통해 경쟁 도전(CC)에 대한 답을 할 수 있으며, 사용자로부터 제공받은 경쟁 도전(CC)에 대한 답에 기초하여 사용자에게 리워드를 제공할 수 있다.A competitive challenge (CC) may be to allow a user to find a model or make of a vehicle under a specific condition (a specific shooting condition). For example, the user may be prompted to input the model or manufacturer of the vehicle indicated by the photographed image captured under specific conditions. Alternatively, the competitive challenge (CC) may induce the user to photograph a vehicle under a specific condition and input the corresponding condition. In this way, the user can answer the competition challenge (CC) through the mobile application of the
이러한 경쟁 도전(CC)을 해결 또는 수행한 사용자에게 리워드 부여 방식으로 수집한 데이터는, 모델(M0, M1, M2, M3)을 학습시키기 위해 사용될 수 있다.The data collected in a reward giving method to users who have solved or performed such a competitive challenge (CC) may be used to train the models M0, M1, M2, and M3.
특히, 경쟁 도전(CC)은 메타데이터 분류 서버(12)에 의해 예측된 촬영 조건을 검증하기 위한 내용을 가질 수 있으며, 경쟁 도전(CC)을 해결 또는 수행한 사용자에게 리워드 부여 방식으로 수집한 데이터에 대한 검증을 수행할 수 있으며, 검증된 촬영 조건이 레이블링된 촬영 이미지를 이용하여 메타데이터 분류 서버(12)의 촬영 조건 예측 모델을 학습시킴에 따라, 사물 인식 시스템(2)의 예측 성능을 개선할 수 있다.In particular, the competitive challenge (CC) may have content for verifying the shooting conditions predicted by the
한편, AI 학습 서버(14)가 학습된 사물 인식 모델을 예측 서버(10)에 제공하거나, 학습된 복수의 촬영 조건 예측 모델을 메타데이터 분류 서버(12)에 제공하기 위해, 모델을 학습시키는 방식은 FB 방식 또는 ZLB 방식을 포함할 수 있으며, 도 7a는 FB 방식에 따라 AI 학습 서버(14)가 모델을 최초로 학습시키는 경우 미리 준비된 데이터셋을 이용하는 것을 나타내고 도 7b는 AI 학습 서버(14)가 모델을 최초로 학습시키는 경우 미리 준비된 데이터셋을 이용하지 않는 것을 나타낸다.On the other hand, the
도 8은 본 발명의 일 실시 예에 따른 사물 인식 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a method for recognizing an object according to an embodiment of the present invention.
도 8을 참조하면, 본 발명의 일 실시 예에 따른 사물 인식 방법은, 검증 정확도를 나타내는 ABR에 기초하여 PRL를 생성하는 단계(S801); PRL에 기초하여 상기 사용자에게 경쟁 도전을 제공하는 단계(S803); 및 사용자로부터 제공받은 경쟁 도전에 대한 답에 기초하여 사용자에게 리워드를 제공하는 단계(S805)를 포함할 수 있다.Referring to FIG. 8 , a method for recognizing an object according to an embodiment of the present invention includes generating a PRL based on an ABR indicating verification accuracy ( S801 ); providing a competitive challenge to the user based on the PRL (S803); and providing a reward to the user based on the answer to the competitive challenge provided by the user ( S805 ).
본 실시예에 따른 사물 인식 방법에 대한 더욱 구체적인 내용에 대해서는 도 1a 내지 도 7b과 관련하여 전술한 내용을 참조할 수 있으며, 중복되는 내용에 대해서는 그 설명을 생략하도록 한다.For more detailed information on the method for recognizing an object according to the present embodiment, reference may be made to the above-described content with reference to FIGS. 1A to 7B , and a description thereof will be omitted for overlapping content.
이제까지 설명한 사물 인식 시스템의 동작을 요약해보면, 사용자는 모바일 어플리케이션을 통해 (미검증된) 원본 이미지를 수집하고, 원본 이미지는 예측 서버(10)에 전송되거나 데이터셋 서버(16)에 전송될 수 있다. 예측 서버(10)는 원본 이미지에 대한 인식 결과를 사용자에게 제공할 수 있다.To summarize the operation of the object recognition system described so far, the user collects an (unverified) original image through a mobile application, and the original image may be transmitted to the
데이터셋 서버(16)는 이미지를 메타데이터 분류 서버(12)에 제공하여, 메타데이터 분류 서버(12)에 의해 분류 및 레이블링이 이루어지도록 할 수 있다. 메타데이터 분류 서버(12)는 (미검증된) 새로이 분류되고 (촬영 조건이) 레이블링된 이미지를 다시 데이터셋 서버(16)에 전송할 수 있다.The
(미검증된) 분류 및 레이블링된 이미지는 검증 우선순위 서버(30)에 제공되며, 검증 우선순위 서버(30)는 AI 학습 서버(14)로부터 수신 받은 리포트에 기초하여 PRL을 출력할 수 있다. 차량 모델, 촬영 조건, 학습 데이터 크기, 정확도 등의 PRL은 검증 우선순위 서버(30)로부터 검증 서버(32)로 전송될 수 있으며, 검증 서버(32)는 데이터를 검증하기 위해 사용자에 대한 퀴즈를 생성할 수 있다.The (unverified) classified and labeled images are provided to the
사용자가 답을 한 퀴즈 데이터는 검증 서버(32)로 전달되고, 검증 서버(32)는 해당 데이터를 분류하고, 이와 같이 검증된 분류 결과를 데이터셋 서버(16)에 제공하여 "검증 데이터"로서 저장되도록 한다.The quiz data answered by the user is transmitted to the
이와 같이 검증된 이미지는, AI 학습 서버(14)에 전송되어 새로운 인공지능 예측 모델 데이터셋을 생성하도록 하며, 이 경우 인공지능 예측 모델의 학습에 의해 향후 그 정확도가 매우 향상될 가능성이 높다.The verified image is transmitted to the
한편, 새로이 검증된 데이터셋을 이용하여 AI 학습 서버(14)는 ABR을 생성하고 이를 데이터셋 서버(16)에 전송할 수 있으며, 데이터셋 서버(16)는 ABR을 인센티브 우선순위 서버(20)에 제공할 수 있고, 인센티브 우선순위 서버(20)는 PRL을 생성하고 이를 인센티브 서버(22)에 제공할 수 있다. 인센티브 서버(22)는 PRL에 기초하여 경쟁 도전(CC)를 생성하여 모바일 어플리케이션을 통해 사용자에게 제공할 수 있다.On the other hand, using the newly verified dataset, the
이제까지 설명한 본 발명의 실시 예들에 따르면, 대규모의 데이터와 컴퓨팅 파워를 들이지 않으면서도, 이전에 알지 못했거나 불확실한 사물에 대한 촬영 이미지에 대한 인식 정확도를 효과적으로 높일 수 있어, 그 인식 품질을 확실하게 개선할 수 있다.According to the embodiments of the present invention described so far, it is possible to effectively increase the recognition accuracy of a photographed image of a previously unknown or uncertain object without spending a large amount of data and computing power, so that the recognition quality can be reliably improved. can
또한, 다음과 같은 효과들을 기대할 수 있다.In addition, the following effects can be expected.
·데이터 수집, 데이터 레이블 지정 및 데이터 정리(cleaning)의 자동화(전통적으로 수동으로 수행하는 데 시간이 많이 소요됨)Automating data collection, data labeling, and data cleaning (traditionally time consuming to do manually)
·일반적으로 AI를 혼동시키고 정확도가 낮은 인식 결과를 생성하는 데이터를 가져와 향후 AI 모델을 훨씬 더 정확하게 만드는 데 도움이 될 수 있는 귀중한 학습 데이터로 전환함It takes data that typically confuses AI and produces recognition results with low accuracy and turns it into valuable training data that can help make future AI models much more accurate.
·다양한 조건에서 인식의 정확성을 결정하고 그룹화함Determining and grouping the accuracy of recognition under various conditions
·사용자가 생성한 실제 데이터를 확인하여, 스스로 모델의 약점을 자동으로 식별함(자가 진단(self-diagnosing))(전통적으로 데이터 과학자가 수행하는 작업이었음)View user-generated real-world data to automatically identify weaknesses in models themselves (self-diagnosing) (a task traditionally performed by data scientists)
·이전에 AI 인식 서버를 혼동시켰던 데이터 수집의 우선 순위를 지정하고 해당 데이터를 분류한 다음, 이를 재사용하여 보다 정확한 AI 모델을 학습시킬 수 있음(자체 업데이트(self-updating), 자가 복구(self-repairing), 자가 수정(self-correcting))Prioritize data collection that previously confused AI-aware servers, classify that data, and then reuse it to train more accurate AI models (self-updating, self-healing) repairing), self-correcting)
·경쟁 도전 또는 퀴즈를 생성하여 사용자가 시스템에 필요한 특정 데이터를 수집하도록 장려함(시스템에서 필요성이 높거나 관련성이 있는 것으로 식별된 데이터를 기반으로 함)Create competitive challenges or quizzes to encourage users to collect specific data required by the system (based on data identified by the system as being of high need or relevance)
·사용자가 캡처한 데이터가 우리의 요구 사항을 충족하고 유용한지 여부를 자동으로 확인함·Automatically check whether the data captured by the user meets our requirements and is useful
·알려지지 않은 새로운 개체를 시스템에 자동으로 추가하고 새로이 발견된 개체의 수집 우선 순위를 지정하여 AI 인식 서버의 정확성을 지속적으로 높일 수 있음Continuously increase the accuracy of AI recognition servers by automatically adding new unknown objects to the system and prioritizing collection of newly discovered objects.
·엔지니어나 데이터 과학자가 이미지나 데이터를 분류 또는 레이블링을 하거나, 문제가 있는 이미지를 수동으로 식별할 필요가 없어서 시간과 비용이 절감됨Save time and money by eliminating the need for engineers or data scientists to classify or label images or data, or manually identify problematic images
·인식 모델의 학습을 위해 최초 데이터의 입력이 불필요함No need to input the initial data for learning the recognition model
따라서 메타데이터 분류 서버와 연결된 본 발명의 사물 인식 시스템은 AI 모델을 만드는 데 가장 시간이 많이 걸리는 측면을 자동화하기 위해 함께 작동한다(즉, 데이터 레이블 지정 및 정리를 자동화하고 AI 모델을 개선할 가능성이 가장 높은 데이터를 구체적으로 타겟팅하는 데 도움을 줄 수 있음). 또한, 본 발명의 사물 인식 시스템은 더 나은 AI 모델을 훈련시키고 자동으로 인식 정확도를 높이는 데이터 세트를 지속적으로 개선할 수 있다.Thus, our object recognition system, coupled with a metadata classification server, works together to automate the most time-consuming aspects of creating AI models (i.e., automating data labeling and cleaning and potentially improving AI models). It can help you specifically target the highest data). In addition, the object recognition system of the present invention can continuously improve the data set to train better AI models and automatically increase recognition accuracy.
이전에 볼 수 없었던 새로운 차량이 시장에 출시되면 본 발명의 사물 인식 시스템은 새로운 차량 모델을 자동으로 식별하고 데이터에 레이블을 지정하고 미래의 AI 모델에 통합하는 프로세스를 갖추고 있다. 예를 들어, 새로운 차량 모델이 2022년에 처음으로 출시되면, 새로운 차량 모델은 모바일 어플리케이션에 의해 촬영되고 확인되지 않은 (미검증) 데이터 세트에 추가된 다음, 새로운 차량이 퀴즈에 나타나게 된다.When a new vehicle that has never been seen before comes to market, the object recognition system of the present invention has a process to automatically identify the new vehicle model, label the data and integrate it into the AI model of the future. For example, when a new vehicle model is first released in 2022, the new vehicle model will be filmed by a mobile application and added to an unverified (unverified) data set, and then the new vehicle will appear in a quiz.
퀴즈에는 차량 모델이 새로운 모델임을 지정하는 옵션이 있으며 사용자는 새로운 차량 모델 이름을 제안할 수 있다. 제안된 이름을 입력할 때 새로운 차량에 대해 (다른 사용자에 의해) 이전에 제안된 이름을 나열하는 자동 완성 제안 옵션을 사용할 수 있다. 사용자는 자동 완성 옵션 중 하나를 선택할 수 있다. 충분한 전문가(Oracle) 사용자가 동일한 모델 명에 동의하면, 해당 새 모델 명이 추가 분류 레이블이 된다. 인센티브 서버는 이 새로운 차량 모델을 경쟁 도전에 포함시키기 시작하여 사용자가 이 새로운 차량 모델의 더 많은 이미지를 캡처하도록 유도한다.The quiz has an option to specify that the vehicle model is a new model, and the user can suggest a new vehicle model name. When entering a suggested name, an autocomplete suggestion option is available that lists previously suggested names (by other users) for new vehicles. The user can select one of the autocomplete options. If enough expert (Oracle) users agree on the same model name, that new model name becomes an additional classification label. The incentive server starts including this new vehicle model in the competitive challenge, encouraging users to capture more images of this new vehicle model.
새로운 차량 모델에 대한 충분한 데이터가 수집되면 새로운 차량 모델 분류를 포함하는 새로운 AI 모델이 학습될 수 있다.When enough data is collected for a new vehicle model, a new AI model can be trained that includes the new vehicle model classification.
도 9는 본 발명의 실시 예들에 따른 사물 인식 방법 및 시스템을 구현하기 위한 컴퓨팅 장치를 설명하기 위한 블록도이다.9 is a block diagram illustrating a computing device for implementing an object recognition method and system according to embodiments of the present invention.
도 9를 참조하면, 본 발명의 실시 예들에 따른 사물 인식 방법 및 시스템은 컴퓨팅 장치(또는 컴퓨터)(50)를 이용하여 구현될 수 있다.Referring to FIG. 9 , an object recognition method and system according to embodiments of the present invention may be implemented using a computing device (or computer) 50 .
컴퓨팅 장치(50)는 버스(520)를 통해 통신하는 프로세서(510), 메모리(530), 사용자 인터페이스 입력 장치(540), 사용자 인터페이스 출력 장치(550) 및 저장 장치(560) 중 적어도 하나를 포함할 수 있다. 컴퓨팅 장치(50)는 또한 네트워크(40), 예컨대 무선 네트워크에 전기적으로 접속되는 네트워크 인터페이스(570)를 포함할 수 있다. 네트워크 인터페이스(570)는 네트워크(40)를 통해 다른 개체와 신호를 송신 또는 수신할 수 있다.The
프로세서(510)는 AP(Application Processor), CPU(Central Processing Unit), GPU(Graphic Processing Unit) 등과 같은 다양한 종류들로 구현될 수 있으며, 메모리(530) 또는 저장 장치(560)에 저장된 명령을 실행하는 임의의 반도체 장치일 수 있다. 프로세서(510)는 도 1a 내지 도 8에서 설명한 기능 및 방법들을 구현하도록 구성될 수 있다. The
메모리(530) 및 저장 장치(560)는 다양한 형태의 휘발성 또는 비 휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read-only memory)(531) 및 RAM(random access memory)(532)를 포함할 수 있다. 본 발명의 일 실시 예에서 메모리(530)는 프로세서(510)의 내부 또는 외부에 위치할 수 있고, 메모리(530)는 이미 알려진 다양한 수단을 통해 프로세서(510)와 연결될 수 있다.The
또한, 본 발명의 실시 예들에 따른 사물 인식 방법 및 시스템은 컴퓨팅 장치(50)에서 실행되는 프로그램 또는 소프트웨어로 구현될 수 있고, 프로그램 또는 소프트웨어는 컴퓨터로 판독 가능한 매체에 저장될 수 있다.In addition, the object recognition method and system according to embodiments of the present invention may be implemented as a program or software executed in the
또한, 본 발명의 실시 예들에 따른 사물 인식 방법 및 시스템은 컴퓨팅 장치(50)와 전기적으로 접속될 수 있는 하드웨어로 구현될 수도 있다.In addition, the object recognition method and system according to embodiments of the present invention may be implemented as hardware that can be electrically connected to the
이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리 범위는 이에 한정되는 것은 아니고, 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자의 여러 변형 및 개량 형태 또한 본 발명의 권리 범위에 속한다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto. Various modifications and improvements by those with knowledge also fall within the scope of the present invention.
Claims (25)
상기 제1 촬영 이미지의 촬영 조건을 예측하는 단계;
상기 예측된 촬영 조건을 이용하여 상기 제1 촬영 이미지를 검증하고 검증 데이터셋에 추가하는 단계;
상기 검증 데이터셋을 이용하여 사물 인식 모델을 학습시키는 단계; 및
상기 학습된 사물 인식 모델을 이용하여, 제2 촬영 이미지가 나타내는 사물의 인식 결과를 획득하는 단계를 포함하는
사물 인식 방법.collecting a first photographed image through a user terminal;
predicting a shooting condition of the first captured image;
verifying the first photographed image using the predicted photographing condition and adding it to a verification dataset;
training an object recognition model using the verification dataset; and
using the learned object recognition model to obtain a recognition result of an object represented by a second photographed image;
How to recognize objects.
상기 촬영 조건을 예측하는 단계는,
상기 제1 촬영 이미지를 메타데이터 분류 서버에 제공하는 단계; 및
상기 메타데이터 분류 서버의 복수의 촬영 조건 예측 모델을 이용하여 상기 제1 촬영 이미지의 촬영 조건을 예측하는 단계를 포함하는, 사물 인식 방법.According to claim 1,
Predicting the shooting conditions comprises:
providing the first captured image to a metadata classification server; and
and predicting a shooting condition of the first captured image by using a plurality of shooting condition prediction models of the metadata classification server.
상기 제1 촬영 이미지의 촬영 조건은 제1 세부 촬영 조건 및 제2 세부 촬영 조건을 포함하고,
상기 복수의 촬영 조건 예측 모델 중 일부는 상기 제1 세부 촬영 조건에 대한 예측을 위해 사용되고, 다른 일부는 상기 제2 세부 촬영 조건에 대한 예측을 위해 사용되는, 사물 인식 방법.3. The method of claim 2,
The shooting condition of the first captured image includes a first detailed shooting condition and a second detailed shooting condition,
and a part of the plurality of shooting condition prediction models is used to predict the first detailed shooting condition, and another part is used to predict the second detailed shooting condition.
상기 예측된 촬영 조건을 레이블로 포함하는 상기 검증 데이터셋을 이용하여 상기 복수의 촬영 조건 예측 모델을 학습시키는 단계를 더 포함하는, 사물 인식 방법.3. The method of claim 2,
The method of claim 1, further comprising: learning the plurality of shooting condition prediction models using the verification dataset including the predicted shooting condition as a label.
상기 촬영 이미지를 검증 데이터셋에 추가하는 단계는,
사용자에게 퀴즈를 제공하는 단계;
상기 퀴즈에 대한 답에 기초하여 상기 제1 촬영 이미지를 검증하는 단계; 및
상기 검증된 제1 촬영 이미지를 상기 검증 데이터셋에 추가하는 단계를 포함하는, 사물 인식 방법.According to claim 1,
The step of adding the photographed image to the verification dataset includes:
providing a quiz to the user;
verifying the first captured image based on an answer to the quiz; and
and adding the verified first captured image to the verification dataset.
상기 사용자에게 퀴즈를 제공하는 단계는,
검증 정확도(validation accuracy)를 나타내는 ABR(Accuracy Breakdown Report)에 기초하여 PRL(Prioritization Ranking List)를 생성하는 단계; 및
상기 PRL에 기초하여 상기 사용자에게 퀴즈를 제공하는 단계를 포함하는, 사물 인식 방법.6. The method of claim 5,
The step of providing a quiz to the user,
generating a Prioritization Ranking List (PRL) based on an Accuracy Breakdown Report (ABR) indicating validation accuracy; and
and providing a quiz to the user based on the PRL.
상기 사용자의 퀴즈 점수에 기초하여, 복수의 사용자 중에서 전문가(oracle)를 선정하는 단계를 더 포함하고,
상기 사용자에게 퀴즈를 제공하는 단계는,
상기 전문가에게 퀴즈를 제공하는 단계를 포함하는, 사물 인식 방법.6. The method of claim 5,
Based on the user's quiz score, further comprising the step of selecting an expert (oracle) from among a plurality of users,
The step of providing a quiz to the user,
Including the step of providing a quiz to the expert, object recognition method.
상기 복수의 사용자 중에서 전문가를 선정하는 단계는,
복수의 이전(previous) 퀴즈 스코어 및 현재 퀴즈 스코어에 기초하여 정확도 스코어(accuracy score)를 계산하는 단계; 및
상기 복수의 사용자 중에서 상기 정확도 스코어가 소정의 상위 범위에 해당하는 사용자를 상기 전문가(oracle)로 선정하는 단계를 포함하는, 사물 인식 방법.8. The method of claim 7,
The step of selecting an expert from among the plurality of users,
calculating an accuracy score based on the plurality of previous quiz scores and the current quiz score; and
and selecting a user whose accuracy score falls within a predetermined upper range from among the plurality of users as the oracle.
사용자에게 경쟁 도전(Competition Challenges)을 제공하는 단계; 및
상기 사용자로부터 제공받은 상기 경쟁 도전에 대한 답에 기초하여 상기 사용자에게 리워드를 제공하는 단계를 더 포함하는, 사물 인식 방법.According to claim 1,
providing users with Competition Challenges; and
The method further comprising the step of providing a reward to the user based on an answer to the competition challenge provided from the user.
상기 사용자에게 경쟁 도전을 제공하는 단계는,
검증 정확도를 나타내는 ABR에 기초하여 PRL를 생성하는 단계; 및
상기 PRL에 기초하여 사용자에게 경쟁 도전을 제공하는 단계를 포함하는, 사물 인식 방법.10. The method of claim 9,
The step of providing a competitive challenge to the user comprises:
generating a PRL based on the ABR indicating verification accuracy; and
and providing a competitive challenge to the user based on the PRL.
미리 준비된 데이터셋을 이용하여 초기 사물 인식 모델을 생성하는 단계를 더 포함하는, 사물 인식 방법.According to claim 1,
The object recognition method further comprising the step of generating an initial object recognition model by using a pre-prepared dataset.
미리 준비된 데이터셋을 이용하지 않고 초기 사물 인식 모델을 생성하는 단계를 더 포함하는, 사물 인식 방법.According to claim 1,
The object recognition method further comprising the step of generating an initial object recognition model without using a pre-prepared dataset.
상기 예측된 촬영 조건을 이용하여 상기 제1 촬영 이미지를 검증하고 검증 데이터셋에 추가하는 검증 서버;
상기 검증 데이터셋을 이용하여 사물 인식 모델을 학습시키는 AI(Artificial Intelligence) 학습 서버; 및
상기 학습된 사물 인식 모델을 이용하여, 제2 촬영 이미지가 나타내는 사물의 인식 결과를 획득하는 예측 서버를 포함하는
사물 인식 시스템.a metadata classification server that predicts a shooting condition of the first captured image collected through the user terminal;
a verification server that verifies the first captured image using the predicted shooting condition and adds it to a verification dataset;
an artificial intelligence (AI) learning server for learning an object recognition model using the verification dataset; and
and a prediction server for obtaining a recognition result of an object indicated by a second captured image by using the learned object recognition model.
object recognition system.
상기 메타데이터 분류 서버는, 복수의 촬영 조건 예측 모델을 이용하여 상기 제1 촬영 이미지의 촬영 조건을 예측하는, 사물 인식 시스템.14. The method of claim 13,
The metadata classification server is configured to predict a shooting condition of the first captured image by using a plurality of shooting condition prediction models.
상기 제1 촬영 이미지의 촬영 조건은 제1 세부 촬영 조건 및 제2 세부 촬영 조건을 포함하고,
상기 복수의 촬영 조건 예측 모델 중 일부는 상기 제1 세부 촬영 조건에 대한 예측을 위해 사용되고, 다른 일부는 상기 제2 세부 촬영 조건에 대한 예측을 위해 사용되는, 사물 인식 시스템.15. The method of claim 14,
The shooting condition of the first captured image includes a first detailed shooting condition and a second detailed shooting condition,
A part of the plurality of shooting condition prediction models is used to predict the first detailed shooting condition, and another part is used to predict the second detailed shooting condition.
상기 AI 학습 서버는, 상기 예측된 촬영 조건을 레이블로 포함하는 상기 검증 데이터셋을 이용하여 상기 복수의 촬영 조건 예측 모델을 학습시키는, 사물 인식 시스템.15. The method of claim 14,
The AI learning server trains the plurality of shooting condition prediction models by using the verification dataset including the predicted shooting condition as a label.
상기 검증 서버는, 사용자에게 퀴즈를 제공하고, 상기 퀴즈에 대한 답에 기초하여 상기 제1 촬영 이미지를 검증한 후, 상기 검증된 제1 촬영 이미지를 상기 검증 데이터셋에 추가하는, 사물 인식 시스템.14. The method of claim 13,
The verification server provides a quiz to the user, verifies the first captured image based on an answer to the quiz, and then adds the verified first captured image to the verification dataset.
검증 정확도(validation accuracy)를 나타내는 ABR(Accuracy Breakdown Report)에 기초하여 PRL(Prioritization Ranking List)를 생성하는 검증 우선순위 서버를 더 포함하고,
상기 검증 서버는, 상기 PRL에 기초하여 상기 사용자에게 퀴즈를 제공하는, 사물 인식 시스템.18. The method of claim 17,
Further comprising a validation priority server for generating a Prioritization Ranking List (PRL) based on the ABR (Accuracy Breakdown Report) indicating the validation accuracy (validation accuracy),
The verification server provides a quiz to the user based on the PRL.
상기 검증 서버는, 상기 사용자의 퀴즈 점수에 기초하여, 복수의 사용자 중에서 전문가(oracle)를 선정하고, 상기 전문가에게 퀴즈를 제공하는, 사물 인식 시스템.18. The method of claim 17,
The verification server, based on the user's quiz score, selects an expert (oracle) from among a plurality of users, and provides a quiz to the expert.
상기 검증 서버는, 복수의 이전(previous) 퀴즈 스코어 및 현재 퀴즈 스코어에 기초하여 정확도 스코어(accuracy score)를 계산하고, 상기 복수의 사용자 중에서 상기 정확도 스코어가 소정의 상위 범위에 해당하는 사용자를 상기 전문가(oracle)로 선정하는, 사물 인식 시스템.20. The method of claim 19,
The verification server calculates an accuracy score based on a plurality of previous quiz scores and a current quiz score, and selects a user whose accuracy score falls within a predetermined upper range among the plurality of users as the expert (oracle), an object recognition system.
사용자에게 경쟁 도전(Competition Challenges)을 제공하고, 상기 사용자로부터 제공받은 상기 경쟁 도전에 대한 답에 기초하여 상기 사용자에게 리워드를 제공하는 인센티브 서버를 더 포함하는 사물 인식 시스템.14. The method of claim 13,
The system further comprising an incentive server that provides competition challenges to a user, and provides a reward to the user based on answers to the competition challenges provided by the user.
검증 정확도를 나타내는 ABR에 기초하여 PRL를 생성하는 인센티브 우선순위서버를 더 포함하고,
상기 인센티브 서버는, 상기 PRL에 기초하여 사용자에게 경쟁 도전을 제공하는, 사물 인식 시스템.22. The method of claim 21,
Further comprising an incentive priority server for generating a PRL based on the ABR indicating the verification accuracy,
and the incentive server provides a competitive challenge to the user based on the PRL.
상기 AI 학습 서버는, 미리 준비된 데이터셋을 이용하여 초기 사물 인식 모델을 생성하는, 사물 인식 시스템.14. The method of claim 13,
The AI learning server generates an initial object recognition model using a pre-prepared data set, an object recognition system.
상기 AI 학습 서버는, 미리 준비된 데이터셋을 이용하지 않고 초기 사물 인식 모델을 생성하는, 사물 인식 시스템.14. The method of claim 13,
The AI learning server generates an initial object recognition model without using a pre-prepared dataset.
사용자 단말을 통해 제1 촬영 이미지를 수집하는 단계;
상기 제1 촬영 이미지의 촬영 조건을 예측하는 단계;
상기 예측된 촬영 조건을 이용하여 상기 제1 촬영 이미지를 검증하고 검증 데이터셋에 추가하는 단계;
상기 검증 데이터셋을 이용하여 사물 인식 모델을 학습시키는 단계; 및
상기 학습된 사물 인식 모델을 이용하여, 제2 촬영 이미지가 나타내는 사물의 인식 결과를 획득하는 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 매체.on the computer,
collecting a first photographed image through a user terminal;
predicting a shooting condition of the first captured image;
verifying the first photographed image by using the predicted photographing condition and adding it to a verification dataset;
training an object recognition model using the verification dataset; and
A computer-readable medium recording a program for executing a step of obtaining a recognition result of an object indicated by a second photographed image by using the learned object recognition model.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2021/007196 WO2022065629A1 (en) | 2020-09-22 | 2021-06-09 | Method and system for self-improvement object recognition via image capture |
US18/246,102 US20230360373A1 (en) | 2020-09-22 | 2021-06-09 | Self improving object recognition method and system through image capture |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20200121995 | 2020-09-22 | ||
KR1020200121995 | 2020-09-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220039533A true KR20220039533A (en) | 2022-03-29 |
KR102398006B1 KR102398006B1 (en) | 2022-05-16 |
Family
ID=80996064
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210036107A KR102398006B1 (en) | 2020-09-22 | 2021-03-19 | Self improving object recognition method and system through image capture |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102398006B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102577134B1 (en) * | 2023-03-02 | 2023-09-12 | (주) 씨이랩 | System for providing domain-specific data generating service for image analysis |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130045514A (en) * | 2011-10-26 | 2013-05-06 | 한국과학기술정보연구원 | Future technology value appraisal system and method |
KR101812953B1 (en) | 2017-06-23 | 2017-12-29 | 주식회사 디앤에스 테크놀로지 | Image detecting system and method for underbody of vehicle using recognizing a car type by identifying emblem image |
KR20190037770A (en) * | 2017-09-29 | 2019-04-08 | 소프트온넷(주) | Apparatus, system and method for real-time parking lot video object recognition from cctv parking lot video data |
KR20190119219A (en) * | 2018-04-02 | 2019-10-22 | 카페24 주식회사 | Main image recommendation method and apparatus, and system |
-
2021
- 2021-03-19 KR KR1020210036107A patent/KR102398006B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130045514A (en) * | 2011-10-26 | 2013-05-06 | 한국과학기술정보연구원 | Future technology value appraisal system and method |
KR101812953B1 (en) | 2017-06-23 | 2017-12-29 | 주식회사 디앤에스 테크놀로지 | Image detecting system and method for underbody of vehicle using recognizing a car type by identifying emblem image |
KR20190037770A (en) * | 2017-09-29 | 2019-04-08 | 소프트온넷(주) | Apparatus, system and method for real-time parking lot video object recognition from cctv parking lot video data |
KR20190119219A (en) * | 2018-04-02 | 2019-10-22 | 카페24 주식회사 | Main image recommendation method and apparatus, and system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102577134B1 (en) * | 2023-03-02 | 2023-09-12 | (주) 씨이랩 | System for providing domain-specific data generating service for image analysis |
Also Published As
Publication number | Publication date |
---|---|
KR102398006B1 (en) | 2022-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210241107A1 (en) | Method, apparatus, device, and storage medium for training image semantic segmentation network | |
US20180181885A1 (en) | Information processing apparatus, information processing method, and storage medium | |
WO2021095693A1 (en) | Information processing device, information processing method, and program | |
US10853943B2 (en) | Counting objects in images based on approximate locations | |
CN110139067B (en) | Wild animal monitoring data management information system | |
WO2021157330A1 (en) | Calculator, learning method of discriminator, and analysis system | |
CN111915020B (en) | Updating method and device of detection model and storage medium | |
CN104217216A (en) | Method and device for generating detection model, method and device for detecting target | |
CN112287994A (en) | Pseudo label processing method, device, equipment and computer readable storage medium | |
CN111198815B (en) | Compatibility testing method and device for user interface | |
CN111222557A (en) | Image classification method and device, storage medium and electronic equipment | |
US20240013525A1 (en) | Method and System for Training a Neural Network | |
KR102398006B1 (en) | Self improving object recognition method and system through image capture | |
CN110427998A (en) | Model training, object detection method and device, electronic equipment, storage medium | |
CN115546692A (en) | Remote education data acquisition and analysis method, equipment and computer storage medium | |
CN118014051B (en) | Multi-mode large model increment learning method and device and computer equipment | |
CN112182269A (en) | Training of image classification model, image classification method, device, equipment and medium | |
JP2020204800A (en) | Learning dataset generation system, learning server, and learning dataset generation program | |
CN113822907A (en) | Image processing method and device | |
US11527091B2 (en) | Analyzing apparatus, control method, and program | |
CN112733864B (en) | Model training method, target detection method, device, equipment and storage medium | |
CN116958113A (en) | Product detection method, device, equipment and storage medium | |
US20230360373A1 (en) | Self improving object recognition method and system through image capture | |
CN114445716B (en) | Key point detection method, key point detection device, computer device, medium, and program product | |
CN115546218A (en) | Confidence threshold determination method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
AMND | Amendment | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |