KR20180080051A - 기계 학습 방법 및 장치 - Google Patents

기계 학습 방법 및 장치 Download PDF

Info

Publication number
KR20180080051A
KR20180080051A KR1020170000944A KR20170000944A KR20180080051A KR 20180080051 A KR20180080051 A KR 20180080051A KR 1020170000944 A KR1020170000944 A KR 1020170000944A KR 20170000944 A KR20170000944 A KR 20170000944A KR 20180080051 A KR20180080051 A KR 20180080051A
Authority
KR
South Korea
Prior art keywords
learning
target object
aspect ratio
images
image
Prior art date
Application number
KR1020170000944A
Other languages
English (en)
Other versions
KR102645202B1 (ko
Inventor
이승재
손형관
이근동
고종국
오원근
정다운
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020170000944A priority Critical patent/KR102645202B1/ko
Priority to US15/835,662 priority patent/US10546209B2/en
Publication of KR20180080051A publication Critical patent/KR20180080051A/ko
Application granted granted Critical
Publication of KR102645202B1 publication Critical patent/KR102645202B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06K9/6217
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06K9/6228
    • G06K9/627
    • G06N99/005
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

기계 학습 방법이 개시된다. 개시된 기계 학습 방법은, 학습용 데이터 베이스에 포함된 복수의 학습 이미지들 가운데, 대상 객체가 포함된 학습 이미지들을 추출하는 단계, 상기 대상 객체가 포함된 학습 이미지들로부터, 상기 대상 객체가 회전된 추가 학습 이미지들을 생성하는 단계 및 상기 추가 학습 이미지들을 이용하여, 상기 학습용 데이터 베이스를 업데이트 하는 단계를 포함한다.

Description

기계 학습 방법 및 장치{METHOD AND APPARATUS FOR MACHINE LEARNING}
본 기계 학습 방법 및 장치에 관한 것으로, 상세하게는 이미지에서 객체의 바운딩 박스를 식별하기 위한 기계 학습 방법 및 장치에 관한 것이다.
무인화 기술의 발전에 따라 이미지에서 자동으로 객체를 인식하고, 인식한 객체를 분류하는 기술이 개발되고 있다. 최근에는 GPU 기반 고속 연산과 많은 데이터, 딥러닝(Deep Learning)을 활용하여 이미지 분석 기술에 많은 성능 향상이 있었다.
이미지 분석 기술에서는 이미지에서 객체가 포함된 영역을 특정하고, 객체를 분류하는 작업이 이루어진다. 딥러닝에서 지도학습에 기반한 모델에서는 대량의 이미지가 포함된 학습용 데이터 베이스를 이용하여, 이미지 분석 모델을 학습시킬 수 있다. 지도학습의 경우, 학습에 이용되는 데이터 베이스가 얼마나 풍부한 지가 이미지 분석 모델의 정확도에 많은 영향을 끼친다.
따라서, 객체의 종류, 위치 별로 다양한 학습용 이미지들이 요구된다. 현재, 구축된 학습용 데이터 베이스에는 객체의 식별을 위한 이미지들은 많이 확보된 편이지만, 객체의 위치 정보가 표시된 이미지들은 상대적으로 적은 편이다. 종래 객체의 위치 정보가 표시된 학습 데이터를 생성하기 위해서는, 사람이 직접 이미지 마다 객체의 위치 정보를 표시해줘야 되기 때문에 딥러닝을 위한 충분한 학습 데이터를 확보하기 어려운 점이 있다.
본 발명은, 이미지에서 객체의 바운딩 박스를 식별하기 위한 기계 학습 방법 및 장치를 제공한다. 본 발명에 따르면, 기계 학습을 위한 추가 학습 데이터 베이스를 구축하고, 객체의 이미지 타입에 따라 학습 방식을 달리함으로써, 정확도가 높은 바운딩 박스 식별 모델을 생성한다.
일 측면에 있어서,
기계 학습 장치에 의해 수행되는, 바운딩 박스의 형성을 학습하는 기계 학습 방법에 있어서,
학습용 데이터 베이스에 포함된 복수의 학습 이미지들 가운데, 대상 객체가 포함된 학습 이미지들을 추출하는 단계;
상기 대상 객체가 포함된 학습 이미지들로부터, 상기 대상 객체가 회전된 추가 학습 이미지들을 생성하는 단계; 및
상기 추가 학습 이미지들을 이용하여, 상기 학습용 데이터 베이스를 업데이트 하는 단계;를 포함하는 기계 학습 방법이 개시된다.
여기서,
상기 기계 학습 방법은, 상기 대상 객체가 포함된 학습 이미지들에서 상기 대상 객체의 바운딩 박스들이 가지는 종횡비 값들의 분포 정보를 획득하는 단계를 더 포함할 수 있다.
여기서,
상기 추가 학습 이미지들을 생성하는 단계는,
상기 바운딩 박스들이 가지는 종횡비 값들의 분포 정보에 기초하여, 상기 추가 이미지들 각각에 포함된 상기 대상 객체의 회전 각도를 결정할 수 있다.
여기서,
상기 추가 학습 이미지들을 생성하는 단계는,
상기 추가 학습 이미지들에 포함된 상기 대상 객체의 바운딩 박스들이 가지는 종횡비 값들의 분포가 상기 분포 정보를 따르도록 상기 추가 학습 이미지들을 생성할 수 있다.
여기서,
상기 학습용 데이터 베이스를 업데이트 하는 단계는,
상기 추가 학습 이미지들 각각에 포함된 상기 대상 객체의 바운딩 박스를 재형성하고, 상기 재형성된 바운딩 박스 정보를 상기 추가 학습 이미지에 라벨링 하여 상기 학습용 데이터 베이스에 추가할 수 있다.
여기서,
상기 기계 학습 방법은, 업데이트 된 학습용 데이터 베이스를 이용하여, 바운딩 박스 형성 모델을 생성하는 단계를 더 포함할 수 있다.
다른 측면에 있어서,
학습용 데이터 베이스에 포함된 복수의 학습 이미지들 가운데, 대상 객체가 포함된 학습 이미지들을 추출하는 단계;
상기 대상 객체의 이미지 타입을 결정하는 단계;
상기 대상 객체의 이미지 타입에 기초하여, 상기 대상 객체가 포함된 이미지들에 대한 학습 파라미터를 결정하는 단계; 및
상기 학습용 데이터 베이스 및 상기 학습 파라미터에 기초하여, 바운딩 박스 형성 모델을 생성하는 단계를 포함하는 기계 학습 방법이 개시된다.
여기서,
상기 대상 객체의 이미지 타입을 결정하는 단계는,
상기 대상 객체가 포함된 이미지들에서 상기 대상 객체의 바운딩 박스들의 규격 정보를 획득하고, 상기 바운딩 박스들의 규격 정보에 기초하여 상기 대상 객체의 이미지 타입을 결정할 수 있다.
여기서,
상기 대상 객체의 이미지 타입을 결정하는 단계는,
상기 대상 객체의 바운딩 박스들의 종횡비 값들에 기초하여, 상기 대상 객체의 이미지 타입을 가로형, 세로형 및 보통형 중 어느 하나로 결정할 수 있다.
여기서,
상기 대상 객체의 이미지 타입을 결정하는 단계는,
수학식 1 및 수학식 2가 모두 만족되는 경우, 상기 대상 객체의 상기 이미지 타입을 상기 가로형으로 결정하고,
상기 수학식 1 및 상기 수학식 2가 모두 만족되지 않는 경우, 상기 대상 객체의 상기 이미지 타입을 상기 세로형으로 결정하고,
상기 수학식 1 및 상기 수학식 2중 어느 하나만 만족되는 경우, 상기 대상 객체의 상기 이미지 타입을 상기 보통형으로 결정할 수 있다.
Aspect ratio_mean > th1 ? 수학식 1
Aspect ratio_max / Aspect_min > th2 ? 수학식 2
(Aspect ratio_mean = 대상 객체의 바운딩 박스들이 가지는 종횡비 값들의 평균 값, Aspect ratio_max = 대상 객체의 바운딩 박스들이 가지는 종횡비 값들 중 최대 값, Aspect ratio_mean = 대상 객체의 바운딩 박스들이 가지는 종횡비 값들 중 최소 값, th1 = 제1 기준 값, th2 = 제2 기준 값)
다른 측면에 있어서,
프로세서(processor); 및
학습용 데이터 베이스 및 상기 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory);를 포함하고,
상기 적어도 하나의 명령은,
상기 학습용 데이터 베이스에 포함된 복수의 학습 이미지들 가운데, 대상 객체가 포함된 학습 이미지들을 추출하고, 상기 대상 객체가 포함된 학습 이미지들로부터, 상기 대상 객체가 회전된 추가 학습 이미지들을 생성하고, 상기 추가 학습 이미지들을 이용하여, 상기 학습용 데이터 베이스를 업데이트 하도록 수행되는 기계 학습 장치가 개시된다.
여기서,
상기 적어도 하나의 명령은,
상기 대상 객체가 포함된 학습 이미지들에서 상기 대상 객체의 바운딩 박스들이 가지는 종횡비 값들의 분포 정보를 획득하도록 수행될 수 있다.
여기서,
상기 적어도 하나의 명령은,
상기 바운딩 박스들이 가지는 종횡비 값들의 분포 정보에 기초하여, 상기 추가 이미지들 각각에 포함된 상기 대상 객체의 회전 각도를 결정하도록 수행될 수 있다.
여기서,
상기 적어도 하나의 명령은,
상기 추가 학습 이미지들에 포함된 상기 대상 객체의 바운딩 박스들이 가지는 종횡비 값들의 분포가 상기 분포 정보를 따르도록 상기 추가 학습 이미지들을 생성하게 수행될 수 있다.
여기서,
상기 적어도 하나의 명령은,
상기 추가 학습 이미지들 각각에 포함된 상기 대상 객체의 바운딩 박스를 재형성하고, 상기 재형성된 바운딩 박스 정보를 상기 추가 학습 이미지에 라벨링 하여 상기 학습용 데이터 베이스에 추가하도록 수행될 수 있다.
여기서,
상기 적어도 하나의 명령은,
업데이트 된 학습용 데이터 베이스를 이용하여, 바운딩 박스 형성 모델을 생성하도록 수행될 수 있다.
여기서,
상기 적어도 하나의 명령은,
상기 대상 객체의 이미지 타입을 결정하고, 상기 대상 객체의 이미지 타입에 기초하여, 상기 대상 객체가 포함된 이미지들에 대한 학습 파라미터를 결정하고, 상기 학습용 데이터 베이스 및 상기 학습 파라미터에 기초하여, 바운딩 박스 형성 모델을 생성하도록 수행될 수 있다.
여기서,
상기 적어도 하나의 명령은,
상기 대상 객체가 포함된 이미지들에서 상기 대상 객체의 바운딩 박스들의 규격 정보를 획득하고, 상기 바운딩 박스들의 규격 정보에 기초하여 상기 대상 객체의 이미지 타입을 결정하도록 수행될 수 있다.
여기서,
상기 적어도 하나의 명령은,
상기 대상 객체의 바운딩 박스들의 종횡비 값들에 기초하여, 상기 대상 객체의 이미지 타입을 가로형, 세로형 및 보통형 중 어느 하나로 결정하도록 수행될 수 있다.
여기서,
상기 적어도 하나의 명령은,
수학식 1 및 수학식 2가 모두 만족되는 경우, 상기 대상 객체의 상기 이미지 타입을 상기 가로형으로 결정하고,
상기 수학식 1 및 상기 수학식 2가 모두 만족되지 않는 경우, 상기 대상 객체의 상기 이미지 타입을 상기 세로형으로 결정하고,
상기 수학식 1 및 상기 수학식 2중 어느 하나만 만족되는 경우, 상기 대상 객체의 상기 이미지 타입을 상기 보통형으로 결정하도록 수행될 수 있다.
Aspect ratio_mean > th1 ? 수학식 1
Aspect ratio_max / Aspect_min > th2 ? 수학식 2
(Aspect ratio_mean = 대상 객체의 바운딩 박스들이 가지는 종횡비 값들의 평균 값, Aspect ratio_max = 대상 객체의 바운딩 박스들이 가지는 종횡비 값들 중 최대 값, Aspect ratio_mean = 대상 객체의 바운딩 박스들이 가지는 종횡비 값들 중 최소 값, th1 = 제1 기준 값, th2 = 제2 기준 값)
개시된 실시예들에 따르면, 객체가 회전된 추가 학습 이미지들 및 추가 학습 이미지들에서 객체의 바운딩 박스 정보를 학습용 데이터 베이스에 추가함으로써, 기계 학습의 품질을 향상시킬 수 있다. 또한, 객체의 이미지 타입에 따라, 객체를 포함하는 학습 이미지의 학습 파라미터를 다르게 설정함으로써, 기계 학습에 의해 생성된 모델의 정확도가 높아질 수 있다.
도 1은 예시적인 실시예에 따른 기계 학습 장치를 나타낸 블록도이다.
도 2는 이미지에서 객체의 바운딩 박스를 예시적으로 나타낸 개념도이다.
도 3은 객체의 회전에 의해 바운딩 박스의 규격이 달라지는 것을 나타낸 개념도이다.
도 4는 상술한 문제를 해결하기 위한, 기계 학습 장치의 기계 학습 방법을 나타낸 흐름도이다.
도 5는 추가 학습 이미지 및 추가 학습 이미지에서 신규 바운딩 박스를 생성하는 것을 나타낸 개념도이다.
도 6은 일반적인 촬영 이미지들에서 평균대의 배열 각도 변화를 나타낸 개념도이다.
도 7은 회전 각도 별로 균일한 개수의 추가 학습 이미지들을 생성할 경우, 발생할 수 있는 문제점을 나타낸 개념도이다.
도 8은 예시적인 실시예에 따른 기계 학습 장치의 기계 학습 방법을 나타낸 흐름도이다.
도 9는 도 7에서 나타낸 평균대 이미지를 회전 시키면서 회전 각도의 변화에 따라 균일하게 추가 학습 이미지를 생성한 경우, 추가 학습 이미지들의 바운딩 박스들이 가지는 종횡비 값들의 분포를 나타낸 그래프이다.
도 10은 평균대를 포함하는 학습 이미지들에서 평균대의 바운딩 박스가 가지는 종횡비 값들의 분포를 나타내는 그래프이다.
도 11은 다른 예시적인 실시예에 따른 기계 학습 장치의 기계 학습 방법을 나타낸 흐름도이다.
도 12는 이미지 타입이 가로형으로 결정된 객체를 예시적으로 나타낸 개념도이다.
도 13은 이미지 타입이 세로형으로 결정된 객체를 예시적으로 나타낸 개념도이다.
도 14는 이미지 타입이 세로형으로 결정된 객체를 예시적으로 나타낸 개념도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
본 명세서에서 학습용 데이터 베이스는 딥러닝에서 기계 학습에 이용되는 학습 자료를 의미한다. 학습용 데이터 베이스에는 복수의 학습 이미지들과 학습 이미지들 각각에 대한 라벨링 정보가 포함되어 있을 수 있다. 학습 이미지의 라벨링 정보는 학습 이미지에 포함된 객체의 식별 정보 및 객체의 위치 정보를 포함할 수 있다. 객체의 식별 정보는 객체가 어떤 물체인 지에 대한 정보를 포함할 수 있다. 또한, 객체의 위치 정보는 객체의 위치를 나타내는 바운딩 박스에 대한 정보를 포함할 수 있다. 라벨링 정보는 딥러닝에서 학습의 피드백 정보로 활용될 수 있다.
도 1은 예시적인 실시예에 따른 기계 학습 장치(100)를 나타낸 블록도이다.
도 1을 참조하면, 예시적인 실시예에 따른 기계 학습 장치(100) 적어도 하나의 프로세서(110), 메모리(120) 및 저장 장치(125) 등을 포함할 수 있다.
프로세서(110)는 메모리(120) 및/또는 저장 장치(125)에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(110)는 중앙 처리 장치(central processing unit; CPU), 그래픽 처리 장치(graphics processing unit; GPU) 또는 본 발명에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120)와 저장 장치(125)는 휘발성 저장 매체 및/또는 비휘발성 저장 매체로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory; ROM) 및/또는 랜덤 액세스 메모리(random access memory; RAM)로 구성될 수 있다.
메모리(120) 및/또는 저장 장치(125)에는 모델 학습을 위한 학습용 데이터 베이스가 저장되어 있을 수 있다. 학습용 데이터 베이스에는 복수의 학습 이미지들을 포함할 수 있다. 학습용 데이터 베이스는 학습 이미지들 각각에 대한 라벨링 정보를 포함할 수 있다. 라벨링 정보는 학습 이미지들 각각에 포함된 객체들에 대한 정보를 포함할 수 있다. 예를 들어, 라벨링 정보는 학습 이미지에 포함된 객체가 무엇인지에 대한 정보와, 객체의 위치를 나타내는 바운딩 박스 정보가 포함되어 있을 수 있다.
메모리(120) 및/또는 저장 장치(125)는 프로세서(110)를 통해 실행되는 적어도 하나의 명령을 저장하고 있을 수 있다. 적어도 하나의 명령은 학습용 데이터 베이스에 포함된 학습 이미지들 및 라벨링 정보들을 이용하여 바운딩 박스 식별 모델을 생성하는 명령을 포함할 수 있다. 적어도 하나의 명령은 학습용 데이터 베이스에서 미리 지정된 물체로 분류된 대상 객체가 포함된 학습 이미지들을 추출하고, 대상 객체가 포함된 이미지들로부터 대상 객체가 회전된 추가 이미지들을 생성하여 학습 데이터 베이스를 업데이트 하는 명령을 포함할 수 있다.
메모리(120) 및/또는 저장 장치(125)에 저장된 명령들은 프로세서(110)의 기계 학습에 의해 업데이트될 수 있다. 프로세서(110)가 수행하는 기계 학습은 지도 학습 방식에 의해 이루어질 수 있다.
프로세서(110)는 메모리(120) 및/또는 저장 장치(125)에 저장된 명령에 따라 메모리(120) 및/또는 저장 장치(125)로부터 학습용 데이터 베이스에 저장된 이미지들 및 라벨링 정보들을 독출할 수 있다. 그리고, 프로세서(110)는 연산에 의해 획득된 추가 이미지들 및 추가 이미지들에 대한 라벨링 정보들을 메모리(120) 및/또는 저장 장치(125)에 저장함으로써, 학습용 데이터 베이스를 업데이트 할 수 있다. 프로세서(110)는 기계 학습에 의해 학습용 데이터 베이스를 학습함으로써, 바운딩 박스 식별 모델을 생성할 수 있다. 기계 학습 과정에서 딥러닝 기술이 이용될 수 있다. 기계 학습은 지도 학습에 기반하여 이루어 질 수 있다. 하지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 지도 학습은 강화 학습에 기반하여 이루어 질 수도 있다. 프로세서(110)에 의해 생성된 바운딩 박스 식별 모델에 대한 정보는 메모리(120) 및/또는 저장 장치(125)에 저장될 수 있다.
도 2는 이미지에서 객체의 바운딩 박스를 예시적으로 나타낸 개념도이다.
도 2를 참조하면, 객체(OB1)의 위치는 바운딩 박스(BX1)에 의해 특정될 수 있다. 바운딩 박스(BX1)는 직사각형 모양을 가질 수 있다. 바운딩 박스(BX1)는 내부에 객체(OB1)를 포함하도록 형성될 수 있다. 바운딩 박스(BX1)의 폭(w)과 높이(h)는, 바운딩 박스(BX1)가 객체(OB1)를 포함하도록 하는 범위에서, 최소 값을 가질 수 있다.
인공 지능을 이용한 이미지 인식에서, 프로세서(110)는 이미지에서 객체의 위치를 추정하기 위해 도 2에서 나타낸 바와 같은 바운딩 박스를 형성할 수 있다. 프로세서(110)는 바운딩 박스(BX1)를 형성하기 위해, 바운딩 박스(BX1)에서 서로 대각선 방향으로 바라보는 두 꼭지점 P1(x1, y1), P2(x2, y2)를 결정할 수 있다. 다른 예로, 프로세서(110)는 두 꼭지점 P1(x1, y1) 및 P2(x2, y2) 중 어느 하나와 바운딩 박스(BX1)의 폭(w) 및 높이(h)를 결정할 수 있다.
프로세서(110)는 학습용 데이터 베이스에 저장된 학습 이미지들 및 학습 이미지들 각각에 대한 라벨링 정보로부터 바운딩 박스를 형성하는 방법을 학습할 수 있다. 프로세서(110)는 학습 이미지를 인식하고, 학습 이미지에 포함된 객체의 바운딩 박스 정보를 확인함으로써, 지도학습에 의해 바운딩 박스를 형성하는 방법을 학습할 수 있다.
도 3은 객체의 회전에 의해 바운딩 박스의 규격이 달라지는 것을 나타낸 개념도이다.
도 3을 참조하면, 이미지1과 이미지2에서 각각 안경이 서로 다른 각도에서 촬영될 수 있다. 이로 인해, 이미지1과 이미지2에서 안경의 바운딩 박스의 규격이 달라질 수 있다. 같은 객체라도 이미지 상에서 배열 각도에 따라 바운딩 박스의 규격이 달라질 수 있다. 예를 들어, 이미지1에서 안경의 바운딩 박스는 폭이 w1이고, 높이가 h1인 반면, 이미지2에서 안경의 바운딩 박스는 폭이 w2이고, 높이가 h2일 수 있다. 이미지1에서 안경의 바운딩 박스가 가지는 종횡비(w1/h1)와 이미지2에서 안경의 바운딩 박스가 가지는 종횡비(w2/h2)가 서로 다를 수 있다.
바운딩 박스를 형성하는 모델의 정확도를 높이기 위해서는 학습용 데이터 베이스가 많은 양의 학습 데이터를 포함해야 한다. 바운딩 박스 형성을 위한 학습에는 많은 양의 학습 이미지들과 학습 이미지들 각각에 포함된 객체들의 바운딩 박스에 대한 정보가 요구된다. 그리고, 동일한 객체에 대해서도 객체의 회전 이미지와 그에 따라 설정된 바운딩 박스에 대한 정보가 학습용 데이터 베이스에 포함되어야 한다.
그런데, 객체 별로 회전 이미지를 다수 확보하는 것은 쉬운 일이 아니며, 객체의 회전 이미지를 다수 확보하더라도, 회전 이미지마다 바운딩 박스를 사람이 일일이 설정해주어야 새로 확보한 이미지에 대한 바운딩 박스 정보를 생성할 수 있다. 이러한 작업에는 상당한 노동력이 요구된다.
도 4는 상술한 문제를 해결하기 위한, 기계 학습 장치(100)의 기계 학습 방법을 나타낸 흐름도이다.
도 4를 참조하면, 기계 학습 장치(100)에 의해 수행되는 기계 학습 방법은, 학습용 데이터 베이스에 포함된 복수의 학습 이미지들 가운데, 대상 객체가 포함된 학습 이미지들을 추출하는 단계(S110), 대상 객체가 포함된 학습 이미지들로부터, 대상 객체가 회전된 추가 학습 이미지들을 생성하는 단계(S120) 및 추가 학습 이미지들을 이용하여, 학습용 데이터 베이스를 업데이트 하는 단계(S130)를 포함할 수 있다.
S110 단계에서, 프로세서(110)는 메모리(120) 및/또는 저장 장치(125)에 저장된 학습용 데이터에 포함된 학습 이미지들 가운데, 대상 객체를 포함하는 학습 이미지들을 추출할 수 있다. 여기서, 대상 객체란 미리 결정된 물체로 분류된 객체들을 의미한다. 본 설명에서는 대상 객체가 안경인 경우를 예로 들어 설명하기로 한다. 예를 들어, 프로세서(110)는 학습 이미지들 가운데, 안경으로 분류된 대상 객체를 포함하는 학습 이미지들을 추출해낼 수 있다.
S120 단계에서, 프로세서(110)는 학습용 데이터 베이스의 보완을 위해 대상 객체가 회전된 추가 이미지를 생성할 수 있다. 프로세서(110)는 추가 이미지를 생성하고, 객체의 종횡비에 따라서 부족한 학습 데이터 베이스를 생성할 수 있다. 프로세서(110)는 추가 이미지로부터 객체의 바운딩 박스의 종횡비에 대한 추가 데이터를 생성할 수 있다.
도 5는 추가 학습 이미지 및 추가 학습 이미지에서 신규 바운딩 박스를 생성하는 것을 나타낸 개념도이다.
도 5를 참조하면, 프로세서(110)는 학습 이미지에서 대상 객체(OB1)가 회전된 추가 학습 이미지를 생성할 수 있다. 프로세서(110)는 학습 이미지에서 대상 객체(OB1)의 바운딩 박스(BX1) 영역만 회전시킴으로써 추가 학습 이미지를 생성할 수 있다. 다른 예로, 프로세서(110)는 학습 이미지 전체를 회전 시킴으로써 추가 학습 이미지를 생성할 수도 있다.
프로세서(110)는 추가 학습 이미지에서 대상 객체(OB1)의 신규 바운딩 박스(BX2)를 형성할 수 있다. 프로세서(110)는 학습 이미지에서 대상 객체(OB1)의 바운딩 박스(BX1)가 어떻게 회전 되는지에 기초하여 신규 바운딩 박스(BX2)를 형성할 수 있다. 예를 들어, 프로세서(110)는 대상 객체(OB1)와 함께 대상 객체(OB1)의 기존 바운딩 박스(BX1)를 회전시키고, 회전된 바운딩 박스(BX1)의 꼭지점들 좌표를 계산할 수 있다. 프로세서(110)는 회전된 바운딩 박스(BX1)의 꼭지점들을 모두 포함하는 최소 직사각형이 되도록, 신규 바운딩 박스(BX2)를 형성할 수 있다.
다시 도 4를 참조하면, S130 단계에서, 프로세서(110)는 S120 단계에서 생성한 추가 학습 이미지와, 추가 학습 이미지에서 형성한 신규 바운딩 박스 정보를 라벨링하여, 메모리(120) 및/또는 저장 장치(125)에 저장할 수 있다. 프로세서(110)는 추가 학습 이미지 및 추가 학습 이미지의 라벨링 정보를 학습용 데이터 베이스에 추가할 수 있다. 추가 학습 이미지의 라벨링 정보는 추가 학습 이미지에 포함된 대상 객체의 분류 정보 및 추가 학습 이미지에서 대상 객체의 위치를 나타내는 바운딩 박스 정보를 포함할 수 있다. 상술한 설명에서는 대상 객체가 안경인 경우를 예로 들어 설명했지만, 실시예가 이에 제한되는 것은 아니다. 프로세서(110)는 대상 대상 객체가 해당하는 물체 정보를 변경해가면서, 추가 학습 이미지 생성 및 학습용 데이터 베이스 업데이트 과정을 반복할 수 있다. 프로세서(110)는 여러 가지 물체들 마다 그 물체들 각각을 포함하는 추가 학습 이미지들을 생성하고, 추가 학습 이미지들 각각에서 바운딩 박스를 새로 형성할 수 있다. 그리고, 프로세서(110)는 추가 학습 이미지들 및 새로운 바운딩 박스들에 대한 정보를 이용하여 학습용 데이터 베이스를 업데이트 할 수 있다.
S140 단계에서, 프로세서(110)는 업데이트 된 학습용 데이터 베이스를 이용하여, 바운딩 박스 형성 모델을 생성할 수 있다. 프로세서(110)는 기계 학습에 기반하여, 업데이트 된 학습용 데이터 베이스를 학습하고, 학습 결과에 기초하여 바운딩 박스 형성 모델을 생성할 수 있다. 프로세서(110)는 S140 단계에서 생성한 바운딩 박스 형성 모델을 이용하여, 이미지를 분석할 때, 바운딩 박스를 형성할 수 있다. S120 단계 및 S130 단계를 통해 학습용 데이터 베이스의 양이 늘어남에 따라 기계 학습 성과가 우수해질 수 있다. 따라서, S140 단계에서 생성한 바운딩 박스 형성 모델의 정확도가 높아질 수 있다.
도 6은 일반적인 촬영 이미지들에서 평균대의 배열 각도 변화를 나타낸 개념도이다.
도 6을 참조하면, 일반적인 촬영 이미지에서는 평균대는 대부분 가로 방향으로 촬영될 수 있다. 즉, 촬영 이미지에서 평균대가 세로 방향으로 촬영되는 경우는 극히 드문 경우이다. 따라서, 평균대를 대상 객체로 할 경우, 회전 각도 별로 균일한 개수의 추가 학습 이미지들을 생성하면, 추가 학습 이미지들과 일반적인 촬영 이미지들 사이에 차이가 있을 수 있다. 그리고, 일반적인 촬영 이미지와 괴리가 있는 추가 학습 이미지를 이용하여 기계 학습을 하게 되면, 바운딩 박스 형성 모델의 정확도가 떨어질 수 있다.
도 7은 회전 각도 별로 균일한 개수의 추가 학습 이미지들을 생성할 경우, 발생할 수 있는 문제점을 나타낸 개념도이다.
도 7을 참조하면, 회전 각도 별로 균일한 개수의 추가 학습 이미지들을 생성할 경우, 가로 방향으로 배열된 평균대 이미지와, 세로 방향으로 배열된 평균대 이미지가 같은 개수만큼 학습용 데이터 베이스에 추가될 수 있다. 하지만, 실제 분석 대상이 되는 이미지에서 평균대가 45도 이상 기울어 진 채로 촬영될 확률은 극히 작은 편이다. 그런데, 회전 각도 별로 균일한 개수의 추가 학습 이미지들을 생성하게 되면, 추가 학습 이미지들에 의해 오히려 기계 학습의 질(quality)이 떨어질 수 있다.
도 8은 예시적인 실시예에 따른 기계 학습 장치(100)의 기계 학습 방법을 나타낸 흐름도이다. 도 8의 실시예를 설명함에 있어서, 도 4와 중복되는 내용은 생략한다.
도 8을 참조하면, 기계 학습 장치(100)의 기계 학습 방법은, 대상 객체가 포함된 학습 이미지들에서 대상 객체의 바운딩 박스들이 가지는 종횡비들에 대한 분포 정보를 획득하는 단계(S115)를 더 포함할 수 있다.
S115 단계에서, 프로세서(110)는 S110 단계에서 추출된 대상 객체가 포함된 학습 이미지들 각각에서 대상 객체의 바운딩 박스 정보를 획득할 수 있다. 프로세서(110)는 학습 이미지들에 포함된 바운딩 박스들이 가지는 종횡비 값들을 계산할 수 있다. 프로세서(110)는 학습 이미지들 각각에서 계산된 바운딩 박스의 종횡비 값들로부터 종횡비 값들의 분포 정보를 획득할 수 있다.
도 9는 일반적인 물체들의 바운딩 박스가 가지는 종횡비의 분포를 나타낸 그래프이다.
도 9를 참조하면, 일반적인 물체들의 바운딩 박스의 종횡비는 대략 0.5 내지 2 사이 값을 많이 가질 수 있다. 하지만, 도 7에서 나타낸 평균대와 같은 가로형 물체의 경우, 바운딩 박스의 종횡비 값이 더 높을 수 있다. 따라서, 평균대에 대한 추가 이미지를 생성하기 위해서는 평균대를 포함하는 이미지를 추출하고, 거기서 평균대가 가지는 바운딩 박스의 종횡비 분포를 먼저 파악해야 한다.
도 10은 평균대를 포함하는 학습 이미지들에서 평균대의 바운딩 박스가 가지는 종횡비 값들의 분포를 나타내는 그래프이다.
도 10에서 나타낸 분포는 예시적인 것에 불과하며, 구체적인 분포 모양은 학습 이미지들이 어떻게 수집되는 지에 따라 조금씩 달라질 수 있다. 도 10을 참조하면, 평균대를 포함하는 학습 이미지들에서 평균대의 바운딩 박스들이 가지는 종횡비 값들은 대부분 3 내지 5 정도에 많이 분포할 수 있다. 또한, 평균대의 종횡비 최대 값이 5이기 때문에, 종횡비 값이 5이상인 바운딩 박스는 존재하지 않을 수 있다. 프로세서(110)는 도 10에서 나타낸 분포 정보를 활용하여, 추가 학습 이미지들 각각에 포함된 평균대의 회전 각도를 결정할 수 있다. 즉, 프로세서(110)는 추가 학습 이미지들을 생성할 때, 각도 변화를 일정하게(uniform) 하는 것이 아니라, 기존의 이미지들에서 파악된 바운딩 박스의 종횡비 분포를 고려하여, 회전 각도를 변화시킬 수 있다.
프로세서(110)는 추가 학습 이미지들에 포함된 평균대의 바운딩 박스들이 가지는 종횡비 값들의 분포가 도 10에서 나타낸 분포를 따르도록 추가 학습 이미지들을 생성할 수 있다. 예를 들어, 프로세서(110)는 평균대가 가로 방향에서 대략 0도 내지 10도 사이의 각도로 회전된 추가 학습 이미지들은 상대적으로 많이 생성하고, 다른 각도로 회전된 추가 학습 이미지들은 상대적으로 적게 생성할 수 있다.
이상에서 기계 학습 장치(100)에 의해 수행되는 기계 학습 방법에 대하여 설명하였다. 상술한 실시예들에 따르면, 기계 학습 장치(100)가 자동으로 학습용 데이터 베이스를 업데이트 하여 기계 학습 결과가 더 정확해질 수 있다. 또한, 학습용 데이터 베이스를 업데이트 할 때, 추가 학습 이미지들에 포함된 바운딩 박스들의 종횡비 분포가 기존 학습 이미지들에 포함된 바운딩 박스들의 종횡비 분포를 따르게 할 수 있다. 이로 인해, 업데이트 된 학습용 데이터 베이스를 통한 기계 학습 효과가 우수해질 수 있다.
기계 학습 장치(100)는 학습용 데이터 베이스를 이용하여, 바운딩 박스 형성 모델을 생성할 수 있다. 기계 학습 장치(100)는 기계 학습에 의해 학습용 데이터 베이스를 학습할 수 있다. 기계 학습에 관련된 학습 파라미터의 설정 값에 따라 기계 학습 장치(100)는 다른 방식으로 학습용 데이터 베이스를 학습할 수 있다. 기계 학습 장치(100)는 학습 이미지들을 학습할 때, 모두 같은 학습 파라미터로 학습 조건을 설정할 수 있다. 다른 예로, 기계 학습 장치(100)는 학습 이미지에 포함된 객체의 이미지 타입에 따라, 학습 파라미터를 다르게 설정할 수 있다.
도 11은 다른 예시적인 실시예에 따른 기계 학습 장치(100)의 기계 학습 방법을 나타낸 흐름도이다.
도 11을 참조하면, S210 단계에서, 프로세서(110)는 학습용 데이터 베이스에포함된 학습 이미지들 가운데, 대상 객체가 포함된 학습 이미지들을 추출할 수 있다.
S220 단계에서, 프로세서(110)는 대상 객체의 이미지 타입을 결정할 수 있다. 이미지 타입은 대상 객체의 바운딩 박스 규격에 따라 결정될 수 있다. 예를 들어, 대상 객체의 바운딩 박스 크기에 따라, 대상 객체의 이미지 타입이 대형, 소형, 중형 중 어느 하나로 결정될 수 있다. 다른 예로, 대상 객체의 바운딩 박스의 종횡비에 따라, 대상 객체의 이미지 타입이 가로형, 세로형, 보통 중 어느 하나로 결정될 수 있다.
프로세서(110)는 대상 객체의 이미지 타입을 결정하기 위해, 대상 객체가 포함된 학습 이미지들에서 대상 객체의 바운딩 박스들의 규격 정보를 획득할 수 있다. 바운딩 박스들의 규격 정보는 바운딩 박스들의 크기에 대한 정보가 포함할 수 있다. 다른 예로, 바운딩 박스들의 규격 정보는 바운딩 박스들이 가지는 종횡비 값들에 대한 정보를 포함할 수 있다.
프로세서(110)는 바운딩 박스들의 크기에 대한 정보로부터, 대상 객체의 이미지 타입을 결정할 수 있다. 예를 들어, 바운딩 박스들이 가지는 넓이 값들의 평균 값과 미리 결정된 기준 값들을 비교하여, 대상 객체를 대형, 소형, 중형 중 어느 하나로 분류할 수 있다.
프로세서(110)는 바운딩 박스들이 가지는 종횡비 값들을 이용하여, 대상 객체의 이미지 타입을 결정할 수도 있다. 프로세서(110)는 수학식 1 및 수학식 2에 기초하여 대상 객체의 이미지 타입을 결정할 수 있다.
Aspect ratio_mean > th1 .... 수학식 1
Aspect ratio_max / Aspect_min > th2 .... 수학식 2
수학식 1 및 수학식 2에서, Aspect ratio_mean은 대상 객체의 바운딩 박스들이 가지는 종횡비 값들의 평균 값을 의미한다. Aspect ratio_max는 대상 객체의 바운딩 박스들이 가지는 종횡비 값들 중 최대 값을 의미하며, Aspect ratio_mean은 대상 객체의 바운딩 박스들이 가지는 종횡비 값들 중 최소 값을 의미한다. 또한, th1은 제1 기준 값을 의미하며, th2는 제2 기준 값을 의미한다. 제1 기준 값 th1 및 제2 기준 값 th2는 개발자에 의해 미리 설정될 수 있다.
프로세서(110)는 수학식 1 및 수학식 2가 모두 만족되는 경우, 대상 객체를 가로형으로 결정할 수 있다. 즉, 프로세서(110)는 수학식 1 및 수학식 2를 기준으로 학습용 데이터 베이스 내의 객체별 특성을 파악하고, 객체를 일반형, 가로형, 및 세로형 중 어느 하나로 분류할 수 있다.
도 12는 이미지 타입이 가로형으로 결정된 객체를 예시적으로 나타낸 개념도이다.
도 12를 참조하면, 평균대의 경우, 평균대를 포함하는 학습 이미지들에서 평균대의 바운딩 박스들이 가지는 종횡비의 평균 값 Aspect ratio_mean이 미리 결정된 제1 기준 값(th1)보다 클 수 있다. 또한, 평균대의 바운딩 박스들이 가지는 종횡비 값들 중 최대 값 Aspect ratio_max와 최소 값 Aspect_min의 비율 Aspect ratio_max / Aspect ratio_min이 제2 기준 값(th2)보다 클 수 있다. 따라서, 프로세서(110)는 평균대의 이미지 타입을 가로형으로 결정할 수 있다.
도 13은 이미지 타입이 세로형으로 결정된 객체를 예시적으로 나타낸 개념도이다.
도 13을 참조하면, 국기봉의 경우, 국기봉을 포함하는 학습 이미지들에서 국기봉의 바운딩 박스들이 가지는 종횡비의 평균 값 Aspect ratio_mean이 미리 결정된 제1 기준 값(th1)보다 작을 수 있다. 또한, 국기봉의 바운딩 박스들이 가지는 종횡비 값들 중 최대 값 Aspect ratio_max와 최소 값 Aspect_min의 비율 Aspect ratio_max / Aspect ratio_min이 제2 기준 값(th2)보다 작을 수 있다. 따라서, 프로세서(110)는 평균대의 이미지 타입을 세로형으로 결정할 수 있다.
도 14는 이미지 타입이 세로형으로 결정된 객체를 예시적으로 나타낸 개념도이다.
도 14를 참조하면, 안경의 경우, 안경을 포함하는 학습 이미지들에서 안경의 바운딩 박스들이 가지는 종횡비의 평균 값 Aspect ratio_mean이 미리 결정된 제1 기준 값(th1)보다 클 수 있다. 반면, 국기봉의 바운딩 박스들이 가지는 종횡비 값들 중 최대 값 Aspect ratio_max와 최소 값 Aspect_min의 비율 Aspect ratio_max / Aspect ratio_min이 제2 기준 값(th2)보다 작을 수 있다. 즉, 안경을 포함하는 학습 이미지들은 수학식 1은 만족하지만 수학식 2는 만족하지 않을 수 있다. 따라서, 프로세서(110)는 평균대의 이미지 타입을 보통형으로 결정할 수 있다.
다시 도 11을 참조하면, S230 단계에서, 프로세서(110)는 대상 객체의 이미지 타입에 기초하여, 대상 객체가 포함된 학습 이미지들에 대한 학습 파라미터를 결정할 수 있다. 예를 들어, 프로세서(110)는 평균대를 가로형으로 분류하고, 평균대를 포함하는 학습 이미지들을 학습할 때에는, 가로형 이미지 학습에 할당된 학습 파라미터로 학습 환경을 설정할 수 있다. 다른 예로, 프로세서(110)는 국기봉을 세로형으로 분류하고, 국기봉을 포함하는 학습 이미지들을 학습할 때에는, 세로형 이미지 학습에 할당된 학습 파라미터로 학습 환경을 설정할 수 있다. 즉, 프로세서(110)는 학습 이미지에 포함된 대상 객체의 이미지 타입에 따라, 학습 이미지를 학습할 때 학습 환경을 결정하는 학습 파라미터를 다르게 설정할 수 있다.
S240 단계에서 프로세서(110)는 바운딩 박스 형성 모델을 생성할 수 있다. 프로세서(110)는 학습용 데이터 베이스를 학습함으로써, 바운딩 박스 형성 모델을 생성할 수 있다. 프로세서(110)는 학습 이미지들을 학습하고, 학습 이미지들에 대한 라벨링 정보를 피드백 정보로 활용하여 바운딩 박스 형성 모델을 생성할 수 있다. 라벨링 정보는 학습 이미지에 포함된 객체의 식별 정보 및 객체의 바운딩 박스 정보가 포함할 수 있다.
프로세서(110)는 학습 이미지들을 학습할 때, 학습 이미지들 각각에 대해 부여된 학습 파라미터에 의해 결정된 학습 방식으로 학습 이미지를 학습할 수 있다. 예를 들어, 프로세서(110)는 평균대와 같은 가로형 객체를 포함하는 학습 이미지를 학습할 때에는 가로형 이미지 학습에 할당된 학습 파라미터로 학습 환경을 설정할 수 있다. 프로세서(110)는 국기봉과 같은 세로형 객체를 포함하는 학습 이미지를 학습할 때에는 세로형 이미지 학습에 할당된 학습 파라미터로 학습 환경을 설정할 수 있다. 프로세서(110)는 안경과 같은 보통형 객체를 포함하는 학습이미지를 학습할 때에는 보통형 이미지 학습에 할당된 학습 파라미터로 학습 환경을 설정할 수 있다. 프로세서(110)가 학습 이미지에 포함된 객체의 이미지 타입에 따라 학습 파라미터를 다르게 적용함으로써, 바운딩 박스 형성 모델의 정확도가 높아질 수 있다.
이상에서 도 1 내지 도 14를 참조하여, 예시적인 실시예들에 따른 기계 학습 장치(100) 및 기계 학습 장치(100)의 기계 학습 방법에 관하여 설명하였다. 실시예들에 따르면, 객체가 회전된 추가 학습 이미지들 및 추가 학습 이미지들에서 객체의 바운딩 박스 정보를 학습용 데이터 베이스에 추가함으로써, 기계 학습의 품질을 향상시킬 수 있다. 또한, 객체의 이미지 타입에 따라, 객체를 포함하는 학습 이미지의 학습 파라미터를 다르게 설정함으로써, 기계 학습에 의해 생성된 모델의 정확도가 높아질 수 있다.
본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능 매체의 예에는 롬, 램, 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러(compiler)에 1의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (20)

  1. 기계 학습 장치에 의해 수행되는, 바운딩 박스의 형성을 학습하는 기계 학습 방법에 있어서,
    학습용 데이터 베이스에 포함된 복수의 학습 이미지들 가운데, 대상 객체가 포함된 학습 이미지들을 추출하는 단계;
    상기 대상 객체가 포함된 학습 이미지들로부터, 상기 대상 객체가 회전된 추가 학습 이미지들을 생성하는 단계; 및
    상기 추가 학습 이미지들을 이용하여, 상기 학습용 데이터 베이스를 업데이트 하는 단계;를 포함하는 기계 학습 방법.
  2. 청구항 1에 있어서,
    상기 대상 객체가 포함된 학습 이미지들에서 상기 대상 객체의 바운딩 박스들이 가지는 종횡비 값들의 분포 정보를 획득하는 단계를 더 포함하는 기계 학습 방법.
  3. 청구항 2에 있어서,
    상기 추가 학습 이미지들을 생성하는 단계는,
    상기 바운딩 박스들이 가지는 종횡비 값들의 분포 정보에 기초하여, 상기 추가 이미지들 각각에 포함된 상기 대상 객체의 회전 각도를 결정하는 기계 학습 방법.
  4. 청구항 3에 있어서,
    상기 추가 학습 이미지들을 생성하는 단계는,
    상기 추가 학습 이미지들에 포함된 상기 대상 객체의 바운딩 박스들이 가지는 종횡비 값들의 분포가 상기 분포 정보를 따르도록 상기 추가 학습 이미지들을 생성하는 기계 학습 방법.
  5. 청구항 1에 있어서,
    상기 학습용 데이터 베이스를 업데이트 하는 단계는,
    상기 추가 학습 이미지들 각각에 포함된 상기 대상 객체의 바운딩 박스를 재형성하고, 상기 재형성된 바운딩 박스 정보를 상기 추가 학습 이미지에 라벨링 하여 상기 학습용 데이터 베이스에 추가하는 기계 학습 방법.
  6. 청구항 1에 있어서,
    업데이트 된 학습용 데이터 베이스를 이용하여, 바운딩 박스 형성 모델을 생성하는 단계를 더 포함하는 기계 학습 방법.
  7. 기계 학습 장치가, 이미지에서 바운딩 박스를 형성하기 위한 기계 학습 방법에 있어서,
    학습용 데이터 베이스에 포함된 복수의 학습 이미지들 가운데, 대상 객체가 포함된 학습 이미지들을 추출하는 단계;
    상기 대상 객체의 이미지 타입을 결정하는 단계;
    상기 대상 객체의 이미지 타입에 기초하여, 상기 대상 객체가 포함된 이미지들에 대한 학습 파라미터를 결정하는 단계; 및
    상기 학습용 데이터 베이스 및 상기 학습 파라미터에 기초하여, 바운딩 박스 형성 모델을 생성하는 단계를 포함하는 기계 학습 방법.
  8. 청구항 7에 있어서,
    상기 대상 객체의 이미지 타입을 결정하는 단계는,
    상기 대상 객체가 포함된 이미지들에서 상기 대상 객체의 바운딩 박스들의 규격 정보를 획득하고, 상기 바운딩 박스들의 규격 정보에 기초하여 상기 대상 객체의 이미지 타입을 결정하는 기계 학습 방법.
  9. 청구항 8에 있어서,
    상기 대상 객체의 이미지 타입을 결정하는 단계는,
    상기 대상 객체의 바운딩 박스들의 종횡비 값들에 기초하여, 상기 대상 객체의 이미지 타입을 가로형, 세로형 및 보통형 중 어느 하나로 결정하는 기계 학습 방법.
  10. 청구항 9에 있어서,
    상기 대상 객체의 이미지 타입을 결정하는 단계는,
    수학식 1 및 수학식 2가 모두 만족되는 경우, 상기 대상 객체의 상기 이미지 타입을 상기 가로형으로 결정하고,
    상기 수학식 1 및 상기 수학식 2가 모두 만족되지 않는 경우, 상기 대상 객체의 상기 이미지 타입을 상기 세로형으로 결정하고,
    상기 수학식 1 및 상기 수학식 2중 어느 하나만 만족되는 경우, 상기 대상 객체의 상기 이미지 타입을 상기 보통형으로 결정하는 기계 학습 방법.
    Aspect ratio_mean > th1 ? 수학식 1
    Aspect ratio_max / Aspect_min > th2 ? 수학식 2
    (Aspect ratio_mean = 대상 객체의 바운딩 박스들이 가지는 종횡비 값들의 평균 값, Aspect ratio_max = 대상 객체의 바운딩 박스들이 가지는 종횡비 값들 중 최대 값, Aspect ratio_mean = 대상 객체의 바운딩 박스들이 가지는 종횡비 값들 중 최소 값, th1 = 제1 기준 값, th2 = 제2 기준 값)
  11. 바운딩 박스의 형성을 학습하는 기계 학습 장치에 있어서,
    프로세서(processor); 및
    학습용 데이터 베이스 및 상기 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory);를 포함하고,
    상기 적어도 하나의 명령은,
    상기 학습용 데이터 베이스에 포함된 복수의 학습 이미지들 가운데, 대상 객체가 포함된 학습 이미지들을 추출하고, 상기 대상 객체가 포함된 학습 이미지들로부터, 상기 대상 객체가 회전된 추가 학습 이미지들을 생성하고, 상기 추가 학습 이미지들을 이용하여, 상기 학습용 데이터 베이스를 업데이트 하도록 수행되는 기계 학습 장치.
  12. 청구항 11에 있어서,
    상기 적어도 하나의 명령은,
    상기 대상 객체가 포함된 학습 이미지들에서 상기 대상 객체의 바운딩 박스들이 가지는 종횡비 값들의 분포 정보를 획득하도록 수행되는 기계 학습 장치.
  13. 청구항 12에 있어서,
    상기 적어도 하나의 명령은,
    상기 바운딩 박스들이 가지는 종횡비 값들의 분포 정보에 기초하여, 상기 추가 이미지들 각각에 포함된 상기 대상 객체의 회전 각도를 결정하도록 수행되는 기계 학습 장치.
  14. 청구항 13에 있어서,
    상기 적어도 하나의 명령은,
    상기 추가 학습 이미지들에 포함된 상기 대상 객체의 바운딩 박스들이 가지는 종횡비 값들의 분포가 상기 분포 정보를 따르도록 상기 추가 학습 이미지들을 생성하게 수행되는 기계 학습 장치.
  15. 청구항 11에 있어서,
    상기 적어도 하나의 명령은,
    상기 추가 학습 이미지들 각각에 포함된 상기 대상 객체의 바운딩 박스를 재형성하고, 상기 재형성된 바운딩 박스 정보를 상기 추가 학습 이미지에 라벨링 하여 상기 학습용 데이터 베이스에 추가하도록 수행되는 기계 학습 장치.
  16. 청구항 11에 있어서,
    상기 적어도 하나의 명령은,
    업데이트 된 학습용 데이터 베이스를 이용하여, 바운딩 박스 형성 모델을 생성하도록 수행되는 기계 학습 장치.
  17. 청구항 11에 있어서,
    상기 적어도 하나의 명령은,
    상기 대상 객체의 이미지 타입을 결정하고, 상기 대상 객체의 이미지 타입에 기초하여, 상기 대상 객체가 포함된 이미지들에 대한 학습 파라미터를 결정하고, 상기 학습용 데이터 베이스 및 상기 학습 파라미터에 기초하여, 바운딩 박스 형성 모델을 생성하도록 수행되는 기계 학습 장치.
  18. 청구항 17에 있어서,
    상기 적어도 하나의 명령은,
    상기 대상 객체가 포함된 이미지들에서 상기 대상 객체의 바운딩 박스들의 규격 정보를 획득하고, 상기 바운딩 박스들의 규격 정보에 기초하여 상기 대상 객체의 이미지 타입을 결정하도록 수행되는 기계 학습 장치.
  19. 청구항 18에 있어서,
    상기 적어도 하나의 명령은,
    상기 대상 객체의 바운딩 박스들의 종횡비 값들에 기초하여, 상기 대상 객체의 이미지 타입을 가로형, 세로형 및 보통형 중 어느 하나로 결정하도록 수행되는 기계 학습 장치.
  20. 청구항 19에 있어서,
    상기 적어도 하나의 명령은,
    수학식 1 및 수학식 2가 모두 만족되는 경우, 상기 대상 객체의 상기 이미지 타입을 상기 가로형으로 결정하고,
    상기 수학식 1 및 상기 수학식 2가 모두 만족되지 않는 경우, 상기 대상 객체의 상기 이미지 타입을 상기 세로형으로 결정하고,
    상기 수학식 1 및 상기 수학식 2중 어느 하나만 만족되는 경우, 상기 대상 객체의 상기 이미지 타입을 상기 보통형으로 결정하도록 수행되는 기계 학습 장치.
    Aspect ratio_mean > th1 ? 수학식 1
    Aspect ratio_max / Aspect_min > th2 ? 수학식 2
    (Aspect ratio_mean = 대상 객체의 바운딩 박스들이 가지는 종횡비 값들의 평균 값, Aspect ratio_max = 대상 객체의 바운딩 박스들이 가지는 종횡비 값들 중 최대 값, Aspect ratio_mean = 대상 객체의 바운딩 박스들이 가지는 종횡비 값들 중 최소 값, th1 = 제1 기준 값, th2 = 제2 기준 값)
KR1020170000944A 2017-01-03 2017-01-03 기계 학습 방법 및 장치 KR102645202B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170000944A KR102645202B1 (ko) 2017-01-03 2017-01-03 기계 학습 방법 및 장치
US15/835,662 US10546209B2 (en) 2017-01-03 2017-12-08 Machine learning method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170000944A KR102645202B1 (ko) 2017-01-03 2017-01-03 기계 학습 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20180080051A true KR20180080051A (ko) 2018-07-11
KR102645202B1 KR102645202B1 (ko) 2024-03-07

Family

ID=62711780

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170000944A KR102645202B1 (ko) 2017-01-03 2017-01-03 기계 학습 방법 및 장치

Country Status (2)

Country Link
US (1) US10546209B2 (ko)
KR (1) KR102645202B1 (ko)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102310588B1 (ko) * 2021-02-10 2021-10-13 주식회사 인피닉 인공지능 학습을 위한 스켈레톤 데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102310587B1 (ko) * 2021-02-10 2021-10-13 주식회사 인피닉 연속된 이미지들에 대한 스켈레톤 데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102310595B1 (ko) * 2021-02-10 2021-10-13 주식회사 인피닉 제안된 정보를 이용하여 객체 속성을 설정할 수 있는 어노테이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102310585B1 (ko) * 2021-02-10 2021-10-13 주식회사 인피닉 용이하게 객체를 지정할 수 있는 어노테이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102343036B1 (ko) * 2021-02-10 2021-12-24 주식회사 인피닉 작업 가이드를 제공할 수 있는 어노테이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
WO2022019391A1 (ko) * 2020-07-23 2022-01-27 주식회사 어반베이스 데이터 증강 기반 스타일 분석 모델 학습 장치 및 방법
WO2022019389A1 (ko) * 2020-07-23 2022-01-27 주식회사 어반베이스 데이터 증강 기반 공간 분석 모델 학습 장치 및 방법
KR102372500B1 (ko) * 2020-11-24 2022-03-10 (주)이노시뮬레이션 비디오 영상을 이용한 3차원 객체 인식 방법 및 이를 실행하는 장치
KR20220049857A (ko) * 2020-10-15 2022-04-22 한화시스템 주식회사 데이터 레이블링 장치 및 방법
KR20220084628A (ko) * 2020-12-14 2022-06-21 네이버랩스 주식회사 학습 데이터 수집 시스템 및 방법
KR20220124322A (ko) * 2021-03-02 2022-09-14 한국자동차연구원 학습 데이터 생성 장치
KR20220153753A (ko) 2021-05-12 2022-11-21 주식회사 포멀웍스 인공 뉴럴 네트워크를 이용한 군대부호 인식 방법, 이를 위한 인공 뉴럴 네트워크 학습 방법, 및 이를 수행하는 컴퓨팅 시스템
US11797824B2 (en) 2019-10-29 2023-10-24 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699139B2 (en) * 2017-03-30 2020-06-30 Hrl Laboratories, Llc System for real-time object detection and recognition using both image and size features
US10452955B2 (en) * 2018-01-15 2019-10-22 Gyrfalcon Technology Inc. System and method for encoding data in an image/video recognition integrated circuit solution
US11488392B2 (en) * 2018-03-15 2022-11-01 Harman International Industries, Incorporated Vehicle system and method for detecting objects and object distance
KR20200130602A (ko) 2019-05-10 2020-11-19 한국전자통신연구원 영상 인식 장치, 영상 인식 장치의 동작 방법, 그리고 영상 인식 장치를 포함하는 컴퓨팅 장치
KR102461732B1 (ko) 2019-07-16 2022-11-01 한국전자통신연구원 강화 학습 방법 및 장치
EP4099264B1 (en) * 2020-03-24 2024-04-24 Sony Group Corporation Learning device and learning method
KR20210129874A (ko) 2020-04-21 2021-10-29 한국전자통신연구원 촬영 영상 데이터의 분석을 위한 모델 학습 장치 및 방법, 그리고 이를 적용한 지능형 영상 촬영 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130094489A (ko) * 2012-02-16 2013-08-26 부경대학교 산학협력단 영상 기반 이상 동작 감시 시스템 및 방법
JP2014067413A (ja) * 2012-09-26 2014-04-17 General Electric Co <Ge> 移動物体の検知および追跡のためのシステムおよび方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825919A (en) * 1992-12-17 1998-10-20 Xerox Corporation Technique for generating bounding boxes for word spotting in bitmap images
US6263113B1 (en) 1998-12-11 2001-07-17 Philips Electronics North America Corp. Method for detecting a face in a digital image
KR100734849B1 (ko) 2005-11-26 2007-07-03 한국전자통신연구원 얼굴 인식 방법 및 그 장치
US7966557B2 (en) 2006-03-29 2011-06-21 Amazon Technologies, Inc. Generating image-based reflowable files for rendering on various sized displays
US8121364B2 (en) 2008-06-20 2012-02-21 General Electric Company System and methods for computer aided analysis of images
GB0818561D0 (en) * 2008-10-09 2008-11-19 Isis Innovation Visual tracking of objects in images, and segmentation of images
US8340385B2 (en) * 2008-12-05 2012-12-25 Siemens Aktiengesellschaft Method and system for left ventricle detection in 2D magnetic resonance images using ranking based multi-detector aggregation
US8548201B2 (en) 2010-09-02 2013-10-01 Electronics And Telecommunications Research Institute Apparatus and method for recognizing identifier of vehicle
US9111173B2 (en) * 2012-04-23 2015-08-18 Honda Motor Co., Ltd. Learning part-based models of objects
KR102224936B1 (ko) 2014-03-18 2021-03-08 에스케이플래닛 주식회사 식별을 위해 확장된 영역에 대한 특징을 수집하는 학습 장치 및 방법 및 컴퓨터 프로그램이 기록된 기록매체
KR102199094B1 (ko) 2014-05-26 2021-01-07 에스케이텔레콤 주식회사 관심객체 검출을 위한 관심영역 학습장치 및 방법
US9430704B2 (en) 2015-01-16 2016-08-30 Sony Corporation Image processing system with layout analysis and method of operation thereof
US10304191B1 (en) * 2016-10-11 2019-05-28 Zoox, Inc. Three dimensional bounding box estimation from two dimensional images
US10346723B2 (en) * 2016-11-01 2019-07-09 Snap Inc. Neural network for object detection in images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130094489A (ko) * 2012-02-16 2013-08-26 부경대학교 산학협력단 영상 기반 이상 동작 감시 시스템 및 방법
JP2014067413A (ja) * 2012-09-26 2014-04-17 General Electric Co <Ge> 移動物体の検知および追跡のためのシステムおよび方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Gong Cheng et. al., Learning Rotation-Invariant Convolutional Neural Networks for Object Detection in VHR Optical Remote Sensing Images, IEEE TRANS. ON GEOSCIENCE AND REMOTE SENSING, DEC. 2016* *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11797824B2 (en) 2019-10-29 2023-10-24 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof
WO2022019391A1 (ko) * 2020-07-23 2022-01-27 주식회사 어반베이스 데이터 증강 기반 스타일 분석 모델 학습 장치 및 방법
WO2022019389A1 (ko) * 2020-07-23 2022-01-27 주식회사 어반베이스 데이터 증강 기반 공간 분석 모델 학습 장치 및 방법
KR20220049857A (ko) * 2020-10-15 2022-04-22 한화시스템 주식회사 데이터 레이블링 장치 및 방법
KR102372500B1 (ko) * 2020-11-24 2022-03-10 (주)이노시뮬레이션 비디오 영상을 이용한 3차원 객체 인식 방법 및 이를 실행하는 장치
KR20220084628A (ko) * 2020-12-14 2022-06-21 네이버랩스 주식회사 학습 데이터 수집 시스템 및 방법
KR102343036B1 (ko) * 2021-02-10 2021-12-24 주식회사 인피닉 작업 가이드를 제공할 수 있는 어노테이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102310585B1 (ko) * 2021-02-10 2021-10-13 주식회사 인피닉 용이하게 객체를 지정할 수 있는 어노테이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102310595B1 (ko) * 2021-02-10 2021-10-13 주식회사 인피닉 제안된 정보를 이용하여 객체 속성을 설정할 수 있는 어노테이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102310588B1 (ko) * 2021-02-10 2021-10-13 주식회사 인피닉 인공지능 학습을 위한 스켈레톤 데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102310587B1 (ko) * 2021-02-10 2021-10-13 주식회사 인피닉 연속된 이미지들에 대한 스켈레톤 데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR20220124322A (ko) * 2021-03-02 2022-09-14 한국자동차연구원 학습 데이터 생성 장치
KR20220153753A (ko) 2021-05-12 2022-11-21 주식회사 포멀웍스 인공 뉴럴 네트워크를 이용한 군대부호 인식 방법, 이를 위한 인공 뉴럴 네트워크 학습 방법, 및 이를 수행하는 컴퓨팅 시스템

Also Published As

Publication number Publication date
US20180189596A1 (en) 2018-07-05
KR102645202B1 (ko) 2024-03-07
US10546209B2 (en) 2020-01-28

Similar Documents

Publication Publication Date Title
KR20180080051A (ko) 기계 학습 방법 및 장치
Movshovitz-Attias et al. How useful is photo-realistic rendering for visual learning?
CN113537208B (zh) 一种基于语义orb-slam技术的视觉定位方法及系统
CN111161349B (zh) 物体姿态估计方法、装置与设备
US8238660B2 (en) Hybrid graph model for unsupervised object segmentation
JP6262748B2 (ja) 教師あり形状ランク付けに基づく生物学的単位の識別
JP5352738B2 (ja) 3次元モデルを使用した物体認識
CN111738908B (zh) 结合实例分割和循环生成对抗网络的场景转换方法及系统
CN110232713B (zh) 一种图像目标定位修正方法及相关设备
CN112734641A (zh) 目标检测模型的训练方法、装置、计算机设备及介质
US20230070008A1 (en) Generating three-dimensional object models from two-dimensional images
Jha et al. A post COVID machine learning approach in teaching and learning methodology to alleviate drawbacks of the e-whiteboards
US9129152B2 (en) Exemplar-based feature weighting
CN116363319B (zh) 一种建筑物屋顶的建模方法、建模装置、设备及介质
CN116994084A (zh) 区域入侵检测模型训练方法及区域入侵检测方法
CN116091784A (zh) 一种目标跟踪方法、设备及存储介质
CN113808142B (zh) 一种地面标识的识别方法、装置、电子设备
CN108898188A (zh) 一种图像数据集辅助标记系统及方法
Li et al. Instance-aware semantic segmentation of road furniture in mobile laser scanning data
CN114781014A (zh) 对象处理方法、装置、设备及计算机可读存储介质
CN114708462A (zh) 多数据训练的检测模型生成方法、系统、设备及存储介质
CN113888567A (zh) 一种图像分割模型的训练方法、图像分割方法及装置
Dong et al. Robust facial landmark localization using multi partial features
CN113144615B (zh) 一种从单张设计图片建模3d场景系统
CN115601631B (zh) 一种卷烟陈列图像识别方法、系统、设备及储存介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant