KR20210038280A - 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치 - Google Patents

머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치 Download PDF

Info

Publication number
KR20210038280A
KR20210038280A KR1020200015042A KR20200015042A KR20210038280A KR 20210038280 A KR20210038280 A KR 20210038280A KR 1020200015042 A KR1020200015042 A KR 1020200015042A KR 20200015042 A KR20200015042 A KR 20200015042A KR 20210038280 A KR20210038280 A KR 20210038280A
Authority
KR
South Korea
Prior art keywords
image
object recognition
related image
display time
present
Prior art date
Application number
KR1020200015042A
Other languages
English (en)
Other versions
KR102539072B1 (ko
Inventor
윤정하
김재현
조희연
Original Assignee
주식회사 작당모의
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 작당모의 filed Critical 주식회사 작당모의
Priority to JP2022519820A priority Critical patent/JP2022550548A/ja
Priority to PCT/KR2020/009479 priority patent/WO2021060684A1/ko
Priority to US17/763,977 priority patent/US20220319176A1/en
Publication of KR20210038280A publication Critical patent/KR20210038280A/ko
Application granted granted Critical
Publication of KR102539072B1 publication Critical patent/KR102539072B1/ko
Priority to JP2023198484A priority patent/JP2024016283A/ja

Links

Images

Classifications

    • G06K9/00711
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치에 관한 것이다. 본 발명의 일 실시예에 따른 객체 인식 방법은, (a) 객체 관련 영상을 획득하는 단계; 및 (b) 객체 인식 딥러닝 모델을 이용하여, 상기 획득된 객체 관련 영상으로부터 상기 객체 및 객체 표시 시간을 인식하는 단계;를 포함할 수 있다.

Description

머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치{A Method and Apparatus for Object Recognition using Machine Learning}
본 발명은 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치에 관한 것으로, 더욱 상세하게는 미신 러닝을 이용하여 객체 및 객체 표시 시간을 인식하기 위한 방법 및 장치에 관한 것이다.
최근 개인의 노하우를 공유하는 방법이 TEXT 중심에서 영상중심으로 이동하고 있는 추세이다. 이러한 영상에서 사용한 사물을 판별해 낼 수 있다면 다양한 비즈니스 모델을 붙일 수 있으며, 컨텐츠를 풍성하게 가공할 수 있는 기본이 될 수 있다. 이를 구현하기 위해 사람이 인위적으로 대입하는 방식은 많은 시간과 자본노동이 소요되기도 하고 일정한 품질관리를 유지하기 어려운 단점이 있다. 이를 활용한다면, 영상을 가공하는 사람에게나, 영상을 통해 노하우를 제공 받는 사람들에게 모두 유익한 정보로서의 의미가 있을 것이다.
다만, 영상 속에서 객체를 인지할 수 있도록 하는 과정에서 다량의 이미지 학습데이터를 수집해서 태깅해야 하는 초기 데이터수집 노력이 너무 크다는 문제점이 있다.
[특허문헌 1] 한국공개특허 제10-2020-0011728호
본 발명은 전술한 문제점을 해결하기 위하여 창출된 것으로, 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치를 제공하는 것을 그 목적으로 한다.
또한, 본 발명은 인공지능을 도입하여 영상 속에서 객체를 찾아내기 위하여 사람의 수작업이 대량 투입되어야 학습할 수 있는 종래 상황을 개선하고자 한다.
또한, 본 발명은 최초 수 백개 정도의 적은 수량으로 시작하여 제품 학습을 시작할 수 있는 스파이럴 학습모델을 도입하여 빠른 시간안에 객체의 특성상 영상 속에서 객체를 인식할 수 있도록 하는 장치 및 방법을 제공함에 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
상기한 목적들을 달성하기 위하여, 본 발명의 일 실시예에 따른 객체 인식 방법은 (a) 객체 관련 영상을 획득하는 단계; 및 (b) 객체 인식 딥러닝 모델을 이용하여, 상기 획득된 객체 관련 영상으로부터 상기 객체 및 객체 표시 시간을 인식하는 단계;를 포함할 수 있다.
실시예에서, 상기 (a) 단계는, 상기 객체 관련 영상을 획득하는 단계; 상기 객체 관련 영상을 다수의 프레임으로 분할하는 단계; 및 상기 다수의 프레임 중 상기 객체가 포함된 프레임을 결정하는 단계;를 포함할 수 있다.
실시예에서, 상기 (b) 단계는, 미리 태깅된 객체의 학습 이미지로부터 상기 객체 인식 딥러닝 모델을 학습시키는 단계; 및 상기 학습된 객체 인식 딥러닝 모델을 이용하여 상기 객체 관련 영상에 포함된 객체를 태깅하는 단계;를 포함할 수 있다.
실시예에서, 상기 학습시키는 단계는, 상기 미리 태깅된 객체의 학습 이미지로부터 특징(feature)을 결정하는 단계; 및 상기 결정된 특징을 벡터(vector) 값으로 변환하는 단계;를 포함할 수 있다.
실시예에서, 상기 객체 인식 방법은, 상기 객체 및 객체 표시 시간에 기반하여 상기 객체 관련 영상을 디스플레이하는 단계;를 더 포함할 수 있다.
실시예에서, 상기 객체 인식 방법은, 상기 객체 표시 시간에 대한 입력을 획득하는 단계; 및 상기 다수의 프레임 중, 상기 객체 표시 시간에 대응하는 상기 객체가 포함된 프레임을 디스플레이하는 단계;를 더 포함할 수 있다.
실시예에서, 객체 인식 장치는, 객체 관련 영상을 획득하는 통신부; 및 객체 인식 딥러닝 모델을 이용하여, 상기 획득된 객체 관련 영상으로부터 상기 객체 및 객체 표시 시간을 인식하는 제어부;를 포함할 수 있다.
실시예에서, 상기 통신부는, 상기 객체 관련 영상을 획득하고, 상기 제어부는, 상기 객체 관련 영상을 다수의 프레임으로 분할하며, 상기 다수의 프레임 중 상기 객체가 포함된 프레임을 결정할 수 있다.
실시예에서, 상기 제어부는, 미리 태깅된 객체의 학습 이미지로부터 상기 객체 인식 딥러닝 모델을 학습시키고, 상기 학습된 객체 인식 딥러닝 모델을 이용하여 상기 객체 관련 영상에 포함된 객체를 태깅할 수 있다.
실시예에서, 상기 제어부는, 상기 미리 태깅된 객체의 학습 이미지로부터 특징(feature)을 결정하고, 상기 결정된 특징을 벡터(vector) 값으로 변환할 수 있다.
실시예에서, 상기 객체 인식 장치는, 상기 객체 및 객체 표시 시간에 기반하여 상기 객체 관련 영상을 디스플레이하는 표시부;를 더 포함할 수 있다.
실시예에서, 상기 객체 인식 장치는, 상기 객체 표시 시간에 대한 입력을 획득하는 입력부; 및 상기 다수의 프레임 중, 상기 객체 표시 시간에 대응하는 상기 객체가 포함된 프레임을 디스플레이하는 표시부;를 더 포함할 수 있다.
상기한 목적들을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술될 실시예들을 참조하면 명확해질 것이다.
그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자(이하, "통상의 기술자")에게 발명의 범주를 완전하게 알려주기 위해서 제공되는 것이다.
본 발명의 일 실시예에 의하면, 기계학습을 통하여 영상내 객체를 검출하고 이용함으로 영상컨텐츠를 제공함에 있어서 더욱 풍부하고 활용도 있는 서비스를 제공할 수 있다.
또한, 본 발명의 일 실시예에 의하면, 영상 내 다양한 제품이 사용되고 있는 현상을 알 수 있고, 특정브랜드나 제품이 얼마만큼 영상에서 소요되는지를 특정할 수 있다.
또한, 본 발명의 일 실시예에 의하면, 고객의 궁금증을 풀어줄 수 있고 긴 영상내 특정 제품이 노출된 곳으로 바로 진입시키는 서비스가 가능하다.
본 발명의 효과들은 상술된 효과들로 제한되지 않으며, 본 발명의 기술적 특징들에 의하여 기대되는 잠정적인 효과들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 객체 인식 방법을 도시한 도면이다.
도 2a는 본 발명의 일 실시예에 따른 영상 수집의 예를 도시한 도면이다.
도 2b는 본 발명의 일 실시예에 따른 객체 인식 딥러닝 모델 학습의 예를 도시한 도면이다.
도 2c 및 2d는 본 발명의 일 실시예에 따른 객체 인식의 예를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 객체 인식을 위한 사전준비 동작 방법을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 객체 인식을 위한 인식추출 동작 방법을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 객체 인식 장치의 기능적 구성을 도시한 도면이다.
본 발명은 다양한 변경을 가할 수 있고, 여러 가지 실시예들을 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
청구범위에 개시된 발명의 다양한 특징들은 도면 및 상세한 설명을 고려하여 더 잘 이해될 수 있을 것이다. 명세서에 개시된 장치, 방법, 제법 및 다양한 실시예들은 예시를 위해서 제공되는 것이다. 개시된 구조 및 기능상의 특징들은 통상의 기술자로 하여금 다양한 실시예들을 구체적으로 실시할 수 있도록 하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다. 개시된 용어 및 문장들은 개시된 발명의 다양한 특징들을 이해하기 쉽게 설명하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다.
본 발명을 설명함에 있어서, 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.
이하, 본 발명의 일 실시예에 따른 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치를 설명한다.
도 1은 본 발명의 일 실시예에 따른 객체 인식 방법을 도시한 도면이다. 도 2a는 본 발명의 일 실시예에 따른 영상 수집의 예를 도시한 도면이다. 도 2b는 본 발명의 일 실시예에 따른 객체 인식 딥러닝 모델 학습의 예를 도시한 도면이다. 도 2c 및 2d는 본 발명의 일 실시예에 따른 객체 인식의 예를 도시한 도면이다.
도 1을 참고하면, S101 단계는, 객체 관련 영상을 획득하는 단계이다. 일 실시예에서, 도 2a를 참고하면, 객체 관련 영상(201)을 획득하고, 객체 관련 영상(201)을 다수의 프레임으로 분할하며, 다수의 프레임 중 객체가 포함된 프레임(203)을 결정할 수 있다.
예를 들어, 다수의 프레임은 객체 관련 영상(201)을 1초 단위로 분할하여 생성될 수 있다.
S103 단계는, 객체 인식 딥러닝 모델을 이용하여, 객체 관련 영상으로부터 객체 및 객체 표시 시간을 인식하는 단계이다.
일 실시예에서, 도 2b를 참고하면, 미리 태깅된 객체의 학습 이미지로부터 객체 인식 딥러닝 모델(210)을 학습시킬 수 있다. 예를 들어, 미리 태깅된 객체의 학습 이미지로부터 특징(feature)을 결정하고, 결정된 특징을 벡터(vector) 값으로 변환할 수 있다.
일 실시예에서, 도 2c 및 2d를 참고하면, 객체 ID(220) 및 해당 객체가 표시되는 화면에 대한 객체 표시 시간을 결정할 수 있다.
일 실시예에서, 객체 및 객체 표시 시간에 기반하여 객체 관련 영상을 디스플레이할 수 있다.
일 실시예에서, 객체 표시 시간에 대한 입력을 획득하고, 다수의 프레임 중 객체 표시 시간에 대응하는 객체가 포함된 프레임을 디스플레이할 수 있다.
일 실시예에서, 사용자에 의한 객체 표시 시간에 대한 입력의 횟수가 임계값 이상인 경우, 상기 객체 표시 시간에 대응하는 객체가 포함되는 적어도 하나의 객체 관련 영상의 리스트를 디스플레이할 수 있다.
즉, 해당 객체 표시 시간으로의 타임 워프의 횟수가 일정 수 이상인 경우, 해당 객체에 대한 사용자의 선호도가 높은 것으로 판단하고, 해당 객체와 관련된 다양한 영상들의 리스트를 사용자에게 제공함으로써, 사용자의 객체 검색 활용성을 높일 수 있다.
예를 들어, 상기 객체는, 화장품, 악세사리, 패션잡화 등 다양한 제품을 포함할 수 있으나, 이에 제한되지 않는다.
도 3은 본 발명의 일 실시예에 따른 객체 인식을 위한 사전준비 동작 방법을 도시한 도면이다.
도 3을 참고하면, S301 단계는, 자체 확보한 알고리즘으로 학습영상을 수집하는 단계이다. 여기서, 학습영상은 객체 인식 딥러닝 모델의 학습을 위한 영상을 포함할 수 있다.
일 실시예에서, 학습영상에 존재하는 키워드를 파악하고 키워드들이 자체 확보한 알고리즘을 이용하여, 영상으로 사용할 수 있는 영상과 사용할 수 없는 영상을 구분할 수 있다.
S303 단계는, 학습영상으로부터 객체 이미지를 추출하는 단계이다. 예를 들어, 블러현상과 번짐 현상에 대한 문제를 최소화하기 위해 1초 단위로 객체 이미지를 추출하여 학습영상을 세분화할 수 있다.
S305 단계는, 객체 이미지로부터 객체 인식 딥러닝 모델(210)을 학습시키는 단계이다. 이 경우, 객체 이미지는 객체의 학습 이미지를 포함할 수 있다.
이 경우, 학습 이미지의 객체는 사용자에 의해 미리 태깅될 수 있다. 즉, 최초 사용자의 개입으로 객체를 태깅하기, 최소화 시킬 수 있는 최소 수량을 구해 도입할 수 있다.
이후, 객체의 이미지 중에서 특징을 파악하여 벡터 형태의 계산할 수 있다. 예를 들어, 객체 인식 딥러닝 모델(210)은 YOLO 알고리즘, SSD(Single Shot Multibox Detector) 알고리즘 및 CNN 알고리즘 등이 있으나, 다른 알고리즘의 적용을 배제하는 것은 아니다.
S307 단계는, 객체 인식 딥러닝 모델(210)의 학습에 따라 계산된 학습파일을 저장하는 단계이다. 이 경우, 학습파일은 추출하는 서버로 이동하여 추출의 적정성을 측정할 수 있다.
S309 단계는, 학습파일을 활용하여 객체 관련 영상에서 객체를 자동 태깅하는 단계이다. 즉, 새로 유입된 객체 관련 영상에서의 객체를 학습할 수 있는 데이터로 자동 유입될 수 있도록 하는 자동 태깅단계이다.
일 실시예에서, 양질의 학습 이미지를 많이 입수하고 학습을 시킬수록 인식률이 많이 올라가므로 이를 반복적으로 학습하여 원하는 인식률이 나올때까지 S305 단계 내지 S309 단계를 반복할 수 있다.
도 4는 본 발명의 일 실시예에 따른 객체 인식을 위한 인식추출 동작 방법을 도시한 도면이다.
도 4를 참고하면, S401 단계는, 객체 관련 영상을 획득하는 단계이다. 즉, 새로운 영상을 입력할 수 있다. 일 실시예에서, 새로운 영상은 도 3의 S301 단계와 동일한 방식으로 획득될 수 있다.
S403 단계는, 객체 관련 영상에서 객체 이미지를 추출할 수 있다. 즉, 객체 관련 영상으로부터 객체가 포함된 프레임을 추출할 수 있다. 예를 들어, 객체 이미지가 입력될 수 있도록 1초 단위 이미지로 추출할 수 있다.
S405 단계는, 객체 이미지와 객체 인식 딥러닝 모델에 의해 생성된 학습파일의 일치 여부를 판단하는 단계이다. 즉, 객체 이미지와 학습 파일을 가지고 객체의 종류를 찾아낼 수 있다. 여기서, 학습 파일은 기존 객체 DB(database)를 포함할 수 있다.
S407 단계는, 객체 이미지와 객체 인식 딥러닝 모델에 의해 생성된 학습파일이 일치하는 경우, 객체 이미지에 대응하는 객체의 ID(identification) 및 객체 표시 시간(time)을 추출하는 단계이다.
S409 단계는, 객체 이미지와 객체 인식 딥러닝 모델에 의해 생성된 학습파일이 일치하지 않는 경우, 새로운 객체를 등록할 수 있도록 객체 이미지를 저장하는 단계이다.
즉, 매칭할 수 없는 데이터들은 또 수동 태깅하여 객체 인식 딥러닝 모델의 학습에 이용하여 다음번 인식추출단계에서는 객체 DB와 매칭 될 수 있도록 선순환 사이클(Circle)이 원활이 만들어지도록 시스템을 구성할 수 있다.
도 5는 본 발명의 일 실시예에 따른 객체 인식 장치(500)의 기능적 구성을 도시한 도면이다.
도 5를 참고하면, 객체 인식 장치(500)는 통신부(510), 제어부(520), 표시부(530), 입력부(540) 및 저장부(550)를 포함할 수 있다.
통신부(510)는 객체 관련 영상을 획득할 수 있다.
일 실시예에서, 통신부(510)는 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다. 통신부(510)의 전부 또는 일부는 '송신부', '수신부' 또는 '송수신부(transceiver)'로 지칭될 수 있다.
제어부(520)는 객체 인식 딥러닝 모델을 이용하여, 객체 관련 영상으로부터 객체 및 객체 표시 시간을 인식할 수 있다.
일 실시예에서, 제어부(520)는 뷰티관련 크리에이터 및 관련 영상을 수집하는 영상수집부(522), 수집된 영상을 모아서 심화학습(Deep Learning)하고 기 학습한 학습데이터를 활용하여 신규 제품을 자동 태깅하여 학습하는 사물학습부(524) 및 특정한 이미지를 제시했을때 학습된 제품 중에서 이 제품이 무엇인지를 구분해 내는 사물추출부(526)를 포함할 수 있다.
일 실시예에서, 제어부(520)는 적어도 하나의 프로세서 또는 마이크로(micro) 프로세서를 포함하거나, 또는, 프로세서의 일부일 수 있다. 또한, 제어부(520)는 CP(communication processor)라 지칭될 수 있다. 제어부(520)는 본 발명의 다양한 실시예에 따른 객체 인식 장치(500)의 동작을 제어할 수 있다.
표시부(530)는 객체 및 객체 표시 시간에 기반하여 객체 관련 영상을 디스플레이할 수 있다. 일 실시예에서, 표시부(530)는 다수의 프레임 중, 객체 표시 시간에 대응하는 객체가 포함된 프레임을 디스플레이할 수 있다.
일 실시예에서, 표시부(530)는 객체 인식 장치(500)에서 처리되는 정보를 나타낼 수 있다. 예를 들면, 표시부(530)는 액정 디스플레이(LCD; Liquid Crystal Display), 발광 다이오드(LED; Light Emitting Diode) 디스플레이, 유기 발광 다이오드(OLED; Organic LED) 디스플레이, 마이크로 전자기계 시스템(MEMS; Micro Electro Mechanical Systems) 디스플레이 및 전자 종이(electronic paper) 디스플레이 중 적어도 어느 하나를 포함할 수 있다.
입력부(540) 객체 표시 시간에 대한 입력을 획득할 수 있다. 일 실시예에서, 입력부(540)는 사용자에 의한 객체 표시 시간에 대한 입력을 획득할 수 있다.
저장부(550)는 객체 인식 딥러닝 모델(210의 학습파일, 객체 관련 영상, 객체 ID 및 객체 표시 시간을 저장할 수 있다.
일 실시예에서, 저장부(550)는 휘발성 메모리, 비휘발성 메모리 또는 휘발성 메모리와 비휘발성 메모리의 조합으로 구성될 수 있다. 그리고, 저장부(550)는 제어부(520)의 요청에 따라 저장된 데이터를 제공할 수 있다.
도 5를 참고하면, 객체 인식 장치(500)는 통신부(510), 제어부(520), 표시부(530), 입력부(540) 및 저장부(550)를 포함할 수 있다. 본 발명의 다양한 실시 예들에서 객체 인식 장치(500)는 도 5에 설명된 구성들이 필수적인 것은 아니어서, 도 5에 설명된 구성들보다 많은 구성들을 가지거나, 또는 그보다 적은 구성들을 가지는 것으로 구현될 수 있다.
본 발명에 따르면, 최초 수백개의 영상으로 수동으로 학습하고 학습한 데이터를 활용하여 다른 이미지를 자동으로 추출할 수 있도록 시스템을 구축하였다.
또한, 본 발명에 따르면, 객체 이미지를 집어넣으면 자동으로 태깅할 수 있는 것은 자동으로 태깅될 수 있도록 하였고, 자동으로 태깅되지 않은 것들을 따로 모아 태깅하도록 시스템을 구축하여, 사람의 수작업이 최소화될 수 있다.
또한, 본 발명에 따르면, 초기 데이터수집을 최소화 할 수 있도록 최초 소량의 데이터를 이용하여 학습하고 이 학습데이터를 활용하여 자동으로 이미지의 형태를 추출하여 학습데이터 만드는데 활용하고 이러한 과정을 반복시켜서 고품질의 학습데이터를 학습할 수 있다.
이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로, 통상의 기술자라면 본 발명의 본질적인 특성이 벗어나지 않는 범위에서 다양한 변경 및 수정이 가능할 것이다.
따라서, 본 명세서에 개시된 실시예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라, 설명하기 위한 것이고, 이러한 실시예들에 의하여 본 발명의 범위가 한정되는 것은 아니다.
본 발명의 보호범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 이해되어야 한다.
201: 객체 관련 영상
203: 프레임
210: 객체 인식 딥러닝 모델
220: 객체 ID
500: 객체 인식 장치
510: 통신부
520: 제어부
522: 영상수집부
524: 사물학습부
526: 사물추출부
530: 표시부
540: 입력부
550: 저장부

Claims (12)

  1. (a) 객체 관련 영상을 획득하는 단계; 및
    (b) 객체 인식 딥러닝 모델을 이용하여, 상기 획득된 객체 관련 영상으로부터 상기 객체 및 객체 표시 시간을 인식하는 단계;
    를 포함하는,
    객체 인식 방법.
  2. 제1항에 있어서,
    상기 (a) 단계는,
    상기 객체 관련 영상을 획득하는 단계;
    상기 객체 관련 영상을 다수의 프레임으로 분할하는 단계; 및
    상기 다수의 프레임 중 상기 객체가 포함된 프레임을 결정하는 단계;
    를 포함하는,
    객체 인식 방법.
  3. 제1항에 있어서,
    상기 (b) 단계는,
    미리 태깅된 객체의 학습 이미지로부터 상기 객체 인식 딥러닝 모델을 학습시키는 단계; 및
    상기 학습된 객체 인식 딥러닝 모델을 이용하여 상기 객체 관련 영상에 포함된 객체를 태깅하는 단계;
    를 포함하는,
    객체 인식 방법.
  4. 제3항에 있어서,
    상기 학습시키는 단계는,
    상기 미리 태깅된 객체의 학습 이미지로부터 특징(feature)을 결정하는 단계; 및
    상기 결정된 특징을 벡터(vector) 값으로 변환하는 단계;
    를 포함하는,
    객체 인식 방법.
  5. 제1항에 있어서,
    상기 객체 및 객체 표시 시간에 기반하여 상기 객체 관련 영상을 디스플레이하는 단계;
    를 더 포함하는,
    객체 인식 방법.
  6. 제2항에 있어서,
    상기 객체 표시 시간에 대한 입력을 획득하는 단계; 및
    상기 다수의 프레임 중, 상기 객체 표시 시간에 대응하는 상기 객체가 포함된 프레임을 디스플레이하는 단계;
    를 더 포함하는,
    객체 인식 방법.
  7. 객체 관련 영상을 획득하는 통신부; 및
    객체 인식 딥러닝 모델을 이용하여, 상기 획득된 객체 관련 영상으로부터 상기 객체 및 객체 표시 시간을 인식하는 제어부;
    를 포함하는,
    객체 인식 장치.
  8. 제7항에 있어서,
    상기 통신부는, 상기 객체 관련 영상을 획득하고,
    상기 제어부는, 상기 객체 관련 영상을 다수의 프레임으로 분할하며,
    상기 다수의 프레임 중 상기 객체가 포함된 프레임을 결정하는,
    객체 인식 장치.
  9. 제7항에 있어서,
    상기 제어부는,
    미리 태깅된 객체의 학습 이미지로부터 상기 객체 인식 딥러닝 모델을 학습시키고,
    상기 학습된 객체 인식 딥러닝 모델을 이용하여 상기 객체 관련 영상에 포함된 객체를 태깅하는,
    객체 인식 장치.
  10. 제9항에 있어서,
    상기 제어부는,
    상기 미리 태깅된 객체의 학습 이미지로부터 특징(feature)을 결정하고,
    상기 결정된 특징을 벡터(vector) 값으로 변환하는,
    객체 인식 장치.
  11. 제7항에 있어서,
    상기 객체 및 객체 표시 시간에 기반하여 상기 객체 관련 영상을 디스플레이하는 표시부;
    를 더 포함하는,
    객체 인식 장치.
  12. 제8항에 있어서,
    상기 객체 표시 시간에 대한 입력을 획득하는 입력부; 및
    상기 다수의 프레임 중, 상기 객체 표시 시간에 대응하는 상기 객체가 포함된 프레임을 디스플레이하는 표시부;
    를 더 포함하는,
    객체 인식 장치.
KR1020200015042A 2019-09-29 2020-02-07 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치 KR102539072B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022519820A JP2022550548A (ja) 2019-09-29 2020-07-17 機械学習を利用した画像内客体認識方法及び装置
PCT/KR2020/009479 WO2021060684A1 (ko) 2019-09-29 2020-07-17 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치
US17/763,977 US20220319176A1 (en) 2019-09-29 2020-07-17 Method and device for recognizing object in image by means of machine learning
JP2023198484A JP2024016283A (ja) 2019-09-29 2023-11-22 機械学習を利用した客体画像提供方法及び装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190120261 2019-09-29
KR1020190120261 2019-09-29

Publications (2)

Publication Number Publication Date
KR20210038280A true KR20210038280A (ko) 2021-04-07
KR102539072B1 KR102539072B1 (ko) 2023-06-01

Family

ID=75469483

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200015042A KR102539072B1 (ko) 2019-09-29 2020-02-07 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치
KR1020200124537A KR20210038349A (ko) 2019-09-29 2020-09-25 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020200124537A KR20210038349A (ko) 2019-09-29 2020-09-25 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치

Country Status (1)

Country Link
KR (2) KR102539072B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230108239A (ko) 2022-01-10 2023-07-18 주식회사 위로우 객체 분류 및 다중 객체 빅데이터 획득 관리 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180094424A (ko) * 2017-02-15 2018-08-23 삼성전자주식회사 컨텐트를 제공하는 방법 및 장치
KR20190022637A (ko) * 2016-07-25 2019-03-06 페이스북, 인크. 미디어 디스플레이와 동기화된 컨텐츠 아이템의 제시
KR20190106865A (ko) * 2019-08-27 2019-09-18 엘지전자 주식회사 동영상 검색방법 및 동영상 검색 단말기
KR20200011728A (ko) 2018-07-25 2020-02-04 주식회사 제오시스 빅데이터와 개인의 피부정보를 이용한 맞춤형 화장품 추천 시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190022637A (ko) * 2016-07-25 2019-03-06 페이스북, 인크. 미디어 디스플레이와 동기화된 컨텐츠 아이템의 제시
KR20180094424A (ko) * 2017-02-15 2018-08-23 삼성전자주식회사 컨텐트를 제공하는 방법 및 장치
KR20200011728A (ko) 2018-07-25 2020-02-04 주식회사 제오시스 빅데이터와 개인의 피부정보를 이용한 맞춤형 화장품 추천 시스템 및 방법
KR20190106865A (ko) * 2019-08-27 2019-09-18 엘지전자 주식회사 동영상 검색방법 및 동영상 검색 단말기

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230108239A (ko) 2022-01-10 2023-07-18 주식회사 위로우 객체 분류 및 다중 객체 빅데이터 획득 관리 장치

Also Published As

Publication number Publication date
KR102539072B1 (ko) 2023-06-01
KR20210038349A (ko) 2021-04-07

Similar Documents

Publication Publication Date Title
US20220239988A1 (en) Display method and apparatus for item information, device, and computer-readable storage medium
CN109803180B (zh) 视频预览图生成方法、装置、计算机设备及存储介质
CN110446063B (zh) 视频封面的生成方法、装置及电子设备
US20150356345A1 (en) Systems and methods for detecting, identifying and tracking objects and events over time
US20130258198A1 (en) Video search system and method
US20130243249A1 (en) Electronic device and method for recognizing image and searching for concerning information
CN106249982B (zh) 显示控制方法、显示控制装置以及控制程序
TWI586160B (zh) 利用行動電話及雲端可視化搜尋引擎之即時物體掃描
KR20150113699A (ko) 영상 저장 시스템 및 방법
EP3872652A2 (en) Method and apparatus for processing video, electronic device, medium and product
US20210264204A1 (en) Systems and methods for providing personalized product recommendations using deep learning
WO2022089170A1 (zh) 字幕区域识别方法、装置、设备及存储介质
JP6787831B2 (ja) 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法
CN106537387B (zh) 检索/存储与事件相关联的图像
US10402777B2 (en) Method and a system for object recognition
KR20210038280A (ko) 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치
CN108197563B (zh) 用于获取信息的方法及装置
US9269159B2 (en) Systems and methods for tracking object association over time
CN115168637B (zh) 一种图片添加标签方法、系统及存储介质
KR101757184B1 (ko) 감정표현 콘텐츠를 자동으로 생성하고 분류하는 시스템 및 그 방법
CN114220175B (zh) 运动模式识别方法及其装置、设备、介质、产品
US20220319176A1 (en) Method and device for recognizing object in image by means of machine learning
WO2015184971A1 (en) Method and apparatus for generating human portrait material image
CN112784631A (zh) 一种基于深度神经网络进行人脸情绪识别的方法
KR20160125599A (ko) 감성 이벤트 추출 및 감성 스케치 검색 시스템

Legal Events

Date Code Title Description
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
E801 Decision on dismissal of amendment
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
X701 Decision to grant (after re-examination)