KR20210006627A - 객체 확인 방법 및 이를 위한 시스템 - Google Patents

객체 확인 방법 및 이를 위한 시스템 Download PDF

Info

Publication number
KR20210006627A
KR20210006627A KR1020190082471A KR20190082471A KR20210006627A KR 20210006627 A KR20210006627 A KR 20210006627A KR 1020190082471 A KR1020190082471 A KR 1020190082471A KR 20190082471 A KR20190082471 A KR 20190082471A KR 20210006627 A KR20210006627 A KR 20210006627A
Authority
KR
South Korea
Prior art keywords
feature map
original image
area
image
reference feature
Prior art date
Application number
KR1020190082471A
Other languages
English (en)
Other versions
KR102522399B1 (ko
Inventor
전은솜
문일현
정재협
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020190082471A priority Critical patent/KR102522399B1/ko
Publication of KR20210006627A publication Critical patent/KR20210006627A/ko
Application granted granted Critical
Publication of KR102522399B1 publication Critical patent/KR102522399B1/ko

Links

Images

Classifications

    • G06K9/00744
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • G06F17/153Multidimensional correlation or convolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Algebra (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 컨볼루션 신경망(Convolutional Neural Network: CNN)을 이용하여 추출된 특징 맵을 토대로 객체를 인식하는 객체 확인 방법 및 이를 위한 시스템에 관한 것이다. 본 발명의 실시예에 따른 영상 분석 시스템에서 객체를 확인하는 방법은, 원본 영상에 대해서 다수의 컨볼루션 연산을 수행하여, 서로 다른 크기의 복수의 기준 특징 맵을 원본 영상으로부터 추출하는 단계; 상기 기준 특징 맵 각각에 대하여 객체가 표출되는 영역을 확인하고, 상기 확인한 표출 영역을 기초로 서로 다른 형상의 복수의 후보 영역을 원본 영상에 설정하는 단계; 상기 후보 영역 각각에 대하여 상기 객체가 표출되는 확률을 산출하고, 각 후보 영역 간의 중첩 비율을 산출하는 단계; 및 상기 산출된 객체 표출 확률과 중첩 비율을 기초로 객체가 위치하는 영역을 원본 영상에서 인식하는 단계를 포함한다.

Description

객체 확인 방법 및 이를 위한 시스템{Method for detecting object and system therefor}
본 발명은 영상 분석을 통해 객체를 확인하는 방법에 관한 것으로서, 더욱 상세하게는 컨볼루션 신경망(Convolutional Neural Network: CNN)을 이용하여 추출된 특징 맵을 토대로 객체를 확인하는 객체 확인 방법 및 이를 위한 시스템에 관한 것이다.
카메라로부터 수신한 영상을 분석하여, 객체를 인식하는 기술이 개발되어 이용되고 있다. 이러한 객체 인식 기술로서, 차량 번호를 인식하는 기술과 사용자를 인식하는 기술 등을 대표적으로 둘 수 있다.
사용자를 정확하게 인식하기 위하여, 컨볼루션 신경망(Convolutional Neural Network: CNN) 기술이 이용되고 있다. 상기 컨볼루션 신경망 기술은, 다수의 컨볼루션과 풀링(pooling) 단계를 거쳐, 이미지에 대한 특징 맵을 구축하고, 이 특징 맵을 이용하여 영상 내에서 원하는 객체를 인식한다.
이러한 컨볼루션 신경망을 이용한 객체 인식 기술은, 고정형 카메라가 장착된 환경에서 주로 이용되고 있다. 즉, 컨볼루션 신경망을 이용한 객체 인식 기술은, 일정한 위치와 높이에 카메라가 설치되어 있으며, 이 카메라로부터 수신한 일정한 촬영 각도의 영상을 분석하여 객체를 인식한다. 그런데 이러한 객체 인식 방법은, 한정된 촬영 각도 범위에서 촬영된 영상을 분석 대상으로 삼고 있기 때문에, 촬영 각도가 기존 촬영 각도에서 벗어나는 경우 정확도와 인식 속도가 떨어지는 문제점이 있다. 부연하면, 이동형 카메라와 웨어러블 카메라에서 등과 같이 다양한 각도에서 영상이 수신되는 환경에서, 기존의 객체 인식 기술을 적용하는 경우, 객체 인식 결과의 정확도가 높지 않고 객체를 검출하는 데에 많은 시간이 소요되는 문제점이 있다.
본 발명은 이러한 종래의 문제점을 해결하기 위하여 제안된 것으로, 이동형 카메라가 적용되는 환경에서도, 신속하고 정확하게 객체를 확인할 수 있는 객체 확인 방법 및 이를 위한 시스템을 제공하는데 그 목적이 있다.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 제1측면에 따른 영상 분석 시스템에서 객체를 확인하는 방법은, 원본 영상에 대해서 다수의 컨볼루션 연산을 수행하여, 서로 다른 크기의 복수의 기준 특징 맵을 원본 영상으로부터 추출하는 단계; 상기 기준 특징 맵 각각에 대하여 객체가 표출되는 영역을 확인하고, 상기 확인한 표출 영역을 기초로 서로 다른 형상의 복수의 후보 영역을 원본 영상에 설정하는 단계; 상기 후보 영역 각각에 대하여 상기 객체가 표출되는 확률을 산출하고, 각 후보 영역 간의 중첩 비율을 산출하는 단계; 및 상기 산출된 객체 표출 확률과 중첩 비율을 기초로 객체가 위치하는 영역을 원본 영상에서 인식하는 단계를 포함한다.
상기 인식하는 단계는, 상기 후보 영역 간의 중첩 비율이 사전에 설정된 임계 비율을 초과하면, 중첩된 후보 영역 중에서 가장 높은 확률을 가지는 영역을 객체가 위치하는 영역으로 인식하는 단계를 포함할 수 있다.
상기 인식하는 단계는, 사전에 설정된 임계값을 초과하는 객체 표출 확률을 가지는 후보 영역이 복수이고, 상기 후보 영역 각각의 중첩 비율이 사전에 설정된 임계 비율 이하이면, 복수의 후보 영역을 객체가 위치하는 영역으로 인식할 수 있다.
상기 복수의 후보 영역을 원본 영상에서 설정하는 단계는, 상기 원본 영상에서 상기 기준 특징 맵의 객체가 표출되는 영역과 매칭되는 영역을 확인하고, 상기 확인한 영역의 중심좌표를 산출하는 단계; 및 상기 중심좌표를 기준으로 서로 다른 형상의 복수의 후보 영역을 상기 원본 영상에서 설정하는 단계를 포함할 수 있다.
상기 방법은, 상기 인식하는 단계 이후에, 기준 위치에서 상기 인식한 객체에 대한 방향을 나타내는 방향 정보를 생성하는 단계; 및 상기 생성한 방향 정보를 사용자에게 제공하는 단계를 포함할 수 있다.
상기 복수의 기준 특징 맵을 원본 영상으로부터 추출하는 단계는, 상기 원본 영상에 대해서 다수의 컨볼루션 연산을 수행하여, 최소 크기의 기준 특징 맵을 상기 원본 영상으로부터 추출하는 단계; 가장 마지막으로 사용된 컨볼루션 연산의 입력값으로 이용된 특징 맵을 업샘플링하고, 이 업샘플링한 특징 맵과 이전에 추출된 특징 맵을 접합 연산하여 새로운 특징 맵을 추출하는 단계; 및 상기 접합 연산하여 추출한 특징 맵을 컨볼루션 연산하여 상기 최소 크기의 기준 특징 맵보다 큰 크기를 가지는 하나 이상의 기준 특징 맵을 원본 영상으로부터 추출하는 단계를 포함할 수 있다.
상기 목적을 달성하기 위한 본 발명의 제2측면에 따른, 영상을 분석하여 객체를 확인하는 영상 분석 시스템은, 원본 영상을 수신하는 영상 수신부; 상기 원본 영상에 대해서 다수의 컨볼루션 연산을 수행하여, 서로 다른 크기의 복수의 기준 특징 맵을 원본 영상으로부터 추출하는 특징 맵 추출부; 및 기준 특징 맵 각각에 대하여 객체가 표출되는 영역을 확인하여, 상기 확인한 표출 영역을 기초로 서로 다른 형상의 복수의 후보 영역을 원본 영상에 설정하고, 상기 후보 영역 각각에 대하여 상기 객체가 표출되는 확률을 산출하고, 각 후보 영역 간의 중첩 비율을 산출한 후, 상기 산출한 객체 표출 확률과 중첩 비율을 기초로 객체가 위치하는 영역을 원본 영상에서 인식하는 객체 인식부를 포함한다.
본 발명은 이동형 카메라로부터 수신한 이미지를 분석하여, 빠르고 정확하게 영상 내에서 객체를 검출하여 객체 확인에 따른 서비스를 실시간으로 사용자에게 제공하는 장점이 있다.
또한, 본 발명은 서로 다른 기준 특징 맵(feature map)을 분석하여, 서로 다른 형상의 복수의 후보 영역을 선정하고, 이 선정한 후보 영역의 겹침 정도와 확률에 따라, 원본 영상에서 단일 또는 복수의 객체를 인식함으로써, 큰 객체뿐만 아니라 작은 객체까지도 정확하게 확인하는 이점이 있다.
게다가, 본 발명은 객체의 방향 정보를 사용자에게 제공함으로써, 실제 공간 내에서 사용자가 객체까지 이동하는데 편의성을 제공하는 효과가 있다.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명을 실시하기 위한 구체적인 내용과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 일 실시예에 따른, 영상 분석 시스템이 적용되는 환경을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 영상 분석 시스템의 구성을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른, 영상 분석 시스템에서 기준 특징 맵을 생성하는 방법을 설명하는 흐름도이다.
도 4는 본 발명의 일 실시예에 따른, 영상 분석 시스템에서 객체를 확인하는 방법을 설명하는 흐름도이다.
도 5는 복수의 후보 영역을 예시하는 도면이다.
도 6은 객체가 인식된 영역을 예시하는 도면이다.
도 7은 실내에서 사람을 인식한 영상을 예시하는 도면이다.
도 8은 영상 분석 시스템이 주차 관리 서비스에 적용되는 것을 예시한 도면이다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른, 영상 분석 시스템이 적용되는 환경을 나타내는 도면이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른, 영상 분석 시스템(200)은, 복수의 카메라(120), 사용자 단말(110) 각각과 네트워크(300)를 통하여 통신한다. 상기 네트워크(300)는 와이파이와 같은 근거리 무선통신망, 4세대 이동통신망, 5세대 이동통신망 및 유선 통신망을 포함한다.
상기 사용자 단말(110)은 스마트폰, 태블릿 컴퓨터 등과 같은 이동형 통신 장치로서, 객체의 방향 정보를 영상 분석 시스템(200)으로부터 수신할 수 있다. 또한, 사용자 단말(110)은 내장된 카메라를 통해서 영상을 촬영하여, 이 영상을 영상 분석 시스템(200)으로 전송할 수 있다.
카메라(120)는 이동 가능한 영상 촬영 장치로서, 예컨대 네트워크 카메라이다. 상기 카메라(120)는 주변 영상을 촬영하여 영상 분석 시스템(200)으로 전송할 수 있다. 상기 카메라(120)는 사용자가 착용할 수 있는 웨어러블 기기에 탑재될 수도 있다. 또는, 상기 카메라(120)는 360도로 촬영 가능한 카메라일 수 있다. 카메라(120)는 전체 영상을 복수 개로 분할(예를 들어, 4등분로 분할)하여 촬영하고, 이 분할된 영상을 영상 분석 시스템(200)으로 전송할 수 있다.
영상 분석 시스템(200)은 사용자 단말(110) 또는 카메라(120)로부터 수신한 영상을 분석하여, 영상에서 객체를 검출하여 인식한다. 상기 영상 분석 시스템(200)은 수신한 원본 영상을 여러 차례의 컨볼루션 연산하여, 서로 다른 크기의 복수의 기준 특징 맵(feature map)을 생성하고, 상기 기준 특징 맵을 이용하여 원본 영상에서 객체가 위치하는 영역을 인식할 수 있다.
도 2는 본 발명의 일 실시예에 따른 영상 분석 시스템의 구성을 나타내는 도면이다.
도 2에 도시된 바와 같이, 영상 분석 시스템(200)은 영상 수신부(210), 화면 분할부(220), 특징 맵 추출부(230), 객체 인식부(240), 방향 알림부(250) 및 데이터베이스(260)를 포함하고, 이러한 구성요소들은 하드웨어 또는 소프트웨어로 구성되거나, 하드웨어와 소프트웨어의 결합을 통해서 구현될 수 있다.
또한, 영상 분석 시스템(200)은 하나 이상의 프로세서와 메모리를 포함할 수 있으며, 영상 수신부(210), 화면 분할부(220), 특징 맵 추출부(230), 객체 인식부(240) 및 방향 알림부(250)는 상기 프로세서에 의해서 실행되는 프로그램 형태로 상기 메모리에 탑재(저장)될 수 있다.
데이터베이스(260)는 스토리지와 같은 대용량 저장수단으로서, 영상 데이터 등과 같은 각종 데이터를 저장한다. 또한, 데이터베이스(260)는 객체 인식 정보를 저장할 수 있으며, 건물 도면을 저장할 수 있다. 상기 데이터베이스(260)는 각 기준 특징 맵의 영역과 원본 영상의 좌표 영역을 매칭시키는 좌표 참조 데이터를 저장할 수 있다. 여기서 기준 특징 맵은 특징 맵들 중에서 객체 검출의 기준으로서 이용되는 특징 맵을 의미한다. 또한, 데이터베이스(260)는 사람, 동물, 차량 번호판 등과 같은 객체를 나타내는 객체 패턴 정보를 저장할 수 있다.
영상 수신부(210)는 카메라(120), 사용자 단말(110) 중에서 어느 하나로부터 영상 데이터를 수신한다. 상기 영상 수신부(210)는 수신한 영상을 데이터베이스(260)에 저장할 수 있다. 상기 영상 수신부(210)는 영상으로서 분할된 영상을 카메라(120)로부터 수신할 수 있다.
화면 분할부(220)는 카메라(120) 또는 사용자 단말(110)로부터 영상을 수신하면, 이 영상을 사전에 설정한 크기의 복수의 영역으로 분할하는 기능을 수행한다. 상기 화면 분할부(220)는 카메라(120)로부터 이미 분할된 영상이 수신되면, 자체적으로 화면을 분할을 수행하지 않을 수도 있다. 또한, 상기 화면 분할부(220)는 카메라(120)로부터 이미 분할된 영상이 수신되면, 분할된 영상 중에서 사전에 설정된 해상도를 만족하지 않은 영상이 존재하면 이 영상의 해상도를 변경할 수도 있다.
특징 맵 추출부(230)는 분할된 원본 영상에 대해서, 여러 단계의 컨볼루션 연산을 진행하여 복수의 특징 맵을 추출하고, 이 추출한 특징 맵들 중에서 서로 다른 크기를 가지는 복수의 기준 특징 맵을 선정한다. 특징 맵 추출부(230)에서 기준 특징 맵을 선정하는 구체적인 내용은 도 3을 참조하여 후술된다.
객체 인식부(240)는 서로 다른 크기를 가지는 기준 특징 맵을 분석하여, 원본 영상에서 사람, 번호판, 동물 등과 같은 객체를 인식한다. 상기 객체 인식부(240)는 각각의 기준 특징 맵을 분석하여 객체가 위치하는 것으로 예측되는 복수의 후보 영역을 원본 영상에서 설정하고, 각 후보 영역별 확률과 중첩 정도를 토대로, 후보 영역들 중에서 객체가 위치하는 하나 이상의 영역을 확인한다. 구체적인 내용은 도 4를 참조하여 후술된다.
방향 알림부(250)는 사용자 단말(110)의 현재 위치와 상기 객체 인식부(240)에서 인식한 객체의 위치를 비교하여, 사용자 단말(110)의 기준으로 객체가 위치하는 방향 정보를 생성하고, 이 생성한 방향 정보를 사용자 단말(110)로 전송한다. 이때, 방향 알림부(250)는 사용자 단말(110)의 위치를 토대로 사용자가 위치한 건물 도면을 데이터베이스(260)에서 확인하고, 이 건물 도면과 방향 정보를 함께 사용자 단말(110)로 전송할 수 있다.
도 3은 본 발명의 일 실시예에 따른, 영상 분석 시스템에서 기준 특징 맵을 생성하는 방법을 설명하는 흐름도이다.
도 3을 참조하면, 영상 수신부(210)가 카메라(120) 또는 사용자 단말(110)에서 촬영한 영상을 수신한다(S301). 상기 영상 수신부(210)는 카메라(120) 또는 사용자 단말(110)로부터 영상을 수신하면, 화면 분할부(220)는 상기 영상을 사전에 설정된 크기로 분할할 수 있다.
그러면, 특징 맵 추출부(230)는 화면 분할부(220)에서 분할된 영상 또는 영상 수신부(210)에서 수신한 영상을 원본 영상으로 설정하고, 이 원본 원상을 제1컨볼루션 레이어에 입력값으로 입력하여, 상기 원본 영상에서 제1특징 맵을 추출한다(S303). 이때, 제1컨볼루션 레이어에는 사전에 설정된 필터(예컨대, 3×3 필터)와 사전에 설정된 스트라이드(stride)가 적용될 수 있으며, 상기 특징 맵 추출부(230)는 풀링(Pooling)을 진행하지 않고 상기 제1컨볼루션 레이어와 스트라이드를 이용하여, 원본 영상과 대비하여 축소된 제1특징 맵을 원본 영상에서 추출할 수 있다. 상기 특징 맵 추출부(230)는 서로 다른 복수의 제1컨볼루션 레이어를 이용하여, 상기 원본 영상에 대하여 반복적으로 컨볼루션을 진행하여, 제1특징 맵을 추출할 수 있다. 예를 들어, 첫번째 컨볼루션 연산에서 제1필터를 가지는 제1컨볼루션 레이어에 원본 영상이 입력되고, 두번째 연산에서부터 바로 직전의 제1컨볼루션 레이어의 결과값이 입력값으로 입력될 수 있다. 이때, 제1컨볼루션 레이어의 필터는 직전이 사용한 필터와 상이하거나 동일할 수 있다.
다음으로, 특징 맵 추출부(230)는 추출한 제1특징 맵을 입력값으로서 컨볼루션 연산을 하여 제2특징 맵을 추출한다(S305). 즉, 특징 맵 추출부(230)는 제1특징 맵을 제2-1컨볼루션 레이어의 입력값으로 입력하여 제2-1특징 맵과 제2-2특징 맵으로 추출하고, 추출한 제2-1특징 맵과 제2-2특징 맵을 합 연산하여, 제2특징 맵을 추출한다. 상기 제2-1컨볼루션 레이어에는 1×1 필터가 적용될 수 있으며, 제2-2컨볼루션 레이어에는 3×3 필터와 패딩(padding) 연산이 적용될 수 있다. 또한, 제2-1컨볼루션 레이어가 사전에 설정된 횟수만큼 반복적으로 이용되어, 제2-1특징 맵을 추출할 수 있으며, 더불어 제2-2컨볼루션 레이어가 사전에 설정된 횟수만큼 반복적으로 이용되어 제2-2특징 맵을 추출할 수 있다. 상기 제2-1컨볼루션 레이어가 반복적으로 이용되는 경우, 첫번째 연산에서 제2-1 컨볼루션 레이어에 입력값으로 제1특징 맵이 입력되고, 두번째 연산부터는 바로 직전의 연산 결과값이 제2-1컨볼루션 레이어의 입력값으로 입력된다. 마찬가지로, 상기 제2-2컨볼루션 레이어가 반복적으로 적용되는 경우, 첫번째 연산에서 제2-2 컨볼루션 레이어에 입력값으로 제1특징 맵이 입력되고, 두번째 연산부터는 바로 직전의 연산 결과값이 제2-2컨볼루션 레이어의 입력값으로 입력된다.
다음으로, 특징 맵 추출부(230)는 상기 제2특징 맵을 풀링(pooling)하여, 제2특징 맵에서 제3특징 맵을 추출한다(S307). 이때, 특징 맵 추출부(230)는, 최대값 풀링(Max pooling) 또는 평균 풀링(Mean pooling)을 이용하여, 제2특징 맵을 축소하여 제3특징 맵을 생성할 수 있다. 풀링으로 인하여, 제3특징 맵은 제2특징 맵보다 크기가 작다.
그리고 특징 맵 추출부(230)는 상기 풀링되어 축소된 제3특징 맵을 제3컨볼루션 레이어에 입력값으로 입력하여 제4특징 맵을 추출하고, 이 제4특징 맵을 제1기준 특징 맵으로 선정한다(S309). 이때, 상기 제3컨볼루션에는 1×1 필터가 적용될 수 있다. 상기 제1기준 특징 맵은 기준 특징 맵들 중에서 가장 작은 크기를 갖는다.
다음으로, 특징 맵 추출부(230)는 제2특징 맵 및 가장 마지막 컨볼루션(즉, 제3컨볼루션) 레이어에 입력값으로 이용된 제3특징 맵을 이용하여 1차 업샘플링을 수행하여 제1기준 특징 맵 보다 크기가 확대된 제5특징 맵을 추출한다(S311).
다음으로, 특징 맵 추출부(230)는 상기 1차 업샘플링 된 제1특징 맵과 상기 제2특징 맵을 접합(concatenation) 연산한 후, 접합 연산한 결과를 컨볼루션 연산하여 제2기준 특징 맵을 선정한다(S313). 즉, 특징 맵 추출부(230)는 상기 제5특징 맵과 상기 제2특징 맵을 접합(concatenation) 연산하여 제5-1특징 맵을 추출하고, 상기 추출한 제5-1특징 맵을 제4컨볼루션 레이어에 입력값으로 입력하여 제6특징 맵을 추출하여 이 제6특징 맵을 제2기준 특징 맵으로서 선정한다. 상기 제4컨볼루션 레이어에는 1×1 필터 또는 2×2 필터가 적용될 수 있다.
이어서, 특징 맵 추출부(230)는 가장 마지막 컨볼루션(즉, 제4컨볼루션) 레이어에 입력값으로 이용된 제5-1특징 맵을 2차 업샘플링을 수행하여 제2기준 특징 맵 보다 크기가 확대된 제7특징 맵을 추출할 수 있다(S315). 그리고 특징 맵 추출부(230)는 상기 2차 업샘플링 된 제7특징 맵과 상기 제1특징 맵을 접합(concatenation) 연산한 후, 접합 연산한 결과를 컨볼루션 연산하여 제3기준 특징 맵을 선정한다(S317). 즉, 특징 맵 추출부(230)는 상기 제1특징 맵 및 상기 제7특징 맵을 접합(concatenation) 연산하여 제7-1특징 맵을 추출하고, 상기 추출한 제7-1특징 맵을 제5컨볼루션 레이어에 입력값으로 입력하여 제8특징 맵을 추출한 후, 이 제8특징 맵을 제3기준 특징 맵으로서 선정한다. 상기 제5컨볼루션 레이어에는 1×1 필터 또는 2×2 필터가 적용될 수 있다.
상술한 바와 같이, 특징 맵 추출부(230)는 컨볼루션 또는 풀링을 통해서 특징 맵을 축소시켜, 제일 작은 제1기준 특징 맵을 선정하고, 1차 및 2차 업샘플링한 특징 맵을 이용하여, 중간 크기의 제2기준 특징 맵과 최대 크기의 제3기준 특징 맵을 선정한다.
한편, 상술한 실시예에서, 업샘플링 횟수는 2회인 것으로 설명되었으나, 상기 업샘플링의 횟수는 원본 영상이 축소되는 횟수에 비례하여 유동적으로 변경될 수 있으며, 더불어 기준 특징 맵의 개수도 원본 영상의 축소 횟수에 비례하여 변경될 수 있다.
도 4는 본 발명의 일 실시예에 따른, 영상 분석 시스템에서 객체를 확인하는 방법을 설명하는 흐름도이다.
도 5는 복수의 후보 영역을 예시하는 도면이다.
도 4 및 도 5를 참조하면, 객체 인식부(240)는 크기가 상이한 복수의 기준 특징 맵에서 객체가 나타내는 영역을 인식한다(S401). 이때, 객체 인식부(240)는 기준 특징 맵의 데이터와 데이터베이스(260)에 저장된 객체 패턴을 비교하여, 기준 특징 맵별로 객체가 나타내는 영역이 존재하는지 여부를 판별하여 객체가 나타내는 영역을 기준 특징 맵별로 확인할 수 있다.
다음으로, 객체 인식부(240)는 기준 특징 맵에서 객체가 존재하는 것으로 확인되면, 기준 특징 맵에서 인식한 객체의 표출 영역을 원본 영상에서 확인하고, 이 원본 영상에서 확인한 객체의 표출 영역에 대한 중심좌표를 확인한다(S403). 상기 객체 인식부(240)는 기준 특징 맵의 영역과 원본 영상의 좌표 영역을 매칭시키는 좌표 참조 데이터를 데이터베이스(260)에서 확인하고, 이 확인한 좌표 참조 데이터를 토대로 원본 영상에서 객체가 위치하는 영역을 확인하고, 이 영역에 대한 중심좌표를 계산한다. 부연하면, 기준 특징 맵과 실제 원본 영상의 크기가 서로 다르기 때문에, 기준 특징 맵에서 인식한 객체의 표출 영역을 원본 영상에서 매칭하여 인식하기 위하여, 객체 인식부(240)는 좌표 참조 데이터를 참조한다.
이어서, 객체 인식부(240)는 하나 이상의 기준 특징 맵에서 객체가 인식되면, 원본 영상에서 인식한 객체의 중심 좌표를 중심으로, 서로 다른 형상을 가지는 복수의 후보 영역을 원본 영상에서 설정한다(S405). 이때, 객체 인식부(240)는 객체를 인식한 기준 특징 맵의 크기를 토대로, 각 후보 영역의 크기를 결정할 수 있다. 즉, 객체 인식부(240)는 객체 인식의 기초가 되는 기준 특징 맵별로 서로 다른 크기의 후보 영역을 원본 영상에서 설정할 수 있다.
부연하면, 기준 특징 맵의 크기에 따라서 객체를 인식할 수 있는 성공률의 차이가 발생할 수 있다. 즉, 크기가 작은 제1기준 특징 맵을 이용하여 객체를 인식하는 경우, 원본 영상에서 작게 보이는 객체를 인식하는 성공률이 떨어지나 반대로 크기가 큰 객체를 인식하는 성공률은 높아진다. 반면에, 크기가 가장 큰 제3기준 특징 맵을 이용하여 객체를 인식하는 경우, 원본 영상에서 작게 보이는 객체에 대한 인식 성공률은 높게 나타날 수 있으나, 크기가 큰 객체의 영역을 완전하게 인식하는 성공률은 상대적으로 낮게 나타날 수 있다. 이렇게, 기준 특징 맵의 크기가 서로 상이하고 객체 크기에 따라 인식률이 상이함으로 인하여, 가장 작은 크기의 제1기준 특징 맵을 통해서 인식된 객체의 후보 영역은 가장 크게 원본 영상에서 설정되고, 가장 크기가 큰 제3기준 특징 맵을 통해서 인식된 객체의 후보 영역은 가장 작은 크기로 원본 영상에서 설정된다.
도 5에서는 제1기준 특징 맵을 통해서 인식한 객체(즉, 사람)의 중심좌표가 참조부호 51로, 제2기준 특징 맵을 기반으로 인식한 객체의 중심좌표가 참조부호 52로, 제3기준 특징 맵을 기반으로 인식한 객체의 중심좌표가 참조부호 53으로 예시된다. 도 5를 참조하면, 참조부호 51의 중심좌표를 기준으로 가장 큰 면적을 가지는 3개의 후보영역(51a, 51b, 51c)이 화면에 설정되고, 참조부호 52의 중심좌표를 기준으로 중간 크기의 면적을 가지는 3개의 후보영역(52a, 52b, 52c)이 화면에 설정된다. 또한, 참조부호 53의 중심좌표를 기준으로 최소 크기의 면적을 가지는 3개의 후보영역(53a, 53b, 53c)이 화면에 설정된다. 제1기준 특징 맵, 제2기준 특징 맵을 이용한 경우에 가장 큰 객체(즉, 사람)를 인식할 수 있으나, 작은 객체를 인식하지 못할 수 있다. 또한, 각 기준 특징 맵을 이용하여 설정한 복수의 후보 영역(51a, 51b, 51c, 52a, 52b, 52c, 53a, 53b, 53c)이 원본 영상에서 설정될 경우, 후보 영역(51a, 51b, 51c, 52a, 52b, 52c, 53a, 53b, 53c)에서 객체가 온전하게 표출되는 것이 서로 상이할 수 있다. 즉, 특정 후보 영역에서는 객체가 온전하게 표출될 수 있으나, 다른 후보 영역에서는 객체가 일부만 표출될 수도 있다.
다시 도 4를 참조하면, 객체 인식부(240)는 각 후보 영역에 객체가 표출되는 확률을 산출한다(S407). 상기 확률은 객체가 온전하게 후보 영역에서 나타날 수 있는 가능성을 수치화한 것으로서, 1에서부터 0까지로 설정될 수 있다. 예를 들어, 객체가 특정 후보 영역에 모두 나타나면, 상기 후보 영역의 확률은 1로 산출될 수 있으며, 또한 객체의 후보 영역에 전혀 나타나지 않으면 확률이 0으로 설정될 수 있으며, 후보 영역에 객체가 일부가 표출되면 이 표출된 비율에 따라 확률이 0 초과 1 미만 사이로 계산될 수 있다. 도 5의 후보 영역을 예를 들어 설명하면, 객체 인식부(240)는 총 9개의 후보 영역별로 확률을 계산할 수 있다.
객체 인식부(240)는 각각의 후보 영역 중에서 확률이 사전에 설정된 임계값(예를 들어, 0.5) 이상인 후보 영역을 원본 영상에 남겨두고, 상기 설정된 값 미만의 확률을 가지는 후보 영역들을 원본 영상에서 제거하여 후보 영역을 필터링한다(S409).
다음으로, 객체 인식부(240)는 후보 영역의 필터링이 완료되면, 후보 영역들 간에 중첩되는 영역이 존재하는지 여부를 판별하고(S411), 중첩되는 후보 영역들이 존재하면 해당 후보 영역들의 중첩 비율이 사전에 설정된 임계 비율(예컨대, 50%)을 초과하는지 여부를 판별한다(S413).
객체 인식부(240)는 중첩 비율이 임계 비율을 초과하여 중첩된 복수의 후보 영역이 존재하면, 이 후보 영역들을 중첩 그룹으로 설정한다. 그리고 객체 인식부(240)는 상기 중첩 그룹 중에서 객체 표출 확률이 가장 높은 후보 영역을 객체가 존재하는 영역(이하, '객체 영역'으로 지칭함)으로서 인식하고, 나머지 후보 영역을 원본 영상에서 제거한다(S415). 도 6은 객체가 인식된 영역을 예시하는 도면으로서, 도 5와 도 6을 참조하면, 중첩된 후보 영역 중에서 확률이 가장 높은 영역이 최종적으로 선정되는 것을 예시한다.
한편, 객체 인식부(240)는 중첩된 복수의 후보 영역이 임계 비율을 초과하지 않으면, 화면에 나타나는 후보 영역 각각을 객체 영역으로 인식한다(S419). 이 경우, 객체 인식부(240)는 도 6과 같이, 복수 개의 객체 영역을 원본 영상에서 인식할 수 있다.
객체 인식부(240)는 객체 영역이 인식되면, 상기 객체 영역에 나타내는 객체를 분석하여, 객체의 상태(예컨대, 직립, 구부림, 앉음 등)를 식별하거나 객체의 신원을 확인할 수 있으며, 또는 객체를 추적할 수도 있다.
또한, 방향 알림부(250)는 객체를 인식하는 경우, 기준 위치에서 상기 인식한 객체의 방향을 나타내는 방향 정보를 생성하고, 이 방향 정보를 사용자 단말로 전송할 수 있다(S417). 이때, 기준 위치는 객체의 위치를 요구하는 사용자 단말(110)의 위치일 수 있다. 일 실시예로서, 방향 알림부(250)는 사용자 단말(110)로부터 객체의 위치를 요청하는 메시지를 수신할 있으며, 공지된 측위 시스템(도면에 도시되지 않음)과 연동하여 사용자 단말(110)의 위치를 측위한 후, 사용자 단말(110)의 위치를 기준으로 인식한 객체가 존재하는 방향을 확인하고, 이 방향에 대한 정보를 사용자 단말(110)로 전송할 수 있다. 이 경우, 방향 알림부(250)는 사용자 단말(110)의 위치를 토대로, 사용자 단말(110)이 위치하는 도면을 데이터베이스(260)에서 추출하고, 이 도면과 함께 방향 정보를 사용자 단말(110)로 전송할 수 있다. 이때, 방향 알림부(250)는 객체의 위치를 도면에 추가적으로 표시할 수도 있다.
도 7은 실내에서 사람을 인식한 영상을 예시하는 도면으로서, 본 발명에 따른 영상 분석 시스템(200)은 카메라로부터 멀리 떨어져서 측정된 사람까지도 정확하게 인식할 수 있으며, 사람의 상태(즉, 직립, 앉음 등)를 식별할 수 있다.
도 8은 영상 분석 시스템이 주차 관리 서비스에 적용되는 것을 예시한 도면이다.
도 8을 참조하면, 영상 분석 시스템(200)은 차량 번호판을 객체로서 인식할 수 있으며, 더불어 사용자의 위치를 기준으로 객체의 방향 정보(81)와 실내 도면을 사용자의 사용자 단말(110)로 제공할 수 있다.
본 명세서는 많은 특징을 포함하는 반면, 그러한 특징은 본 발명의 범위 또는 특허청구범위를 제한하는 것으로 해석되어서는 안 된다. 또한, 본 명세서에서 개별적인 실시예에서 설명된 특징들은 단일 실시예에서 결합되어 구현될 수 있다. 반대로, 본 명세서에서 단일 실시예에서 설명된 다양한 특징들은 개별적으로 다양한 실시예에서 구현되거나, 적절히 결합되어 구현될 수 있다.
도면에서 동작들이 특정한 순서로 설명되었으나, 그러한 동작들이 도시된 바와 같은 특정한 순서로 수행되는 것으로, 또는 일련의 연속된 순서, 또는 원하는 결과를 얻기 위해 모든 설명된 동작이 수행되는 것으로 이해되어서는 안 된다. 특정 환경에서 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 아울러, 상술한 실시예에서 다양한 시스템 구성요소의 구분은 모든 실시예에서 그러한 구분을 요구하지 않는 것으로 이해되어야 한다. 상술한 프로그램 구성요소 및 시스템은 일반적으로 단일 소프트웨어 제품 또는 멀티플 소프트웨어 제품에 패키지로 구현될 수 있다.
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(시디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
110 : 사용자 단말 120 : 카메라
200 : 영상 분석 시스템 210 : 영상 수신부
220 : 화면 분할부 230 : 특징 맵 추출부
240 : 객체 인식부 250 : 방향 알림부
260 : 데이터베이스 300 : 네트워크

Claims (13)

  1. 영상 분석 시스템에서 객체를 확인하는 방법으로서,
    원본 영상에 대해서 다수의 컨볼루션 연산을 수행하여, 서로 다른 크기의 복수의 기준 특징 맵을 원본 영상으로부터 추출하는 단계;
    상기 기준 특징 맵 각각에 대하여 객체가 표출되는 영역을 확인하고, 상기 확인한 표출 영역을 기초로 서로 다른 형상의 복수의 후보 영역을 원본 영상에 설정하는 단계;
    상기 후보 영역 각각에 대하여 상기 객체가 표출되는 확률을 산출하고, 각 후보 영역 간의 중첩 비율을 산출하는 단계; 및
    상기 산출된 객체 표출 확률과 중첩 비율을 기초로 객체가 위치하는 영역을 원본 영상에서 인식하는 단계;를 포함하는 객체 확인 방법.
  2. 제1항에 있어서,
    상기 인식하는 단계는,
    상기 후보 영역 간의 중첩 비율이 사전에 설정된 임계 비율을 초과하면, 중첩된 후보 영역 중에서 가장 높은 확률을 가지는 영역을 객체가 위치하는 영역으로 인식하는 단계;를 포함하는 객체 확인 방법.
  3. 제1항에 있어서,
    상기 인식하는 단계는,
    사전에 설정된 임계값을 초과하는 객체 표출 확률을 가지는 후보 영역이 복수이고, 상기 후보 영역 각각의 중첩 비율이 사전에 설정된 임계 비율 이하이면, 복수의 후보 영역을 객체가 위치하는 영역으로 인식하는 것을 특징으로 하는 객체 확인 방법.
  4. 제1항에 있어서,
    상기 복수의 후보 영역을 원본 영상에서 설정하는 단계는,
    상기 원본 영상에서 상기 기준 특징 맵의 객체가 표출되는 영역과 매칭되는 영역을 확인하고, 상기 확인한 영역의 중심좌표를 산출하는 단계; 및
    상기 중심좌표를 기준으로 서로 다른 형상의 복수의 후보 영역을 상기 원본 영상에서 설정하는 단계;를 포함하는 객체 확인 방법.
  5. 제4항에 있어서,
    상기 원본 영상에서 설정되는 각 후보 영역의 크기는, 객체 인식에 기초가 되는 기준 특징 맵의 크기에 따라 결정되는 것을 특징으로 하는 객체 확인 방법.
  6. 제1항에 있어서,
    상기 인식하는 단계 이후에,
    기준 위치에서 상기 인식한 객체에 대한 방향을 나타내는 방향 정보를 생성하는 단계; 및
    상기 생성한 방향 정보를 사용자에게 제공하는 단계;를 포함하는 객체 확인 방법.
  7. 제1항에 있어서,
    상기 복수의 기준 특징 맵을 원본 영상으로부터 추출하는 단계는,
    상기 원본 영상에 대해서 다수의 컨볼루션 연산을 수행하여, 최소 크기의 기준 특징 맵을 상기 원본 영상으로부터 추출하는 단계;
    가장 마지막으로 사용된 컨볼루션 연산의 입력값으로 이용된 특징 맵을 업샘플링하고, 이 업샘플링한 특징 맵과 이전에 추출된 특징 맵을 접합 연산하여 새로운 특징 맵을 추출하는 단계; 및
    상기 접합 연산하여 추출한 특징 맵을 컨볼루션 연산하여 상기 최소 크기의 기준 특징 맵보다 큰 크기를 가지는 하나 이상의 기준 특징 맵을 원본 영상으로부터 추출하는 단계;를 포함하는 객체 인식 방법.
  8. 영상을 분석하여 객체를 확인하는 영상 분석 시스템으로서,
    원본 영상을 수신하는 영상 수신부;
    상기 원본 영상에 대해서 다수의 컨볼루션 연산을 수행하여, 서로 다른 크기의 복수의 기준 특징 맵을 원본 영상으로부터 추출하는 특징 맵 추출부; 및
    기준 특징 맵 각각에 대하여 객체가 표출되는 영역을 확인하여, 상기 확인한 표출 영역을 기초로 서로 다른 형상의 복수의 후보 영역을 원본 영상에 설정하고, 상기 후보 영역 각각에 대하여 상기 객체가 표출되는 확률을 산출하고, 각 후보 영역 간의 중첩 비율을 산출한 후, 상기 산출한 객체 표출 확률과 중첩 비율을 기초로 객체가 위치하는 영역을 원본 영상에서 인식하는 객체 인식부;를 포함하는 영상 분석 시스템.
  9. 제8항에 있어서,
    상기 객체 인식부는,
    상기 후보 영역의 중첩 비율이 사전에 설정된 임계 비율을 초과하면 중첩된 후보 영역 중에서 가장 높은 확률을 가지는 영역을 객체가 위치하는 영역으로 인식하는 것을 특징으로 하는 영상 분석 시스템.
  10. 제8항에 있어서,
    상기 객체 인식부는,
    사전에 설정된 임계값을 초과하는 객체 표출 확률을 가지는 후보 영역이 복수이고, 상기 후보 영역 각각의 중첩 비율이 사전에 설정된 임계 비율 이하이면, 복수의 후보 영역을 객체가 위치하는 영역으로 인식하는 영상 분석 시스템.
  11. 제8항에 있어서,
    상기 객체 인식부는,
    상기 원본 영상에서 상기 기준 특징 맵의 객체가 표출되는 영역과 매칭되는 영역을 확인하고, 상기 확인한 영역의 중심좌표를 산출한 후, 상기 중심좌표를 기준으로 서로 다른 형상의 복수의 후보 영역을 상기 원본 영상에서 설정하는 것을 특징으로 하는 영상 분석 시스템.
  12. 제8항에 있어서,
    기준 위치에서 상기 인식한 객체에 대한 방향을 나타내는 방향 정보를 생성하고, 상기 생성한 방향 정보를 사용자에게 제공하는 방향 알림부;를 더 포함하는 영상 분석 시스템.
  13. 제8항에 있어서,
    상기 특징 맵 추출부는,
    상기 원본 영상에 대해서 다수의 컨볼루션 연산을 수행하여 최소 크기의 기준 특징 맵을 상기 원본 영상으로부터 추출하고, 가장 마지막으로 사용된 컨볼루션 연산의 입력값으로 이용된 특징 맵을 업샘플링하고, 이 업샘플링한 특징 맵과 이전에 추출된 특징 맵을 접합 연산하여 새로운 특징 맵을 추출한 후, 상기 접합 연산하여 추출한 특징 맵을 컨볼루션 연산하여 상기 최소 크기의 기준 특징 맵보다 큰 크기를 가지는 하나 이상의 기준 특징 맵을 원본 영상으로부터 추출하는 것을 특징으로 하는 영상 분석 시스템.
KR1020190082471A 2019-07-09 2019-07-09 객체 확인 방법 및 이를 위한 시스템 KR102522399B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190082471A KR102522399B1 (ko) 2019-07-09 2019-07-09 객체 확인 방법 및 이를 위한 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190082471A KR102522399B1 (ko) 2019-07-09 2019-07-09 객체 확인 방법 및 이를 위한 시스템

Publications (2)

Publication Number Publication Date
KR20210006627A true KR20210006627A (ko) 2021-01-19
KR102522399B1 KR102522399B1 (ko) 2023-04-14

Family

ID=74237184

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190082471A KR102522399B1 (ko) 2019-07-09 2019-07-09 객체 확인 방법 및 이를 위한 시스템

Country Status (1)

Country Link
KR (1) KR102522399B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102444929B1 (ko) * 2021-06-28 2022-09-21 주식회사 펫나우 반려 동물의 식별을 위한 객체의 이미지를 처리하기 위한 방법 및 장치
KR102444928B1 (ko) * 2021-06-28 2022-09-21 주식회사 펫나우 반려 동물의 식별을 위한 객체를 검출하기 위한 방법 및 장치
WO2023277473A1 (ko) * 2021-06-28 2023-01-05 주식회사 펫나우 반려 동물의 식별을 위한 객체를 촬영하기 위한 방법 및 전자 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180029466A (ko) * 2016-09-12 2018-03-21 (주)서림정보통신 영상으로부터 다중 조건에 따른 객체 검색을 가능하게 하는 cctv 시스템 및 그 객체 검색방법
KR20180107988A (ko) * 2017-03-23 2018-10-04 한국전자통신연구원 객체 탐지 장치 및 방법
KR20190026116A (ko) * 2017-09-04 2019-03-13 삼성전자주식회사 객체 인식 방법 및 장치
KR20190039460A (ko) * 2017-10-04 2019-04-12 주식회사 스트라드비젼 이미지 세그멘테이션을 위한 학습 방법 및 학습 장치, 그리고 이를 이용한 이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180029466A (ko) * 2016-09-12 2018-03-21 (주)서림정보통신 영상으로부터 다중 조건에 따른 객체 검색을 가능하게 하는 cctv 시스템 및 그 객체 검색방법
KR20180107988A (ko) * 2017-03-23 2018-10-04 한국전자통신연구원 객체 탐지 장치 및 방법
KR20190026116A (ko) * 2017-09-04 2019-03-13 삼성전자주식회사 객체 인식 방법 및 장치
KR20190039460A (ko) * 2017-10-04 2019-04-12 주식회사 스트라드비젼 이미지 세그멘테이션을 위한 학습 방법 및 학습 장치, 그리고 이를 이용한 이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
T. Lin et al.,‘Feature Pyramid Networks for Object Detection,’ 2017 IEEE Conference on Computer Vision and Pattern Recognition, pp. 936-944 (2017.) 1부.* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102444929B1 (ko) * 2021-06-28 2022-09-21 주식회사 펫나우 반려 동물의 식별을 위한 객체의 이미지를 처리하기 위한 방법 및 장치
KR102444928B1 (ko) * 2021-06-28 2022-09-21 주식회사 펫나우 반려 동물의 식별을 위한 객체를 검출하기 위한 방법 및 장치
WO2023277473A1 (ko) * 2021-06-28 2023-01-05 주식회사 펫나우 반려 동물의 식별을 위한 객체를 촬영하기 위한 방법 및 전자 장치

Also Published As

Publication number Publication date
KR102522399B1 (ko) 2023-04-14

Similar Documents

Publication Publication Date Title
US9646212B2 (en) Methods, devices and systems for detecting objects in a video
KR102522399B1 (ko) 객체 확인 방법 및 이를 위한 시스템
CN106952303B (zh) 车距检测方法、装置和系统
JP2022082561A (ja) 解析サーバ、監視システム、監視方法及びプログラム
EP3678057B1 (en) Method and device for determining path of human target
WO2016199244A1 (ja) 物体認識装置及び物体認識システム
EP2450832A1 (en) Image processing apparatus and image processing method
JP2018526698A5 (ko)
CN112470033A (zh) 雷达数据处理装置、物体判别装置、雷达数据处理方法以及物体判别方法
JP5554726B2 (ja) データ関連付けのための方法と装置
JP2015061239A (ja) 撮像管理システム、撮像管理装置及びそれらの制御方法、プログラム
CN112036345A (zh) 目标场所人数的检测方法、推荐方法、检测系统及介质
CN111539338A (zh) 行人口罩佩戴管控方法、装置、设备及计算机存储介质
WO2014193220A2 (en) System and method for multiple license plates identification
CN110889314A (zh) 图像处理方法、装置、电子设备、服务器及系统
CN113515981A (zh) 识别方法、装置、设备和存储介质
CN109800656B (zh) 定位方法及相关产品
CN110738077B (zh) 一种异物检测方法及装置
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP5158162B2 (ja) 拡張現実表示システム、拡張現実表示方法および拡張現実表示プログラム
CN115223085A (zh) 一种风险人员的流调方法、装置、电子设备及存储介质
CN115240669A (zh) 语音交互方法、装置、电子设备及存储介质
CN114743264A (zh) 拍摄行为检测方法、装置、设备及存储介质
CN114419658A (zh) 信息关联方法、电子设备及存储介质
JP7152651B2 (ja) プログラム、情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant