KR102547405B1 - 객체 재인식 장치 및 방법 - Google Patents

객체 재인식 장치 및 방법 Download PDF

Info

Publication number
KR102547405B1
KR102547405B1 KR1020200095249A KR20200095249A KR102547405B1 KR 102547405 B1 KR102547405 B1 KR 102547405B1 KR 1020200095249 A KR1020200095249 A KR 1020200095249A KR 20200095249 A KR20200095249 A KR 20200095249A KR 102547405 B1 KR102547405 B1 KR 102547405B1
Authority
KR
South Korea
Prior art keywords
recognition
objects
inferred
selecting
inferring
Prior art date
Application number
KR1020200095249A
Other languages
English (en)
Other versions
KR20210015697A (ko
Inventor
윤찬현
전민수
김성환
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to US16/943,182 priority Critical patent/US20210034915A1/en
Publication of KR20210015697A publication Critical patent/KR20210015697A/ko
Application granted granted Critical
Publication of KR102547405B1 publication Critical patent/KR102547405B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client

Abstract

일 실시예에 따른 객체 재인식 장치에 의해 수행되는 객체 재인식 방법은, 복수의 영상 내에서 객체를 검출하는 단계와, 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하는 단계와, 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하는 단계와, 선별된 비교 대상 객체의 촬영 시점 각도를 추론하는 단계와, 추론된 촬영 시점 각도가 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 비교 대상 객체 중 인식 후보 객체를 선정하는 단계와, 선정된 인식 후보 객체가 인식 대상 객체와 매칭하는지를 파악하는 단계를 포함한다.

Description

객체 재인식 장치 및 방법{METHOD AND APPARATUS FOR OBJECT RE-IDENTIFICATION}
본 발명은 객체를 재인식하는 장치와 객체를 재인식하는 방법에 관한 것이다.
현대 사회의 다양한 문제를 해결하기 위한 방안으로 스마트 시티 응용이 등장하였고, 스마트 시티 응용 중에 감시 시스템의 수요가 큰 비중을 차지하고 있다. 이러한 감시 시스템에서 영상 감시 서비스를 제공하기 위해서는 수집한 영상 내에서 각 객체들에 대한 정보를 얻고, 목표 객체를 추적할 수 있어야 한다. 이를 위해 영상 내에서 목표 객체를 매칭하여 찾는 객체 재인식이 요구된다.
한편, 정보 공유 측면에서 크라우드소싱은 다수의 참여자로부터 데이터를 제보 받고, 제보 받은 데이터를 공유할 수 있다. 따라서, 크라우드소싱은 다양한 상황을 갖는 넓은 범위의 데이터를 활용할 수 있다.
이러한 크라우드소싱을 감시 시스템에 적용하면, 이동성을 가지는 참여자들로부터 데이터를 제보 받을 수 있다. 따라서, 감시카메라 등과 같은 기반시설을 설치할 필요가 없이도 분석 가능한 범위에 제한이 없다. 또한, 다양한 시점에서 촬영된 다양한 영상을 확보할 수 있기 때문에 특정 촬영 시점에 다른 객체에 의해 가려진 객체에 대해서도 다른 참여자의 제보 영상에서 확인할 수 있다.
하지만 감시 시스템에 크라우드소싱 환경을 사용하는 경우에는 다양한 시점에서 촬영된 다양한 영상으로부터 객체를 검출 및 재인식할 수 있어야 한다.
미국 등록특허 US 10,127,668. 등록일 2018년 11월 13일.
일 실시예에 따르면, 다양한 시점에서 촬영된 다양한 영상으로부터 객체를 검출 및 매칭할 수 있는 객체 재인식 방법 및 장치를 제공한다.
본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
제 1 관점에 따른 객체 재인식 장치에 의해 수행되는 객체 재인식 방법은, 복수의 영상 내에서 객체를 검출하는 단계와, 상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하는 단계와, 상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하는 단계와, 상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하는 단계와, 상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체를 선정하는 단계와, 상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는 단계를 포함한다.
제 2 관점에 따른 객체 재인식 장치는, 복수의 영상을 입력받는 입력부와, 상기 영상에 대한 처리를 수행하는 프로세서부와, 상기 프로세서부에 의한 처리의 결과를 출력하는 출력부를 포함하고, 상기 프로세서부는, 상기 입력부로 입력되는 상기 복수의 영상 내에서 객체를 검출하며, 상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하고, 상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하며, 상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하고, 상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체를 선정하며, 상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악한다.
제 3 관점에 따라 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체는, 상기 컴퓨터 프로그램이, 프로세서에 의해 실행되면, 복수의 영상 내에서 객체를 검출하는 단계와, 상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하는 단계와, 상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하는 단계와, 상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하는 단계와, 상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체를 선정하는 단계와, 상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함한다.
제 4 관점에 따라 컴퓨터 판독 가능 기록매체에 저장되어 있는 컴퓨터 프로그램은, 프로세서에 의해 실행되면, 복수의 영상 내에서 객체를 검출하는 단계와, 상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하는 단계와, 상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하는 단계와, 상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하는 단계와, 상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체를 선정하는 단계와, 상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함한다.
일 실시예에 따르면, 다양한 시점에서 촬영된 다양한 영상으로부터 객체를 검출 및 재인식할 수 있다. 예를 들어, 크라우드소싱을 감시 시스템에 적용하여 영상 감시 서비스를 제공하는 경우, 촬영 시점 각도를 추론한 후 추론된 촬영 시점 각도에 기초하여 객체 재인식을 수행할 수 있다. 따라서, 크라우드소싱 환경에서 발생할 수 있는 참여자의 이동성에 따른 시공간적 변화를 고려할 수 있기 때문에, 객체에 대한 재인식 성능이 향상되는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 객체 재인식 장치를 적용할 수 있는 감시 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 객체 재인식 장치의 구성도이다.
도 3은 도 2에 도시된 프로세서부의 구성도이다.
도 4 내지 도 6은 본 발명의 일 실시예에 따른 객체 재인식 장치가 수행하는 객체 재인식 방법을 설명하기 위한 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
또한, 명세서에서 사용되는 '부'라는 용어는 소프트웨어 또는 FPGA나 ASIC과 같은 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1은 본 발명의 일 실시예에 따른 객체 재인식 장치를 적용할 수 있는 감시 시스템의 구성도이다.
도 1을 참조하면, 감시 시스템(1)은 객체 재인식 장치(100)를 포함하고, 객체 재인식 장치(100)는 통신망(10)에 접속되어 크라우드소싱 환경에서 동작할 수 있다. 예를 들어, 객체 재인식 장치(100)는 엣지 서버 또는 크라우드 서버와 연동하거나 엣지 서버 또는 크라우드 서버에 포함될 수 있다. 이외에도, 객체 재인식 장치(100)의 동작 환경은 특별히 제한되지 않고, 다수의 단말로부터 인식 대상 객체가 포함된 영상을 제공받을 수 있는 다양한 환경에서 동작할 수 있다.
이러한 객체 재인식 장치(100)는 다양한 시점에서 촬영된 다양한 영상을 통신망(10)을 통하여 제공받고, 제공받은 영상들에 포함된 객체를 검출 및 매칭할 수 있다.
도 2는 본 발명의 일 실시예에 따른 객체 재인식 장치(100)의 구성도이다.
도 2를 참조하면, 객체 재인식 장치(100)는 입력부(110) 및 프로세서부(120)를 포함한다. 그리고, 객체 재인식 장치(100)는 출력부(130) 및/또는 저장부(140)를 더 포함할 수 있다.
입력부(110)는 인식 후보 객체로 선정될 수 있는 객체가 포함될 수 있는 복수의 영상을 입력 받고, 입력 받은 복수의 영상을 프로세서부(120)에 제공한다. 예를 들어, 입력부(110)는 도 1의 통신망(10)을 통하여 영상 데이터를 수신할 수 있는 통신모듈을 포함하거나 영상 데이터를 직접 입력받을 수 있는 인터페이스를 포함할 수 있다.
프로세서부(120)는 입력부(110)로부터 제공받은 영상에 대한 처리를 수행하고, 처리의 결과를 출력하도록 출력부(130)을 제어할 수 있다.
이러한 프로세서부(120)는 입력부(110)로 입력되는 복수의 영상 내에서 객체를 검출하며, 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론한다. 그리고, 프로세서부(120)는 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하며, 선별된 비교 대상 객체의 촬영 시점 각도를 추론한다. 그리고, 프로세서부(120)는 추론된 촬영 시점 각도가 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 비교 대상 객체 중 인식 후보 객체를 선정한다. 그리고, 프로세서부(120)는 선정된 인식 후보 객체가 인식 대상 객체와 매칭하는지를 파악한다.
여기서, 프로세서부(120)는 선별된 비교 대상 객체와 객체의 속성별로 기 설정된 기준 형상 정보를 비교한 결과에 기초하여 촬영 시점 각도를 추론할 수 있다.
프로세서부(102)는 객체 정보를 추론할 때 또는 비교 대상 객체를 선별할 때에 컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델을 이용할 수 있다.
프로세서부(120)는 촬영 시점 각도를 추론할 때에 컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 마지막 레이어에 전결합 레이어(fully connected layer)를 추가한 후, 추론된 객체 정보를 전결합 레이어에 입력하여 전결합 레이어의 출력으로서 촬영 시점 각도를 획득할 수 있다.
프로세서부(120)는 인식 후보 객체를 선정할 때에 비교 대상 객체의 영상에 대하여 기 설정된 각도 범위에 기초하여 관심영역(ROI)을 분류하고, 분류된 관심영역으로부터 추출한 특징값을 이용하여 표현할 수 있는 특징 벡터에 기초하여 복수의 인식 후보 객체를 선정할 수 있다. 여기서, 특징 벡터는 분류된 관심영역에 대하여 픽셀 단위 특징값 추출과 컨볼루셔널 기반 특징값 추출을 수행한 후 특정 크기의 차원으로 고정하는 재구성을 수행하여 특징 벡터로서 표현할 수 있다. 예를 들어, 컨볼루셔널 기반 특징값은 컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 중간 컨볼루션 레이어 출력 매트릭스를 사용할 수 있다.
프로세서부(120)는 선정된 복수의 인식 후보 객체가 인식 대상 객체와 매칭하는지를 파악할 때에, 선정된 복수의 인식 후보 객체에 대해 그 속성을 기초로 클러스터링을 수행하고, 클러스터링된 각 클러스터마다 인식 대상 객체와의 유클리디안 거리(Euclidean distance)를 계산하여 거리 평균을 산출하며, 산출된 거리 평균이 가장 작은 클러스터에 속한 인식 후보 객체를 인식 대상 객체와 매칭되는 객체로서 파악할 수 있다. 여기서, "속성"이란 관심영역으로부터 추출한 특징값을 이용하여 표현할 수 있는 특징 벡터일 수 있다.
출력부(130)는 프로세서부(120)에 의한 처리의 결과를 프로세서부(120)의 제어에 따라 출력할 수 있다. 예를 들어, 출력부(130)는 프로세서부(120)에 의한 처리의 결과 데이터를 송신할 수 있는 통신모듈을 포함하거나 처리의 결과 데이터를 다른 전자장치로 전달할 수 있는 인터페이스를 포함할 수 있다. 또, 출력부(130)는 프로세서부(120)에 의한 처리의 결과 데이터를 시각적 식별이 가능하게 출력할 수 있는 표시장치 또는 인쇄장치 등을 포함할 수 있다.
저장부(140)는 프로세서부(120)에 의한 처리의 결과를 프로세서부(120)의 제어에 따라 저장할 수 있다. 예를 들어, 저장부(140)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 플래시 메모리(flash memory)와 같은 프로그램 명령어들을 저장하고 수행하도록 특별히 구성된 하드웨어 장치 등과 같이 컴퓨터 판독 가능한 기록매체일 수 있다.
도 3은 도 2에 도시된 프로세서부의 구성도이다.
도 3을 참조하면, 프로세서부(120)는 객체 검출부(121), 정보 추론부(122), 속성 선별부(123), 각도 추론부(124), 후보 선정부(125) 및 객체 매칭부(126)를 포함할 수 있다.
객체 검출부(121)는 입력되는 복수의 영상 내에서 객체를 검출한다.
정보 추론부(122)는 객체 검출부(121)에 의해 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론한다.
속성 선별부(123)는 정보 추론부(122)에 의해 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별한다.
각도 추론부(124)는 속성 선별부(123)에 의해 선별된 비교 대상 객체의 촬영 시점 각도를 추론한다.
후보 선정부(125)는 각도 추론부(124)에 의해 추론된 촬영 시점 각도가 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 비교 대상 객체 중 인식 후보 객체를 선정한다.
객체 매칭부(126)는 후보 선정부(125)에 의해 선정된 인식 후보 객체가 인식 대상 객체와 매칭하는지를 파악한다.
도 4 내지 도 6은 본 발명의 일 실시예에 따른 객체 재인식 장치가 수행하는 객체 재인식 방법을 설명하기 위한 흐름도이다.
이하, 도 1 내지 도 6을 참조하여 본 발명의 일 실시예에 따른 객체 재인식 장치가 감시 시스템 내에서 객체를 재인식하는 방법에 대해 자세히 살펴보기로 한다.
먼저, 객체 재인식 장치(100)의 입력부(110)는 인식 후보 객체로 선정될 수 있는 객체가 포함될 수 있는 복수의 영상을 통신망(10)을 통하여 획득하고, 이를 프로세서부(120)에 제공한다. 예를 들어, 크라우드소싱 참여자들은 스마트폰 등과 같이 카메라가 탑재된 통신장치를 이용하여 다양한 시점에서 다양한 영상을 촬영할 수 있고, 촬영된 다양한 시점의 다양한 영상을 통신망(10)을 통하여 객체 재인식 장치(100)에 업로드할 수 있다.
그러면, 프로세서부(120)의 객체 검출부(121)는 입력부(110)를 통하여 입력되는 복수의 영상 내에서 객체를 검출하고(S410), 프로세서부(120)의 정보 추론부(122)는 객체 검출부(121)에 의해 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론한다(S420).
여기서, 정보 추론부(122)가 객체 정보를 추론할 때에 컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델을 이용할 수 있다. 예를 들어, 입력부(110)에 의한 복수의 영상 데이터를 사전에 학습된 딥러닝 모델에 입력할 수 있고, 이러한 딥러닝 모델은 각 영상 데이터로부터 검출된 각 객체의 속성(c), 경계 영역의 중심 좌표(cx, cy), 경계 영역의 너비(w) 및 높이(h) 등의 객체 정보를 추론하여 출력할 수 있다. 예컨대, 객체의 속성(c)이라 함은 자동차인지 사람인지 또는 사물인지 등을 나타내는 정보일 수 있다.
이어서, 프로세서부(120)의 속성 선별부(123)는 정보 추론부(122)에 의해 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별한다(S430). 즉, 속성 선별부(123)는 객체 검출부(121)에 의해 검출된 객체들 중에서 인식 대상 객체와 동일한 속성을 가지는 객체만을 비교 대상 객체로 선별할 수 있다.
다음으로, 프로세서부(120)의 각도 추론부(124)는 속성 선별부(123)에 의해 선별된 비교 대상 객체의 촬영 시점 각도를 추론한다. 여기서, 촬영 시점 각도는 객체의 속성별로 기 설정된 기준 형상 정보와 선별된 비교 대상 객체를 비교한 결과에 기초하여 추론할 수 있다. 촬영 시점 각도는 방위각, 상향각, 평면 회전각 등을 포함할 수 있고, 이 중에서 방위각을 촬영 시점 각도의 대표값으로서 이용할 수 있다. 방위각은 지평좌표(Horizontal coordinate)에서 물체의 위치를 나타나낸 좌표이고, 상향각은 객체와 촬영 시점을 연결한 가상선과 지표면과의 각도이며, 평면 회전각은 지표면 상에서의 좌우 각도이다. 예를 들어, 각도 추론부(124)는 촬영 시점 각도를 추론할 때에 컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 마지막 레이어에 전결합 레이어(fully connected layer)를 추가한 후, 정보 추론부(122)에 의해 추론된 객체 정보를 전결합 레이어에 입력하여 전결합 레이어의 출력으로서 촬영 시점 각도를 획득할 수 있다(S440).
그리고, 프로세서부(120)의 후보 선정부(125)는 각도 추론부(124)에 의해 추론된 촬영 시점 각도가 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 비교 대상 객체 중 인식 후보 객체를 선정한다(S450).
단계 S450에서, 인식 후보 객체를 선정할 때에, 후보 선정부(125)는 비교 대상 객체의 영상에 대하여 기 설정된 각도 범위에 기초하여 관심영역(ROI)을 분류하고(S451), 분류된 관심영역으로부터 추출한 특징값을 이용하여 표현할 수 있는 특징 벡터에 기초하여 인식 후보 객체를 선정할 수 있다(S452). 예를 들어, 관심영역의 분류를 위한 각도 범위는 프론트(front), 프론트사이드(front side), 사이드(side), 리어사이드(rear side), 리어(rear) 등과 같이 4개의 관심영역을 갖도록 정의할 수 있고, 각 객체의 특징에 맞게 각각의 각도 범위를 설정할 수 있다.
여기서, 특징 벡터는 분류된 관심영역에 대하여 픽셀 단위 특징값 추출과 컨볼루셔널 기반 특징값 추출을 수행한 후 특정 크기의 차원으로 고정하는 재구성을 수행하여 특징 벡터로서 표현할 수 있다. 예를 들어, 픽셀 단위 특징값을 추출하기 위해, SIFT(Scale Invariant Feature Transform) 기법을 적용할 수 있다. 또한, 컨볼루셔널 기반 특징값은 컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 중간 컨볼루션 레이어 출력 매트릭스를 사용할 수 있다. 여기서, SIFT 기법을 이용하여 픽셀 단위 특징값을 추출하는 경우에 입력에 따라 출력 특징값의 차원 크기가 변화하기 때문에 특정 크기의 차원으로 고정할 필요가 있다. 예컨대, 추출된 픽셀 단위 특징값들에 대해 VLAD(Vector of Locally Aggregated Descriptors) 폴링(pooling)을 적용하여 특정 크기의 차원으로 재구성할 수 있다. 그리고, 컨볼루셔널 기반 특징값과의 차원 크기를 맞추기 위해 PCA(Principal Component Analysis)를 통해 동일한 차원 크기로 줄일 수 있다. 이후, 픽셀 단위 특징값과 컨볼루셔녈 기반 특징값을 결합하여 최종적으로 특징 벡터를 얻을 수 있다.
다음으로, 프로세서부(120)의 객체 매칭부(126)는 후보 선정부(125)에 의해 선정된 인식 후보 객체가 인식 대상 객체와 매칭하는지를 파악한다(S460).
단계 S460에서, 선정된 인식 후보 객체가 인식 대상 객체와 매칭하는지를 파악할 때에, 객체 매칭부(126)는 선정된 인식 후보 객체에 대해 그 속성을 기초로 클러스터링을 수행할 수 있다. 예컨대, K-means 클러스터링을 이용할 수 있다(S461).
그리고, 클러스터링된 각 클러스터마다, 인식 대상 객체와의 유클리디안 거리(Euclidean distance)를 계산하여 거리 평균을 산출하며(S462), 산출된 거리 평균이 가장 작은 클러스터에 속한 인식 후보 객체를 인식 대상 객체와 매칭되는 객체로서 파악할 수 있다(S463).
한편, 프로세서부(120)에 의한 처리의 결과, 즉 인식 대상 객체와 매칭한 것으로 파악된 인식 후보 객체에 대한 정보는 프로세서부(120)의 제어에 따라 출력부(130)에 의해 출력된다. 예를 들어, 출력부(130)는 프로세서부(120)에 의한 처리의 결과 데이터를 통신모듈을 통하여 송신하거나 처리의 결과 데이터를 인터페이스를 통하여 다른 전자장치로 전달할 수 있다. 또는, 출력부(130)는 프로세서부(120)에 의한 처리의 결과 데이터를 표시장치 또는 인쇄장치를 통하여 시각적 식별이 가능하게 출력할 수 있다.
또한, 저장부(140)는 프로세서부(120)에 의한 처리의 결과를 프로세서부(120)의 제어에 따라 저장할 수 있다.
전술한 일 실시예에 따른 객체 재인식 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 하기 위한 명령어를 포함하는 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록매체에서 구현될 수 있다.
또한, 전술한 일 실시예에 따른 객체 재인식 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 위한 명령어를 포함하도록 프로그램된, 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램의 형태로 구현될 수 있다.
지금까지 설명한 바와 같이, 본 발명의 실시예에 따르면 다양한 시점에서 촬영된 다양한 영상으로부터 객체를 검출 및 재인식할 수 있다. 예를 들어, 크라우드소싱을 감시 시스템에 적용하여 영상 감시 서비스를 제공하는 경우, 촬영 시점 각도를 추론한 후 추론된 촬영 시점 각도에 기초하여 객체 인식을 수행할 수 있다. 따라서, 크라우드소싱 환경에서 발생할 수 있는 참여자의 이동성에 따른 시공간적 변화를 고려할 수 있기 때문에, 객체에 대한 인식 성능이 향상되는 효과가 있다.
본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
1: 감시 시스템 100: 객체 재인식 장치
110: 입력부 120: 프로세서부
130: 출력부 140: 저장부

Claims (18)

  1. 객체 재인식 장치에 의해 수행되는 객체 재인식 방법으로서,
    복수의 영상 내에서 객체를 검출하는 단계와,
    상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하는 단계와,
    상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체-상기 검출된 객체 중 적어도 일부임-로서 선별하는 단계와,
    상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하는 단계와,
    상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체-상기 검출된 객체 중 선별된 비교 대상 객체 중 적어도 일부임-를 선정하는 단계와,
    상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는 단계를 포함하는
    객체 재인식 방법.
  2. 제 1 항에 있어서,
    상기 촬영 시점 각도는 객체의 속성별로 기 설정된 기준 형상 정보와 상기 선별된 비교 대상 객체를 비교한 결과에 기초하여 추론하는
    객체 재인식 방법.
  3. 제 1 항에 있어서,
    상기 객체를 검출하는 단계는,
    크라우드소싱을 통하여 상기 복수의 영상을 획득하는
    객체 재인식 방법.
  4. 제 3 항에 있어서,
    상기 촬영 시점 각도를 추론하는 단계는,
    컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 마지막 레이어에 전결합 레이어(fully connected layer)를 추가한 후, 상기 전결합 레이어에 상기 추론된 객체 정보를 입력하여 상기 전결합 레이어의 출력으로서 상기 촬영 시점 각도를 획득하는
    객체 재인식 방법.
  5. 제 1 항에 있어서,
    상기 인식 후보 객체를 선정하는 단계는,
    상기 비교 대상 객체의 영상에 대하여 상기 기 설정된 각도 범위에 기초하여 관심영역(ROI)을 분류하는 단계와,
    상기 분류된 관심영역으로부터 추출한 특징값을 이용하여 표현할 수 있는 특징 벡터에 기초하여 상기 인식 후보 객체를 선정하는 단계를 포함하는
    객체 재인식 방법.
  6. 제 5 항에 있어서,
    상기 특징 벡터는, 상기 분류된 관심영역에 대하여 픽셀 단위 특징값 추출과 컨볼루셔널 기반 특징값 추출을 수행한 후 특정 크기의 차원으로 고정하는 재구성을 수행하여 상기 특징 벡터로서 표현하는
    객체 재인식 방법.
  7. 제 6 항에 있어서,
    상기 컨볼루셔널 기반 특징값은
    컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 중간 컨볼루션 레이어 출력 매트릭스를 사용하는
    객체 재인식 방법.
  8. 제 1 항에 있어서,
    상기 매칭하는지를 파악하는 단계는,
    상기 선정된 인식 후보 객체에 대해 그 속성을 기초로 클러스터링을 수행하는 단계와,
    상기 클러스터링된 각 클러스터마다, 상기 인식 대상 객체와의 유클리디안 거리(Euclidean distance)를 계산하여 거리 평균을 산출하는 단계와,
    상기 산출된 거리 평균이 가장 작은 클러스터에 속한 인식 후보 객체를 상기 인식 대상 객체와 매칭되는 객체로서 파악하는 단계를 포함하는
    객체 재인식 방법.
  9. 복수의 영상을 입력받는 입력부와,
    상기 영상에 대한 처리를 수행하는 프로세서부와,
    상기 프로세서부에 의한 처리의 결과를 출력하는 출력부를 포함하고,
    상기 프로세서부는,
    상기 입력부로 입력되는 상기 복수의 영상 내에서 객체를 검출하며,
    상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하고,
    상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체-상기 검출된 객체 중 적어도 일부임-로서 선별하며,
    상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하고,
    상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체-상기 검출된 객체 중 선별된 비교 대상 객체 중 적어도 일부임-를 선정하며,
    상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는
    객체 재인식 장치.
  10. 제 9 항에 있어서,
    상기 촬영 시점 각도는 객체의 속성별로 기 설정된 기준 형상 정보와 상기 선별된 비교 대상 객체를 비교한 결과에 기초하여 추론하는
    객체 재인식 장치.
  11. 제 9 항에 있어서,
    상기 입력부는,
    크라우드소싱을 통하여 상기 복수의 영상을 획득하는
    객체 재인식 장치.
  12. 제 9 항에 있어서,
    상기 프로세서부는,
    상기 촬영 시점 각도를 추론할 때에,
    컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 마지막 레이어에 전결합 레이어(fully connected layer)를 추가한 후, 상기 전결합 레이어에 상기 추론된 객체 정보를 입력하여 상기 전결합 레이어의 출력으로서 상기 촬영 시점 각도를 획득하는
    객체 재인식 장치.
  13. 제 12 항에 있어서,
    상기 프로세서부는,
    상기 인식 후보 객체를 선정할 때에,
    상기 비교 대상 객체의 영상에 대하여 상기 기 설정된 각도 범위에 기초하여 관심영역(ROI)을 분류하고,
    상기 분류된 관심영역으로부터 추출한 특징값을 이용하여 표현할 수 있는 특징 벡터에 기초하여 상기 인식 후보 객체를 선정하는
    객체 재인식 장치.
  14. 제 13 항에 있어서,
    상기 특징 벡터는, 상기 분류된 관심영역에 대하여 픽셀 단위 특징값 추출과 컨볼루셔널 기반 특징값 추출을 수행한 후 특정 크기의 차원으로 고정하는 재구성을 수행하여 상기 특징 벡터로서 표현하는
    객체 재인식 장치.
  15. 제 14 항에 있어서,
    상기 컨볼루셔널 기반 특징값은,
    컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 중간 컨볼루션 레이어 출력 매트릭스를 사용하는
    객체 재인식 장치.
  16. 제 9 항에 있어서,
    상기 프로세서부는,
    상기 매칭하는지를 파악할 때에,
    상기 선정된 인식 후보 객체에 대해 그 속성을 기초로 클러스터링을 수행하고,
    상기 클러스터링된 각 클러스터마다, 상기 인식 대상 객체와의 유클리디안 거리(Euclidean distance)를 계산하여 거리 평균을 산출하며,
    상기 산출된 거리 평균이 가장 작은 클러스터에 속한 인식 후보 객체를 상기 인식 대상 객체와 매칭되는 객체로서 파악하는
    객체 재인식 장치.
  17. 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
    상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
    복수의 영상 내에서 객체를 검출하는 단계와, 상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하는 단계와, 상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체-상기 검출된 객체 중 적어도 일부임-로서 선별하는 단계와, 상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하는 단계와, 상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체-상기 검출된 객체 중 선별된 비교 대상 객체 중 적어도 일부임-를 선정하는 단계와, 상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.
  18. 컴퓨터 판독 가능 기록매체에 저장되어 있는 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
    복수의 영상 내에서 객체를 검출하는 단계와, 상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하는 단계와, 상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체-상기 검출된 객체 중 적어도 일부임-로서 선별하는 단계와, 상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하는 단계와, 상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체-상기 검출된 객체 중 선별된 비교 대상 객체 중 적어도 일부임-를 선정하는 단계와, 상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 프로그램.
KR1020200095249A 2019-07-31 2020-07-30 객체 재인식 장치 및 방법 KR102547405B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/943,182 US20210034915A1 (en) 2019-07-31 2020-07-30 Method and apparatus for object re-identification

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190093300 2019-07-31
KR1020190093300 2019-07-31

Publications (2)

Publication Number Publication Date
KR20210015697A KR20210015697A (ko) 2021-02-10
KR102547405B1 true KR102547405B1 (ko) 2023-06-26

Family

ID=74561261

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200095249A KR102547405B1 (ko) 2019-07-31 2020-07-30 객체 재인식 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102547405B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022239931A1 (ko) * 2021-05-12 2022-11-17 삼성전자 주식회사 전자 장치 및 전자 장치에서 이미지 촬영 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180075300A1 (en) * 2014-09-30 2018-03-15 C/O Canon Kabushiki Kaisha System and method for object re-identification

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127668B2 (en) 2016-03-04 2018-11-13 Disney Enterprises, Inc. Systems and methods for re-identifying objects in images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180075300A1 (en) * 2014-09-30 2018-03-15 C/O Canon Kabushiki Kaisha System and method for object re-identification

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Hao Su외 3명, Render for CNN: Viewpoint Estimation in Images Using CNNs Trained with Rendered 3D Model Views, ICCV, pp.2686-2694 (2015.05.21.) 1부.*
Liang Zheng 외 2명, SIFT Meets CNN: A Decade Survey of Instance Retrieval, JOURNAL OF LATEX CLASS FILES, Vol.14, pp.1-20 (2015.08.)*
박근표 외 1명, Viewpoint를 이용한 사람 재식별, 대한전자공학회 하계학술대회 논문집, Vol.2015 pp.510-513 (2015.06.)*

Also Published As

Publication number Publication date
KR20210015697A (ko) 2021-02-10

Similar Documents

Publication Publication Date Title
Tang et al. Single-camera and inter-camera vehicle tracking and 3D speed estimation based on fusion of visual and semantic features
Cho et al. Improving person re-identification via pose-aware multi-shot matching
Ashraf et al. Dogfight: Detecting drones from drones videos
Fernandez-Sanjurjo et al. Real-time visual detection and tracking system for traffic monitoring
Kulchandani et al. Moving object detection: Review of recent research trends
Zhang et al. Real-time multiple human perception with color-depth cameras on a mobile robot
Wu et al. Real-time human detection using contour cues
Noh et al. A new framework for background subtraction using multiple cues
Sock et al. Multi-view 6D object pose estimation and camera motion planning using RGBD images
JP6032921B2 (ja) 物体検出装置及びその方法、プログラム
US20220174089A1 (en) Automatic identification and classification of adversarial attacks
KR101764845B1 (ko) 다중 이동 물체의 겹침 제거 및 추적을 위한 영상 감시 장치 및 방법
CN106682619B (zh) 一种对象跟踪方法及装置
CN110766720A (zh) 一种基于深度学习的多摄像头车辆跟踪系统
Rao et al. Estimation of crowd density by clustering motion cues
CN109033985B (zh) 商品识别的处理方法、装置、设备、系统及存储介质
Li et al. High-level visual features for underwater place recognition
Schumann et al. A soft-biometrics dataset for person tracking and re-identification
Afonso et al. Automatic estimation of multiple motion fields from video sequences using a region matching based approach
Seib et al. Object recognition using hough-transform clustering of surf features
Raktrakulthum et al. Vehicle classification in congested traffic based on 3D point cloud using SVM and KNN
KR102547405B1 (ko) 객체 재인식 장치 및 방법
Cancela et al. Hierarchical framework for robust and fast multiple-target tracking in surveillance scenarios
Fradi et al. Autonomous person detection and tracking framework using unmanned aerial vehicles (UAVs)
AU2011265494A1 (en) Kernalized contextual feature

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant