KR20210015697A - Method and apparatus for object re-identification - Google Patents

Method and apparatus for object re-identification Download PDF

Info

Publication number
KR20210015697A
KR20210015697A KR1020200095249A KR20200095249A KR20210015697A KR 20210015697 A KR20210015697 A KR 20210015697A KR 1020200095249 A KR1020200095249 A KR 1020200095249A KR 20200095249 A KR20200095249 A KR 20200095249A KR 20210015697 A KR20210015697 A KR 20210015697A
Authority
KR
South Korea
Prior art keywords
recognition
inferred
angle
selecting
inferring
Prior art date
Application number
KR1020200095249A
Other languages
Korean (ko)
Other versions
KR102547405B1 (en
Inventor
윤찬현
전민수
김성환
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to US16/943,182 priority Critical patent/US20210034915A1/en
Publication of KR20210015697A publication Critical patent/KR20210015697A/en
Application granted granted Critical
Publication of KR102547405B1 publication Critical patent/KR102547405B1/en

Links

Images

Classifications

    • G06K9/00771
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/46
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

The present invention provides a method and an apparatus for object re-recognition which can detect and match objects from various images photographed from various viewpoints. According to one embodiment of the present invention, the method for object re-recognition performed by an apparatus for object re-recognition comprises: a step of detecting objects in a plurality of images; a step of inferring object information including a property for the detect objects; a step of selecting objects having the same property as an object to be recognized in the inferred object information as objects to be compared; a step of inferring a photographing viewpoint angle of the selected objects to be compared; a step of selecting a recognition candidate object among the objects to be compared in accordance with whether the inferred photographing viewpoint angle is included in a preset angle range in response to the object to be recognized; and a step of identifying whether the selected recognition candidate object matches the object to be recognized.

Description

객체 재인식 장치 및 방법{METHOD AND APPARATUS FOR OBJECT RE-IDENTIFICATION}Object re-recognition device and method {METHOD AND APPARATUS FOR OBJECT RE-IDENTIFICATION}

본 발명은 객체를 재인식하는 장치와 객체를 재인식하는 방법에 관한 것이다.The present invention relates to an apparatus for re-recognizing an object and a method for re-recognizing an object.

현대 사회의 다양한 문제를 해결하기 위한 방안으로 스마트 시티 응용이 등장하였고, 스마트 시티 응용 중에 감시 시스템의 수요가 큰 비중을 차지하고 있다. 이러한 감시 시스템에서 영상 감시 서비스를 제공하기 위해서는 수집한 영상 내에서 각 객체들에 대한 정보를 얻고, 목표 객체를 추적할 수 있어야 한다. 이를 위해 영상 내에서 목표 객체를 매칭하여 찾는 객체 재인식이 요구된다.Smart city applications have emerged as a way to solve various problems in the modern society, and among smart city applications, the demand for surveillance systems occupies a large proportion. In order to provide a video surveillance service in such a surveillance system, it is necessary to obtain information on each object in the collected video and track a target object. For this, re-recognition of an object to be found by matching a target object in an image is required.

한편, 정보 공유 측면에서 크라우드소싱은 다수의 참여자로부터 데이터를 제보 받고, 제보 받은 데이터를 공유할 수 있다. 따라서, 크라우드소싱은 다양한 상황을 갖는 넓은 범위의 데이터를 활용할 수 있다.On the other hand, in terms of information sharing, crowdsourcing can receive data from multiple participants and share the reported data. Therefore, crowdsourcing can utilize a wide range of data in various situations.

이러한 크라우드소싱을 감시 시스템에 적용하면, 이동성을 가지는 참여자들로부터 데이터를 제보 받을 수 있다. 따라서, 감시카메라 등과 같은 기반시설을 설치할 필요가 없이도 분석 가능한 범위에 제한이 없다. 또한, 다양한 시점에서 촬영된 다양한 영상을 확보할 수 있기 때문에 특정 촬영 시점에 다른 객체에 의해 가려진 객체에 대해서도 다른 참여자의 제보 영상에서 확인할 수 있다.When this crowdsourcing is applied to a surveillance system, data can be reported from participants with mobility. Therefore, there is no limit to the range that can be analyzed without the need to install infrastructure such as surveillance cameras. In addition, since various images captured at various viewpoints can be secured, objects that are covered by other objects at a specific photographing time can also be checked in the tip image of other participants.

하지만 감시 시스템에 크라우드소싱 환경을 사용하는 경우에는 다양한 시점에서 촬영된 다양한 영상으로부터 객체를 검출 및 재인식할 수 있어야 한다.However, when a crowdsourcing environment is used for a surveillance system, objects must be detected and re-recognized from various images taken from various viewpoints.

미국 등록특허 US 10,127,668. 등록일 2018년 11월 13일.US registered patent US 10,127,668. Registration date November 13, 2018.

일 실시예에 따르면, 다양한 시점에서 촬영된 다양한 영상으로부터 객체를 검출 및 매칭할 수 있는 객체 재인식 방법 및 장치를 제공한다.According to an embodiment, an object re-recognition method and apparatus capable of detecting and matching objects from various images captured at various viewpoints are provided.

본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved of the present invention is not limited to those mentioned above, and another problem to be solved that is not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

제 1 관점에 따른 객체 재인식 장치에 의해 수행되는 객체 재인식 방법은, 복수의 영상 내에서 객체를 검출하는 단계와, 상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하는 단계와, 상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하는 단계와, 상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하는 단계와, 상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체를 선정하는 단계와, 상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는 단계를 포함한다.The object re-recognition method performed by the object re-recognition apparatus according to the first aspect includes the steps of detecting an object within a plurality of images, inferring object information including attributes for the detected object, and the inferred Selecting an object having the same property as the object to be recognized from among object information as a target object to be compared, inferring a shooting angle of the selected target object to be compared, and the inferred shooting angle to the object to be recognized And selecting a recognition candidate object from among the objects to be compared according to whether the corresponding object falls within a predetermined angular range, and determining whether the selected recognition candidate object matches the recognition target object.

제 2 관점에 따른 객체 재인식 장치는, 복수의 영상을 입력받는 입력부와, 상기 영상에 대한 처리를 수행하는 프로세서부와, 상기 프로세서부에 의한 처리의 결과를 출력하는 출력부를 포함하고, 상기 프로세서부는, 상기 입력부로 입력되는 상기 복수의 영상 내에서 객체를 검출하며, 상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하고, 상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하며, 상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하고, 상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체를 선정하며, 상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악한다.An object re-recognition apparatus according to a second aspect includes an input unit for receiving a plurality of images, a processor unit for processing the images, and an output unit for outputting a result of processing by the processor unit, and the processor unit , Detecting an object in the plurality of images input to the input unit, inferring object information including attributes for the detected object, and comparing objects having the same attributes as the object to be recognized among the inferred object information Selected as a target object, infers the shooting angle of the selected comparison target object, and a recognition candidate among the comparison target objects according to whether the inferred shooting viewpoint angle falls within a preset angle range corresponding to the recognition target object An object is selected, and it is determined whether the selected recognition candidate object matches the recognition target object.

제 3 관점에 따라 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체는, 상기 컴퓨터 프로그램이, 프로세서에 의해 실행되면, 복수의 영상 내에서 객체를 검출하는 단계와, 상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하는 단계와, 상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하는 단계와, 상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하는 단계와, 상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체를 선정하는 단계와, 상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함한다.A computer-readable recording medium storing a computer program according to the third aspect, when the computer program is executed by a processor, includes the steps of detecting an object in a plurality of images, and attributes of the detected object. Inferring the object information to be compared, selecting an object having the same property as the object to be recognized among the inferred object information as a target object to be compared, and inferring an angle of a photographing point of the selected object to be compared; Selecting a recognition candidate object among the comparison target objects according to whether the inferred photographing viewpoint angle falls within a preset angle range corresponding to the recognition target object, and the selected recognition candidate object matches the recognition target object And instructions for causing the processor to perform a method including determining whether or not.

제 4 관점에 따라 컴퓨터 판독 가능 기록매체에 저장되어 있는 컴퓨터 프로그램은, 프로세서에 의해 실행되면, 복수의 영상 내에서 객체를 검출하는 단계와, 상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하는 단계와, 상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하는 단계와, 상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하는 단계와, 상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체를 선정하는 단계와, 상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함한다.According to the fourth aspect, a computer program stored in a computer-readable recording medium, when executed by a processor, detects an object in a plurality of images, and infers object information including attributes for the detected object. And selecting an object having the same property as the object to be recognized among the inferred object information as a target object to be compared; inferring a photographing angle of the selected object to be compared; and the inferred photographing time Selecting a recognition candidate object among the comparison target objects according to whether an angle is included in a preset angle range corresponding to the recognition target object, and determining whether the selected recognition candidate object matches the recognition target object. And instructions for causing the processor to perform the containing method.

일 실시예에 따르면, 다양한 시점에서 촬영된 다양한 영상으로부터 객체를 검출 및 재인식할 수 있다. 예를 들어, 크라우드소싱을 감시 시스템에 적용하여 영상 감시 서비스를 제공하는 경우, 촬영 시점 각도를 추론한 후 추론된 촬영 시점 각도에 기초하여 객체 재인식을 수행할 수 있다. 따라서, 크라우드소싱 환경에서 발생할 수 있는 참여자의 이동성에 따른 시공간적 변화를 고려할 수 있기 때문에, 객체에 대한 재인식 성능이 향상되는 효과가 있다.According to an embodiment, an object may be detected and re-recognized from various images captured at various viewpoints. For example, when crowdsourcing is applied to a monitoring system to provide an image monitoring service, an object re-recognition may be performed based on the inferred photographing viewpoint angle after inferring a photographing viewpoint angle. Therefore, since it is possible to consider the spatiotemporal change according to the mobility of the participant that may occur in the crowdsourcing environment, there is an effect of improving the re-recognition performance of the object.

도 1은 본 발명의 일 실시예에 따른 객체 재인식 장치를 적용할 수 있는 감시 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 객체 재인식 장치의 구성도이다.
도 3은 도 2에 도시된 프로세서부의 구성도이다.
도 4 내지 도 6은 본 발명의 일 실시예에 따른 객체 재인식 장치가 수행하는 객체 재인식 방법을 설명하기 위한 흐름도이다.
1 is a block diagram of a monitoring system to which an object re-recognition device according to an embodiment of the present invention can be applied.
2 is a block diagram of an object re-recognition apparatus according to an embodiment of the present invention.
3 is a block diagram of a processor unit illustrated in FIG. 2.
4 to 6 are flowcharts illustrating an object re-recognition method performed by an object re-recognition apparatus according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described later together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, and only these embodiments make the disclosure of the present invention complete, and are common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in the present specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected from general terms that are currently widely used while considering functions in the present invention, but this may vary depending on the intention or precedent of a technician working in the field, the emergence of new technologies, and the like. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning of the terms will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall contents of the present invention, not a simple name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. When it is said that a part in the specification'includes' a certain element, this means that other elements may be further included instead of excluding other elements unless specifically stated to the contrary.

또한, 명세서에서 사용되는 '부'라는 용어는 소프트웨어 또는 FPGA나 ASIC과 같은 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.In addition, the term'unit' used in the specification means software or hardware components such as FPGA or ASIC, and'unit' performs certain roles. However,'part' is not limited to software or hardware. The'unit' may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example,'unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Includes subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays and variables. The functions provided in the components and'units' may be combined into a smaller number of components and'units', or may be further divided into additional components and'units'.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. In addition, in the drawings, parts not related to the description are omitted in order to clearly describe the present invention.

도 1은 본 발명의 일 실시예에 따른 객체 재인식 장치를 적용할 수 있는 감시 시스템의 구성도이다.1 is a block diagram of a monitoring system to which an object re-recognition device according to an embodiment of the present invention can be applied.

도 1을 참조하면, 감시 시스템(1)은 객체 재인식 장치(100)를 포함하고, 객체 재인식 장치(100)는 통신망(10)에 접속되어 크라우드소싱 환경에서 동작할 수 있다. 예를 들어, 객체 재인식 장치(100)는 엣지 서버 또는 크라우드 서버와 연동하거나 엣지 서버 또는 크라우드 서버에 포함될 수 있다. 이외에도, 객체 재인식 장치(100)의 동작 환경은 특별히 제한되지 않고, 다수의 단말로부터 인식 대상 객체가 포함된 영상을 제공받을 수 있는 다양한 환경에서 동작할 수 있다.Referring to FIG. 1, the monitoring system 1 includes an object re-recognition device 100, and the object re-recognition device 100 is connected to a communication network 10 to operate in a crowdsourcing environment. For example, the object re-recognition apparatus 100 may interwork with an edge server or a crowd server, or may be included in an edge server or a crowd server. In addition, the operation environment of the object re-recognition apparatus 100 is not particularly limited, and may operate in various environments in which an image including an object to be recognized may be provided from a plurality of terminals.

이러한 객체 재인식 장치(100)는 다양한 시점에서 촬영된 다양한 영상을 통신망(10)을 통하여 제공받고, 제공받은 영상들에 포함된 객체를 검출 및 매칭할 수 있다.The object re-recognition apparatus 100 may receive various images captured at various viewpoints through the communication network 10 and detect and match objects included in the received images.

도 2는 본 발명의 일 실시예에 따른 객체 재인식 장치(100)의 구성도이다.2 is a block diagram of an object re-recognition apparatus 100 according to an embodiment of the present invention.

도 2를 참조하면, 객체 재인식 장치(100)는 입력부(110) 및 프로세서부(120)를 포함한다. 그리고, 객체 재인식 장치(100)는 출력부(130) 및/또는 저장부(140)를 더 포함할 수 있다.Referring to FIG. 2, the object re-recognition apparatus 100 includes an input unit 110 and a processor unit 120. In addition, the object re-recognition device 100 may further include an output unit 130 and/or a storage unit 140.

입력부(110)는 인식 후보 객체로 선정될 수 있는 객체가 포함될 수 있는 복수의 영상을 입력 받고, 입력 받은 복수의 영상을 프로세서부(120)에 제공한다. 예를 들어, 입력부(110)는 도 1의 통신망(10)을 통하여 영상 데이터를 수신할 수 있는 통신모듈을 포함하거나 영상 데이터를 직접 입력받을 수 있는 인터페이스를 포함할 수 있다.The input unit 110 receives a plurality of images that may include an object that may be selected as a recognition candidate object, and provides the received plurality of images to the processor unit 120. For example, the input unit 110 may include a communication module capable of receiving image data through the communication network 10 of FIG. 1 or may include an interface capable of directly receiving image data.

프로세서부(120)는 입력부(110)로부터 제공받은 영상에 대한 처리를 수행하고, 처리의 결과를 출력하도록 출력부(130)을 제어할 수 있다.The processor unit 120 may process the image provided from the input unit 110 and control the output unit 130 to output a result of the processing.

이러한 프로세서부(120)는 입력부(110)로 입력되는 복수의 영상 내에서 객체를 검출하며, 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론한다. 그리고, 프로세서부(120)는 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하며, 선별된 비교 대상 객체의 촬영 시점 각도를 추론한다. 그리고, 프로세서부(120)는 추론된 촬영 시점 각도가 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 비교 대상 객체 중 인식 후보 객체를 선정한다. 그리고, 프로세서부(120)는 선정된 인식 후보 객체가 인식 대상 객체와 매칭하는지를 파악한다.The processor unit 120 detects an object in a plurality of images input to the input unit 110 and infers object information including attributes for the detected object. In addition, the processor unit 120 selects an object having the same properties as the object to be recognized among the inferred object information as the object to be compared, and infers the angle of the photographing point of the selected object to be compared. In addition, the processor unit 120 selects a recognition candidate object from among the comparison target objects according to whether the inferred shooting point angle is included in a preset angle range corresponding to the recognition target object. In addition, the processor unit 120 determines whether the selected recognition candidate object matches the recognition target object.

여기서, 프로세서부(120)는 선별된 비교 대상 객체와 객체의 속성별로 기 설정된 기준 형상 정보를 비교한 결과에 기초하여 촬영 시점 각도를 추론할 수 있다.Here, the processor 120 may infer a photographing viewpoint angle based on a result of comparing the selected object to be compared with reference shape information preset for each attribute of the object.

프로세서부(102)는 객체 정보를 추론할 때 또는 비교 대상 객체를 선별할 때에 컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델을 이용할 수 있다.The processor unit 102 may use a deep learning model based on a convolutional neural network when inferring object information or when selecting an object to be compared.

프로세서부(120)는 촬영 시점 각도를 추론할 때에 컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 마지막 레이어에 전결합 레이어(fully connected layer)를 추가한 후, 추론된 객체 정보를 전결합 레이어에 입력하여 전결합 레이어의 출력으로서 촬영 시점 각도를 획득할 수 있다.The processor unit 120 adds a fully connected layer to the last layer of the deep learning model based on the convolutional neural network when inferring the shooting angle, and then inputs the inferred object information into the fully coupled layer. Thus, it is possible to obtain a photographing viewpoint angle as an output of the pre-combined layer.

프로세서부(120)는 인식 후보 객체를 선정할 때에 비교 대상 객체의 영상에 대하여 기 설정된 각도 범위에 기초하여 관심영역(ROI)을 분류하고, 분류된 관심영역으로부터 추출한 특징값을 이용하여 표현할 수 있는 특징 벡터에 기초하여 복수의 인식 후보 객체를 선정할 수 있다. 여기서, 특징 벡터는 분류된 관심영역에 대하여 픽셀 단위 특징값 추출과 컨볼루셔널 기반 특징값 추출을 수행한 후 특정 크기의 차원으로 고정하는 재구성을 수행하여 특징 벡터로서 표현할 수 있다. 예를 들어, 컨볼루셔널 기반 특징값은 컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 중간 컨볼루션 레이어 출력 매트릭스를 사용할 수 있다.When selecting a recognition candidate object, the processor unit 120 classifies a region of interest (ROI) based on a preset angular range with respect to the image of the object to be compared, and can express it using feature values extracted from the classified region of interest. A plurality of recognition candidate objects may be selected based on the feature vector. Here, the feature vector may be expressed as a feature vector by performing pixel-based feature value extraction and convolutional-based feature value extraction for the classified ROI, and then performing reconstruction fixing to a dimension of a specific size. For example, the convolutional-based feature value may use an intermediate convolutional layer output matrix of a deep learning model based on a convolutional neural network.

프로세서부(120)는 선정된 복수의 인식 후보 객체가 인식 대상 객체와 매칭하는지를 파악할 때에, 선정된 복수의 인식 후보 객체에 대해 그 속성을 기초로 클러스터링을 수행하고, 클러스터링된 각 클러스터마다 인식 대상 객체와의 유클리디안 거리(Euclidean distance)를 계산하여 거리 평균을 산출하며, 산출된 거리 평균이 가장 작은 클러스터에 속한 인식 후보 객체를 인식 대상 객체와 매칭되는 객체로서 파악할 수 있다. 여기서, "속성"이란 관심영역으로부터 추출한 특징값을 이용하여 표현할 수 있는 특징 벡터일 수 있다.When determining whether the selected plurality of recognition candidate objects match the recognition target object, the processor unit 120 performs clustering on the selected plurality of recognition candidate objects based on their attributes, and performs a recognition target object for each clustered cluster. A distance average is calculated by calculating an Euclidean distance with and, and a recognition candidate object belonging to a cluster having the smallest calculated distance average may be recognized as an object matching the object to be recognized. Here, "attribute" may be a feature vector that can be expressed using feature values extracted from the region of interest.

출력부(130)는 프로세서부(120)에 의한 처리의 결과를 프로세서부(120)의 제어에 따라 출력할 수 있다. 예를 들어, 출력부(130)는 프로세서부(120)에 의한 처리의 결과 데이터를 송신할 수 있는 통신모듈을 포함하거나 처리의 결과 데이터를 다른 전자장치로 전달할 수 있는 인터페이스를 포함할 수 있다. 또, 출력부(130)는 프로세서부(120)에 의한 처리의 결과 데이터를 시각적 식별이 가능하게 출력할 수 있는 표시장치 또는 인쇄장치 등을 포함할 수 있다.The output unit 130 may output a result of processing by the processor unit 120 according to the control of the processor unit 120. For example, the output unit 130 may include a communication module capable of transmitting processing result data by the processor unit 120 or an interface capable of transmitting processing result data to another electronic device. In addition, the output unit 130 may include a display device or a printing device capable of visually identifying the result data of processing by the processor unit 120.

저장부(140)는 프로세서부(120)에 의한 처리의 결과를 프로세서부(120)의 제어에 따라 저장할 수 있다. 예를 들어, 저장부(140)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 플래시 메모리(flash memory)와 같은 프로그램 명령어들을 저장하고 수행하도록 특별히 구성된 하드웨어 장치 등과 같이 컴퓨터 판독 가능한 기록매체일 수 있다.The storage unit 140 may store a result of processing by the processor unit 120 under the control of the processor unit 120. For example, the storage unit 140 includes magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and floptical disks. It may be a computer-readable recording medium such as a hardware device specially configured to store and execute program instructions such as magneto-optical media or flash memory.

도 3은 도 2에 도시된 프로세서부의 구성도이다.3 is a block diagram of a processor unit illustrated in FIG. 2.

도 3을 참조하면, 프로세서부(120)는 객체 검출부(121), 정보 추론부(122), 속성 선별부(123), 각도 추론부(124), 후보 선정부(125) 및 객체 매칭부(126)를 포함할 수 있다.Referring to FIG. 3, the processor unit 120 includes an object detection unit 121, an information inference unit 122, an attribute selection unit 123, an angle inference unit 124, a candidate selection unit 125, and an object matching unit ( 126).

객체 검출부(121)는 입력되는 복수의 영상 내에서 객체를 검출한다.The object detection unit 121 detects an object in a plurality of input images.

정보 추론부(122)는 객체 검출부(121)에 의해 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론한다.The information inferring unit 122 infers object information including attributes for the object detected by the object detecting unit 121.

속성 선별부(123)는 정보 추론부(122)에 의해 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별한다.The attribute selection unit 123 selects an object having the same attribute as the object to be recognized among the object information inferred by the information inference unit 122 as the object to be compared.

각도 추론부(124)는 속성 선별부(123)에 의해 선별된 비교 대상 객체의 촬영 시점 각도를 추론한다.The angle inference unit 124 infers the photographing viewpoint angle of the object to be compared selected by the attribute selection unit 123.

후보 선정부(125)는 각도 추론부(124)에 의해 추론된 촬영 시점 각도가 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 비교 대상 객체 중 인식 후보 객체를 선정한다.The candidate selection unit 125 selects a recognition candidate object from among the comparison target objects according to whether the shooting point angle inferred by the angle inference unit 124 is included in a preset angle range corresponding to the recognition target object.

객체 매칭부(126)는 후보 선정부(125)에 의해 선정된 인식 후보 객체가 인식 대상 객체와 매칭하는지를 파악한다.The object matching unit 126 determines whether the recognition candidate object selected by the candidate selection unit 125 matches the recognition target object.

도 4 내지 도 6은 본 발명의 일 실시예에 따른 객체 재인식 장치가 수행하는 객체 재인식 방법을 설명하기 위한 흐름도이다.4 to 6 are flowcharts illustrating an object re-recognition method performed by an object re-recognition apparatus according to an embodiment of the present invention.

이하, 도 1 내지 도 6을 참조하여 본 발명의 일 실시예에 따른 객체 재인식 장치가 감시 시스템 내에서 객체를 재인식하는 방법에 대해 자세히 살펴보기로 한다.Hereinafter, a method of re-recognizing an object in a monitoring system by an object re-recognition apparatus according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 6.

먼저, 객체 재인식 장치(100)의 입력부(110)는 인식 후보 객체로 선정될 수 있는 객체가 포함될 수 있는 복수의 영상을 통신망(10)을 통하여 획득하고, 이를 프로세서부(120)에 제공한다. 예를 들어, 크라우드소싱 참여자들은 스마트폰 등과 같이 카메라가 탑재된 통신장치를 이용하여 다양한 시점에서 다양한 영상을 촬영할 수 있고, 촬영된 다양한 시점의 다양한 영상을 통신망(10)을 통하여 객체 재인식 장치(100)에 업로드할 수 있다.First, the input unit 110 of the object re-recognition apparatus 100 acquires a plurality of images that may include an object that may be selected as a recognition candidate object through the communication network 10 and provides them to the processor unit 120. For example, crowdsourcing participants can shoot various images at various viewpoints using a communication device equipped with a camera, such as a smartphone, and the object re-recognition device 100 through the communication network 10 to capture various images from various viewpoints. ) Can be uploaded.

그러면, 프로세서부(120)의 객체 검출부(121)는 입력부(110)를 통하여 입력되는 복수의 영상 내에서 객체를 검출하고(S410), 프로세서부(120)의 정보 추론부(122)는 객체 검출부(121)에 의해 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론한다(S420).Then, the object detection unit 121 of the processor unit 120 detects an object in a plurality of images input through the input unit 110 (S410), and the information inference unit 122 of the processor unit 120 is an object detection unit. Object information including attributes for the object detected by (121) is inferred (S420).

여기서, 정보 추론부(122)가 객체 정보를 추론할 때에 컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델을 이용할 수 있다. 예를 들어, 입력부(110)에 의한 복수의 영상 데이터를 사전에 학습된 딥러닝 모델에 입력할 수 있고, 이러한 딥러닝 모델은 각 영상 데이터로부터 검출된 각 객체의 속성(c), 경계 영역의 중심 좌표(cx, cy), 경계 영역의 너비(w) 및 높이(h) 등의 객체 정보를 추론하여 출력할 수 있다. 예컨대, 객체의 속성(c)이라 함은 자동차인지 사람인지 또는 사물인지 등을 나타내는 정보일 수 있다.Here, when the information inference unit 122 infers object information, a deep learning model based on a convolutional neural network may be used. For example, a plurality of image data by the input unit 110 may be input to a pre-learned deep learning model, and such a deep learning model includes attributes (c) of each object detected from each image data, and Object information such as center coordinates (cx, cy), width (w) and height (h) of the boundary area may be inferred and output. For example, the attribute (c) of an object may be information indicating whether it is a car, a person, or an object.

이어서, 프로세서부(120)의 속성 선별부(123)는 정보 추론부(122)에 의해 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별한다(S430). 즉, 속성 선별부(123)는 객체 검출부(121)에 의해 검출된 객체들 중에서 인식 대상 객체와 동일한 속성을 가지는 객체만을 비교 대상 객체로 선별할 수 있다.Subsequently, the attribute selection unit 123 of the processor unit 120 selects an object having the same attribute as the object to be recognized among the object information inferred by the information inference unit 122 as the object to be compared (S430). That is, the attribute selection unit 123 may select only an object having the same attribute as the object to be recognized among the objects detected by the object detection unit 121 as the object to be compared.

다음으로, 프로세서부(120)의 각도 추론부(124)는 속성 선별부(123)에 의해 선별된 비교 대상 객체의 촬영 시점 각도를 추론한다. 여기서, 촬영 시점 각도는 객체의 속성별로 기 설정된 기준 형상 정보와 선별된 비교 대상 객체를 비교한 결과에 기초하여 추론할 수 있다. 촬영 시점 각도는 방위각, 상향각, 평면 회전각 등을 포함할 수 있고, 이 중에서 방위각을 촬영 시점 각도의 대표값으로서 이용할 수 있다. 방위각은 지평좌표(Horizontal coordinate)에서 물체의 위치를 나타나낸 좌표이고, 상향각은 객체와 촬영 시점을 연결한 가상선과 지표면과의 각도이며, 평면 회전각은 지표면 상에서의 좌우 각도이다. 예를 들어, 각도 추론부(124)는 촬영 시점 각도를 추론할 때에 컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 마지막 레이어에 전결합 레이어(fully connected layer)를 추가한 후, 정보 추론부(122)에 의해 추론된 객체 정보를 전결합 레이어에 입력하여 전결합 레이어의 출력으로서 촬영 시점 각도를 획득할 수 있다(S440).Next, the angle inferring unit 124 of the processor unit 120 infers the shooting point angle of the object to be compared selected by the attribute selection unit 123. Here, the photographing viewpoint angle may be inferred based on a result of comparing the reference shape information preset for each object property and the selected object to be compared. The photographing viewpoint angle may include an azimuth angle, an upward angle, a plane rotation angle, and the like, and among them, the azimuth angle may be used as a representative value of the photographing viewpoint angle. The azimuth angle is the coordinate representing the position of the object in the horizontal coordinate, the upward angle is the angle between the imaginary line connecting the object and the shooting point and the surface, and the plane rotation angle is the left and right angle on the surface. For example, the angle inference unit 124 adds a fully connected layer to the last layer of the deep learning model based on the convolutional neural network when inferring the angle of the photographing point of view, and then the information inference unit 122 The object information inferred by) may be input to the pre-combined layer to obtain a photographing viewpoint angle as an output of the pre-combined layer (S440).

그리고, 프로세서부(120)의 후보 선정부(125)는 각도 추론부(124)에 의해 추론된 촬영 시점 각도가 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 비교 대상 객체 중 인식 후보 객체를 선정한다(S450).In addition, the candidate selection unit 125 of the processor unit 120 is a recognition candidate among the object to be compared according to whether the angle of the shooting point inferred by the angle inference unit 124 is included in a preset angle range corresponding to the object to be recognized An object is selected (S450).

단계 S450에서, 인식 후보 객체를 선정할 때에, 후보 선정부(125)는 비교 대상 객체의 영상에 대하여 기 설정된 각도 범위에 기초하여 관심영역(ROI)을 분류하고(S451), 분류된 관심영역으로부터 추출한 특징값을 이용하여 표현할 수 있는 특징 벡터에 기초하여 인식 후보 객체를 선정할 수 있다(S452). 예를 들어, 관심영역의 분류를 위한 각도 범위는 프론트(front), 프론트사이드(front side), 사이드(side), 리어사이드(rear side), 리어(rear) 등과 같이 4개의 관심영역을 갖도록 정의할 수 있고, 각 객체의 특징에 맞게 각각의 각도 범위를 설정할 수 있다.In step S450, when selecting a recognition candidate object, the candidate selection unit 125 classifies the ROI based on a preset angle range with respect to the image of the object to be compared (S451), and from the classified ROI. A recognition candidate object may be selected based on a feature vector that can be expressed by using the extracted feature value (S452). For example, the angular range for classification of the region of interest is defined to have four regions of interest such as front, front side, side, rear side, rear, etc. You can, and you can set each angle range according to the characteristics of each object.

여기서, 특징 벡터는 분류된 관심영역에 대하여 픽셀 단위 특징값 추출과 컨볼루셔널 기반 특징값 추출을 수행한 후 특정 크기의 차원으로 고정하는 재구성을 수행하여 특징 벡터로서 표현할 수 있다. 예를 들어, 픽셀 단위 특징값을 추출하기 위해, SIFT(Scale Invariant Feature Transform) 기법을 적용할 수 있다. 또한, 컨볼루셔널 기반 특징값은 컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 중간 컨볼루션 레이어 출력 매트릭스를 사용할 수 있다. 여기서, SIFT 기법을 이용하여 픽셀 단위 특징값을 추출하는 경우에 입력에 따라 출력 특징값의 차원 크기가 변화하기 때문에 특정 크기의 차원으로 고정할 필요가 있다. 예컨대, 추출된 픽셀 단위 특징값들에 대해 VLAD(Vector of Locally Aggregated Descriptors) 폴링(pooling)을 적용하여 특정 크기의 차원으로 재구성할 수 있다. 그리고, 컨볼루셔널 기반 특징값과의 차원 크기를 맞추기 위해 PCA(Principal Component Analysis)를 통해 동일한 차원 크기로 줄일 수 있다. 이후, 픽셀 단위 특징값과 컨볼루셔녈 기반 특징값을 결합하여 최종적으로 특징 벡터를 얻을 수 있다.Here, the feature vector may be expressed as a feature vector by performing pixel-based feature value extraction and convolutional-based feature value extraction for the classified ROI, and then performing reconstruction fixing to a dimension of a specific size. For example, in order to extract a feature value in units of pixels, a Scale Invariant Feature Transform (SIFT) technique may be applied. In addition, as the convolutional-based feature value, an intermediate convolutional layer output matrix of a deep learning model based on a convolutional neural network may be used. Here, in the case of extracting a pixel-by-pixel feature value using the SIFT technique, since the dimensional size of the output feature value changes according to the input, it is necessary to fix it to a dimension of a specific size. For example, by applying VLAD (Vector of Locally Aggregated Descriptors) pooling to the extracted feature values for each pixel, it may be reconstructed into a dimension of a specific size. And, in order to match the dimensional size with the convolutional-based feature value, it can be reduced to the same dimensional size through Principal Component Analysis (PCA). Thereafter, a feature vector may be finally obtained by combining the pixel-based feature value and the convolutional feature value.

다음으로, 프로세서부(120)의 객체 매칭부(126)는 후보 선정부(125)에 의해 선정된 인식 후보 객체가 인식 대상 객체와 매칭하는지를 파악한다(S460).Next, the object matching unit 126 of the processor unit 120 determines whether the recognition candidate object selected by the candidate selection unit 125 matches the recognition target object (S460).

단계 S460에서, 선정된 인식 후보 객체가 인식 대상 객체와 매칭하는지를 파악할 때에, 객체 매칭부(126)는 선정된 인식 후보 객체에 대해 그 속성을 기초로 클러스터링을 수행할 수 있다. 예컨대, K-means 클러스터링을 이용할 수 있다(S461).In step S460, when determining whether the selected recognition candidate object matches the recognition target object, the object matching unit 126 may perform clustering on the selected recognition candidate object based on the attribute. For example, K-means clustering may be used (S461).

그리고, 클러스터링된 각 클러스터마다, 인식 대상 객체와의 유클리디안 거리(Euclidean distance)를 계산하여 거리 평균을 산출하며(S462), 산출된 거리 평균이 가장 작은 클러스터에 속한 인식 후보 객체를 인식 대상 객체와 매칭되는 객체로서 파악할 수 있다(S463).For each clustered cluster, a distance average is calculated by calculating an Euclidean distance from the object to be recognized (S462), and a recognition candidate object belonging to the cluster having the smallest calculated distance average is identified as the object to be recognized. It can be recognized as an object matching with (S463).

한편, 프로세서부(120)에 의한 처리의 결과, 즉 인식 대상 객체와 매칭한 것으로 파악된 인식 후보 객체에 대한 정보는 프로세서부(120)의 제어에 따라 출력부(130)에 의해 출력된다. 예를 들어, 출력부(130)는 프로세서부(120)에 의한 처리의 결과 데이터를 통신모듈을 통하여 송신하거나 처리의 결과 데이터를 인터페이스를 통하여 다른 전자장치로 전달할 수 있다. 또는, 출력부(130)는 프로세서부(120)에 의한 처리의 결과 데이터를 표시장치 또는 인쇄장치를 통하여 시각적 식별이 가능하게 출력할 수 있다.Meanwhile, a result of the processing by the processor unit 120, that is, information on the recognition candidate object determined to match the recognition target object is output by the output unit 130 under the control of the processor unit 120. For example, the output unit 130 may transmit result data of processing by the processor unit 120 through a communication module or may transmit result data of the processing to another electronic device through an interface. Alternatively, the output unit 130 may output data resulting from the processing by the processor unit 120 to enable visual identification through a display device or a printing device.

또한, 저장부(140)는 프로세서부(120)에 의한 처리의 결과를 프로세서부(120)의 제어에 따라 저장할 수 있다.Also, the storage unit 140 may store a result of processing by the processor unit 120 under the control of the processor unit 120.

전술한 일 실시예에 따른 객체 재인식 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 하기 위한 명령어를 포함하는 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록매체에서 구현될 수 있다.Each step included in the object re-recognition method according to the above-described embodiment may be implemented in a computer-readable recording medium that records a computer program including instructions for performing these steps.

또한, 전술한 일 실시예에 따른 객체 재인식 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 위한 명령어를 포함하도록 프로그램된, 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램의 형태로 구현될 수 있다.In addition, each step included in the object re-recognition method according to the above-described embodiment may be implemented in the form of a computer program stored in a computer-readable recording medium programmed to include an instruction for performing such a step.

지금까지 설명한 바와 같이, 본 발명의 실시예에 따르면 다양한 시점에서 촬영된 다양한 영상으로부터 객체를 검출 및 재인식할 수 있다. 예를 들어, 크라우드소싱을 감시 시스템에 적용하여 영상 감시 서비스를 제공하는 경우, 촬영 시점 각도를 추론한 후 추론된 촬영 시점 각도에 기초하여 객체 인식을 수행할 수 있다. 따라서, 크라우드소싱 환경에서 발생할 수 있는 참여자의 이동성에 따른 시공간적 변화를 고려할 수 있기 때문에, 객체에 대한 인식 성능이 향상되는 효과가 있다.As described so far, according to an exemplary embodiment of the present invention, objects can be detected and re-recognized from various images captured at various viewpoints. For example, when crowdsourcing is applied to a monitoring system to provide an image monitoring service, an object recognition may be performed based on the inferred photographing viewpoint angle after inferring a photographing viewpoint angle. Therefore, since it is possible to consider the spatiotemporal change according to the mobility of the participant that may occur in the crowdsourcing environment, there is an effect of improving the recognition performance of the object.

본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step of each flowchart attached to the present invention may be performed by computer program instructions. Since these computer program instructions can be mounted on the processor of a general purpose computer, special purpose computer or other programmable data processing equipment, the instructions executed by the processor of the computer or other programmable data processing equipment are the functions described in each step of the flowchart. Will create a means of doing things. These computer program instructions can also be stored on a computer-usable or computer-readable recording medium that can be directed to a computer or other programmable data processing equipment to implement a function in a specific manner, so that the computer-readable or computer-readable medium. It is also possible to produce an article of manufacture that includes instruction means for performing the functions described in each step of the flow chart with instructions stored on the recording medium. Computer program instructions can also be mounted on a computer or other programmable data processing equipment, so that a series of operating steps are performed on a computer or other programmable data processing equipment to create a computer-executable process to create a computer or other programmable data processing equipment. It is also possible for instructions to perform processing equipment to provide steps for executing the functions described in each step of the flowchart.

또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each step may represent a module, segment, or part of code that contains one or more executable instructions for executing the specified logical function(s). Further, it should be noted that in some alternative embodiments, the functions mentioned in the steps may occur out of order. For example, two steps shown in succession may in fact be performed substantially simultaneously, or the steps may sometimes be performed in the reverse order depending on the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential quality of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

1: 감시 시스템 100: 객체 재인식 장치
110: 입력부 120: 프로세서부
130: 출력부 140: 저장부
1: Surveillance System 100: Object Recognition Device
110: input unit 120: processor unit
130: output unit 140: storage unit

Claims (18)

객체 재인식 장치에 의해 수행되는 객체 재인식 방법으로서,
복수의 영상 내에서 객체를 검출하는 단계와,
상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하는 단계와,
상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하는 단계와,
상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하는 단계와,
상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체를 선정하는 단계와,
상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는 단계를 포함하는
객체 재인식 방법.
As an object re-recognition method performed by an object re-recognition device,
Detecting an object within a plurality of images; and
Inferring object information including attributes for the detected object; and
Selecting an object having the same property as the object to be recognized among the inferred object information as a target object to be compared,
Inferring a photographing point angle of the selected object to be compared;
Selecting a recognition candidate object among the comparison target objects according to whether the inferred photographing viewpoint angle is included in a preset angle range corresponding to the recognition target object; and
And determining whether the selected recognition candidate object matches the recognition target object.
Object re-recognition method.
제 1 항에 있어서,
상기 촬영 시점 각도는 객체의 속성별로 기 설정된 기준 형상 정보와 상기 선별된 비교 대상 객체를 비교한 결과에 기초하여 추론하는
객체 재인식 방법.
The method of claim 1,
The photographing viewpoint angle is inferred based on a result of comparing the selected object to be compared with reference shape information preset for each object property.
Object re-recognition method.
제 1 항에 있어서,
상기 객체를 검출하는 단계는,
크라우드소싱을 통하여 상기 복수의 영상을 획득하는
객체 재인식 방법.
The method of claim 1,
The step of detecting the object,
Acquiring the plurality of images through crowdsourcing
Object re-recognition method.
제 3 항에 있어서,
상기 촬영 시점 각도를 추론하는 단계는,
컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 마지막 레이어에 전결합 레이어(fully connected layer)를 추가한 후, 상기 전결합 레이어에 상기 추론된 객체 정보를 입력하여 상기 전결합 레이어의 출력으로서 상기 촬영 시점 각도를 획득하는
객체 재인식 방법.
The method of claim 3,
The step of inferring the angle of the photographing viewpoint,
After adding a fully connected layer to the last layer of a deep learning model based on a convolutional neural network, the inferred object information is input to the pre-combined layer, and the photographing time as an output of the pre-combined layer To acquire the angle
Object re-recognition method.
제 1 항에 있어서,
상기 인식 후보 객체를 선정하는 단계는,
상기 비교 대상 객체의 영상에 대하여 상기 기 설정된 각도 범위에 기초하여 관심영역(ROI)을 분류하는 단계와,
상기 분류된 관심영역으로부터 추출한 특징값을 이용하여 표현할 수 있는 특징 벡터에 기초하여 상기 인식 후보 객체를 선정하는 단계를 포함하는
객체 재인식 방법.
The method of claim 1,
The step of selecting the recognition candidate object,
Classifying a region of interest (ROI) based on the preset angle range with respect to the image of the object to be compared;
And selecting the recognition candidate object based on a feature vector that can be expressed using feature values extracted from the classified region of interest.
Object re-recognition method.
제 5 항에 있어서,
상기 특징 벡터는, 상기 분류된 관심영역에 대하여 픽셀 단위 특징값 추출과 컨볼루셔널 기반 특징값 추출을 수행한 후 특정 크기의 차원으로 고정하는 재구성을 수행하여 상기 특징 벡터로서 표현하는
객체 재인식 방법.
The method of claim 5,
The feature vector is expressed as the feature vector by performing pixel-by-pixel feature value extraction and convolutional-based feature value extraction for the classified ROI, and then performing reconstruction fixing to a dimension of a specific size.
Object re-recognition method.
제 6 항에 있어서,
상기 컨볼루셔널 기반 특징값은
컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 중간 컨볼루션 레이어 출력 매트릭스를 사용하는
객체 재인식 방법.
The method of claim 6,
The convolutional-based feature value is
Using the intermediate convolutional layer output matrix of a deep learning model based on a convolutional neural network
Object re-recognition method.
제 1 항에 있어서,
상기 매칭하는지를 파악하는 단계는,
상기 선정된 인식 후보 객체에 대해 그 속성을 기초로 클러스터링을 수행하는 단계와,
상기 클러스터링된 각 클러스터마다, 상기 인식 대상 객체와의 유클리디안 거리(Euclidean distance)를 계산하여 거리 평균을 산출하는 단계와,
상기 산출된 거리 평균이 가장 작은 클러스터에 속한 인식 후보 객체를 상기 인식 대상 객체와 매칭되는 객체로서 파악하는 단계를 포함하는
객체 재인식 방법.
The method of claim 1,
The step of determining whether the match is performed,
Clustering the selected recognition candidate object based on its attribute,
For each of the clustered clusters, calculating a distance average by calculating an Euclidean distance with the object to be recognized;
Recognizing a recognition candidate object belonging to a cluster having the smallest calculated distance average as an object matching the recognition target object
Object re-recognition method.
복수의 영상을 입력받는 입력부와,
상기 영상에 대한 처리를 수행하는 프로세서부와,
상기 프로세서부에 의한 처리의 결과를 출력하는 출력부를 포함하고,
상기 프로세서부는,
상기 입력부로 입력되는 상기 복수의 영상 내에서 객체를 검출하며,
상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하고,
상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하며,
상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하고,
상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체를 선정하며,
상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는
객체 재인식 장치.
An input unit that receives a plurality of images;
A processor unit that processes the image;
And an output unit for outputting a result of the processing by the processor unit,
The processor unit,
Detecting an object in the plurality of images input to the input unit,
Infer object information including attributes for the detected object,
Among the inferred object information, an object having the same property as the object to be recognized is selected as the object to be compared,
Infer the shooting angle of the selected object to be compared,
Selecting a recognition candidate object among the comparison target objects according to whether the inferred photographing viewpoint angle is included in a preset angle range corresponding to the recognition target object,
To determine whether the selected recognition candidate object matches the recognition target object
Object re-recognition device.
제 9 항에 있어서,
상기 촬영 시점 각도는 객체의 속성별로 기 설정된 기준 형상 정보와 상기 선별된 비교 대상 객체를 비교한 결과에 기초하여 추론하는
객체 재인식 장치.
The method of claim 9,
The photographing viewpoint angle is inferred based on a result of comparing the selected object to be compared with reference shape information preset for each object property.
Object re-recognition device.
제 9 항에 있어서,
상기 입력부는,
크라우드소싱을 통하여 상기 복수의 영상을 획득하는
객체 재인식 장치.
The method of claim 9,
The input unit,
Acquiring the plurality of images through crowdsourcing
Object re-recognition device.
제 9 항에 있어서,
상기 프로세서부는,
상기 촬영 시점 각도를 추론할 때에,
컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 마지막 레이어에 전결합 레이어(fully connected layer)를 추가한 후, 상기 전결합 레이어에 상기 추론된 객체 정보를 입력하여 상기 전결합 레이어의 출력으로서 상기 촬영 시점 각도를 획득하는
객체 재인식 장치.
The method of claim 9,
The processor unit,
When inferring the shooting angle,
After adding a fully connected layer to the last layer of a deep learning model based on a convolutional neural network, the inferred object information is input to the pre-combined layer, and the photographing time as an output of the pre-combined layer To acquire the angle
Object re-recognition device.
제 12 항에 있어서,
상기 프로세서부는,
상기 인식 후보 객체를 선정할 때에,
상기 비교 대상 객체의 영상에 대하여 상기 기 설정된 각도 범위에 기초하여 관심영역(ROI)을 분류하고,
상기 분류된 관심영역으로부터 추출한 특징값을 이용하여 표현할 수 있는 특징 벡터에 기초하여 상기 인식 후보 객체를 선정하는
객체 재인식 장치.
The method of claim 12,
The processor unit,
When selecting the recognition candidate object,
Classify a region of interest (ROI) based on the preset angle range with respect to the image of the object to be compared,
Selecting the recognition candidate object based on a feature vector that can be expressed using feature values extracted from the classified ROI
Object re-recognition device.
제 13 항에 있어서,
상기 특징 벡터는, 상기 분류된 관심영역에 대하여 픽셀 단위 특징값 추출과 컨볼루셔널 기반 특징값 추출을 수행한 후 특정 크기의 차원으로 고정하는 재구성을 수행하여 상기 특징 벡터로서 표현하는
객체 재인식 장치.
The method of claim 13,
The feature vector is expressed as the feature vector by performing pixel-by-pixel feature value extraction and convolutional-based feature value extraction for the classified ROI, and then performing reconstruction fixing to a dimension of a specific size.
Object re-recognition device.
제 14 항에 있어서,
상기 컨볼루셔널 기반 특징값은,
컨볼루셔널 뉴럴 네트워크 기반의 딥러닝 모델의 중간 컨볼루션 레이어 출력 매트릭스를 사용하는
객체 재인식 장치.
The method of claim 14,
The convolutional-based feature value,
Using the intermediate convolutional layer output matrix of a deep learning model based on a convolutional neural network
Object re-recognition device.
제 9 항에 있어서,
상기 프로세서부는,
상기 매칭하는지를 파악할 때에,
상기 선정된 인식 후보 객체에 대해 그 속성을 기초로 클러스터링을 수행하고,
상기 클러스터링된 각 클러스터마다, 상기 인식 대상 객체와의 유클리디안 거리(Euclidean distance)를 계산하여 거리 평균을 산출하며,
상기 산출된 거리 평균이 가장 작은 클러스터에 속한 인식 후보 객체를 상기 인식 대상 객체와 매칭되는 객체로서 파악하는
객체 재인식 장치.
The method of claim 9,
The processor unit,
When determining whether the above matches,
Clustering is performed on the selected recognition candidate object based on its attribute,
For each clustered cluster, a distance average is calculated by calculating an Euclidean distance to the object to be recognized,
Recognizing a recognition candidate object belonging to a cluster having the smallest calculated distance average as an object matching the recognition target object
Object re-recognition device.
컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
복수의 영상 내에서 객체를 검출하는 단계와, 상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하는 단계와, 상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하는 단계와, 상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하는 단계와, 상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체를 선정하는 단계와, 상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.
As a computer-readable recording medium storing a computer program,
The computer program, when executed by a processor,
Detecting an object within a plurality of images, inferring object information including attributes for the detected object, and selecting an object having the same attribute as the object to be recognized among the inferred object information as a comparison target object Recognizing among the comparison target objects according to the step of selecting, inferring the shooting angle of the selected comparison target object, and whether the inferred shooting viewing angle falls within a preset angle range corresponding to the recognition target object A computer-readable recording medium comprising instructions for causing the processor to perform a method including selecting a candidate object and determining whether the selected recognition candidate object matches the recognition target object.
컴퓨터 판독 가능 기록매체에 저장되어 있는 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
복수의 영상 내에서 객체를 검출하는 단계와, 상기 검출된 객체에 대하여 속성을 포함하는 객체 정보를 추론하는 단계와, 상기 추론된 객체 정보 중 인식 대상 객체와 동일한 속성을 가지는 객체를 비교 대상 객체로서 선별하는 단계와, 상기 선별된 비교 대상 객체의 촬영 시점 각도를 추론하는 단계와, 상기 추론된 촬영 시점 각도가 상기 인식 대상 객체에 대응하여 기 설정된 각도 범위에 포함되는지에 따라 상기 비교 대상 객체 중 인식 후보 객체를 선정하는 단계와, 상기 선정된 인식 후보 객체가 상기 인식 대상 객체와 매칭하는지를 파악하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 프로그램.
As a computer program stored in a computer-readable recording medium,
The computer program, when executed by a processor,
Detecting an object within a plurality of images, inferring object information including attributes for the detected object, and selecting an object having the same attribute as the object to be recognized among the inferred object information as a comparison target object Recognizing among the comparison target objects according to the step of selecting, inferring the shooting angle of the selected comparison target object, and whether the inferred shooting viewing angle falls within a preset angle range corresponding to the recognition target object A computer program comprising instructions for causing the processor to perform a method including selecting a candidate object and determining whether the selected recognition candidate object matches the recognition target object.
KR1020200095249A 2019-07-31 2020-07-30 Method and apparatus for object re-identification KR102547405B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/943,182 US20210034915A1 (en) 2019-07-31 2020-07-30 Method and apparatus for object re-identification

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190093300 2019-07-31
KR1020190093300 2019-07-31

Publications (2)

Publication Number Publication Date
KR20210015697A true KR20210015697A (en) 2021-02-10
KR102547405B1 KR102547405B1 (en) 2023-06-26

Family

ID=74561261

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200095249A KR102547405B1 (en) 2019-07-31 2020-07-30 Method and apparatus for object re-identification

Country Status (1)

Country Link
KR (1) KR102547405B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022239931A1 (en) * 2021-05-12 2022-11-17 삼성전자 주식회사 Electronic device and method for capturing image by electronic device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180075300A1 (en) * 2014-09-30 2018-03-15 C/O Canon Kabushiki Kaisha System and method for object re-identification
US10127668B2 (en) 2016-03-04 2018-11-13 Disney Enterprises, Inc. Systems and methods for re-identifying objects in images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180075300A1 (en) * 2014-09-30 2018-03-15 C/O Canon Kabushiki Kaisha System and method for object re-identification
US10127668B2 (en) 2016-03-04 2018-11-13 Disney Enterprises, Inc. Systems and methods for re-identifying objects in images

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Hao Su외 3명, Render for CNN: Viewpoint Estimation in Images Using CNNs Trained with Rendered 3D Model Views, ICCV, pp.2686-2694 (2015.05.21.) 1부.* *
Liang Zheng 외 2명, SIFT Meets CNN: A Decade Survey of Instance Retrieval, JOURNAL OF LATEX CLASS FILES, Vol.14, pp.1-20 (2015.08.)* *
박근표 외 1명, Viewpoint를 이용한 사람 재식별, 대한전자공학회 하계학술대회 논문집, Vol.2015 pp.510-513 (2015.06.)* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022239931A1 (en) * 2021-05-12 2022-11-17 삼성전자 주식회사 Electronic device and method for capturing image by electronic device

Also Published As

Publication number Publication date
KR102547405B1 (en) 2023-06-26

Similar Documents

Publication Publication Date Title
AU2022252799B2 (en) System and method for appearance search
Tang et al. Single-camera and inter-camera vehicle tracking and 3D speed estimation based on fusion of visual and semantic features
AU2014240213B2 (en) System and Method for object re-identification
Ashraf et al. Dogfight: Detecting drones from drones videos
US11288544B2 (en) Method, system and apparatus for generating training samples for matching objects in a sequence of images
US20150334267A1 (en) Color Correction Device, Method, and Program
US9418426B1 (en) Model-less background estimation for foreground detection in video sequences
WO2012158428A1 (en) Method and system for selecting a video analysis method based on available video representation features
CN105404884A (en) Image analysis method
US8718362B2 (en) Appearance and context based object classification in images
Teutsch et al. Robust detection of moving vehicles in wide area motion imagery
Schumann et al. A soft-biometrics dataset for person tracking and re-identification
Afonso et al. Automatic estimation of multiple motion fields from video sequences using a region matching based approach
Raktrakulthum et al. Vehicle classification in congested traffic based on 3D point cloud using SVM and KNN
Zhang et al. An optical flow based moving objects detection algorithm for the UAV
KR102547405B1 (en) Method and apparatus for object re-identification
JP6384167B2 (en) MOBILE BODY TRACKING DEVICE, MOBILE BODY TRACKING METHOD, AND COMPUTER PROGRAM
Arif et al. A Comprehensive Review of Vehicle Detection Techniques Under Varying Moving Cast Shadow Conditions Using Computer Vision and Deep Learning
AU2011265494A1 (en) Kernalized contextual feature
US20210034915A1 (en) Method and apparatus for object re-identification
Aziz et al. Features-based moving objects tracking for smart video surveillances: A review
JP2019067377A (en) Image processing device and method, as well as monitoring system
Li et al. Scene-independent feature-and classifier-based vehicle headlight and shadow removal in video sequences
Naqvi et al. Combining object-based local and global feature statistics for salient object search
Chen et al. Fast One-Shot Learning for Identity Classification in Person Re-identification and Tracking

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant