KR20220155041A - Event camera-based object tracking apparatus and method - Google Patents

Event camera-based object tracking apparatus and method Download PDF

Info

Publication number
KR20220155041A
KR20220155041A KR1020210062787A KR20210062787A KR20220155041A KR 20220155041 A KR20220155041 A KR 20220155041A KR 1020210062787 A KR1020210062787 A KR 1020210062787A KR 20210062787 A KR20210062787 A KR 20210062787A KR 20220155041 A KR20220155041 A KR 20220155041A
Authority
KR
South Korea
Prior art keywords
image
feature
event camera
feature region
tracking
Prior art date
Application number
KR1020210062787A
Other languages
Korean (ko)
Other versions
KR102635416B1 (en
Inventor
박찬국
김예준
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020210062787A priority Critical patent/KR102635416B1/en
Publication of KR20220155041A publication Critical patent/KR20220155041A/en
Application granted granted Critical
Publication of KR102635416B1 publication Critical patent/KR102635416B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0093Geometric image transformation in the plane of the image for image warping, i.e. transforming by individually repositioning each pixel
    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • H04N5/2351

Abstract

An embodiment of the present invention discloses a method for tracking an object based on an event camera, which includes the steps of: setting one or more feature regions including feature points in an image of an object; updating the position of the feature region by tracking the movement of the feature point according to an event occurring in the image; and updating the shape of the feature region when a difference between a position after the update of the feature region and a position before the update is equal to or greater than a preset threshold.

Description

이벤트 카메라 기반의 물체 추적 장치 및 방법{EVENT CAMERA-BASED OBJECT TRACKING APPARATUS AND METHOD}Event camera-based object tracking device and method {EVENT CAMERA-BASED OBJECT TRACKING APPARATUS AND METHOD}

본 발명은 이벤트 카메라 기반의 물체 추적 장치 및 방법에 관한 것으로, 더욱 상세하게는, 이미지 내 설정된 특징점의 움직임에 따라 발생하는 이벤트를 측정하여 물체를 추적하는 장치 및 방법에 관한 것이다. The present invention relates to an event camera-based object tracking apparatus and method, and more particularly, to an apparatus and method for tracking an object by measuring an event occurring according to movement of a set feature point in an image.

기존에는 영상 내 물체를 추적하기 위해 셔터 기반의 일반 카메라를 사용하였다. 이러한 물체 추적 방식은, 추적하고자 하는 물체를 카메라로부터 입력되는 영상의 매 프레임 마다 영상 내 물체를 추적하는 방식으로 이루어진다. 그러나 기존의 셔터 기반 비전 트래킹 방식은 추적 물체가 증가함에 따라 발생되는 연산량 문제, 해상도 저하에 따른 문제 등을 갖고 있었다. 이에 따라, 기존의 셔터 기반 일반 카메라와 비교하여 지연 시간이 매우 짧고, 시간축으로의 해상도가 높으며, 감응 범위가 매우 넓은 이벤트 카메라를 이용하여 물체를 추적하는 기술이 제안되고 있다. 이벤트 카메라는 밝기 변화의 이벤트에 기반하여 픽셀당 밝기 변화값을 기록하는 장치이다. 기존의 이미지만을 이용한 특징점 추출 및 추적 기법들은 많은 연구들이 진행되어 왔지만, 이미지 사이에서는 특징점 추적이 이뤄지지 않고, 고속 상황과 HDR(High Dynamic Range) 상황에는 특징점 추적에 한계가 있다. 따라서 이를 극복하기 위해 이벤트를 이용한 특징점 추적이 연구되어 왔다.Conventionally, a shutter-based general camera was used to track an object in an image. In this object tracking method, an object to be tracked is tracked for each frame of an image input from a camera. However, the existing shutter-based vision tracking method has problems such as the amount of calculations caused by the increase in tracking objects and the decrease in resolution. Accordingly, a technique for tracking an object using an event camera having a very short delay time, a high resolution on the time axis, and a very wide response range has been proposed compared to conventional shutter-based general cameras. An event camera is a device that records a brightness change value per pixel based on a brightness change event. Although many studies have been conducted on feature point extraction and tracking techniques using only existing images, feature point tracking is not performed between images, and there is a limit to feature point tracking in high-speed and high dynamic range (HDR) situations. Therefore, in order to overcome this problem, tracking of feature points using events has been studied.

본 발명은 DAVIS(Dynamic and Active-pixel Vision Sensor)를 이용하여 평면상의 패치-특징점을 추적하는 방법에 관한 것이다. DAVIS는 이벤트 카메라의 한 종류로서 광학센서 배열을 공유하는 APS(Active Pixel Sensor)와 DVS(Dynamic Vision Sensor)를 가지고 있다. 따라서 일반적인 이미지와 이벤트 측정치(빛 변화)를 동시에 얻을 수 있다. 그리고 이미지와 이벤트를 모두 이용해서 패치-특징점을 추적한다.The present invention relates to a method for tracking patch-feature points on a plane using DAVIS (Dynamic and Active-pixel Vision Sensor). DAVIS is a type of event camera and has APS (Active Pixel Sensor) and DVS (Dynamic Vision Sensor) that share an optical sensor array. Thus, a general image and an event measurement (light change) can be obtained simultaneously. Then, patch-feature points are tracked using both images and events.

본 발명 또한 처음에 특징점 추출만 이미지에 의존하고 그 이후에는 이벤트만 이용하기 때문에 이미지 기반 특징점 추적 기법보다 고속 상황과 HDR 상황에 안정적이다. 그리고 특징점의 추적은 SLAM(Simultaneous Localization and Mapping) 또는 object tracking과 같은 분야에 기본적인 구성요소이다. 특히 본 발명은 평면상의 패치-특징점을 추적하는 방법을 다뤘기 때문에 땅을 보며 착륙하는 상황에 대한 영상 항법에 적용 가능하다.The present invention is also more stable in high-speed and HDR situations than image-based feature point tracking techniques because only feature point extraction depends on images at first and only events are used thereafter. And feature point tracking is a basic component in fields such as SLAM (Simultaneous Localization and Mapping) or object tracking. In particular, since the present invention has dealt with a method for tracking patch-feature points on a plane, it can be applied to video navigation for a landing while looking at the ground.

본 발명은 전술한 문제점을 해결하기 위한 것으로, 이미지 내 설정된 특징점의 움직임에 따라 발생하는 이벤트를 측정하여 물체를 추적하는 장치 및 방법을 제공하는 것을 기술적 과제로 한다. SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and a technical task is to provide an apparatus and method for tracking an object by measuring an event occurring according to the movement of a feature point set in an image.

또한, 본 발명은 기존의 달 착륙 시나리오 등에 적합하지 않은 와핑 모델을 개선하여 고속 상황과 HDR(High Dynamic Range) 상황에서도 보다 정확하게 특징점 추적을 수행하도록 구성되는 이벤트 카메라 기반의 물체 추적 장치 및 방법을 제공하는 것을 기술적 과제로 한다. In addition, the present invention provides an event camera-based object tracking device and method configured to more accurately perform feature point tracking even in high-speed and high dynamic range (HDR) situations by improving a warping model that is not suitable for existing moon landing scenarios, etc. to do as a technical task.

본 발명이 이루고자 하는 기술적 과제들은 상기한 기술적 과제로 제한되지 않으며, 이하의 설명으로부터 본 발명의 또 다른 기술적 과제들이 도출될 수 있다. The technical problems to be achieved by the present invention are not limited to the above technical problems, and other technical problems of the present invention can be derived from the following description.

상술한 기술적 과제를 해결하기 위한 기술적 수단으로서, 본 발명의 제1 측면에 따른 이벤트 카메라 기반의 물체 추적 방법은, 물체에 대한 이미지 내 특징점을 포함하는 하나 이상의 특징 영역을 설정하는 단계, 상기 이미지 내 발생되는 이벤트에 따른 상기 특징점의 움직임을 추적하여 상기 특징 영역의 위치를 갱신하는 단계, 그리고, 상기 특징 영역의 갱신된 후의 위치와 갱신되기 전의 위치의 차이가 기설정된 임계치 이상인 경우, 상기 특징 영역의 형태를 갱신하는 단계를 포함한다.As a technical means for solving the above technical problem, an event camera-based object tracking method according to a first aspect of the present invention includes the steps of setting one or more feature regions including feature points in an image of an object, in the image updating the position of the feature region by tracking the movement of the feature point according to an event that occurs, and when the difference between the updated position of the feature region and the position before the update is equal to or greater than a predetermined threshold value, the feature region Updating the form.

또한, 본 발명의 제2 측면에 따른, 이벤트 카메라 기반의 물체 추적 장치는 물체에 대한 이미지를 전송 받는 통신 모듈, 이미지 특징 추적 프로그램을 저장하는 메모리 및 상기 이미지 특징 추적 프로그램을 실행하는 프로세서를 포함한다. 상기 프로세서는 상기 이미지 특징 추적 프로그램을 실행하여, 상기 물체에 대한 이미지 내 특징점을 포함하는 하나 이상의 특징 영역을 설정하고, 상기 이미지 내 발생되는 이벤트에 따른 상기 특징점의 움직임을 추적하여 상기 특징 영역의 위치를 갱신하고, 그리고, 상기 특징 영역의 갱신된 후의 위치와 갱신되기 전의 위치의 차이가 기설정된 임계치 이상인 경우 상기 특징 영역의 형태를 갱신하는 것을 수행하도록 구성된다.In addition, according to the second aspect of the present invention, an event camera-based object tracking device includes a communication module for receiving an image of an object, a memory for storing an image feature tracking program, and a processor for executing the image feature tracking program. . The processor executes the image feature tracking program to set one or more feature regions including feature points in an image of the object, and tracks movement of the feature points according to an event occurring in the image to locate the feature region. and updating the shape of the feature region when a difference between a position after the update and a position before update of the feature region is greater than or equal to a predetermined threshold value.

전술한 본원의 과제 해결 수단에 따르면, 이미지 내 설정된 특징점의 움직임에 따라 발생하는 이벤트를 측정하여 물체를 추적할 수 있다. 특히, 평면 이미지 상에 설정된 특징 영역들의 다양한 형태 변형이 발생한 경우에도 특징점에 대한 추적이 이루어질 수 있다. 또한, 특징 영역의 위치와 형태를 분리하여 갱신함으로써 특징점 추적의 정확도를 높일 수 있다. 나아가, 갱신 과정에서 일부 특징 영역의 위치가 잘못 설정되더라도 다음 갱신 과정에서 다시 해당 특징 영역의 위치가 올바른 위치에 설정될 수 있도록 할 수 있다. According to the above-described problem solving means of the present disclosure, an object may be tracked by measuring an event occurring according to a motion of a feature point set in an image. In particular, tracking of feature points can be performed even when various shape deformations of feature regions set on a flat image occur. In addition, the accuracy of feature point tracking can be increased by separately updating the location and shape of the feature region. Furthermore, even if the positions of some feature regions are incorrectly set during the update process, the positions of the corresponding feature regions can be set to correct positions again in the next update process.

본 발명의 효과들은 상술한 효과들로 제한되지 않으며, 이하의 기재로부터 이해되는 모든 효과들을 포함한다. The effects of the present invention are not limited to the effects described above, and include all effects understood from the following description.

도 1은 본 발명의 실시예에 따른 이벤트 카메라 기반 물체 추적 장치와 DAVIS의 구성을 도시한 블록도이다.
도 2 내지 도 6은 본 발명의 실시예에 따라 이미지의 특징을 추적하는 방법을 설명하기 위해 도시한 도면들이다.
도 7은 본 발명의 실시예에 따른 이벤트 카메라 기반 물체 추적 방법의 순서를 도시한 흐름도이다.
도 8 및 도 9는 도 7에 도시된 이벤트 카메라 기반 물체 추적 방법의 일부 단계들에 대한 세부 과정들을 도시한 흐름도이다.
1 is a block diagram showing the configuration of an event camera-based object tracking device and DAVIS according to an embodiment of the present invention.
2 to 6 are diagrams for explaining a method of tracking features of an image according to an embodiment of the present invention.
7 is a flowchart illustrating a sequence of an event camera-based object tracking method according to an embodiment of the present invention.
8 and 9 are flowcharts illustrating detailed processes of some steps of the event camera-based object tracking method shown in FIG. 7 .

이하에서는 첨부한 도면을 참조하여 본 발명을 상세히 설명하기로 한다. 다만, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시예들로 한정되는 것은 아니다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 도면에 나타난 각 구성요소의 크기, 형태, 형상은 다양하게 변형될 수 있다. 명세서 전체에 대하여 동일/유사한 부분에 대해서는 동일/유사한 도면 부호를 붙였다. Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. However, the present invention may be implemented in many different forms, and is not limited to the embodiments described herein. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical ideas disclosed in this specification are not limited by the accompanying drawings. In order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and the size, shape, and shape of each component shown in the drawings may be variously modified. Same/similar reference numerals are assigned to the same/similar parts throughout the specification.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 “부” 등은 명세서 작성의 용이함만이 고려되어 부여 되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략하였다. The suffixes "module" and "unit" for the components used in the following description are given or used interchangeably in consideration of ease of writing the specification, and do not have meanings or roles that are distinguished from each other by themselves. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description is omitted.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉 또는 결합)"되어 있다고 할 때, 이는 "직접적으로 연결(접속, 접촉 또는 결합)"되어 있는 경우뿐만 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결 (접속, 접촉 또는 결합)"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함(구비 또는 마련)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 "포함(구비 또는 마련)"할 수 있다는 것을 의미한다. Throughout the specification, when a part is said to be “connected (connected, contacted, or combined)” with another part, this is not only the case where it is “directly connected (connected, contacted, or coupled)”, but also has other members in the middle. It also includes the case of being "indirectly connected (connected, contacted, or coupled)" between them. In addition, when a part "includes (provides or provides)" a certain component, it does not exclude other components, but "includes (provides or provides)" other components unless otherwise specified. means you can

본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 나타내는 용어들은 하나의 구성 요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 구성 요소들의 순서나 관계를 제한하지 않는다. 예를 들어, 본 발명의 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소도 제1구성 요소로 명명될 수 있다. Terms indicating ordinal numbers such as first and second used in this specification are used only for the purpose of distinguishing one element from another, and do not limit the order or relationship of elements. For example, a first element of the present invention may be termed a second element, and similarly, the second element may also be termed a first element.

도 1은 본 발명의 실시예에 따른 이벤트 카메라 기반 물체 추적 장치(100)와 DAVIS(Dynamic and Active-pixel Vision Sensor, 200)의 구성을 도시한 블록도이다. 이하에서, 도 1을 참조하여 이벤트 카메라 기반 물체 추적 장치(100)에 대해 상세하게 설명하도록 한다. 1 is a block diagram showing the configuration of an event camera-based object tracking device 100 and a Dynamic and Active-pixel Vision Sensor (DAVIS) 200 according to an embodiment of the present invention. Hereinafter, the event camera-based object tracking device 100 will be described in detail with reference to FIG. 1 .

이벤트 카메라 기반 물체 추적 장치(100)는 DAVIS(200)가 획득하는 이미지 및 이벤트를 전송 받아 이미지 내 특징점들을 추적하도록 구성된다. 이벤트 카메라 기반 물체 추적 장치(100)는 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), LTE(Long Term Evolution) 통신 기반 단말, 스마트폰, 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다. 이벤트 카메라 기반 물체 추적 장치(100)는 SaaS (Software as a Service), PaaS (Platform as a Service) 또는 IaaS (Infrastructure as a Service)와 같은 클라우드 컴퓨팅 서비스 모델에서 동작 할 수 있다. 또한, 이벤트 카메라 기반 물체 추적 장치(100)는 사설(private) 클라우드, 공용(public) 클라우드 또는 하이브리드(hybrid) 클라우드 시스템과 같은 형태로 구축될 수 있다.The event camera-based object tracking device 100 is configured to receive an image and an event acquired by the DAVIS 200 and track feature points in the image. The event camera-based object tracking device 100 may be implemented as a computer or portable terminal capable of accessing a server or other terminals through a network. Here, the computer includes, for example, a laptop, desktop, laptop, etc. equipped with a web browser, and the portable terminal is, for example, a wireless communication device that ensures portability and mobility. , IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet), LTE (Long Term Evolution) communication-based terminal, smart All types of handheld-based wireless communication devices such as phones and tablet PCs may be included. In addition, the network may include a wired network such as a Local Area Network (LAN), a Wide Area Network (WAN) or a Value Added Network (VAN), a mobile radio communication network, a satellite communication network, and the like. It can be implemented in all kinds of wireless networks such as The event camera-based object tracking device 100 may operate in a cloud computing service model such as Software as a Service (SaaS), Platform as a Service (PaaS), or Infrastructure as a Service (IaaS). In addition, the event camera-based object tracking device 100 may be built in the form of a private cloud, public cloud, or hybrid cloud system.

DAVIS(Dynamic and Active-pixel Vision Sensor)(200)는 같은 광학센서 배열을 공유하는 APS(Active Pixel Sensor) 및 DVS(Dynamic Vision Sensor)를 포함한다. 즉, DAVIS(200)는 동적 비전 센서의 이벤트 카메라와 기존의 셔터 기반 카메라를 합친 형태를 갖는다. 이에 따라, DAVIS(200)를 이용할 경우 APS로부터 일반적인 이미지 측정치를 얻을 수 있고, 동시에 DVS로부터 밝기 변화에 따른 이벤트 측정치를 획득할 수 있다. DAVIS(200)는 이미지 내 밝기 변화가 발생한 경우 이벤트가 발생한 것으로 판단할 수 있다. 여기서, 밝기 변화에 따른 이벤트는 일정 시간 간격으로 측정되는 일반적인 프레임 이미지와 달리, 각 광학 센서 배열에서 일정 크기의 빛의 변화가 감지되었을 때마다 실시간으로 발생한다. 다음 식 (1) 과 같이 각 이벤트(e)는 발생 픽셀 좌표, 발생 시간, 극성(빛의 밝기가 증감 여부)의 정보를 가지고 있다. 도면에는 이벤트 카메라 기반 물체 추적 장치(100)와 DAVIS(200)가 분리되어 표시되어 있으나, 본 발명의 범위가 이에 제한되는 것은 아니다. 예컨대, 이벤트 카메라 기반 물체 추적 장치(100)와 DAVIS(200)는 기동 중인 항체에 결합된 형태로 탑재될 수 있다. DAVIS (Dynamic and Active-pixel Vision Sensor) 200 includes an APS (Active Pixel Sensor) and DVS (Dynamic Vision Sensor) sharing the same optical sensor arrangement. That is, the DAVIS 200 has a combination of an event camera of a dynamic vision sensor and a conventional shutter-based camera. Accordingly, when the DAVIS 200 is used, a general image measurement value can be obtained from the APS, and an event measurement value according to a brightness change can be obtained from the DVS at the same time. The DAVIS 200 may determine that an event has occurred when a change in brightness occurs in the image. Here, the event according to the change in brightness occurs in real time whenever a change in light of a certain size is detected in each optical sensor array, unlike a general frame image measured at a certain time interval. As shown in Equation (1) below, each event (e) has information on occurrence pixel coordinates, occurrence time, and polarity (whether the brightness of light increases or decreases). In the drawings, the event camera-based object tracking device 100 and the DAVIS 200 are separately displayed, but the scope of the present invention is not limited thereto. For example, the event camera-based object tracking device 100 and the DAVIS 200 may be mounted in a form coupled to a moving antibody.

Figure pat00001
- 식 (1)
Figure pat00001
- formula (1)

이벤트 카메라 기반 물체 추적 장치(100)의 세부 구성에 대해 보다 상세하게 설명하면, 통신 모듈(110)은 물체에 대한 이미지 및 이벤트를 DAVIS(100)로부터 전송 받는다. 통신 모듈(110)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치를 포함할 수 있다. To describe the detailed configuration of the event camera-based object tracking device 100 in more detail, the communication module 110 receives an image of an object and an event from the DAVIS 100. The communication module 110 may include a device including hardware and software necessary for transmitting and receiving a signal such as a control signal or a data signal to and from other network devices through a wired or wireless connection.

메모리(120)는 이벤트 카메라 기반 물체 추적 장치(100)가 이미지 내 특징점을 추적을 수행하도록 하는 이미지 특징 추적 프로그램을 저장한다. 이미지 특징 추적 프로그램의 명칭은 설명의 편의를 위해 명명된 것으로서, 다른 명칭으로 명명될 수 있고 명칭 그 자체로 프로그램의 기능이 제한되는 것은 아니다. 메모리(120)는 통신 모듈(110)로 입력되는 데이터, 프로세서(130)에 의해 수행되는 기능에 필요한 데이터 및 프로세서(130)의 실행에 따라 생성된 데이터 중 적어도 어느 하나를 저장할 수 있다. 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 저장된 정보를 유지하기 위하여 전력을 필요로 하는 휘발성 저장장치를 통칭하는 것으로 해석되어야 한다. 또한, 메모리(120)는 프로세서(130)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 메모리(120)는 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치 외에 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. The memory 120 stores an image feature tracking program that enables the event camera-based object tracking device 100 to track feature points in an image. The name of the image feature tracking program is named for convenience of description, and may be named with a different name, and the function of the program is not limited by the name itself. The memory 120 may store at least one of data input to the communication module 110, data necessary for functions performed by the processor 130, and data generated according to execution of the processor 130. The memory 120 should be interpreted as collectively referring to a non-volatile storage device that continuously maintains stored information even when power is not supplied and a volatile storage device that requires power to maintain stored information. Also, the memory 120 may temporarily or permanently store data processed by the processor 130 . The memory 120 may include magnetic storage media or flash storage media in addition to volatile storage devices that require power to maintain stored information, but the scope of the present invention is not limited thereto. not.

프로세서(130)는 메모리(130)에 저장된 이미지 특징 추적 프로그램을 실행한다. 프로세서(130)는 데이터를 제어 및 처리하는 다양한 종류의 장치들을 포함할 수 있다. 프로세서(130)는 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 일 예에서, 프로세서(140)는 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 형태로 구현될 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. The processor 130 executes an image feature tracking program stored in the memory 130 . The processor 130 may include various types of devices that control and process data. The processor 130 may refer to a data processing device embedded in hardware having a physically structured circuit to perform functions expressed by codes or instructions included in a program. In one example, the processor 140 includes a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated circuit (ASIC), an FPGA ( field programmable gate array), etc., but the scope of the present invention is not limited thereto.

프로세서(130)는 이미지 특징 추적 프로그램을 실행하여 다음과 같은 기능들을 수행하도록 구성될 수 있다. The processor 130 may be configured to perform the following functions by executing an image feature tracking program.

먼저, 프로세서(130)는 물체에 대한 이미지 내 특징점을 포함하는 하나 이상의 특징 영역을 설정한다. 보다 상세하게는, 프로세서(130)는 DAVIS(200)로부터 물체에 대한 이미지를 획득하고, DAVIS로부터 획득된 이미지로부터 특징점에 해당하는 해리스 코너(harris corner)를 추출할 수 있다. 이 때, 프로세서(130)는 일정 크기의 사각형 형태의 특징 영역을 해리스 코너가 중심이 되도록 이미지 내 설정할 수 있다. First, the processor 130 sets one or more feature regions including feature points in an image of an object. More specifically, the processor 130 may obtain an image of an object from the DAVIS 200 and extract a Harris corner corresponding to a feature point from the image obtained from the DAVIS. At this time, the processor 130 may set a rectangular feature region of a certain size in the image so that the Harris corner is the center.

다음, 프로세서(130)는 이미지 내 발생되는 이벤트에 따른 특징점의 움직임을 추적하여 특징 영역의 위치를 갱신한다. 보다 상세하게는, 프로세서(130)는 DAVIS(200)로부터 이미지 내 밝기 변화에 따른 이벤트를 수신하여 특징점 및 특징 영역의 좌표값을 기초로 특징점의 움직임을 추적하고 특징 영역의 위치를 갱신할 수 있다. 또한, 프로세서(130)는 기설정된 시간 동안 발생한 이벤트의 개수를 누적하여 기설정된 시간 동안 이미지 내 밝기의 변화량을 계산할 수 있다. 프로세서(130)는 DAVIS(200)에서 획득한 이미지로부터 이미지의 기울기를 측정하여, 측정된 기울기를 기초로 상기 기설정된 시간 동안 이미지 내 밝기 변화 추정치를 산출할 수 있다. 이 때, 이미지상의 선분이 움직이게 되면, 선분이 지나가는 자리의 픽셀은 밝기 변화가 생기고 이벤트가 발생하게 되는 원리가 이용된다. 프로세서(130)는 이미지 내 밝기의 변화량과 이미지 내 밝기 변화 추정치의 차이가 최소가 되도록 하는 와핑 파라미터를 산출할 수 있다. Next, the processor 130 updates the position of the feature region by tracking the motion of the feature point according to the event occurring in the image. More specifically, the processor 130 may receive an event according to a change in brightness in the image from the DAVIS 200, track the motion of the feature point based on the coordinate values of the feature point and the feature region, and update the position of the feature region. . In addition, the processor 130 may calculate the amount of change in brightness in the image during the preset time by accumulating the number of events that occurred during the preset time. The processor 130 may measure the gradient of the image from the image acquired by the DAVIS 200 and calculate a brightness change estimate within the image for the preset time based on the measured gradient. At this time, when a line segment on the image is moved, the principle that a brightness change occurs in a pixel where the line segment passes and an event occurs is used. The processor 130 may calculate a warping parameter such that a difference between the amount of change in brightness in the image and the estimated value of the change in brightness in the image is minimized.

프로세서(130)는 특징 영역의 갱신된 후의 위치와 갱신되기 전의 위치의 차이가 기설정된 임계치 이상인 경우 특징 영역의 형태를 갱신하는 것을 수행할 수 있다. 여기서, 특징점 및 하나 이상의 특징 영역은 각각 이미지 내 특정 좌표값을 가질 수 있다. 일 예에서, 프로세서(130)는 갱신된 후의 특징 영역이 갱신되기 전보다 기설정된 임계치인 특정 픽셀 수 이상 움직인 경우에만 특징 영역의 형태를 갱신하고, 갱신되기 전 특징 영역의 위치와 갱신된 후 특징 영역의 위치의 좌표값을 기초로 호모그래피 행렬 연산 기법을 활용하여 특징 영역의 형태를 갱신할 수 있다. The processor 130 may update the shape of the feature region when a difference between a position after the update and a position before the update of the feature region is equal to or greater than a predetermined threshold value. Here, each of the feature point and one or more feature regions may have a specific coordinate value within the image. In one example, the processor 130 updates the shape of the feature region only when the feature region after being updated moves more than a specific number of pixels, which is a preset threshold, compared to before being updated, and the location of the feature region before being updated and the feature after being updated are updated. Based on the coordinate values of the location of the region, the shape of the feature region may be updated using a homography matrix operation technique.

상술한 특징점 및 특징 영역들의 갱신되기 전 위치와 갱신된 후의 위치를 순차적으로 나타난 도 2 내지 도 6을 참조하여, 이벤트 카메라 기반 물체 추적 장치(100)의 추적 방법에 대해 보다 상세하게 설명하도록 한다. The tracking method of the event camera-based object tracking device 100 will be described in more detail with reference to FIGS.

도 2를 참조하면, 이벤트 카메라 기반 물체 추적 장치(100)는 이미지로부터 특징점 패치-특징점을 추출한다. 패치와 특징점은 상술한 특징 영역 및 특징점에 각각 대응되는 요소이다. 이벤트 카메라 기반 물체 추적 장치(100)는 패치 영역 안에서 발생한 일정 개수의 이벤트를 누적하여 패치 영역 내의 밝기 변화를 측정하고, 이와 대응되도록 패치의 모양 및 위치를 업데이트한다. 결과적으로, 이벤트 카메라 기반 물체 추적 장치(100)는 처음 이미지에서 추출한 패치-특징점 영역에 대응되는 패치의 모양 및 위치를 실시간으로 구할 수 있다. 도 2에서 220은 현재 시간 t에서 패치-특징점을 나타낸다. 이 때, 시간 t 전후에 일정 짧은 시간 동안 이벤트를 누적하여 각 픽셀에서의 밝기 변화를 구하면 도 2의 이미지에서 오른쪽의 모습과 같은 형태가 나오게 된다. 이벤트 카메라 기반 물체 추적 장치(100)는 이 패치 내의 누적된 이벤트로부터 구한 밝기 변화와 왼쪽 t=0에서, 추출한 패치-특징점(210)이 대응되도록 패치-특징점의 와핑(warping, 뒤틀림) 파라미터(p)를 업데이트 해준다. Referring to FIG. 2 , the event camera-based object tracking apparatus 100 extracts a feature point patch-feature point from an image. Patches and feature points are elements respectively corresponding to the aforementioned feature areas and feature points. The event camera-based object tracking apparatus 100 measures a change in brightness in a patch area by accumulating a certain number of events generated in the patch area, and updates the shape and position of the patch to correspond thereto. As a result, the event camera-based object tracking apparatus 100 may obtain in real time the shape and position of the patch corresponding to the patch-feature area extracted from the first image. 2, 220 denotes a patch-feature point at the current time t. At this time, when events are accumulated for a certain short period of time before and after time t to obtain a change in brightness at each pixel, a form as shown on the right side of the image of FIG. 2 is obtained. The event camera-based object tracking device 100 has a warping parameter (p) of the patch-feature point so that the brightness change obtained from the accumulated events in this patch and the patch-feature point 210 extracted at the left t = 0 correspond. ) is updated.

와핑 파라미터(p)는 아래 식 (2)에서 translation을 결정하는 t_x, t_y이다. t_x, t_y가 바뀌면 특징점의 위치가 바뀌게 된다.The warping parameter (p) is t_x, t_y that determines translation in Equation (2) below. When t_x and t_y are changed, the position of the feature point is changed.

Figure pat00002
- 식(2)
Figure pat00002
- Equation (2)

와핑 파라미터(p)의 최적화는 아래 식 (3)을 최소화 하는 와핑 파라미터(p)와 optical flow(v)를 구하는 과정이다.

Figure pat00003
는 이벤트 측정치를 이용해서 계산되기 때문에, p, v와 관련 없는 값이나,
Figure pat00004
는 p와 v에 대해서 값이 변하게 된다. 최적화 과정에서 패치의 모양을 결정하는 H는 상수이다.Optimization of the warping parameter (p) is a process of obtaining the warping parameter (p) and optical flow (v) that minimize Equation (3) below.
Figure pat00003
Since is calculated using event measurements, values unrelated to p and v,
Figure pat00004
changes in value for p and v. H, which determines the shape of the patch in the optimization process, is a constant.

Figure pat00005
- 식(3)
Figure pat00005
- Equation (3)

결국 p, v 값에 따라

Figure pat00006
이 정해지는데
Figure pat00007
와 가장 비슷한 값을 가지는 p,v를 구하는 것이 최적화 과정의 목표이다. 최적화 과정은 일반적으로 Gauss-Newton Method 또는 Levenberg-Marquardt Method를 이용해서 수행된다. 본 발명의 실시예에서 Ceres Solver라는 library를 이용할 수 있다. Gauss-Newton을 예를 들어 설명하면,
Figure pat00008
일 때,
Figure pat00009
이면
Figure pat00010
가 되고 식(3)은
Figure pat00011
이 된다.
Figure pat00012
은 아래 식 (4)와 같이 계산된다. After all, depending on the value of p, v
Figure pat00006
is determined
Figure pat00007
The goal of the optimization process is to find p,v with the most similar value to . The optimization process is generally performed using the Gauss-Newton Method or the Levenberg-Marquardt Method. In an embodiment of the present invention, a library called Ceres Solver can be used. Taking Gauss-Newton as an example,
Figure pat00008
when,
Figure pat00009
the other side
Figure pat00010
and equation (3) is
Figure pat00011
becomes
Figure pat00012
is calculated as in Equation (4) below.

Figure pat00013
Figure pat00013

Figure pat00014
- 식 (4)
Figure pat00014
- Eq. (4)

Figure pat00015
가 수렴할 때까지 위 두 식을 반복적으로 계산한다.
Figure pat00016
는 현재 추정하고 있는 p,v의 값일 수 있다. 최종적으로 수렴한 값 p를 이용해서 특징점의 위치를 계산할 수 있다.
Figure pat00015
The above two equations are iteratively calculated until convergence.
Figure pat00016
may be values of p and v currently estimated. Finally, the position of the feature point can be calculated using the converged value p.

Warping 파라미터(p)를 업데이트 하기 위해서는 이벤트를 누적하여 구한 밝기 변화 측정치(

Figure pat00017
)와, 이미지 기울기(
Figure pat00018
optical flow(v)를 내적하여 얻은 밝기 변화의 추정치(
Figure pat00019
)의 차이가 최소화 하도록 최적화를 수행한다 In order to update the Warping parameter (p), the brightness change measurement obtained by accumulating events (
Figure pat00017
), and the image gradient (
Figure pat00018
Estimate of brightness change obtained by dot product of and optical flow (v) (
Figure pat00019
) is optimized to minimize the difference in

도 3을 참조하면, 이벤트 카메라 기반 물체 추적 장치(100)는 호모그래피(homography) 모델을 사용한다. 호모그래피 행렬은 8 자유도를 가지고 있으며, 패치(310)-특징점(311) 들이 평면에 있을 때 임의의 카메라 움직임에 의한 패치의 뒤틀림을 표현할 수 있다. 하지만 최적화 파라미터(p)를 기존의 3 자유도에서 8 자유도로 늘리게 되면, 최적화의 정확도가 떨어지게 되고 특징점 추적의 정확도가 필연적으로 낮아지게 된다. 따라서 본 발명에서는

Figure pat00020
와 같은 warping 모델을 사용하지 않고,
Figure pat00021
와 같은 모델을 사용하였다.Referring to FIG. 3 , the event camera-based object tracking device 100 uses a homography model. The homography matrix has 8 degrees of freedom, and can express the distortion of the patch due to an arbitrary camera movement when the patch 310-feature points 311 are on a plane. However, when the optimization parameter (p) is increased from the existing 3 degrees of freedom to 8 degrees of freedom, the accuracy of optimization decreases and the accuracy of feature point tracking inevitably decreases. Therefore, in the present invention
Figure pat00020
Without using a warping model such as
Figure pat00021
The same model was used.

도 4 내지 도 6을 참조하면, 이미지들(400, 500, 600)은 밝기 변화 이벤트에 따라 패치-특징점의 위치와 형태가 변화하는 모습을 나타낸다. 이벤트 카메라 기반 물체 추적 장치(100)를 이용한 이벤트 카메라 기반 패치-특징점 추적 프로세스에서는 이벤트가 들어올 때마다 패치-특징점의 위치를 업데이트 한다. 다만, 본 발명에 따른 이벤트 카메라 기반 패치-특징점 추적 프로세스에서는 오직 2 자유도의 이동 변환(t)을 최적화 파라미터(p)로 설정하였다. 따라서 도 4에 도시된 패치(410)-특징점(411)이 설정된 임의의 이미지(400)에서 이벤트가 발생하여 패치(410)-특징점(411)이 도 5에 도시된 이미지(500) 내에서의 패치(510)-특징점(511)으로 이동된 경우, 최적화 과정에서는 패치(510)의 모양은 이전의 패치(410)의 모양과 같이 유지하고 이동 변환만 일어나게 된다. 그리고, 이벤트 카메라 기반 물체 추적 장치(100)은 호모그래피 행렬(H)은 패치들이 일정 픽셀 이상 이동 할 때마다 업데이트 하게 된다. 호모그래피 행렬(H)은 처음 패치가 추출된 위치와 현재 추정되는 패치의 위치의 관계를 이용하여 계산할 수 있다. 이 때, 아웃라이어(outlier)의 영향을 제거 할 수 있는 RANSAC(Random Sample Consensus)을 이용하기 때문에 잘못 추적이 된 패치의 영향을 배제할 수 있다. 그리고 계산된 호모그래피 행렬(H)을 이용하여 모든 패치의 H를 최신화 해주고, 이동 파라미터 t는 0으로 초기화 해준다. 그 결과 도 6에 도시된 패치(610)-(611)과 같은 형태를 이미지(600) 내에서 띄게 된다. Referring to FIGS. 4 to 6 , images 400 , 500 , and 600 show changes in the position and shape of patch-feature points according to a brightness change event. In the event camera-based patch-feature point tracking process using the event camera-based object tracking device 100, the position of the patch-feature point is updated whenever an event occurs. However, in the event camera-based patch-feature tracking process according to the present invention, the movement transformation (t) of only two degrees of freedom is set as the optimization parameter (p). Therefore, an event occurs in an arbitrary image 400 in which the patch 410-feature point 411 shown in FIG. 4 is set, and the patch 410-feature point 411 is displayed in When the patch 510-feature point 511 is moved, in the optimization process, the shape of the patch 510 is maintained as the shape of the previous patch 410, and only movement conversion occurs. Also, in the event camera-based object tracking device 100, the homography matrix H is updated whenever patches move by a certain pixel or more. The homography matrix H may be calculated using a relationship between a position where a patch was initially extracted and a position of a currently estimated patch. At this time, since RANSAC (Random Sample Consensus), which can remove the effect of outliers, is used, the effect of incorrectly tracked patches can be excluded. Then, H of all patches is updated using the calculated homography matrix (H), and the movement parameter t is initialized to 0. As a result, the patches 610 to 611 shown in FIG. 6 appear in the image 600 .

지금까지 설명한 내용들을 토대로 이벤트 카메라 기반 물체 추적 장치(100)의 일 구현예를 설명하면, 먼저, DAVIS(200)에서 발생한 이미지를 기반으로 해리스 코너를 추출 후 해리스 코너 중심으로 일정 크기의 정사각형의 패치-특징점을 위치 시킨다.Referring to an embodiment of the event camera-based object tracking device 100 based on the contents described so far, first, after extracting the Harris corner based on the image generated by the DAVIS 200, a square patch of a certain size is centered on the Harris corner. - Locate the feature point.

다음, 이벤트가 발생할 때마다 모든 패치-특징점을 체크하면서 이벤트가 속하는 패치-특징점의 위치를 업데이트 한다. 이 때, 패치 내에서 최근에 발생했던 일정 개수의 이벤트를 누적하면, 해당 시간 동안 패치 내에서 발생한 밝기 변화를 계산할 수 있다. 패치 내 밝기 변화와 이미지 기울기 기반으로 추정한 밝기 변화의 차이가 최소가 되는 와핑 파라미터를 최적화를 통해 구한다Next, whenever an event occurs, all patch-feature points are checked, and the position of the patch-feature point to which the event belongs is updated. At this time, if a certain number of events that have recently occurred in the patch are accumulated, a brightness change occurring in the patch during the corresponding time can be calculated. The warping parameter that minimizes the difference between the brightness change in the patch and the brightness change estimated based on the image gradient is obtained through optimization.

다음, 패치-특징점의 이동 파라미터(tx, ty)를 이벤트가 들어올 때마다 실시간으로 업데이트 된다. 호모그래피 행렬(H)은 패치-특징점이 일정 픽셀 이상 움직인 경우에만 업데이트 한다. 패치-특징점의 최초의 위치와 현재 추정 위치를 이용하여 호모그래피 행렬(H)을 계산한다. 이 때 RANSAC(Random Sample Consensus)를 이용하기 때문에, 위치가 잘못 추정된 outlier의 영향을 배제할 수 있다.Next, the movement parameters (tx, ty) of the patch-feature point are updated in real time whenever an event occurs. The homography matrix (H) is updated only when the patch-feature points move more than a certain pixel. A homography matrix (H) is calculated using the initial position of the patch-feature point and the current estimated position. At this time, since RANSAC (Random Sample Consensus) is used, the influence of outliers whose positions are incorrectly estimated can be excluded.

마지막으로, 계산된 호모그래피 행렬(H)로 모든 패치의 위치 및 모양을 업데이트 한다. 이 때, 이동 파라미터(tx, ty)는 0으로 리셋한다. 호모그래피 행렬(H)은 아웃라이어를 배제하고 계산하였기 때문에, 아웃라이어 패치 들도 참값에 가까운 위치로 업데이트 될 수 있다. Finally, the location and shape of all patches are updated with the calculated homography matrix (H). At this time, the movement parameters (tx, ty) are reset to 0. Since the homography matrix H is calculated after excluding outliers, outlier patches can also be updated to positions close to the true values.

도 7은 본 발명의 실시예에 따른 이벤트 카메라 기반 물체 추적 방법(이하, “이벤트 카메라 기반 물체 추적 방법”이라 함)의 순서를 도시한 흐름도이고, 도 8 및 도 9는 이벤트 카메라 기반 물체 추적 방법의 일부 단계들에 대한 세부 과정들을 도시한 흐름도이다. 이벤트 카메라 기반 물체 추적 방법은 도 1의 이벤트 카메라 기반 물체 추적 장치(100)를 통해 수행될 수 있으며, 프로세서(130)가 이미지 특징 추적 프로그램을 실행함에 따라 수행될 수 있다. 따라서, 앞서 도 1 내지 도 6을 참조하여 설명한 내용들은 이벤트 카메라 기반 물체 추적 방법에도 동일하게 적용될 수 있다. 이하에서 상술한 내용과 함께 도7 내지 도 9를 참조하여 이벤트 카메라 기반 물체 추적 방법을 상세히 설명하도록 한다. FIG. 7 is a flowchart illustrating a sequence of an event camera-based object tracking method (hereinafter referred to as “event camera-based object tracking method”) according to an embodiment of the present invention, and FIGS. 8 and 9 are an event camera-based object tracking method. It is a flowchart showing detailed processes for some steps of The event camera-based object tracking method may be performed through the event camera-based object tracking device 100 of FIG. 1 and may be performed as the processor 130 executes an image feature tracking program. Accordingly, the contents described above with reference to FIGS. 1 to 6 may be equally applied to the event camera-based object tracking method. Hereinafter, the event camera-based object tracking method will be described in detail with reference to FIGS. 7 to 9 together with the above description.

도 7을 참조하면, 이벤트 카메라 기반 물체 추적 방법은, 특징 영역 설정 단계(S110), 특징 영역 위치 갱신 단계(S120) 및 특징 영역 형태 갱신 단계(S130)를 포함한다. 특징 영역 설정 단계(S110)는 물체에 대한 이미지 내 특징점을 포함하는 하나 이상의 특징 영역을 설정하는 단계이다. 특징 영역 위치 갱신 단계(S120)는 이미지 내 발생되는 이벤트에 따른 특징점의 움직임을 추적하여 특징 영역의 위치를 갱신하는 단계이다. 특징 영역 형태 갱신 단계(S130)는 특징 영역의 갱신된 후의 위치와 갱신되기 전의 위치의 차이가 기설정된 임계치 이상인 경우, 특징 영역의 형태를 갱신하는 단계이다. Referring to FIG. 7 , the event camera-based object tracking method includes setting a feature region ( S110 ), updating the location of the feature region ( S120 ), and updating the shape of the feature region ( S130 ). The feature region setting step ( S110 ) is a step of setting one or more feature regions including feature points in an image of an object. The step of updating the position of the feature region ( S120 ) is a step of updating the position of the feature region by tracking the motion of the feature point according to the event occurring in the image. The step of updating the shape of the feature region ( S130 ) is a step of updating the shape of the feature region when the difference between the position after the update and the position before the update is equal to or greater than a preset threshold value.

일 예에서, 특징점 및 하나 이상의 특징 영역은 각각 이미지 내 특정 좌표값을 갖도록 구성될 수 있다. 이 때, 특징 영역 형태 갱신 단계(S130)는 갱신된 후의 특징 영역이 갱신되기 전보다 기설정된 임계치인 특정 픽셀 수 이상 움직인 경우에만 특징 영역의 형태를 갱신하고, 갱신되기 전 특징 영역의 위치와 갱신된 후 특징 영역의 위치의 좌표값을 기초로 호모그래피 행렬 연산 기법을 활용하여 특징 영역의 형태를 갱신하는 단계일 수 있다. In one example, each feature point and one or more feature regions may be configured to have specific coordinate values in an image. At this time, in the step of updating the shape of the feature region (S130), the shape of the feature region is updated only when the feature region after the update moves more than a specific number of pixels, which is a predetermined threshold value, compared to before the update, and the position and update of the feature region before the update are performed. After the process is performed, a step of updating the shape of the feature region by using a homography matrix operation technique based on the coordinate values of the location of the feature region may be performed.

도 8을 참조하면, 특징 영역 설정 단계(S110)는 DAVIS(Dynamic and Active-pixel Vision Sensor)로부터 물체에 대한 이미지를 획득하는 단계(S111), DAVIS로부터 획득된 이미지로부터 특징점에 해당하는 해리스 코너를 추출하는 단계(S112), 그리고, 일정 크기의 사각형 형태의 특징 영역을 해리스 코너가 중심이 되도록 이미지 내 설정하는 단계(S113)를 포함할 수 있다. Referring to FIG. 8 , the step of setting a feature region (S110) is a step of acquiring an image of an object from DAVIS (Dynamic and Active-pixel Vision Sensor) (S111), and a Harris corner corresponding to a feature point from the image obtained from DAVIS. A step of extracting (S112), and a step of setting a feature region in the form of a rectangle of a certain size in the image so that the Harris corner is the center (S113) may be included.

도 9를 참조하면, 특징 영역 위치 갱신 단계(S120)는 이미지 내 밝기 변화에 따른 이벤트를 수신하여 상기 특징점 및 상기 특징 영역의 좌표값을 기초로 상기 특징점의 움직임을 추적하고 상기 특징 영역의 위치를 갱신하는 단계이다. 특징 영역 위치 갱신 단계(S120)는 기설정된 시간 동안 발생한 이벤트의 개수를 누적하여 기설정된 시간 동안 이미지 내 밝기의 변화량을 계산하는 단계(S121), 이미지의 기울기를 측정하여 이를 기초로 상기 기설정된 시간 동안 이미지 내 밝기 변화 추정치를 산출하는 단계(S122), 그리고, 이미지 내 밝기의 변화량과 이미지 내 밝기 변화 추정치의 차이가 최소가 되도록 하는 파라미터를 산출하는 단계(S123)를 포함할 수 있다. Referring to FIG. 9 , in step S120 of updating the position of a feature region, an event according to a change in brightness in an image is received, the motion of the feature point is tracked based on the feature point and the coordinate values of the feature region, and the position of the feature region is determined. This is the renewal step. The step of updating the location of the feature region (S120) is the step of accumulating the number of events that have occurred during a preset time period and calculating the amount of change in brightness in the image for a preset time period (S121). Calculating an estimate of the change in brightness within the image during operation ( S122 ), and calculating a parameter that minimizes a difference between the amount of change in brightness within the image and the estimate of change in brightness within the image ( S123 ).

위 단계들은 정해진 순서에 따라 진행될 수 있으나, 반드시 이에 제한되는 것은 아니며, 예컨대, 각 단계들은 동시에 또는 정해진 순서와 다른 순서에 따라 수행될 수 있다. 또한, 일부 단계들을 생략한 형태의 이벤트 카메라 기반 물체 추적 방법이 실행될 수 있다. The above steps may be performed in a predetermined order, but are not necessarily limited thereto. For example, each step may be performed simultaneously or in a different order from the predetermined order. In addition, an event camera-based object tracking method in which some steps are omitted may be implemented.

이상에서 설명한 이벤트 카메라 기반 물체 추적 방법은, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The event camera-based object tracking method described above may be implemented in the form of a recording medium including instructions executable by a computer, such as program modules executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer readable media may include computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with reference to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general-purpose hardware architecture.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 상술한 설명을 기초로 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해되어야만 한다. 본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다Those skilled in the art to which the present invention pertains will be able to understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention based on the above description. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present invention.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present application.

100: 이벤트 카메라 기반 물체 추적 장치
110: 통신 모듈
120: 메모리
130: 프로세서
200: DAVIS (Dynamic and Active-pixel Vision Sensor)
100: event camera based object tracking device
110: communication module
120: memory
130: processor
200: DAVIS (Dynamic and Active-pixel Vision Sensor)

Claims (19)

이벤트 카메라 기반의 물체 추적 장치에서의 이벤트 카메라 기반의 물체 추적 방법에 있어서,
(a) 물체에 대한 이미지 내 특징점을 포함하는 하나 이상의 특징 영역을 설정하는 단계;
(b) 상기 이미지 내 발생되는 이벤트에 따른 상기 특징점의 움직임을 추적하여 상기 특징 영역의 위치를 갱신하는 단계; 및
(c) 상기 특징 영역의 갱신된 후의 위치와 갱신되기 전의 위치의 차이가 기설정된 임계치 이상인 경우, 상기 특징 영역의 형태를 갱신하는 단계를 포함하는, 이벤트 카메라 기반의 물체 추적 방법.
In the event camera-based object tracking method in the event camera-based object tracking device,
(a) setting one or more feature regions including feature points in an image of an object;
(b) updating the position of the feature region by tracking the motion of the feature point according to an event occurring in the image; and
(c) updating the shape of the feature region when a difference between a position after the update and a position before the update of the feature region is equal to or greater than a predetermined threshold value.
제1항에 있어서,
상기 특징점 및 상기 하나 이상의 특징 영역은 각각 상기 이미지 내 특정 좌표값을 갖도록 구성되는, 이벤트 카메라 기반의 물체 추적 방법.
According to claim 1,
The feature point and the one or more feature regions are each configured to have a specific coordinate value in the image, the event camera-based object tracking method.
제1항에 있어서,
상기 (a) 단계는,
DAVIS(Dynamic and Active-pixel Vision Sensor)로부터 상기 물체에 대한 이미지를 획득하는 단계; 및
상기 DAVIS로부터 획득된 이미지로부터 상기 특징점에 해당하는 해리스 코너를 추출하는 단계를 포함하는, 이벤트 카메라 기반의 물체 추적 방법.
According to claim 1,
In step (a),
Acquiring an image of the object from DAVIS (Dynamic and Active-pixel Vision Sensor); and
And extracting a Harris corner corresponding to the feature point from the image obtained from the DAVIS, event camera-based object tracking method.
제3항에 있어서,
상기 (a) 단계는,
일정 크기의 사각형 형태의 상기 특징 영역을 상기 해리스 코너가 중심이 되도록 상기 이미지 내 설정하는 단계를 더 포함하는, 이벤트 카메라 기반의 물체 추적 방법.
According to claim 3,
In step (a),
The method of tracking an object based on an event camera further comprising the step of setting the feature region in the form of a rectangle of a certain size in the image so that the Harris corner is a center.
제2항에 있어서,
상기 (b) 단계는,
상기 이미지 내 밝기 변화에 따른 이벤트를 DAVIS(Dynamic and Active-pixel Vision Sensor)로부터 수신하여 상기 특징점 및 상기 특징 영역의 좌표값을 기초로 상기 특징점의 움직임을 추적하고 상기 특징 영역의 위치를 갱신하는 단계인, 이벤트 카메라 기반의 물체 추적 방법.
According to claim 2,
In step (b),
Receiving an event according to a change in brightness in the image from a Dynamic and Active-pixel Vision Sensor (DAVIS), tracking a motion of the feature point based on coordinate values of the feature point and the feature region, and updating the location of the feature region. An object tracking method based on an event camera.
제5항에 있어서,
상기 (b) 단계는,
기설정된 시간 동안 발생한 상기 이벤트의 개수를 누적하여 상기 기설정된 시간 동안 상기 이미지 내 밝기의 변화량을 계산하는 단계를 더 포함하는, 이벤트 카메라 기반의 물체 추적 방법.
According to claim 5,
In step (b),
Accumulating the number of events occurring during a predetermined time period and calculating a change in brightness in the image during the predetermined period of time, the event camera-based object tracking method.
제6항에 있어서,
상기 (b) 단계는,
상기 이미지의 기울기를 측정하고 상기 기울기를 기초로 상기 기설정된 시간 동안 상기 이미지 내 밝기 변화 추정치를 산출하는 단계를 더 포함하는, 이벤트 카메라 기반의 물체 추적 방법.
According to claim 6,
In step (b),
The method of tracking an object based on an event camera further comprising measuring a gradient of the image and calculating an estimate of a change in brightness in the image for the preset time period based on the gradient.
제7항에 있어서,
상기 (b) 단계는,
상기 이미지 내 밝기의 변화량과 상기 이미지 내 밝기 변화 추정치의 차이가 최소가 되도록 하는 와핑 파라미터를 산출하는 단계를 더 포함하는, 이벤트 카메라 기반의 물체 추적 방법.
According to claim 7,
In step (b),
Further comprising calculating a warping parameter such that a difference between the amount of change in brightness in the image and the estimated value of change in brightness in the image is minimized.
제1항에 있어서,
상기 (c) 단계는,
갱신된 후의 상기 특징 영역이 갱신되기 전보다 상기 기설정된 임계치인 특정 픽셀 수 이상 움직인 경우에만 상기 특징 영역의 형태를 갱신하고, 갱신되기 전 상기 특징 영역의 위치와 갱신된 후 상기 특징 영역의 위치의 좌표값을 기초로 호모그래피 행렬 연산 기법을 활용하여 상기 상기 특징 영역의 형태를 갱신하는 단계인, 이벤트 카메라 기반의 물체 추적 방법.
According to claim 1,
In step (c),
The shape of the feature region is updated only when the feature region after being updated moves more than a specific number of pixels, which is the predetermined threshold value, compared to before the update, and the position of the feature region before the update and the position of the feature region after the update are determined. and updating a shape of the feature region by using a homography matrix calculation technique based on coordinate values.
이벤트 카메라 기반의 물체 추적 장치에 있어서,
물체에 대한 이미지를 전송 받는 통신 모듈;
이미지 특징 추적 프로그램을 저장하는 메모리; 및
상기 이미지 특징 추적 프로그램을 실행하는 프로세서를 포함하며,
상기 프로세서는 상기 이미지 특징 추적 프로그램을 실행하여,
상기 물체에 대한 이미지 내 특징점을 포함하는 하나 이상의 특징 영역을 설정하고, 상기 이미지 내 발생되는 이벤트에 따른 상기 특징점의 움직임을 추적하여 상기 특징 영역의 위치를 갱신하고, 그리고, 상기 특징 영역의 갱신된 후의 위치와 갱신되기 전의 위치의 차이가 기설정된 임계치 이상인 경우 상기 특징 영역의 형태를 갱신하는 것을 수행하도록 구성되는, 이벤트 카메라 기반의 물체 추적 장치.
In the event camera-based object tracking device,
A communication module for transmitting and receiving an image of an object;
a memory for storing an image feature tracking program; and
A processor executing the image feature tracking program;
The processor executes the image feature tracking program,
Setting one or more feature regions including feature points in an image of the object, tracking the motion of the feature points according to an event occurring in the image, updating the location of the feature region, and updating the updated feature region An event camera-based object tracking device configured to update a shape of the feature region when a difference between a post position and a position before being updated is equal to or greater than a predetermined threshold value.
제10항에 있어서,
상기 특징점 및 상기 하나 이상의 특징 영역은 각각 상기 이미지 내 특정 좌표값을 갖도록 구성되는, 이벤트 카메라 기반의 물체 추적 장치.
According to claim 10,
The feature point and the one or more feature regions are each configured to have a specific coordinate value in the image, the event camera-based object tracking device.
제10항에 있어서,
상기 프로세서는 상기 이미지 특징 추적 프로그램을 실행하여,
DAVIS(Dynamic and Active-pixel Vision Sensor)로부터 상기 물체에 대한 이미지를 획득하고, 상기 DAVIS로부터 획득된 이미지로부터 상기 특징점에 해당하는 해리스 코너를 추출하는 것을 더 수행하도록 구성되는, 이벤트 카메라 기반의 물체 추적 장치.
According to claim 10,
The processor executes the image feature tracking program,
Obtaining an image of the object from a dynamic and active-pixel vision sensor (DAVIS), and further extracting a Harris corner corresponding to the feature point from the image obtained from the DAVIS, event camera-based object tracking Device.
제12항에 있어서,
상기 프로세서는 상기 이미지 특징 추적 프로그램을 실행하여,
일정 크기의 사각형 형태의 상기 특징 영역을 상기 해리스 코너가 중심이 되도록 상기 이미지 내 설정하는 것을 더 수행하도록 구성되는, 이벤트 카메라 기반의 물체 추적 장치.
According to claim 12,
The processor executes the image feature tracking program,
The event camera-based object tracking device configured to further perform setting the feature region in the form of a rectangle of a certain size in the image so that the Harris corner is a center.
제11항에 있어서,
상기 프로세서는 상기 이미지 특징 추적 프로그램을 실행하여,
상기 이미지 내 밝기 변화에 따른 이벤트를 DAVIS(Dynamic and Active-pixel Vision Sensor)로부터 수신하여 상기 특징점 및 상기 특징 영역의 좌표값을 기초로 상기 특징점의 움직임을 추적하고 상기 특징 영역의 위치를 갱신하는 것을 더 수행하도록 구성되는, 이벤트 카메라 기반의 물체 추적 장치.
According to claim 11,
The processor executes the image feature tracking program,
Receiving an event according to a change in brightness in the image from DAVIS (Dynamic and Active-pixel Vision Sensor), tracking the motion of the feature point based on the coordinate values of the feature point and the feature region, and updating the location of the feature region. An object tracking device based on an event camera, configured to perform further.
제14항에 있어서,
상기 프로세서는 상기 이미지 특징 추적 프로그램을 실행하여,
기설정된 시간 동안 발생한 상기 이벤트의 개수를 누적하여 상기 기설정된 시간 동안 상기 이미지 내 밝기의 변화량을 계산하는 것을 더 수행하도록 구성되는, 이벤트 카메라 기반의 물체 추적 장치.
According to claim 14,
The processor executes the image feature tracking program,
An event camera-based object tracking device configured to further perform calculating a change in brightness in the image during the preset time by accumulating the number of events occurring during the preset time.
제15항에 있어서,
상기 프로세서는 상기 이미지 특징 추적 프로그램을 실행하여,
상기 이미지의 기울기를 측정하고 상기 기울기를기초로 상기 기설정된 시간 동안 상기 이미지 내 밝기 변화 추정치를 산출하는 것을 더 수행하도록 구성되는, 이벤트 카메라 기반의 물체 추적 장치.
According to claim 15,
The processor executes the image feature tracking program,
and measuring an inclination of the image and calculating an estimate of a change in brightness in the image for the preset time based on the inclination.
제16항에 있어서,
상기 프로세서는 상기 이미지 특징 추적 프로그램을 실행하여,
상기 이미지 내 밝기의 변화량과 상기 이미지 내 밝기 변화 추정치의 차이가 최소가 되도록 하는 와핑 파라미터를 산출하는 것을 더 수행하도록 구성되는, 이벤트 카메라 기반의 물체 추적 장치.
According to claim 16,
The processor executes the image feature tracking program,
The event camera-based object tracking device further configured to calculate a warping parameter such that a difference between the amount of change in brightness in the image and the estimate of change in brightness in the image is minimized.
제10항에 있어서,
상기 프로세서는 상기 이미지 특징 추적 프로그램을 실행하여,
갱신된 후의 상기 특징 영역이 갱신되기 전보다 상기 기설정된 임계치인 특정 픽셀 수 이상 움직인 경우에만 상기 특징 영역의 형태를 갱신하고, 갱신되기 전 상기 특징 영역의 위치와 갱신된 후 상기 특징 영역의 위치의 좌표값을 기초로 호모그래피 행렬 연산 기법을 활용하여 상기 상기 특징 영역의 형태를 갱신하는 것을 더 수행하도록 구성되는, 이벤트 카메라 기반의 물체 추적 장치.
According to claim 10,
The processor executes the image feature tracking program,
The shape of the feature region is updated only when the feature region after being updated moves more than a specific number of pixels, which is the predetermined threshold value, compared to before the update, and the position of the feature region before the update and the position of the feature region after the update are determined. An event camera-based object tracking device configured to further perform updating a shape of the feature region by utilizing a homography matrix calculation technique based on coordinate values.
제1항 내지 제9항 중 어느 한 항에 따른 이벤트 카메라 기반의 물체 추적 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 비일시적 컴퓨터 판독가능 기록매체.A non-transitory computer-readable recording medium on which a computer program for performing the event camera-based object tracking method according to any one of claims 1 to 9 is recorded.
KR1020210062787A 2021-05-14 2021-05-14 Event camera-based object tracking apparatus and method KR102635416B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210062787A KR102635416B1 (en) 2021-05-14 2021-05-14 Event camera-based object tracking apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210062787A KR102635416B1 (en) 2021-05-14 2021-05-14 Event camera-based object tracking apparatus and method

Publications (2)

Publication Number Publication Date
KR20220155041A true KR20220155041A (en) 2022-11-22
KR102635416B1 KR102635416B1 (en) 2024-02-08

Family

ID=84236111

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210062787A KR102635416B1 (en) 2021-05-14 2021-05-14 Event camera-based object tracking apparatus and method

Country Status (1)

Country Link
KR (1) KR102635416B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110077465A (en) * 2009-12-30 2011-07-07 서울과학기술대학교 산학협력단 The apparatus and method of moving object tracking with shadow removal moudule in camera position and time
KR20170015306A (en) * 2014-04-30 2017-02-08 상뜨르 나쇼날 드 라 러쉐르쉬 샹띠피끄 Method of tracking shape in a scene observed by an asynchronous light sensor
US20200005469A1 (en) * 2017-02-14 2020-01-02 The Trustees Of The University Of Pennsylvania Event-based feature tracking
JP2020149642A (en) * 2019-03-15 2020-09-17 オムロン株式会社 Object tracking device and object tracking method
KR20200133593A (en) * 2019-05-20 2020-11-30 주식회사 힐세리온 Ai-automatic ultrasound diagnosis apparatus for liver steatosis and remote medical-diagnosis method using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110077465A (en) * 2009-12-30 2011-07-07 서울과학기술대학교 산학협력단 The apparatus and method of moving object tracking with shadow removal moudule in camera position and time
KR20170015306A (en) * 2014-04-30 2017-02-08 상뜨르 나쇼날 드 라 러쉐르쉬 샹띠피끄 Method of tracking shape in a scene observed by an asynchronous light sensor
US20200005469A1 (en) * 2017-02-14 2020-01-02 The Trustees Of The University Of Pennsylvania Event-based feature tracking
JP2020149642A (en) * 2019-03-15 2020-09-17 オムロン株式会社 Object tracking device and object tracking method
KR20200133593A (en) * 2019-05-20 2020-11-30 주식회사 힐세리온 Ai-automatic ultrasound diagnosis apparatus for liver steatosis and remote medical-diagnosis method using the same

Also Published As

Publication number Publication date
KR102635416B1 (en) 2024-02-08

Similar Documents

Publication Publication Date Title
US11295472B2 (en) Positioning method, positioning apparatus, positioning system, storage medium, and method for constructing offline map database
CN110322500B (en) Optimization method and device for instant positioning and map construction, medium and electronic equipment
US10176589B2 (en) Method and system for completing point clouds using planar segments
CN111325796B (en) Method and apparatus for determining pose of vision equipment
US20190011542A1 (en) Method and apparatus for measuring angular resolution of multi-beam lidar
US9842399B2 (en) Image processing device and image processing method
US20180260962A1 (en) Feature trackability ranking, systems and methods
CN107452016B (en) Method and device for processing image data and driver assistance system for a vehicle
US20170039727A1 (en) Methods and Systems for Detecting Moving Objects in a Sequence of Image Frames Produced by Sensors with Inconsistent Gain, Offset, and Dead Pixels
EP4283567A1 (en) Three-dimensional map construction method and apparatus
US20220351413A1 (en) Target detection method, computer device and non-transitory readable storage medium
JP2017053795A (en) Information processing apparatus, position attitude measurement method, and position attitude measurement program
CN108444452B (en) Method and device for detecting longitude and latitude of target and three-dimensional space attitude of shooting device
CN110738730B (en) Point cloud matching method, device, computer equipment and storage medium
CN110111364B (en) Motion detection method and device, electronic equipment and storage medium
CN111047622A (en) Method and device for matching objects in video, storage medium and electronic device
US20200164508A1 (en) System and Method for Probabilistic Multi-Robot Positioning
CN112560769B (en) Method for detecting obstacle, electronic device, road side device and cloud control platform
JP2023503750A (en) ROBOT POSITIONING METHOD AND DEVICE, DEVICE, STORAGE MEDIUM
WO2024001526A1 (en) Image processing method and apparatus, and electronic device
KR102635416B1 (en) Event camera-based object tracking apparatus and method
CN114063046A (en) Parameter calibration method and device, computer equipment and storage medium
CN111665470A (en) Positioning method and device and robot
US10705217B2 (en) Controlling multiple imaging sensors
US11085992B2 (en) System and method for positioning a terminal device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant