KR20160087738A - Method and apparatus of detecting object using event-based sensor - Google Patents

Method and apparatus of detecting object using event-based sensor Download PDF

Info

Publication number
KR20160087738A
KR20160087738A KR1020150173974A KR20150173974A KR20160087738A KR 20160087738 A KR20160087738 A KR 20160087738A KR 1020150173974 A KR1020150173974 A KR 1020150173974A KR 20150173974 A KR20150173974 A KR 20150173974A KR 20160087738 A KR20160087738 A KR 20160087738A
Authority
KR
South Korea
Prior art keywords
target
neighboring
target object
type
feature
Prior art date
Application number
KR1020150173974A
Other languages
Korean (ko)
Other versions
KR102595604B1 (en
Inventor
왕 창
마오 웬따오
구오 핑
왕 샨동
왕 차오따오
샤오 광퀴
류현석
이규빈
박근주
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/995,262 priority Critical patent/US10043064B2/en
Publication of KR20160087738A publication Critical patent/KR20160087738A/en
Application granted granted Critical
Publication of KR102595604B1 publication Critical patent/KR102595604B1/en

Links

Images

Classifications

    • G06K9/00342
    • G06K9/6269
    • G06K9/627
    • G06K9/66

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)

Abstract

Disclosed are a method and an apparatus for detecting an object using an event-based sensor. According to an embodiment of the present invention, the method for detecting an object includes the steps of: determining a feature vector based on target pixels and neighboring pixels included in an event image; and determining a target object corresponding to the target pixels based on the feature vector.

Description

이벤트 기반 센서를 이용한 객체의 검출 방법 및 장치{METHOD AND APPARATUS OF DETECTING OBJECT USING EVENT-BASED SENSOR}TECHNICAL FIELD [0001] The present invention relates to a method and apparatus for detecting an object using an event-based sensor,

아래 실시예들은 이벤트 기반 센서를 이용한 객체의 검출 방법 및 장치에 관한 것이다.The following embodiments relate to a method and apparatus for detecting an object using an event-based sensor.

운동 객체의 검출은 컴퓨터의 영상 분야에서 하나의 연구 이슈로 군사 정찰, 감시 시스템, HCI(Human Computer Interaction)등 영역에 광범위하게 응용될 수 있다. 예를 들면, 운동 객체에 대하여 포착, 추적 및 분석이 진행될 수 있고, 분석된 운동 객체의 운동 방식에 근거하여 단말 장비의 작동 패턴의 전환을 진행함으로써 HCI 체험이 향상될 수 있다. 단말 장비는 이동 단말, 캠코더, 스마트 안경 및 스마트 TV 등이 될 수 있다.The detection of motion objects is a research issue in computer image field and can be widely applied to military reconnaissance, surveillance system, HCI (Human Computer Interaction) and so on. For example, capture, tracking and analysis can be performed on the moving object, and the HCI experience can be improved by switching the operation pattern of the terminal equipment based on the motion pattern of the analyzed moving object. The terminal equipment may be a mobile terminal, a camcorder, smart glasses, and a smart TV.

운동 객체의 검출은 일반적으로 CCD(Charge-coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor)에 기초한 전통적인 촬영장비를 사용하여 운동 객체가 속한 장면(scene)에 대하여 영상수집을 진행하고, 수집된 영상 중에서 운동 구역과 배경 구역을 분할한 후, 분할된 운동 구역에 근거하여 운동 객체를 식별함으로써 이루어진다. 그러나, 장면에서 운동 객체를 분할하는 것은 소요 시간이 길어 신속한 추적을 요구하는 상황에서는 활용되기 어렵다.Detection of a moving object is generally performed by using a conventional imaging device based on a CCD (Charge-coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) to perform image collection on a scene to which the motion object belongs, By separating the motion zone and the background zone, and then identifying the motion object based on the divided motion zone. However, it is difficult to divide a moving object in a scene because it takes a long time and requires rapid tracking.

또한, 기존의 운동 객체 추적 방법은 촬영장비가 열린 상태에서 운동 객체를 신속하게 포착할 수 있다. 따라서, 기존의 운동 객체 추적 방법은 에너지 소비가 비교적 높아, 휴대용 장비에 대한 응용에 적합하지 않는다. 따라서, 에너지 소비가 낮고 운동 객체를 신속하게 포착하는 운동 객체의 검출 방법이 요구된다.In addition, the conventional motion object tracking method can quickly acquire a motion object in a state where the imaging equipment is open. Therefore, the conventional motion object tracking method has a relatively high energy consumption and is not suitable for application to portable equipment. Accordingly, there is a need for a method of detecting a motion object that has low energy consumption and quickly captures a motion object.

일 측에 따른 객체 검출 방법은, 이벤트 기반 센서에 의한 이벤트 신호에 기초하여 이벤트 이미지를 생성하는 단계; 상기 이벤트 이미지에 포함된, 대상 픽셀들 및 이웃 픽셀들에 기초하여 특징 벡터를 결정하는 단계; 및 상기 특징 벡터에 기초하여 상기 대상 픽셀들에 대응하는 대상 객체를 결정하는 단계를 포함한다.A method of detecting an object according to one side includes: generating an event image based on an event signal by an event-based sensor; Determining a feature vector based on the target pixels and neighboring pixels included in the event image; And determining a target object corresponding to the target pixels based on the feature vector.

상기 특징 벡터에 기초하여 상기 대상 객체를 결정하는 단계는, 대상 영역 및 상기 대상 영역에 이웃한 이웃 영역에 관한 학습 샘플에 의해 학습된 분류기에 상기 특징 벡터를 입력한 결과 값에 기초하여 상기 대상 객체를 결정하는 단계를 포함할 수 있다. 상기 특징 벡터에 기초하여 상기 대상 객체를 결정하는 단계는, 상기 대상 객체의 유형 및 상기 대상 객체의 위치를 결정하는 단계를 포함할 수 있다. 상기 특징 벡터에 기초하여 상기 대상 객체를 결정하는 단계는, 상기 대상 객체에 대응하는 픽셀들의 위치에 근거하여 상기 대상 객체의 위치를 결정하는 단계를 포함할 수 있다.Wherein the step of determining the target object based on the feature vector comprises the step of determining the target object based on the result obtained by inputting the feature vector to a classifier learned by the learning sample related to the target area and the neighboring area neighboring the target area, Based on the result of the determination. The step of determining the target object based on the feature vector may include determining a type of the target object and a position of the target object. The step of determining the target object based on the feature vector may include determining a position of the target object based on the position of the pixels corresponding to the target object.

상기 특징 벡터를 결정하는 단계는, 상기 이벤트 이미지를 복수의 영역들로 분할하는 단계; 및 상기 영역들 중에 상기 대상 픽셀들이 속하는 대상 영역에 이웃한 이웃 영역에서 상기 이웃 픽셀들을 샘플링하는 단계를 포함할 수 있다. 상기 이웃 픽셀들을 샘플링하는 단계는, 상기 이웃 영역에서 미리 정해진 수의 픽셀들을 임의로 샘플링하는 단계를 포함할 수 있다.Wherein the step of determining the feature vector comprises: dividing the event image into a plurality of regions; And sampling the neighboring pixels in a neighboring region neighboring the target region to which the target pixels belong, among the regions. The step of sampling the neighboring pixels may comprise randomly sampling a predetermined number of pixels in the neighboring region.

상기 객체 검출 방법은, 상기 대상 객체의 유형을 검증하는 단계를 더 포함할 수 있다. 상기 대상 객체의 유형을 검증하는 단계는, 상기 대상 객체와 상기 이웃 픽셀들에 대응하는 이웃 객체의 관계에 기초하여 상기 대상 객체의 유형을 검증하는 단계를 포함할 수 있다. 상기 대상 객체의 유형을 검증하는 단계는, 상기 대상 객체의 위치에 관한 유효 범위에 기초하여 상기 대상 객체의 유형을 검증하는 단계를 포함할 수 있고, 상기 유효 범위는 상기 대상 객체의 이전 위치 및 상기 유형의 예상 가동 범위에 기초하여 결정될 수 있다.The object detection method may further include a step of verifying the type of the target object. The verifying the type of the target object may include verifying the type of the target object based on the relationship between the target object and a neighboring object corresponding to the neighboring pixels. Wherein the verifying the type of the target object may include verifying the type of the target object based on the valid range related to the position of the target object, Can be determined based on the expected range of operation of the type.

상기 객체 검출 방법은, 상기 대상 객체의 위치에 기초하여 상기 대상 객체의 운동 궤적을 결정하는 단계; 및 상기 운동 궤적에 대응하는 동작 명령을 생성하는 단계를 더 포함할 수 있다. 상기 동작 명령을 생성하는 단계는, 상기 운동 궤적을 동작 세그먼트 별로 분할하는 단계; 상기 동작 세그먼트의 순서에 관한 특징을 추출하는 단계; 및 상기 특징에 기초하여 상기 동작 명령을 생성하는 단계를 포함할 수 있고, 상기 특징은, 위치 특징, 경로 특징, 이동 방향 특징, 속도 특징 및 가속도 특징 중 적어도 하나를 포함할 수 있다. 상기 동작 명령을 생성하는 단계는, 서로 다른 유형의 객체들을 하나의 객체로 조합한 후, 각각의 유형의 객체들의 운동 궤적에 기초하여 상기 하나의 객체의 운동 궤적을 결정하는 단계; 상기 하나의 객체의 운동 궤적에 관한 특징을 추출하는 단계; 및 상기 특징에 기초하여 상기 동작 명령을 생성하는 단계를 포함할 수 있고, 상기 특징은, 위치 특징, 경로 특징, 이동 방향 특징, 속도 특징 및 가속도 특징 중 적어도 하나를 포함할 수 있다.The object detection method includes: determining a motion trajectory of the target object based on a position of the target object; And generating an action command corresponding to the motion locus. Wherein the generating the motion command comprises: segmenting the motion trajectory by motion segment; Extracting features relating to the order of the action segments; And generating the motion command based on the feature, the feature including at least one of a position feature, a path feature, a movement direction feature, a velocity feature, and an acceleration feature. The step of generating the operation command may include combining objects of different types into one object and then determining a motion trajectory of the one object based on a motion trajectory of each type of objects; Extracting a feature relating to a motion locus of the one object; And generating the motion command based on the feature, the feature including at least one of a position feature, a path feature, a movement direction feature, a velocity feature, and an acceleration feature.

일 측에 따른 학습 방법은, 대상 영역 및 상기 대상 영역에 이웃한 이웃 영역에 관한 학습 샘플을 생성하는 단계; 및 상기 학습 샘플에 기초하여 상기 대상 영역에 대응하는 대상 객체의 유형에 관해 분류기를 학습시키는 단계를 포함한다.A learning method according to one side includes the steps of: generating a learning sample about a target area and a neighboring area neighboring the target area; And learning the classifier on the type of object object corresponding to the object area based on the learning sample.

상기 학습 샘플을 생성하는 단계는, 이벤트 기반 센서에 의한 이벤트 신호에 기초하여 샘플 이미지를 생성하는 단계; 상기 샘플 이미지를 복수의 영역들로 분할하는 단계; 및 상기 영역들 중에 상기 대상 영역에 포함된 대상 픽셀들 및 상기 이웃 영역에 포함된 이웃 픽셀들을 하나의 학습 샘플로 구성하는 단계를 더 포함할 수 있다.Wherein the generating the learning sample comprises: generating a sample image based on an event signal by an event-based sensor; Dividing the sample image into a plurality of regions; And constructing one learning sample among the target pixels included in the target area and neighboring pixels included in the neighboring area among the areas.

상기 분류기를 학습시키는 단계는, 심층 신뢰 네트워크(DBN: Deep Belief Network)에 기초하여 상기 분류기를 학습시키는 단계를 포함할 수 있다. 상기 분류기를 학습시키는 단계는, 상기 학습 샘플의 학습 대상 유형 및 상기 학습 샘플에 대한 상기 분류기의 분류 결과에 기초하여 상기 분류기의 파라미터를 조정하는 단계를 포함할 수 있다. 상기 학습 대상 유형은, 상기 대상 객체의 유형 및 상기 이웃 영역에 대응하는 이웃 객체의 유형을 포함할 수 있다.The step of learning the classifier may include learning the classifier based on a Deep Belief Network (DBN). The step of learning the classifier may include adjusting parameters of the classifier based on the classification of the classifier for the learning object type of the learning sample and the learning sample. The learning object type may include a type of the target object and a type of a neighbor object corresponding to the neighboring area.

일 측에 따른 객체 검출 장치는, 이벤트 기반 센서의 이벤트 신호에 기초하여 생성된 이벤트 이미지를 생성하는 처리부; 및 상기 이벤트 이미지에 포함된, 대상 픽셀들 및 이웃 픽셀들에 기초하여 특징 벡터를 결정하고, 상기 특징 벡터에 기초하여 상기 대상 픽셀들에 대응하는 대상 객체를 검출하는 분류기를 포함한다.An apparatus for detecting an object according to one side includes a processing unit for generating an event image generated based on an event signal of an event-based sensor; And a classifier included in the event image to determine a feature vector based on target pixels and neighboring pixels, and to detect a target object corresponding to the target pixels based on the feature vector.

상기 분류기는, 대상 영역 및 상기 대상 영역에 이웃한 이웃 영역에 관한 학습 샘플에 의해 학습된 분류기에 상기 특징 벡터를 입력한 결과 값에 기초하여 상기 대상 객체를 검출할 수 있다.The classifier can detect the target object based on a result value obtained by inputting the feature vector to a classifier learned by a learning sample related to a target area and a neighboring area neighboring the target area.

상기 객체 검출 장치는, 상기 대상 객체와 상기 이웃 픽셀들에 대응하는 이웃 객체의 관계에 기초하여 상기 대상 객체의 유형을 검증하는 검증부를 더 포함할 수 있다.The object detecting apparatus may further include a verifying unit that verifies the type of the target object based on a relationship between the target object and a neighboring object corresponding to the neighboring pixels.

도 1은 일 실시예에 따른 객체 검출 방법을 나타내는 플로우 차트.
도 2는 일 실시예에 따른 이벤트 이미지를 설명하는 도면.
도 3은 일 실시예에 따른 이벤트 신호의 필터링 과정을 설명하는 도면.
도 4는 일 실시예에 따른 객체 검증 과정을 나타내는 플로우 차트.
도 5는 일 실시예에 따른 동작 명령의 생성 과정을 나타내는 플로우 차트.
도 6은 일 실시예에 따른 학습 과정을 나타내는 플로우 차트.
도 7은 일 실시예에 따른 학습 샘플의 생성 과정을 나타내는 플로우 차트.
도 8은 일 실시예에 따른 분류기의 구조를 나타내는 도면.
도 9는 다른 실시예에 따른 분류기의 구조를 나타내는 도면.
도 10은 일 실시예에 따른 학습기 및 분류기를 나타내는 블록도.
도 11은 일 실시예에 따른 객체 검출 장치를 나타내는 블록도.
1 is a flow chart illustrating an object detection method according to an embodiment;
2 is a diagram illustrating an event image according to an embodiment;
3 is a diagram illustrating a process of filtering an event signal according to an exemplary embodiment;
4 is a flowchart illustrating an object verification process according to an exemplary embodiment;
5 is a flowchart illustrating a process of generating an operation command according to an embodiment;
6 is a flowchart illustrating a learning process according to an embodiment;
7 is a flowchart showing a process of generating a learning sample according to an embodiment;
8 illustrates a structure of a classifier according to an embodiment;
9 is a view showing the structure of a classifier according to another embodiment;
10 is a block diagram illustrating a learner and classifier in accordance with one embodiment.
11 is a block diagram illustrating an object detection apparatus according to an embodiment;

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다. 하기에서 설명될 실시예들은 사용자 인터페이스에 적용될 수 있다. 예를 들어, 비 접촉 동작 인식 인터페이스에서 넘기기 동작(swipe motion)을 인식하는데 사용될 수 있다. 하기에서 설명될 실시예들에 따르면 반복적인 넘기기 동작들도 적은 전력으로 신속하게 인식될 수 있다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements. Embodiments described below may be applied to a user interface. For example, it can be used to recognize a swipe motion in a non-contact motion recognition interface. According to the embodiments to be described below, the repetitive turnover operations can be quickly recognized with less power.

도 1은 일 실시예에 따른 객체 검출 방법을 나타내는 플로우 차트이다.1 is a flow chart illustrating an object detection method according to an embodiment.

도 1을 참조하면, 단계(100)에서, 객체 검출 장치는 이벤트 기반 센서에 의한 이벤트 신호에 기초하여 이벤트 이미지를 생성한다. 이벤트 기반 센서는 복수의 센싱 픽셀들을 포함한다. 이벤트 기반 센서는 복수의 센싱 픽셀들 중 이벤트를 감지한 활성 픽셀(active pixel)의 식별 정보를 포함하는 이벤트 신호를 생성한다. 이벤트 기반 센서는 뉴로모픽(neuromorphic) 센싱 기법에 기반할 수 있다.Referring to FIG. 1, in step 100, an object detection apparatus generates an event image based on an event signal by an event-based sensor. The event-based sensor includes a plurality of sensing pixels. The event-based sensor generates an event signal including identification information of an active pixel that senses an event among a plurality of sensing pixels. Event-based sensors can be based on neuromorphic sensing techniques.

이벤트는 입력의 변화와 관련된 이벤트를 포함한다. 예를 들어, 이벤트는 입사되는 빛의 세기(intensity)가 변하는 이벤트, 입사되는 빛의 색상이 변하는 이벤트, 입력되는 소리의 크기가 변하는 이벤트, 입력되는 소리의 주파수가 변하는 이벤트, 입력되는 자극의 세기가 변하는 이벤트 등을 포함할 수 있다. 이벤트 기반 센서에 포함된 복수의 센싱 픽셀들은 이벤트(예를 들어, 입사되는 빛의 세기가 변하는 이벤트)를 감지할 수 있다. 복수의 센싱 픽셀들 중 이벤트를 감지한 센싱 픽셀은 활성 픽셀이라고 지칭될 수 있다. 활성 픽셀은 이벤트를 감지함에 반응하여, 활성화 신호를 발생할 수 있다.An event includes an event associated with a change in input. For example, an event may be an event in which the intensity of incident light changes, an event in which the color of the incident light changes, an event in which the magnitude of the input sound changes, an event in which the frequency of the input sound changes, And the like may be included. The plurality of sensing pixels included in the event-based sensor may sense an event (e.g., an event in which the intensity of the incident light changes). Of the plurality of sensing pixels, a sensing pixel sensing an event may be referred to as an active pixel. The active pixel may generate an activation signal in response to detecting the event.

이벤트 기반 센서는 활성 픽셀의 식별 정보를 포함하는 이벤트 신호를 생성할 수 있다. 예를 들어, 이벤트 기반 센서는 활성 픽셀에 의하여 발생된 활성화 신호에 기초하여 해당 활성 픽셀을 식별하는 주소를 포함하는 이벤트 신호를 생성할 수 있다. 이벤트 기반 센서는 시간 비동기적으로 이벤트 신호를 생성 및 출력하므로, 매 프레임마다 모든 픽셀들을 스캔하는 프레임 기반 비전 센서에 비하여 저전력, 고속으로 동작할 수 있다.The event-based sensor may generate an event signal that includes identification information of the active pixel. For example, the event-based sensor may generate an event signal that includes an address that identifies the active pixel based on an activation signal generated by the active pixel. Event-based sensors generate and output event signals asynchronously in time, so they can operate at lower power and higher speed than frame-based vision sensors that scan all pixels every frame.

더 나아가, 일정한 시간간격(예를 들면, 20ms)내에 축적된 사건흐름과 사건 포인트의 위치의 결합을 통하여, 동적 비전 센서가 수집한 사건흐름 신호를 영상신호로 전환할 수 있고, 전환된 영상신호는 운동 객체의 윤곽과 세그먼트 무늬정보를 대체적으로 반영하였고 배경 중의 이동을 못하는 물체를 직접 무시하였다.Furthermore, through the combination of the position of the event point accumulated within a certain time interval (for example, 20 ms), the event flow signal collected by the dynamic vision sensor can be converted into a video signal, And the contour of the motion object and the segment pattern information, and directly ignored the object which can not move in the background.

객체 검출 장치는 이벤트 신호에 기초하여 이벤트 이미지를 생성한다. 이벤트 이미지에 관해서는 도 2를 참조하여 설명한다.The object detecting apparatus generates an event image based on the event signal. The event image will be described with reference to FIG.

도 2는 일 실시예에 따른 이벤트 이미지를 설명하는 도면이다. 도 2를 참조하면, 복수의 영역으로 분할된 이벤트 이미지가 도시되어 있다. 복수의 영역은 대상 영역(10) 및 이웃 영역(20)을 포함할 수 있다. 대상 영역(10)은 객체 검출의 대상이 되는 영역을 의미한다. 대상 영역(10)은 복수의 영역 중 적어도 하나의 영역일 수 있다. 이웃 영역(20)은 대상 영역(10)에 이웃한 영역을 의미한다. 대상 영역(10)에 포함된 픽셀들은 대상 픽셀들로 지칭될 수 있다. 또한, 이웃 영역(20)에 포함된 픽셀들은 이웃 픽셀로 지칭될 수 있다. 이벤트 이미지를 복수의 영역으로 분할하고, 대상 영역(10)의 객체를 검출하기 위해 이웃 영역(20)을 이용함에 따라 객체 검출의 정확성이 향상될 수 있다.2 is a view for explaining an event image according to an embodiment. Referring to FIG. 2, an event image divided into a plurality of regions is shown. The plurality of regions may include a target region 10 and a neighboring region 20. The object area 10 means an area to be subjected to object detection. The target area 10 may be at least one of a plurality of areas. The neighboring region 20 means a region adjacent to the target region 10. [ The pixels included in the target area 10 may be referred to as target pixels. In addition, the pixels included in the neighboring region 20 may be referred to as neighboring pixels. The accuracy of object detection can be improved by dividing the event image into a plurality of regions and using the neighboring region 20 to detect an object in the object region 10. [

객체 검출 장치는 일정한 시간 구간에 축적된 이벤트 스트림에 기초하여 이벤트 이미지를 생성할 수 있다. 이벤트 스트림은 다수의 이벤트 신호를 포함할 수 있다. 객체 검출 장치는 이벤트 이미지를 생성하기에 앞서 이벤트 신호를 필터링할 수 있다. 이벤트 신호의 필터링 과정에 대해서는 도 3을 참조하여 설명한다.The object detecting apparatus can generate an event image based on the event stream accumulated in a predetermined time period. The event stream may include a plurality of event signals. The object detection device may filter the event signal prior to generating the event image. The process of filtering the event signal will be described with reference to FIG.

도 3은 일 실시예에 따른 이벤트 신호의 필터링 과정을 설명하는 도면이다. 도 3을 참조하면, 이벤트 신호가 기록된 타임 스탬프 맵이 도시되어 있다. 이벤트 이미지는 타임 스탬프 맵에 기록된 타임 스탬프 중에 유효한 타임 스탬프에 기초하여 생성될 수 있다. 유효한 타임 스탬프는 필터링되지 않은 타임 스탬프를 의미한다. 특정한 타임 스탬프는 이웃한 타임 스탬프의 값에 기초하여 필터링될 수 있다. 예컨대, 제1 타임 스탬프와 제1 타임 스탬프에 이웃한 이웃 타임 스탬프들 간의 값의 차이에 기초하여 제1 타임 스탬프의 필터링 여부가 결정될 수 있다. 제1 타임 스탬프와 임계 값 미만의 값을 갖는 이웃 스탬프는 서포터로 지칭될 수 있다. 서포터의 수가 미리 정해진 수를 넘는 타임 스탬프는 유효한 타임 스탬프로 결정될 수 있다.3 is a diagram for explaining a process of filtering an event signal according to an embodiment. Referring to FIG. 3, a time stamp map in which an event signal is recorded is shown. The event image may be generated based on a valid time stamp in the time stamp recorded in the time stamp map. A valid timestamp means an unfiltered timestamp. The particular timestamp may be filtered based on the value of the neighboring timestamp. For example, whether to filter the first timestamp may be determined based on the difference between the first timestamp and the neighbor timestamps neighboring the first timestamp. A neighboring stamp having a first timestamp and a value less than the threshold value may be referred to as a supporter. A timestamp whose number of supporters exceeds a predetermined number can be determined as a valid timestamp.

예컨대, 서포터의 수가 3개 이상인 타임 스탬프는 유효한 타임 스탬프로 결정될 수 있다. 도 3에서, 이벤트의 발생에 따라 타임 스탬프(30)가 타임 스탬프(50)로 업데이트된 경우, 타임 스탬프(50)는 3 개의 서포터들(40)를 갖는다. 따라서, 타임 스탬프(50)는 유효한 이벤트 신호로 결정될 수 있다.For example, a timestamp having three or more supporters may be determined as a valid timestamp. In FIG. 3, when the time stamp 30 is updated with the time stamp 50 according to the occurrence of the event, the time stamp 50 has three supporters 40. Thus, the timestamp 50 can be determined as a valid event signal.

다시 도 1을 참조하면, 단계(200)에서, 객체 검출 장치는 이벤트 이미지에 포함된, 대상 픽셀들 및 이웃 픽셀들에 기초하여 특징 벡터를 결정한다. 대상 객체를 검출하기 위해 대상 픽셀들 및 이웃 픽셀들이 함께 이용될 수 있다. 이웃 픽셀들은 이웃 영역(20)에서 샘플링될 수 있다. 예컨대, 이웃 픽셀들은 이웃 영역(20)에서 미리 정해진 수만큼 임의로 샘플링될 수 있다. 또한, 이웃 픽셀들의 샘플링을 위해서 다양한 방식들이 이용될 수 있다.Referring again to FIG. 1, in step 200, the object detection apparatus determines a feature vector based on target pixels and neighboring pixels included in the event image. The target pixels and neighboring pixels may be used together to detect the target object. Neighboring pixels may be sampled in the neighboring region 20. For example, the neighboring pixels may be arbitrarily sampled by a predetermined number in the neighboring region 20. Also, various schemes can be used for sampling neighboring pixels.

단계(300)에서, 객체 검출 장치는 특징 벡터에 기초하여 대상 픽셀들에 대응하는 대상 객체를 결정한다. 객체 검출 장치는 대상 영역(10) 및 이웃 영역(20)에 관한 학습 샘플에 의해 학습된 분류기에 특징 벡터를 입력한 결과 값에 기초하여 대상 객체를 결정할 수 있다. 대상 객체는 대상 영역(10)에 포함된 객체를 의미한다. 대상 객체는 이동하는 객체일 수 있다.In step 300, the object detection apparatus determines a target object corresponding to the target pixels based on the feature vector. The object detecting apparatus can determine the target object based on the result of inputting the feature vector to the classifier learned by the learning samples related to the target area 10 and the neighboring area 20. [ The target object means an object included in the target area 10. The target object may be a moving object.

객체 검출 장치는 대상 객체의 유형 및 대상 객체의 위치를 결정할 수 있다. 예컨대, 객체 검출 장치가 사용자의 제스처를 추적하는 경우, 대상 객체의 유형은 머리, 손 및 몸체를 포함할 수 있다. 대상 객체의 유형은 미리 학습될 수 있다. 예컨대, 객체 검출 장치는 제1 대상 영역 및 제1 대상 영역에 이웃한 제1 이웃 영역에 기초하여 제1 대상 영역에 대응하는 제1 대상 객체의 유형을 사용자의 손으로 결정할 수 있다. 또한, 객체 검출 장치는 제2 대상 영역 및 제2 대상 영역에 이웃한 제2 이웃 영역에 기초하여 제2 대상 영역에 대응하는 제2 대상 객체의 유형을 사용자의 머리로 결정할 수 있다. 객체 검출 장치는 검출된 사용자의 손과 머리의 움직임을 추적할 수 있다. 추후 상세히 설명되겠으나, 제1 대상 객체의 결정을 위해, 제1 이웃 영역에 대응하는 제1 이웃 객체가 이용될 수 있다. 또한, 제1 이웃 객체는 제1 대상 객체의 검증에 이용될 수 있다.The object detection apparatus can determine the type of the target object and the position of the target object. For example, when an object detection device tracks a user's gesture, the type of object may include a head, a hand, and a body. The type of the target object can be learned in advance. For example, the object detecting apparatus may determine the type of the first object corresponding to the first object area based on the first object area and the first neighboring area neighboring the first object area, with the user's hand. Further, the object detecting apparatus can determine the type of the second object corresponding to the second object area as the head of the user based on the second object area and the second neighboring area neighboring the second object area. The object detection apparatus can track the movement of the detected user's hand and head. As will be described in greater detail below, a first neighbor object corresponding to the first neighboring region may be used for the determination of the first target object. Also, the first neighbor object may be used for verification of the first object.

객체 검출 장치는 대상 객체의 유형이 결정된 경우, 상기 결정된 유형의 대상 객체의 위치를 결정할 수 있다. 예컨대, 객체 검출 장치는 대상 객체에 속하는 픽셀들의 위치에 기초하여 대상 객체의 위치를 결정할 수 있다. 또한, 객체 검출 장치는 대상 객체에 속하는 픽셀들의 중심을 대상 객체의 위치로 결정할 수 있다. 또한, 다양한 클러스터 분석 기법을 사용하여 대상 객체의 위치를 결정할 수 있다. 예컨대, K-means 클러스터 분석 기법에 기초하여 대상 객체의 중심을 결정할 수 있다.The object detection apparatus can determine the position of the object of the determined type when the type of the object is determined. For example, the object detection apparatus can determine the position of the target object based on the position of the pixels belonging to the target object. Also, the object detection apparatus can determine the center of the pixels belonging to the target object as the position of the target object. In addition, the location of the target object can be determined using various cluster analysis techniques. For example, the center of a target object can be determined based on a K-means cluster analysis technique.

객체 검출 장치는 이벤트 이미지에 포함된 복수의 대상 영역들에 대해 단계(200) 및 단계(300)을 반복할 수 있다. 따라서, 객체 검출 장치는 이벤트 이미지에 포함된 각각의 영역들에 대응하는 대상 객체들을 결정할 수 있다. 또한, 객체 검출 장치는 대상 객체들의 움직임을 추적할 수 있다.The object detection apparatus may repeat step 200 and step 300 for a plurality of object areas included in the event image. Accordingly, the object detection apparatus can determine object objects corresponding to the respective regions included in the event image. In addition, the object detection apparatus can track the movement of the object objects.

도 4는 일 실시예에 따른 객체 검증 과정을 나타내는 플로우 차트이다.4 is a flowchart illustrating an object verification process according to an embodiment.

도 4를 참조하면, 단계(400)에서, 객체 검출 장치는 대상 객체의 유형을 검증한다. 객체 검출 장치는 객체의 유형을 결정한 이후에 대상 객체의 유형을 검증할 수 있다. 객체 검출 장치는 객체의 유형을 검증함으로써 객체 검출의 속도와 효율을 향상시킬 수 있다.Referring to FIG. 4, in step 400, the object detection apparatus verifies the type of the target object. The object detection apparatus can verify the type of the object after determining the type of the object. The object detection apparatus can improve the speed and efficiency of object detection by verifying the type of the object.

일 측에 따르면, 객체 검출 장치는 유효 형태에 기초하여 대상 객체의 유형을 검증할 수 있다. 유효 형태는 특정 유형의 객체가 가질 수 있는 형태를 의미한다. 객체 검출 장치는 객체의 유형 별로 유효 형태를 미리 결정할 수 있다. 예컨대, 유효 형태는 머리의 기본적인 형태나 손의 기본적인 형태를 포함할 수 있다. 객체 검출 장치는 대상 객체의 유형이 유효 형태에 속하는 경우 대상 객체의 유형이 유효한 것으로 판단할 수 있다. 유효 형태는 미리 축적된 유형 별 대상 객체의 형태에 기초하여 결정될 수 있다.According to one aspect, the object detection apparatus can verify the type of the target object based on the valid form. Valid forms are the types that a particular type of object can have. The object detection apparatus can determine an effective form in advance for each object type. For example, the effective form may include a basic form of the head or a basic form of the hand. The object detection apparatus can determine that the type of the target object is valid when the type of the target object belongs to the valid type. The effective form can be determined based on the type of the target object for each type accumulated in advance.

다른 일 측에 따르면, 객체 검출 장치는 유효 범위에 기초하여 대상 객체의 유형을 검증할 수 있다. 유효 범위는 특정 유형의 객체가 존재할 수 있는 위치의 범위를 의미한다. 객체 검출 장치는 객체의 유형 별로 유효 범위를 미리 결정할 수 있다. 예컨대, 유효 범위는 머리가 존재할 수 있는 위치나 팔이 움직일 수 있는 위치를 포함할 수 있다. 유효 범위는 복수의 객체들 간의 관계에 의해 정해질 수 있다. 예컨대, 유효 범위는 머리와 몸은 직접 연결된다는 것과 머리와 몸은 직접 연결될 수 없다는 것에 기초하여 결정될 수 있다. 또한, 유효 범위는 특정 유형의 객체의 예상 가동 범위에 기초하여 결정될 수 있다. 예컨대, 유효 범위는 몸체를 중심으로 머리가 움직일 수 있는 범위나 몸체를 중심으로 팔이 움직일 수 있는 범위에 기초하여 결정될 수 있다. 예상 가동 범위는 대상 객체의 이전 위치와 함께 고려될 수 있다. 예컨대, t=1일 때 팔의 위치에 기초하여 t=2일 때 팔의 예상 가동 범위가 결정될 수 있다. 객체 검출 장치는 대상 객체의 위치가 유효 범위에 속하는 경우 대상 객체의 유형이 유효한 것으로 판단할 수 있다. 유효 범위는 미리 축적된 유형 별 대상 객체의 위치 및 위치 변화에 기초하여 결정될 수 있다. 객체 검출 장치는 대상 객체의 유형을 검증한 이후에 해당 유형의 대상 객체를 추적할 수 있다.According to another aspect, the object detection apparatus can verify the type of the target object based on the validity range. An effective range is a range of positions where an object of a certain type can exist. The object detection apparatus can determine a valid range in advance for each type of object. For example, the effective range may include a position where the head may exist or a position where the arm may move. The validity range can be defined by the relationship between a plurality of objects. For example, the validity range can be determined based on the fact that the head and body are directly connected and that the head and body can not be directly connected. The validity range may also be determined based on an expected range of operation of a particular type of object. For example, the effective range can be determined based on a range in which the head can move about the body or a range in which the arm can move about the body. The expected range of motion can be considered with the previous location of the target object. For example, when t = 2 based on the position of the arm when t = 1, the expected range of motion of the arm can be determined. The object detection apparatus can determine that the type of the target object is valid when the position of the target object belongs to the valid range. The validity range can be determined based on the position and the positional change of the target object for each type accumulated in advance. The object detection apparatus can trace a target object of the corresponding type after verifying the type of the target object.

도 5는 일 실시예에 따른 동작 명령의 생성 과정을 나타내는 플로우 차트이다.5 is a flowchart showing a process of generating an operation command according to an embodiment.

도 5를 참조하면, 단계(500)에서, 객체 검출 장치는 대상 객체의 위치에 기초하여 대상 객체의 운동 궤적을 결정한다. 객체 검출 장치는 대상 객체의 유형과 위치를 식별한 후, 순차적으로 식별된 대상 객체의 위치에 기초하여 대상 객체의 운동궤적을 결정할 수 있다. 운동 궤적의 결정에는 평활 필터 또는 시간 시퀀스 추적 알고리즘 등과 같은 다양한 기법이 이용될 수 있다. 이벤트 기반 센서의 특수성으로 인해, 대상 객체가 일시적으로 정지할 경우에, 운동 궤적이 일시적으로 소멸할 수 있다. 객체 검출 장치는 정지한 객체에 대해서 정지 위치에 평활 처리를 수행할 수 있다. 평활 처리는 칼만 필터 방식 등의 다양한 기법이 이용될 수 있다.Referring to FIG. 5, in step 500, the object detection apparatus determines a motion trajectory of a target object based on the position of the target object. The object detection apparatus can identify the type and position of the target object and then determine the motion locus of the target object based on the position of the target object sequentially identified. Various techniques such as a smoothing filter or a time sequence tracking algorithm can be used to determine the motion trajectory. Due to the specificity of the event-based sensor, the motion trajectory may temporarily disappear when the target object is temporarily stopped. The object detecting apparatus can perform a smoothing process on the stopped object at the stop position. Various techniques such as a Kalman filter method can be used for smoothing processing.

단계(600)에서, 객체 검출 장치는 운동 궤적에 대응하는 동작 명령을 생성한다. 일 측에 따르면, 객체 검출 장치는 운동 궤적을 동작 세그먼트 별로 분할하고, 동작 세그먼트의 순서에 관한 특징을 추출하고, 상기 특징에 기초하여 동작 명령을 생성할 수 있다. 다른 일 측에 따르면, 객체 검출 장치는 서로 다른 유형의 객체들을 하나의 객체로 조합한 후, 각각의 유형의 객체들의 운동 궤적에 기초하여 하나의 객체의 운동 궤적을 결정하고, 하나의 객체의 운동 궤적에 관한 특징을 추출하고, 상기 특징에 기초하여 동작 명령을 생성할 수 있다. 상기 특징은, 위치 특징, 경로 특징, 이동 방향 특징, 속도 특징 및 가속도 특징 중 적어도 하나를 포함할 수 있다.In step 600, the object detection apparatus generates an action command corresponding to the motion trajectory. According to one aspect, the object detection apparatus may divide the motion locus by motion segment, extract a feature related to the order of motion segments, and generate an motion command based on the feature. According to another aspect of the present invention, the object detecting apparatus may combine objects of different types into one object, determine a motion trajectory of one object based on the motion trajectory of each type of object, Extract features relating to the locus, and generate an operation command based on the feature. The feature may include at least one of a position feature, a path feature, a movement direction feature, a velocity feature, and an acceleration feature.

동작 명령은 손과 같은 하나의 대상 객체의 움직임에 기초하여 생성되거나, 머리 및 손과 같은 복수의 대상 객체의 움직임에 기초하여 생성될 수 있다. 복수의 대상 객체의 움직임은 하나의 운동 궤적으로 취급될 수 있다. 예컨대, 머리의 운동 궤적 및 손의 운동 궤적은 하나의 운동 궤적으로 조합될 수 있고, 조합된 운동 궤적에 따라 동작 명령이 생성될 수 있다.The motion command may be generated based on motion of one target object, such as a hand, or may be generated based on motion of a plurality of target objects, such as head and hands. Motion of a plurality of target objects can be treated as one motion locus. For example, the motion locus of the head and the motion locus of the hand can be combined into one motion locus, and an operation command can be generated according to the combined motion locus.

도 6은 일 실시예에 따른 학습 과정을 나타내는 플로우 차트이다.6 is a flowchart showing a learning process according to an embodiment.

도 6을 참조하면, 단계(1100)에서, 학습기는 대상 영역 및 대상 영역에 이웃한 이웃 영역에 관한 학습 샘플을 생성한다. 학습 샘플은 이벤트 기반 센서에 의해 수집된 이벤트 신호에 기초하여 생성될 수 있다. 예를 들면, 이벤트 기반 센서를 통해 다양한 유형의 객체의 다양한 운동 과정을 촬영하고, 샘플 신호를 수집할 수 있다. 이벤트 기반 센서는 픽셀의 밝기 변화 등의 이벤트가 발생한 픽셀에 대해서만 응답하고, 해당 픽셀의 이벤트 신호를 전송 및 저장한다. 이벤트 기반 센서는 샘플 신호에 대한 이벤트 신호를 생성할 수 있다. 이벤트 기반 센서가 샘플 신호로부터 생성한 이벤트 신호는 샘플 이벤트 신호로 지칭한다.Referring to FIG. 6, in step 1100, the learning device generates a learning sample about a subject area and a neighboring area neighboring the subject area. The training samples may be generated based on event signals collected by the event-based sensor. For example, an event-based sensor can capture various motion processes of various types of objects and collect sample signals. The event-based sensor responds only to a pixel where an event such as a brightness change of a pixel occurs, and transmits and stores an event signal of the pixel. The event-based sensor may generate an event signal for the sample signal. The event signal generated by the event-based sensor from the sample signal is referred to as a sample event signal.

이벤트 기반 센서로 수집한 이벤트 신호는 객체의 운동 윤곽을 일정한 수준으로 잘 나타내고, 이러한 운동 윤곽에 기초하여 객체의 형태도 파악될 수 있다. 따라서, 이웃 픽셀들은 대상 픽셀들에 대응하는 객체의 구조를 설명하기에 적합하고, 대상 픽셀들이 객체의 어느 부분에 해당하는지, 즉 대상 객체의 유형을 판단하는데 도움을 줄 수 있다. 예를 들면, 인체가 운동할 때, 다수의 이벤트 신호가 생기고 대상 픽셀들 및 대상 픽셀들로부터 일정한 범위 내의 이웃 픽셀들을 통하여 대상 픽셀들이 머리, 손 또는 몸체 등에 속하는지 여부를 판단할 수 있다.The event signal collected by the event-based sensor indicates the motion contour of the object to a certain level, and the shape of the object can be grasped based on the motion contour. Accordingly, neighboring pixels are suitable for describing the structure of the object corresponding to the target pixels, and can help determine which part of the object the target pixels correspond to, i.e., the type of the target object. For example, when a human body moves, a plurality of event signals are generated, and it is possible to determine whether the target pixels belong to the head, the hand, or the body or the like through the neighboring pixels within a certain range from the target pixels and the target pixels.

따라서, 이벤트 기반 센서가 샘플 신호로부터 출력한 샘플 이벤트 신호에 기초하여 대상 픽셀들과 이웃 픽셀들을 결정할 수 있고, 대상 픽셀들 및 이웃 픽셀들에 기초하여 대상 픽셀들에 대응하는 대상 객체의 유형을 결정할 수 있다. 예컨대, 대상 픽셀들의 위치 및 이웃 픽셀들의 위치에 기초하여 샘플 이벤트 신호에 대응하는 객체의 유형을 결정할 수 있다. 객체의 유형은 구체적으로 머리, 손 및 몸체 등이 될 수 있다.Therefore, the event-based sensor can determine the target pixels and neighboring pixels based on the sample event signal output from the sample signal, and determine the type of target object corresponding to the target pixels based on the target pixels and neighboring pixels . For example, the type of object corresponding to the sample event signal may be determined based on the location of the target pixels and the location of neighboring pixels. The type of object can be specifically the head, the hand, and the body.

이로써, 대상 픽셀들 및 이웃 픽셀들을 하나의 학습 샘플로 구성할 수 있다. 또한, 학습 샘플을 통해 샘플 이벤트 신호에 대응하는 운동 객체의 유형에 대한 학습을 진행할 수 있다. 설정된 샘플링 범위에 따라 대상 픽셀들 주위에서 이웃 픽셀들을 샘플링하여, 일정한 수의 이웃 픽셀들을 선택할 수 있다. 대상 픽셀들과 선택된 이웃 픽셀들을 하나의 학습 샘플로 하여 특정 객체의 유형을 학습할 수 있다. 일 측에 따르면, 학습 샘플은 도 7에 도시된 순서로 생성될 수 있다.In this way, the target pixels and neighboring pixels can be constituted by one learning sample. In addition, learning on the type of the moving object corresponding to the sample event signal can be performed through the learning sample. It is possible to sample neighboring pixels around the target pixels according to the set sampling range and select a predetermined number of neighboring pixels. The type of the specific object can be learned by using the target pixels and the selected neighboring pixels as one learning sample. According to one aspect, the learning samples may be generated in the order shown in FIG.

도 7은 일 실시예에 따른 학습 샘플의 생성 과정을 나타내는 플로우 차트이다. 도 7을 참조하면, 단계(1110)에서, 학습기는 이벤트 기반 센서에 의한 샘플 이벤트 신호에 기초하여 샘플 이미지를 생성한다. 단계(1120)에서, 샘플 이미지를 복수의 영역들로 분할한다. 단계(1130)에서, 영역들 중에 대상 영역에 포함된 대상 픽셀들 및 이웃 영역에 포함된 이웃 필섹들을 하나의 학습 샘플로 구성한다. 학습기는 이러한 과정을 통해 생성된 학습 샘플에 기초하여 분류기를 학습시킬 수 있다.7 is a flowchart showing a process of generating a learning sample according to an embodiment. Referring to Fig. 7, in step 1110, the learner generates a sample image based on a sample event signal by an event-based sensor. In step 1120, the sample image is divided into a plurality of regions. In step 1130, the target pixels included in the target area and neighbor pixels included in the neighboring area among the areas are configured as one learning sample. The learner can learn the classifier based on the learning sample generated through this process.

다시 도 6을 참조하면, 단계(1200)에서, 학습기는 학습 샘플에 기초하여 대상 영역에 대응하는 대상 객체의 유형에 관해 분류기를 학습시킨다. 학습기는 분류기의 분류 결과가 적절한지 여부에 따라 학습기의 파라미터를 조정할 수 있다. 다시 말해, 학습기는 학습 샘플의 학습 대상 유형 및 학습 샘플에 대한 분류기의 분류 결과에 기초하여 분류기의 파라미터를 조정할 수 있다. 이 때, 학습 대상 유형은 대상 객체의 유형 및 이웃 영역에 대응하는 이웃 객체의 유형을 포함할 수 있다. 즉, 분류기는 하나의 학습 샘플로 대상 객체와 이웃 객체를 함께 학습할 수 있다.Referring again to Fig. 6, at step 1200, the learner learns the classifier on the type of object corresponding to the object area based on the training samples. The learner can adjust the parameters of the learner according to whether the classification result of the classifier is appropriate or not. In other words, the learner can adjust the parameters of the classifier based on the classification of the classifier for the learning object type of the learning sample and the learning sample. At this time, the learning target type may include the type of the target object and the type of the neighboring object corresponding to the neighboring area. That is, the classifier can learn the target object and the neighboring object together with one learning sample.

분류기는 심층 신뢰 네트워크(DBN: Deep Belief Network)에 기초하여 학습될 수 있다. DBN에 기초한 학습에서, 복수의 학습 샘플들이 학습 샘플 집합으로 이용될 수 있다. 학습 샘플 집합에 기초하여 DBN의 분류 모델이 획득될 수 있다. DBN을 이용한 구체적인 학습 과정에는 다양한 방식이 이용될 수 있다. 예컨대, 각각의 유형에 대한 학습 샘플을 이용하여 DBN에 대한 복수의 반복적 학습을 진행할 수 있다. 반복적 학습 과정 중에 하나의 학습 과정은 복수의 학습 샘플로 구성된 학습 샘플 집합을 DBN에 입력하는 단계와, 학습 샘플의 학습 대상 유형과 DBN의 출력, 즉 분류기의 분류 결과를 비교하는 단계와, 비교 결과에 기초하여 DBN의 파라미터를 조정하는 단계와, 다음 차수의 반복을 계속하거나 반복을 정지하고 분류기를 획득하는 단계를 포함할 수 있다.The classifier can be learned based on Deep Belief Network (DBN). In learning based on DBN, a plurality of learning samples can be used as a set of learning samples. A classification model of the DBN can be obtained based on the learning sample set. Various methods can be used for concrete learning process using DBN. For example, a plurality of iterative learning for the DBN can be performed using learning samples for each type. One learning process during the iterative learning process includes inputting a set of learning samples composed of a plurality of learning samples to the DBN, comparing the learning target type of the learning sample with the output of the DBN, i.e., the classification result of the classifier, Adjusting the parameters of the DBN based on the received data, and continuing the iteration of the next order or stopping the iteration and obtaining the classifier.

DBN의 출력은 해당 운동 객체의 유형에 대한 추측 값이다. 이러한 DBN의 출력을 학습 대상 유형인, 비교적 정확한 측정 결과 값과 비교하고, 양자의 차이에 따라 뒤 방향 전파의 학습 기술로 DBN의 파라미터를 조정함으로써 최종적인 분류기의 성능을 향상시킬 수 있다. 구체적인 분류기의 구조는 도 8 및 도 9를 참조하여 설명한다.The output of the DBN is an estimate of the type of motion object. The performance of the final classifier can be improved by comparing the output of the DBN with the relatively accurate measurement result, which is the learning object type, and by adjusting the parameters of the DBN with the backward propagation learning technique according to the difference between the two. The structure of a specific classifier will be described with reference to Figs. 8 and 9. Fig.

도 8은 일 실시예에 따른 분류기의 구조를 나타내는 도면이다. 도 8을 참조하면, 분류기는 제한된 볼츠만 머신(RBMs: Restricted Boltzmann machines)을 포함한다. 분류기는 RBMs를 이용하여 입력 값으로부터 출력 값을 생성한다. 분류기의 파라미터는 RBMs의 가중치를 의미할 수 있다. 분류기의 파라미터는 RBMs의 가중치를 통해 조절될 수 있다. 예컨대, 분류기의 출력 값이 미리 정해진 출력 값, 즉 학습 대상 유형에 근접하도록 RBMs의 가중치가 조절될 수 있다. 입력 값은 특징 벡터일 수 있다. 특징 벡터는 대상 픽셀들 및 이웃 픽셀들에 기초하여 생성될 수 있다. 출력 값은 대상 객체의 유형일 수 있다. 예컨대, 출력 값은 머리, 몸체 및 손을 포함할 수 있다. 따라서, 일 실시예에 따른 분류기는 특징 벡터로부터 대상 객체의 유형에 대응하는 출력 값을 생성한다. 즉, 일 실시예에 따른 분류기는 대상 픽셀들 및 이웃 픽셀들에 기초하여 대상 객체의 검출할 수 있다.8 is a view showing a structure of a classifier according to an embodiment. Referring to FIG. 8, the classifier includes limited Boltzmann machines (RBMs). The classifier generates output values from input values using RBMs. The parameters of the classifier can mean the weights of the RBMs. The parameters of the classifier can be adjusted through the weights of the RBMs. For example, the weights of the RBMs may be adjusted such that the output value of the classifier is close to a predetermined output value, that is, the object type. The input value may be a feature vector. The feature vector may be generated based on the target pixels and neighboring pixels. The output value may be the type of the target object. For example, the output value may include a head, a body, and a hand. Thus, the classifier according to one embodiment generates an output value corresponding to the type of the target object from the feature vector. That is, a classifier according to an exemplary embodiment can detect a target object based on target pixels and neighboring pixels.

도 9는 다른 실시예에 따른 분류기의 구조를 나타내는 도면이다. 도 8을 참조하면, 분류기는 특징 벡터로부터 출력 값을 생성한다. 특징 벡터는 대상 픽셀들 및 이웃 픽셀들에 기초하여 생성될 수 있다. 출력 값은 대상 객체의 유형 및 이웃 객체의 유형일 수 있다. 즉, 다른 실시예에 따른 분류기는 대상 픽셀들에 대응하는 대상 객체의 유형 및 이웃 픽셀들에 대응하는 이웃 객체의 유형을 함께 검출할 수 있다. 예컨대, 다른 실시예에 따른 분류기는 특징 벡터에 기초하여 대상 객체의 유형과 이웃 객체의 유형을 동시에 검출할 수 있다. 검출된 이웃 객체의 유형은 대상 객체의 유형을 검출 및 검증하는 것에 이용될 수 있다. 따라서, 대상 객체의 유형에 대한 검출의 정확성이 향상될 수 있다.9 is a diagram showing the structure of a classifier according to another embodiment. Referring to FIG. 8, the classifier generates an output value from a feature vector. The feature vector may be generated based on the target pixels and neighboring pixels. The output value may be the type of the target object and the type of the neighbor object. That is, the classifier according to another embodiment may detect the type of the target object corresponding to the target pixels and the type of the neighbor object corresponding to the neighboring pixels. For example, a classifier according to another embodiment may simultaneously detect a type of a target object and a type of a neighbor object based on a feature vector. The type of the detected neighboring object may be used to detect and verify the type of the target object. Thus, the accuracy of detection for the type of target object can be improved.

도 10은 일 실시예에 따른 학습기 및 분류기를 나타내는 블록도이다.10 is a block diagram illustrating a learning device and a classifier according to an embodiment.

도 10을 참조하면, 학습기(51)는 대상 영역 및 대상 영역에 이웃한 이웃 영역에 관한 학습 샘플에 기초하여 분류기(52)를 학습시킨다. 학습 샘플은 대상 픽셀들 및 이웃 픽셀들에 기초하여 생성될 수 있다. 학습기(51)는 학습 샘플에 대한 분류기(52)의 출력 값에 기초하여 분류기(52)의 파라미터를 조정할 수 있다. 분류기(52)는 DBN을 포함할 수 있다. 그 밖에, 학습기(51) 및 분류기에는 앞서 설명된 학습 방법이 적용될 수 있다.Referring to FIG. 10, the learning device 51 learns the classifier 52 based on the learning sample about the object area and the neighboring area neighboring the object area. A learning sample may be generated based on the target pixels and neighboring pixels. The learning device 51 can adjust the parameters of the classifier 52 based on the output value of the classifier 52 for the learning sample. The classifier 52 may include a DBN. Besides, the learning method described above can be applied to the learning device 51 and the classifier.

도 11은 일 실시예에 따른 객체 검출 장치를 나타내는 블록도이다.11 is a block diagram illustrating an object detection apparatus according to an embodiment.

도 11을 참조하면, 객체 검출 장치(60)는 이벤트 기반 센서(61) 및 분류기(62)를 포함한다. 이벤트 기반 센서(61)는 복수의 센싱 픽셀들을 포함한다. 이벤트 기반 센서는 복수의 센싱 픽셀들 중 이벤트를 감지한 활성 픽셀(active pixel)의 식별 정보를 포함하는 이벤트 신호를 생성한다. 분류기(62)는 이벤트 신호에 기초하여 대상 객체를 검출한다. 일 측에 따르면, 분류기(62)는 앞서 설명된 학습기에 의해 미리 학습될 수 있다. 다른 일 측에 따르면, 객체 검출 장치(60)는 학습기를 포함할 수 있고, 분류기(62)는 객체 검출 장치(60)에 포함된 학습기를 통해 학습될 수 있다.Referring to FIG. 11, the object detection apparatus 60 includes an event-based sensor 61 and a classifier 62. The event-based sensor 61 includes a plurality of sensing pixels. The event-based sensor generates an event signal including identification information of an active pixel that senses an event among a plurality of sensing pixels. The classifier 62 detects the target object based on the event signal. According to one aspect, the classifier 62 can be learned in advance by the learning apparatus described above. According to another aspect, the object detecting apparatus 60 may include a learning apparatus, and the classifier 62 may be learned through a learning apparatus included in the object detecting apparatus 60. [

객체 검출 장치(60)는 처리부를 포함할 수 있다. 처리부는 이벤트 신호에 기초하여 이벤트 이미지를 생성하고, 이벤트 이미지를 복수의 영역으로 분할할 수 있다. 처리부는 대상 영역 및 이웃 영역에 기초하여 특징 벡터를 생성할 수 있다. 또한, 특징 벡터를 분류기(62)에 입력하고, 분류기(62)의 출력으로부터 대상 객체의 유형 및 위치를 획득할 수 있다. 처리부는 대상 객체를 추적할 수 있다. 처리부는 대상 객체의 움직임에 기초하여 동작 명령을 생성할 수 있다.The object detecting apparatus 60 may include a processing unit. The processing unit may generate an event image based on the event signal, and may divide the event image into a plurality of regions. The processing unit may generate the feature vector based on the target area and the neighboring area. In addition, the feature vector may be input to the classifier 62 and the type and position of the target object may be obtained from the output of the classifier 62. The processing unit can track the target object. The processing unit may generate an operation command based on the motion of the target object.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the drawings, various technical modifications and variations may be applied to those skilled in the art. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

Claims (20)

이벤트 기반 센서에 의한 이벤트 신호에 기초하여 이벤트 이미지를 생성하는 단계;
상기 이벤트 이미지에 포함된, 대상 픽셀들 및 이웃 픽셀들에 기초하여 특징 벡터를 결정하는 단계; 및
상기 특징 벡터에 기초하여 상기 대상 픽셀들에 대응하는 대상 객체를 결정하는 단계
를 포함하는, 객체 검출 방법.
Generating an event image based on an event signal by an event-based sensor;
Determining a feature vector based on the target pixels and neighboring pixels included in the event image; And
Determining a target object corresponding to the target pixels based on the feature vector
The object detection method comprising:
제1항에 있어서,
상기 특징 벡터에 기초하여 상기 대상 객체를 결정하는 단계는,
대상 영역 및 상기 대상 영역에 이웃한 이웃 영역에 관한 학습 샘플에 의해 학습된 분류기에 상기 특징 벡터를 입력한 결과 값에 기초하여 상기 대상 객체를 결정하는 단계를 포함하는,
객체 검출 방법.
The method according to claim 1,
Wherein the step of determining the target object based on the feature vector comprises:
Determining a target object based on a result value obtained by inputting the feature vector to a classifier learned by a learning sample related to a target area and a neighboring area neighboring the target area,
Object detection method.
제1항에 있어서,
상기 특징 벡터에 기초하여 상기 대상 객체를 결정하는 단계는,
상기 대상 객체의 유형 및 상기 대상 객체의 위치를 결정하는 단계를 포함하는,
객체 검출 방법.
The method according to claim 1,
Wherein the step of determining the target object based on the feature vector comprises:
Determining a type of the target object and a position of the target object;
Object detection method.
제1항에 있어서,
상기 특징 벡터에 기초하여 상기 대상 객체를 결정하는 단계는,
상기 대상 객체에 대응하는 픽셀들의 위치에 근거하여 상기 대상 객체의 위치를 결정하는 단계를 포함하는,
객체 검출 방법.
The method according to claim 1,
Wherein the step of determining the target object based on the feature vector comprises:
Determining a position of the target object based on a position of pixels corresponding to the target object;
Object detection method.
제1항에 있어서,
상기 특징 벡터를 결정하는 단계는,
상기 이벤트 이미지를 복수의 영역들로 분할하는 단계; 및
상기 영역들 중에 상기 대상 픽셀들이 속하는 대상 영역에 이웃한 이웃 영역에서 상기 이웃 픽셀들을 샘플링하는 단계
를 포함하는, 객체 검출 방법.
The method according to claim 1,
Wherein the step of determining the feature vector comprises:
Dividing the event image into a plurality of regions; And
Sampling the neighboring pixels in neighboring regions neighboring the object region to which the target pixels belong in the regions
The object detection method comprising:
제5항에 있어서,
상기 이웃 픽셀들을 샘플링하는 단계는,
상기 이웃 영역에서 미리 정해진 수의 픽셀들을 임의로 샘플링하는 단계를 포함하는,
객체 검출 방법.
6. The method of claim 5,
Wherein sampling the neighboring pixels comprises:
And randomly sampling a predetermined number of pixels in the neighboring region.
Object detection method.
제1항에 있어서,
상기 대상 객체의 유형을 검증하는 단계
를 더 포함하는, 객체 검출 방법.
The method according to claim 1,
Verifying the type of the target object
The method further comprising:
제7항에 있어서,
상기 대상 객체의 유형을 검증하는 단계는
상기 대상 객체와 상기 이웃 픽셀들에 대응하는 이웃 객체의 관계에 기초하여 상기 대상 객체의 유형을 검증하는 단계를 포함하는,
객체 검출 방법.
8. The method of claim 7,
The step of verifying the type of the target object
And verifying the type of the target object based on a relationship between the target object and a neighboring object corresponding to the neighboring pixels.
Object detection method.
제7항에 있어서,
상기 대상 객체의 유형을 검증하는 단계는,
상기 대상 객체의 위치에 관한 유효 범위에 기초하여 상기 대상 객체의 유형을 검증하는 단계를 포함하고,
상기 유효 범위는 상기 대상 객체의 이전 위치 및 상기 유형의 예상 가동 범위에 기초하여 결정되는,
객체 검출 방법.
8. The method of claim 7,
Wherein the verifying the type of the target object comprises:
And verifying the type of the target object based on an effective range concerning the position of the target object,
Wherein the validity range is determined based on a previous location of the target object and an expected range of operation of the type,
Object detection method.
제1항에 있어서,
상기 대상 객체의 위치에 기초하여 상기 대상 객체의 운동 궤적을 결정하는 단계; 및
상기 운동 궤적에 대응하는 동작 명령을 생성하는 단계
를 더 포함하는, 객체 검출 방법.
The method according to claim 1,
Determining a motion trajectory of the target object based on the position of the target object; And
Generating an action command corresponding to the motion locus
The method further comprising:
제10항에 있어서,
상기 동작 명령을 생성하는 단계는,
상기 운동 궤적을 동작 세그먼트 별로 분할하는 단계;
상기 동작 세그먼트의 순서에 관한 특징을 추출하는 단계; 및
상기 특징에 기초하여 상기 동작 명령을 생성하는 단계
를 포함하고,
상기 특징은, 위치 특징, 경로 특징, 이동 방향 특징, 속도 특징 및 가속도 특징 중 적어도 하나를 포함하는,
객체 검출 방법.
11. The method of claim 10,
Wherein generating the action command comprises:
Dividing the motion locus by motion segment;
Extracting features relating to the order of the action segments; And
Generating the motion command based on the feature
Lt; / RTI >
The feature may include at least one of a position feature, a path feature, a movement direction feature, a velocity feature, and an acceleration feature.
Object detection method.
제10항에 있어서,
상기 동작 명령을 생성하는 단계는,
서로 다른 유형의 객체들을 하나의 객체로 조합한 후, 각각의 유형의 객체들의 운동 궤적에 기초하여 상기 하나의 객체의 운동 궤적을 결정하는 단계;
상기 하나의 객체의 운동 궤적에 관한 특징을 추출하는 단계; 및
상기 특징에 기초하여 상기 동작 명령을 생성하는 단계
를 포함하고,
상기 특징은, 위치 특징, 경로 특징, 이동 방향 특징, 속도 특징 및 가속도 특징 중 적어도 하나를 포함하는,
객체 검출 방법.
11. The method of claim 10,
Wherein generating the action command comprises:
Determining a motion trajectory of the one object based on a motion trajectory of each type of object after combining different types of objects into one object;
Extracting a feature relating to a motion locus of the one object; And
Generating the motion command based on the feature
Lt; / RTI >
The feature may include at least one of a position feature, a path feature, a movement direction feature, a velocity feature, and an acceleration feature.
Object detection method.
대상 영역 및 상기 대상 영역에 이웃한 이웃 영역에 관한 학습 샘플을 생성하는 단계; 및
상기 학습 샘플에 기초하여 상기 대상 영역에 대응하는 대상 객체의 유형에 관해 분류기를 학습시키는 단계
를 포함하는 학습 방법.
Generating a learning sample about a subject area and a neighboring area neighboring the subject area; And
Learning the classifier on the type of the target object corresponding to the target area based on the learning sample
≪ / RTI >
제13항에 있어서,
상기 학습 샘플을 생성하는 단계는,
이벤트 기반 센서에 의한 이벤트 신호에 기초하여 샘플 이미지를 생성하는 단계;
상기 샘플 이미지를 복수의 영역들로 분할하는 단계; 및
상기 영역들 중에 상기 대상 영역에 포함된 대상 픽셀들 및 상기 이웃 영역에 포함된 이웃 픽셀들을 하나의 학습 샘플로 구성하는 단계
를 더 포함하는 학습 방법.
14. The method of claim 13,
Wherein the step of generating the learning sample comprises:
Generating a sample image based on an event signal by an event based sensor;
Dividing the sample image into a plurality of regions; And
Constructing one learning sample among target pixels included in the target area and neighboring pixels included in the neighboring area among the areas;
≪ / RTI >
제13항에 있어서,
상기 분류기를 학습시키는 단계는,
심층 신뢰 네트워크(DBN: Deep Belief Network)에 기초하여 상기 분류기를 학습시키는 단계를 포함하는,
학습 방법.
14. The method of claim 13,
The step of learning the classifier comprises:
And learning the classifier based on a Deep Belief Network (DBN).
Learning method.
제13항에 있어서,
상기 분류기를 학습시키는 단계는,
상기 학습 샘플의 학습 대상 유형 및 상기 학습 샘플에 대한 상기 분류기의 분류 결과에 기초하여 상기 분류기의 파라미터를 조정하는 단계를 포함하는,
학습 방법.
14. The method of claim 13,
The step of learning the classifier comprises:
Adjusting a parameter of the classifier based on a classification result of the classifier for the learning object type of the learning sample and the learning sample,
Learning method.
제16항에 있어서,
상기 학습 대상 유형은,
상기 대상 객체의 유형 및 상기 이웃 영역에 대응하는 이웃 객체의 유형을 포함하는,
학습 방법.
17. The method of claim 16,
The learning object type may include:
The type of the target object and the type of the neighbor object corresponding to the neighboring area,
Learning method.
이벤트 기반 센서의 이벤트 신호에 기초하여 생성된 이벤트 이미지를 생성하는 처리부; 및
상기 이벤트 이미지에 포함된, 대상 픽셀들 및 이웃 픽셀들에 기초하여 특징 벡터를 결정하고, 상기 특징 벡터에 기초하여 상기 대상 픽셀들에 대응하는 대상 객체를 검출하는 분류기
를 포함하는, 객체 검출 장치.
A processor for generating an event image based on an event signal of the event-based sensor; And
A classifier for determining a feature vector based on the target pixels and neighboring pixels included in the event image and detecting a target object corresponding to the target pixels based on the feature vector,
And an object detection device.
제18항에 있어서,
상기 분류기는,
대상 영역 및 상기 대상 영역에 이웃한 이웃 영역에 관한 학습 샘플에 의해 학습된 분류기에 상기 특징 벡터를 입력한 결과 값에 기초하여 상기 대상 객체를 검출하는,
객체 검출 장치
19. The method of claim 18,
Wherein the classifier comprises:
Detecting a target object based on a result value obtained by inputting the feature vector to a classifier learned by a learning sample related to a target area and a neighboring area neighboring the target area,
Object detection device
제18항에 있어서,
상기 대상 객체와 상기 이웃 픽셀들에 대응하는 이웃 객체의 관계에 기초하여 상기 대상 객체의 유형을 검증하는 검증부
를 더 포함하는, 객체 검출 장치.
19. The method of claim 18,
A verification unit for verifying the type of the target object based on a relationship between the target object and a neighboring object corresponding to the neighboring pixels;
The object detection apparatus comprising:
KR1020150173974A 2015-01-14 2015-12-08 Method and apparatus of detecting object using event-based sensor KR102595604B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/995,262 US10043064B2 (en) 2015-01-14 2016-01-14 Method and apparatus of detecting object using event-based sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510018291.1 2015-01-14
CN201510018291.1A CN105844659B (en) 2015-01-14 2015-01-14 The tracking and device of moving component

Publications (2)

Publication Number Publication Date
KR20160087738A true KR20160087738A (en) 2016-07-22
KR102595604B1 KR102595604B1 (en) 2023-10-30

Family

ID=56579870

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150173974A KR102595604B1 (en) 2015-01-14 2015-12-08 Method and apparatus of detecting object using event-based sensor

Country Status (2)

Country Link
KR (1) KR102595604B1 (en)
CN (1) CN105844659B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106384130A (en) * 2016-09-22 2017-02-08 宁波大学 Fault detection method based on data multi-neighbor-local-feature embedding
US10636164B2 (en) 2016-11-15 2020-04-28 Samsung Electronics Co., Ltd. Object detection method and apparatus based on dynamic vision sensor
KR20200133787A (en) * 2018-03-21 2020-11-30 로베르트 보쉬 게엠베하 High-speed detection of secondary objects that can cross the trajectory of the primary object in motion

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019067054A1 (en) 2017-09-28 2019-04-04 Apple Inc. Generating static images with an event camera
DE102018211042A1 (en) * 2018-07-04 2020-01-09 Robert Bosch Gmbh Rapid detection of dangerous or endangered objects around a vehicle
CN113302620A (en) * 2018-11-13 2021-08-24 辉达公司 Determining associations between objects and people using machine learning models
CN109544590B (en) * 2018-11-27 2020-05-15 上海芯仑光电科技有限公司 Target tracking method and computing device
CN111988493B (en) * 2019-05-21 2021-11-30 北京小米移动软件有限公司 Interaction processing method, device, equipment and storage medium
CN110782492B (en) * 2019-10-08 2023-03-28 三星(中国)半导体有限公司 Pose tracking method and device
US11610330B2 (en) 2019-10-08 2023-03-21 Samsung Electronics Co., Ltd. Method and apparatus with pose tracking
CN111083354A (en) * 2019-11-27 2020-04-28 维沃移动通信有限公司 Video recording method and electronic equipment
CN112949512B (en) * 2021-03-08 2022-07-08 豪威芯仑传感器(上海)有限公司 Dynamic gesture recognition method, gesture interaction method and interaction system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3078166B2 (en) * 1994-02-02 2000-08-21 キヤノン株式会社 Object recognition method
KR20130040517A (en) * 2011-10-14 2013-04-24 삼성전자주식회사 Apparatus and method for motion recognition with event base vision sensor
KR20140140482A (en) * 2013-05-29 2014-12-09 삼성전자주식회사 Apparatus and method for processing an user input using movement of an object

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2975251B1 (en) * 2011-05-12 2015-12-04 Univ Pierre Et Marie Curie Paris 6 METHOD AND DEVICE FOR CONTROLLING A VISION ASSIST DEVICE
US9631974B2 (en) * 2011-12-19 2017-04-25 Universität Zürich Photoarray, particularly for combining sampled brightness sensing with asynchronous detection of time-dependent image data
KR101887988B1 (en) * 2012-07-03 2018-08-14 삼성전자 주식회사 Image sensor chip, operation method thereof, and system having the same
KR101896666B1 (en) * 2012-07-05 2018-09-07 삼성전자주식회사 Image sensor chip, operation method thereof, and system having the same
KR20140056986A (en) * 2012-11-02 2014-05-12 삼성전자주식회사 Motion sensor array device, depth sensing system and method using the same
US10261612B2 (en) * 2013-02-22 2019-04-16 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US9696812B2 (en) * 2013-05-29 2017-07-04 Samsung Electronics Co., Ltd. Apparatus and method for processing user input using motion of object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3078166B2 (en) * 1994-02-02 2000-08-21 キヤノン株式会社 Object recognition method
KR20130040517A (en) * 2011-10-14 2013-04-24 삼성전자주식회사 Apparatus and method for motion recognition with event base vision sensor
KR20140140482A (en) * 2013-05-29 2014-12-09 삼성전자주식회사 Apparatus and method for processing an user input using movement of an object

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106384130A (en) * 2016-09-22 2017-02-08 宁波大学 Fault detection method based on data multi-neighbor-local-feature embedding
US10636164B2 (en) 2016-11-15 2020-04-28 Samsung Electronics Co., Ltd. Object detection method and apparatus based on dynamic vision sensor
KR20200133787A (en) * 2018-03-21 2020-11-30 로베르트 보쉬 게엠베하 High-speed detection of secondary objects that can cross the trajectory of the primary object in motion

Also Published As

Publication number Publication date
KR102595604B1 (en) 2023-10-30
CN105844659A (en) 2016-08-10
CN105844659B (en) 2019-04-26

Similar Documents

Publication Publication Date Title
KR102595604B1 (en) Method and apparatus of detecting object using event-based sensor
US10043064B2 (en) Method and apparatus of detecting object using event-based sensor
KR102465532B1 (en) Method for recognizing an object and apparatus thereof
KR102399017B1 (en) Method of generating image and apparatus thereof
EP3651055A1 (en) Gesture recognition method, apparatus, and device
JP5754990B2 (en) Information processing apparatus, information processing method, and program
JP2018538631A (en) Method and system for detecting an action of an object in a scene
CN104992453A (en) Target tracking method under complicated background based on extreme learning machine
KR102248404B1 (en) Method and device for analyzing motion
KR101551576B1 (en) Robot cleaner, apparatus and method for recognizing gesture
KR101348680B1 (en) Target acquisition method for video tracker, and target acquisition apparatus using the same
CN110991397B (en) Travel direction determining method and related equipment
KR20170088057A (en) Event signal processing method and apparatus
WO2018028102A1 (en) Memory mimicry guided pattern recognition method
KR20200087347A (en) Method and Apparatus for Rainfall Recognition from Road Surveillance Videos Using TSN
CN111798487A (en) Target tracking method, device and computer readable storage medium
KR20210129043A (en) How to process information from event-based sensors
KR20150038877A (en) User interfacing apparatus and method using an event corresponding a user input
KR101214858B1 (en) Moving object detecting apparatus and method using clustering
US20110222759A1 (en) Information processing apparatus, information processing method, and program
JP7383435B2 (en) Image processing device, image processing method, and program
KR101313879B1 (en) Detecting and Tracing System of Human Using Gradient Histogram and Method of The Same
KR20150071920A (en) Apparatus and method for counting person number using face identification
Hsieh et al. Grid-based template matching for people counting
CN115311723A (en) Living body detection method, living body detection device and computer-readable storage medium

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant