KR20020093092A - 모델 앙상블들을 통한 오브젝트들의 분류 - Google Patents

모델 앙상블들을 통한 오브젝트들의 분류 Download PDF

Info

Publication number
KR20020093092A
KR20020093092A KR1020027014469A KR20027014469A KR20020093092A KR 20020093092 A KR20020093092 A KR 20020093092A KR 1020027014469 A KR1020027014469 A KR 1020027014469A KR 20027014469 A KR20027014469 A KR 20027014469A KR 20020093092 A KR20020093092 A KR 20020093092A
Authority
KR
South Korea
Prior art keywords
classification
features
image data
objects
moving object
Prior art date
Application number
KR1020027014469A
Other languages
English (en)
Inventor
스리니바스 구타
바산쓰 필로민
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20020093092A publication Critical patent/KR20020093092A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects

Abstract

비디오 이미지 데이터에서 오브젝트들의 분류 방법. 상기방법은 상기 이미지 데이터에서 이동 오브젝트들을 검출하는 단계, 상기 이미지 데이터에서 각각의 검출된 이동 오브젝트로부터 둘 또는 그 이상의 특징들을 추출하는 단계, 분류 방법에 따라 상기 둘 또는 그 이상의 특징들의 각각에 대해 각각의 이동 오브젝트를 분류하는 단계, 및 상기 둘 또는 그 이상의 특징들의 각각에 대해 상기 분류 방법에 기초하여 각각의 이동 오브젝트에 대한 분류를 유도하는 단계를 포함한다. 또한, 비디오 이미지 데이터에서 오브젝트들의 분류를 위한 장치가 제공된다.

Description

모델 앙상블들을 통한 오브젝트들의 분류{Classification of objects through model ensembles}
임의의 패턴 인식 시스템의 설계에서 최대 목적은 최상의 가능한 분류(예측적인) 실행을 성취하는 것이다. 이러한 목적은 통상적으로 특정 패턴 인식 문제를 해결하기 위해 서로 다른 분류 방식들을 개발하기에 이르렀다. 서로 다른 설계들의 실험적 평가 결과들은 문제에 대한 최종 해결책으로서 분류자들(모델 선택) 중 하나를 선택하기 위한 기초가 되었다. 그러한 설계 연구들에서 설계들 중 하나가 최상의 실행을 제공할지라도 서로 다른 분류자들에 의해 잘못 분류된 패턴들의 세트들이 중복될 필요가 없는 것으로 관측되었다.
종래 기술의 관점에 있어서, 이미지 데이터에서 오브젝트들의 분류 방법이 필요하며, 그것은 최상의 가능한 분류 실행을 성취하기 위해 이러한 관측을 이용한다.
본 발명은 일반적으로 오브젝트 분류에 관한 것이고, 특히, 일치된 의견(consensus opinion)을 유도하기 위해 다수의 분류자들(모델들)로부터 개개의 의견들에 기초한, 이미지 데이터에서 오브젝트들의 분류에 관한 것이다.
도 1은 본 발명의 분류 방법들의 단계들을 도시한 흐름도.
도 2는 비디오 이미지 데이터에서 검출된 이동 오브젝트와 도 1의 분류 방법들에 의한 분류를 설명한 도면.
도 3은 도 1의 분류 방법들에 이용된 래디얼 베이시스 함수 네트워크를 설명한 도면.
도 4는 도 1의 분류 방법들을 실행하는 장치의 개략도.
따라서 본 발명의 목적은 다수의 분류자들(모델들)로부터의 개개의 의견들로부터 오브젝트 분류에 관해 일치된 의견을 유도하는 이미지 데이터에서 오브젝트들의 분류를 위한 방법을 제공하는 것이다.
따라서, 비디오 이미지 데이터에서 오브젝트들의 분류를 위한 방법이 제공된다. 상기 방법은 이미지 데이터에서의 이동 오브젝트들을 검출하는 단계, 이미지 데이터에서의 각각의 검출된 이동 오브젝트로부터 둘 또는 그 이상의 특징들을 추출하는 단계, 분류 방법에 따라 둘 또는 그 이상의 특징들의 각각에 대해 각각의 이동 오브젝트를 분류하는 단계, 및 둘 또는 그 이상의 특징들의 각각에 대해 분류 방법에 기초하여 각각의 이동 오브젝트에 대한 분류를 유도하는 단계를 포함한다.
바람직하게, 상기 방법은 검출된 이동 오브젝트들로부터 의도하지 않은 이동 오브젝트들을 필터링 해내는 단계를 더 포함하며, 상기 필터링 단계는 각각의 검출된 이동 오브젝트의 검출된 속도 및 종횡비(aspect ratio)에 따라 의도하지 않은 이동 오브젝트들을 필터링 해내는 단계를 포함한다.
특히 바람직하게, 추출 단계는 검출된 이동 오브젝트들의 각각으로부터 x-기울기, y-기울기, 및 조합된 xy-기울기 특징들 중 적어도 둘을 추출하는 단계를 포함하고, 노이즈의 영향들을 감소시키기 위해 이미지 데이터를 평활화하는 단계와, 그후 추출 단계에 앞서 이미지 데이터에 걸쳐 미분 연산자를 적용하는 단계를 더 포함한다.
분류 단계는 둘 또는 그 이상의 특징들의 각각에 대해 동일한 분류 방법을 이용하거나, 적어도 두개의 둘 또는 그 이상의 특징들에 대해 적어도 두개의 서로다른 분류 방법들을 이용한다.
바람직하게, 분류 방법은 적어도 하나의 검출된 이동 오브젝트들을 트레이닝하고 분류하는 래디얼 베이시스 함수 네트워크(Radial Basis Function Network)를 포함하고, 분류 단계는 둘 또는 그 이상의 특징들의 각각에 대해, 검출된 이동 오브젝트가 일치하는 등급을 식별하는 등급 라벨과, 알려지지 않은 패턴이 등급에 속하는 확률을 나타내는 확률값을 출력하는 단계를 포함한다.
또한, 비디오 이미지 데이터에서 오브젝트들의 분류를 위한 장치가 제공된다. 상기 장치는 이미지 데이터에서 이동 오브젝트들을 검출하는 수단, 이미지 데이터에서의 각각의 검출된 이동 오브젝트로부터 둘 또는 그 이상의 특징들을 추출하는 수단, 둘 또는 그 이상의 특징들의 각각에 대해 각각의 이동 오브젝트를 분류 방법에 따라 분류하는 수단, 및 둘 또는 그 이상의 특징들의 각각에 대해 분류 방법에 기초하여 각각의 이동 오브젝트에 대한 분류를 유도하는 단계를 포함한다.
특히, 본 발명의 방법 단계들을 실행하기 위해 기계 장치에 의해 실행 가능한 명령들의 프로그램을 실체적으로 포함하는, 기계 장치에 의해 판독 가능한 프로그램 저장 디바이스와, 본 발명의 방법 단계들을 실행하기 위한 컴퓨터 판독 가능한 프로그램 코드 수단을 포함하는 비디오 이미지 데이터에서 오브젝트들의 분류를 위한 컴퓨터 판독 가능한 매체에 포함된 컴퓨터 프로그램 제품이 제공된다.
본 발명의 장치 및 방법들의 이들 및 다른 특징들, 양상들, 및 장점들이 다음의 설명, 첨부된 청구항들, 및 첨부된 도면들을 고려하여 보다 잘 이해하게 될 것이다.
본 발명이 분류 모델들의 수많고 다양한 유형들에 응용 가능하지만, 래디얼 베이시스 함수(RBF : Radial Basis Function) 분류자들의 환경에서 특히 유용한 것으로 발견되었다. 따라서, RBF 분류자들에 대한 본 발명의 응용성을 제한하지 않고, 본 발명은 그러한 환경에서 기술될 것이다. 본 기술 분야의 숙련자들은 분류를 위한 임의의 개연론적/확률론적인 방법들이 본 발명의 범위나 정신을 벗어나지 않고 개시된 방법들에 이용될 수 있음을 인정할 것이다. 특히, 본 명세서에 기술된 RBF 모델들에 이용된 특징들은 이미지 데이터의 기울기들이며, 그들은 단지 예의 방식으로 기술되며 본 발명의 범위를 제한하지 않는다. 본 기술 분야의 숙련자들은 다른 특징들이 기울기들의 다른 유형들에 부가하여 이용될 수도 있음을 인정할 것이다.
본 발명의 분류 방법들은 단일 의사 결정 방식에 의존하지 않는다. 대신, 모든 분류자들(특정 직무에 가장 적당할 수 있는 바와 같이 분류자가 전문가형실행(expert-like performance)을 디스플레이하기 때문에 대안적으로 전문가들로 불린다), 또는 그들 하위세트(subset)는 일치된 의견을 유도하기 위해 그들 개개의 의견들을 조합함으로써 의사 결정에 이용된다. 바꿔 말하면, 서로 다른 방법론들(methodologies) 또는 서로 다른 특징들을 가진 분류자들은 서로 보완적인 것으로 발견되었다; 따라서 서로 다른 분류자들의 조합은 철저하게 에러들을 감소시키고 더 높은 실행들을 성취하게 될 것이다.
본 발명의 분류 방법들은 도 1의 흐름도에 관련하여 참조 번호(100)에 의해 참조되는 분류 방법을 기술할 것이다. 단계(102)에서, 비디오 이미지 데이터는 분류 방법(100)에 입력된다. 단계(104)에서, 비디오 이미지 데이터는 거기의 임의의 이동 오브젝트들을 검출하도록 분석된다. 비디오 이미지 데이터에서의 이동 오브젝트들을 검출하기 위한 임의의 알려진 방법들은 본 발명의 분류 방법(100)에서 이용될 수 있다. 바람직하게, 2000년 6월, 아일랜드, 듀블린, European Conference on Computer Vision(ECCV) 2000에서 제목이 "Non-parametric Model for Background Subtraction"인 Elgammal 등에 의해 개시된 것과 같이, 이동 오브젝트들은 배경 빼기 방식(background subtraction scheme)을 이용함으로써 비디오 이미지 데이터에서 검출된다. 그러나, 배경 빼기는 단지 예의 방식으로 주어지며 본 발명의 범위나 정신을 제한하지 않는다. 본 기술 분야의 숙련자들은 비디오 이미지 데이터에서의 이동 오브젝트들을 검출하기 위해 현재 알려져 있거나 나중에 개발되는 임의의 다른 방법들이 세그먼트 오브젝트들에 대한 방식으로서 컬러 정보를 이용하는 방법들과 같은 본 발명의 방법들에서 또한 이용 가능하다. 그러한 방법의 예는 1998년 1월, 중국, 홍콩의 Proceedings of the 3rd Asian Conference on Computer Vision, Vol.I 607 내지 614에서 Raja 등에 의한 "Segmentation and Tracking Using Colour Mixture Models"에 개시되어 있다.
바람직하게, 단계(106)에서, 의도하지 않은 이동 오브젝트들은 검출된 이동 오브젝트들로부터 필터링된다. 예를 들면, 분류 방법의 목적이 사람이나 동물들과 같은 이동 오브젝트들을 분류하는 것인 경우, 의자들과 같은 비디오 이미지 데이터에서의 다른 이동 오브젝트들의 분류는 불필요하며 분류 분석에 오류가 생길 수도 있다. 따라서, 검출된 이동 오브젝트들의 속도와 종횡비(aspect ratio)를 관찰함으로써 그러한 의도하지 않은 이동 오브젝트들을 필터링 해내는 것이 바람직하다.
단계(110)에서, 둘 또는 그 이상의 특징들은 비디오 이미지 데이터에서 각각의 검출된 이동 오브젝트로부터 추출된다. 그러한 특징들은 검출된 이동 오브젝트들의 각각에 대해 x-기울기, y-기울기, 및 조합된 xy-기울기 특징들 중 적어도 둘을 포함할 수 있다. 바람직하게 x-기울기, y-기울기, 및 조합된 xy-기울기 특징들 세 개 모두는 검출된 이동 오브젝트들의 각각으로부터 검출된다. 도 2는 비디오 이미지 데이터에서 검출된 이동 오브젝트, 걷고 있는 여자의 입력 이미지(200)를 도시한 것이다. 도면들(202, 204, 206)은 입력 이미지(200)에 대해 각각, x-기울기, y-기울기, 및 조합된 xy-기울기를 도시한 것이다. 기울기는 함수에서 변화의 측정치이고 이미지는 몇몇 연속적인 이미지 세기 함수의 샘플들의 배열인 것으로 간주될 수 있다.
분류 방법이 다양한 포즈들 및 조명 상태들 하에서 오브젝트들을 분류할 수있어야 하기 때문에, 어떤 일정한 오브젝트 등급의 예들이, 동일한 등급의 예들이 서로(예를 들면 서로 다른 옷을 입은 사람들) 매우 다르게 보일 수 있다는 주어진 사실을 점유하는(occupy) 전체 공간을 모델링하는 것이 불가능하지 않은 경우 사소하지 않게 된다. 대신, 바람직한 것은 이들 서로 다른 시나리오들 하에 그다지 변하지 않은 특징들을 식별하고 모델링하는 것이다. 단지 형태 정보를 캡처링함으로써 오브젝트 공간의 차원을 철저하게 감소시키기 때문에 기울기는 그러한 하나의 특징이다.
본 기술 분야의 숙련자들은 x-기울기, y-기울기, 및 조합된 xy-기울기 특징들이 우선하더라도(preferred), 현재 알려져 있거나 나중에 개발되는 이미지 데이터의 다른 특징들은 오브젝트들에 의해 나타난 모션의 유형과 같이, 본 발명의 분류 방법들(100)에서 이용될 수 있다. 예를 들면, 동물들(예를 들면, 개 또는 고양이)에 의해 나타난 모션의 유형은 인간들에 의해 나타난 것과 서로 다르다. 더구나 아직 인간들과 동물들 사이를 분류하는데 이용될 수 있는 또다른 특징은, 얼굴 같은 부위 또는 피부 검출을 위한 모습 같은, 겉모습에 기초한 특징들을 포함한다.
도 1을 다시 참조하면, 대안적으로, 단계(108)에서 입력 이미지 데이터는 미분 연산자(수평/수직/조합)가 전체 이미지에 걸쳐 적용된 후, 먼저 노이즈의 영향들을 감소시키기 위해 평활화된다. 바람직하게, 소벨 연산자(Sobel operator)는 단계(108)의 두 동작들을 동시에 실행하는데 이용된다.
단계(112)에서, 특정 분류 방법은 검출된 각각의 이동 오브젝트에 대해 추출된 특징들의 각각에 적용된다. 상기 기술한 바와 같이, 동일하거나 서로 다른 분류방법은 각각의 검출된 이동 오브젝트로부터 추출된 특징들의 각각에 이용될 수 있다. 바람직하게, 분류 방법은 적어도 하나의 검출된 이동 오브젝트들을 트레이닝하고 분류하기 위한 래디얼 베이시스 함수(RBF)를 포함한다. 보다 바람직하게, x-기울기, y-기울기, 및 조합된 xy-기울기 이미지들의 각각은 분류를 위한 RBF 분류자에 의해 이용된다.
RBF 분류자는 도 3을 참조하여 기술될 것이다. RBF 네트워크의 구조는 세 개의 서로 다른 층들인, 입력층(300), 제 2 층(310), 및 출력층(320)을 포함한다. 입력층(300)은 소스 노드들(지각 유닛들(sensory units))(k)로 구성된다. 제 2층(310)은 목적이 데이터를 집단화하고(cluster) 그것의 차원성(dimensionality)을 감소시키는 것인 숨은층(hidden layer)이다. 출력층(320)은 RBF 네트워크의 응답을 입력층(300)에 적용된 특징 패턴들에 공급한다. 입력 공간(300)에서 숨은 유닛 공간(310)으로의 변환(transformation)은 비선형인 반면, 숨은 유닛 공간(310)에서 출력 공간(320)으로의 변환은 선형이다.
특히, RBF 분류자는 두가지 방법들에서 보여질 수 있다. 하나는 고차원 공간에 내포된(cast into) 분류 문제가 저차원 공간의 것보다 더 선형적으로 분리 가능할 것 같은 수학적 사실의 장점을 취하도록 시도하는 고차원 공간으로 입력 벡터들을 확장하는 핵심 함수들(kernel functions)의 세트로서 RBF 분류자를 해석하는 것이다. 다른 관점은 베이시스 함수들(BF : basis functions)의 선형 조합을 취함으로써 각각의 등급당 하나로 하이퍼서피스들(hypersurfaces)을 구성하도록 시도하는 함수 맵핑 내삽 방법(function mapping interpolation method)으로서 RBF 분류자를해석하는 것이다. 이들 하이퍼서피스들은 판별 함수들로서 보여질 수 있으며, 서피스는 그것이 표현하는 등급에 대한 높은 값과 모든 다른 것들에 대한 낮은 값을 가진다. 알려지지 않은 입력 벡터는 그 점에서 최대 출력을 가진 하이퍼서피스에 연관된 등급에 속하는 것으로 분류된다. 이러한 경우, BF들이 고차원 공간에 대한 베이시스로서 이용되는 것이 아니라, 컴포넌트 계수들이(가중치들) 트레이닝되어야 하는 원하는 하이퍼서피스의 제한된 확장에서 컴포넌트들로서 이용된다.
RBF 분류자는 도 3에 도시된 종래의 세 개층 백-프로퍼게이션 네트워크(back-propagation network)와 매우 유사한 구조를 가진다. 입력층(300)과 중간층(310) 사이의 접속들은 단위 가중치들을 가지며, 결과적으로 트레이닝되지 않아도 된다. BF 노드들(i)라고 불리는 중간층(310)의 노드들은 특정 평균 벡터 μi및 분산 벡터σi 2에 의해 지정된 가우시안 펄스 비선형성을 가지며, 여기서 i = 1, ..., F이고, F는 BF 노드들(i)의 수이다. σi 2은 가우시안 펄스(i)의 공분산 매트릭스의 대각 엔트리들을 표시함을 주의한다. 주어진 D차원 입력 벡터 X, 각각의 BF 노드(i)는 그 입력에 의해 원인이 된 BF의 활성화들(activations)을 반영하는 스칼라값 yi를 출력한다:
, (1)
여기서, h는 분산에 대한 비례 상수이고, xk는 입력 벡터 X = [x1, x2, ..., xD]의kth컴포넌트이며, μik및 σik 2은 베이시스 노드(i)의 각각 평균 벡터와 분산 벡터의 kth컴포넌트들이다. 가우시안 BF의 중앙에 가까운 입력들은 더 높은 활성화들이 결과로서 생기게 하고 멀리 떨어진 입력들은 더 낮은 활성화들이 결과로서 생기게 한다. RBF 네트워크의 각각의 출력 노드(j)는 BF 노드 활성화들의 선형 조합을 형성하고 중간층 및 출력층을 접속하는 네트워크는 선형이다:
(2)
여기서, zj는 jth출력 노드이고, yi는 ithBF 노드의 활성화이며, wij는 ithBF 노드를 jth출력 노드로 접속하는 가중치이고, woj는 jth출력 노드의 바이어스 또는 문턱값이다. 이 바이어스는 입력에 상관없이 일정한 단위 출력(constant unit output)을 가지는 BF 노드와 연관되는 가중치들로부터 나온다.
알려지지 않은 벡터 X는 최대 출력 zj를 가진 출력 노드 j와 연관된 등급에 속하는 것으로 분류된다. 이 선형 네트워크 기술 분야에서 가중치들 wij는 기울기 하락과 같은 반복의 최소화 방법들을 이용하여 해결되지 않는다. 그것들은 매트릭스 의사-반전 기법(matrix pseudoinverse technique)을 이용하여 빠르고 정확하게 결정된다.
바람직하게 이용된 RBF 분류자의 상세한 알고리즘 설명은 테이블들(1 및 2)에 도시되어 있다. RBF 네트워크의 처음 크기는 BF들의 수, F를 선택함으로써 결정된다. F의 적절한 값은 문제의 복잡성 및 형성될 결정 영역들의 차원성에 통상적으로 의존한다. 일반적으로, F는 다양한 F들을 시도함으로써 경험적으로 결정될 수 있거나, 문제의 입력 차원보다 일반적으로 큰 어떤 상수로 세팅될 수 있다.
F가 세팅된 후, BF들의 평균 벡터 μI및 분산 벡터 σI 2는 다양한 방법들을 이용하여 결정될 수 있다. 그것들은 백-프로퍼게이션 기울기 하락 기법을 이용하여 출력 가중치들과 함께 트레이닝될 수 있지만, 이것은 통상적으로 긴 트레이닝 시간이 요구되거나 차선의 국부적 최소 한도들에 이를 수 있다. 대안적으로, 평균들 및 분산들은 출력 가중치를 트레이닝하기 전에 결정될 수 있다. 네트워크들의 트레이닝은 가중치들을 결정하는 것만을 포함한다.
BF 센터들 및 분산들은 전형적으로 관심있는 공간을 포함하도록 선택된다. 서로 다른 기법들에는, 입력 공간을 샘플링하는 동일하게 이격된 BF들의 격자와, 각각의 등급이 표현되는 것을 확실히 하는, BF 센터들의 세트, 또는 BF 센터들처럼 트레이닝 세트로부터 랜덤 벡터들을 결정하기 위한 K-평균들(K-means)과 같은 클러스터링 알고리즘이 이용될 수 있다.
일단 BF 센터들 또는 평균들이 결정되면, BF 분산들 또는 폭들 σI 2이 세팅될 수 있다. 그것들은 어떤 전체적값에 고정될 수 있거나, BF 센터의 근처에서 데이터 벡터들의 밀도를 반영하도록 세팅될 수 있다. 부가하여, 분산들에 대한 전체적 비례 인자 H는 BF 폭들의 리스케일링(rescaling)을 위해 허용될 것을 포함한다. 양호한 실행의 결과로서 생기는 값들을 위해, H의 공간을 검색함으로써 그것의 적당한 값이 결정된다.
BF 파라미터들이 세팅된 후에, 다음 단계는 출력 가중치들을 트레이닝하는 것이다. 개개의 트레이닝 패턴들 X(p) 및 그들의 등급 라벨들 C(p)는 분류자에 제공되고, 결과로서 생긴 BF 노드 출력들 y1(p)이 계산된다. 이들 및 원하는 출력들 dj(p)는 그후 F x F 상관 매트릭스 R 및 F x M 출력 매트릭 B를 결정하는데 이용된다. 각각의 트레이닝 패턴은 하나의 R 및 B 매트릭스들을 생성함을 주의한다. 최종 R 및 B 매트릭스들은 N개의 개개의 R 및 B 매트릭스들의 합의 결과이며, N은 트래이닝 패턴들의 전체 수이다. 일단 모든 N개의 패턴들이 분류자에 제공되었으면, 출력 가중치들 wij가 결정된다. 최종 상관 매트릭스 R이 반전되고 각각의 wij를 결정하는데 이용된다.
테이블 1 : 바람직한 RBF 분류의 상세한 알고리즘 설명:
분류는 알려지지 않은 입력 벡터 Xtest를 트레이닝된 분류자에 제공하고 결과로서 생긴 BF 노드 출력들 yi을 계산함으로써 실행된다. 그다음, 이들 값들은 출력값들 zj를 계산하기 위해 가중치들 wij와 함께 이용된다. 그다음, Xtest는 최대 zj출력을 가진 출력 노드 j와 연관된 등급에 속하는 바와 같이 분류된다.
테이블 2 : 바람직한 RBF 분류의 상세한 알고리즘 설명:
1. 입력 패턴 Xtest를 분류자에 제공한다2. Xtest를 식별한다(a) 모든 F 베이시스 함수들에 대해, 베이시스 함수 출력들을 계산한다.(b) 출력 노드 활성화들을 계산한다.(c) 최대값을 가진 출력 zj를 선택하고 등급j로서 Xtest를 분류한다.
본 발명의 방법에 있어서, RBF 입력(300)은 1차원 벡터들로서 네트워크에 공급된 n개의 크기 정형화된 기울기 이미지들(비디오 이미지 데이터에서 검출된 이동 오브젝트들)로 구성된다. 숨겨진(관리되지 않은(unsupervised))층(310)은 개선된 K-평균들 클러스터링 절차를 구현하며, 가우시안 클러스터 노드들의 수 및 그들 분산들 둘다는 동적으로 세팅된다. 5개의 단계들에서, 클러스터들의 수는 트레이닝 이미지들의 수의 1/5에서 트레이닝 이미지들의 전체 수, n으로 변한다. 각각의 클러스터에 대한 가우시안의 폭은 오버랩 인자 o에 의해 곱해진 최대수, 여기서는 2로 세팅된다.{클러스터의 중앙과 멤버들로부터 가장 멀리 떨어진 사이의 거리 - 등급 직경이내, 클러스터의 중앙과 모든 다른 클러스터들로부터 가장 근접한 패턴 사이의 거리} 폭은 서로 다른 비례 상수들 h를 이용하여, 더욱 동적으로 정재된다(refined). 숨겨진층(310)은 등가의 함수 형태 베이스를 생성하며, 각 클러스터 노드는 형태 공간을 가로질러 어떤 공통된 특성들을 엔코딩한다. 출력(관리되는)층은 그러한 공간을 따라 형태 엔코딩들('확장들'(expansions))을 그들의 대응하는 ID 등급들로 맵핑하고, 의사-반전 기법들을 이용하여 대응하는 확장('가중치'(weight)) 계수들을 발견한다. 클러스터들의 수는, 동일한 트레이닝 이미지들이 테스트될 때 ID 분류에 대한 100% 정확성을 산출하는 구성(클러스터들의 수 및 특정 비례 상수 h)에 대해 고정된다(frozen).
마지막으로, 단계(114)에서, 특징들의 각각에 대한 분류 방법에 기초되어 각각의 이동 오브젝트에 대한 분류가 유도된다. 성공적인 접속 구조(connectionist architecture)를 위해, 이미지 획득 프로세스에서 이용 가능한 변화성에 대처해야 한다. 바람직하게는, 상기 문제에 대한 해결책으로, 래디얼 베이시스 함수들의 앙상블들(ERBF : ensembles of radial basis functions)을 이용하여 일치에 의한 질문의 등가(equivalent of query)를 구현하는 것이다. 여기서, 각각의 RBF 네트워크는 개개의 판단 멤버(jury member)로서 동작하며, 그후 어떤 결정에 집합적으로 도달한다. 네트워크 앙상블들은 그들의 특정 토폴로지(접속들 및 RBF 노드들) 또는 그들이 트레이닝하는 데이터에 의해 규정될 수 있다. 예에서와 같이, 도 2는 일치된 의견(208)이 형성되는 서로 다른 기울기 이미지들, 즉, x-기울기(204), y-기울기(202), 및 조합된 xy-기울기(206)에 대해 트레이닝된 다중 분류자들인, RBF1, RBF2, 및 RBF3을 포함하는 앙상블을 도시한 것이다.
각각의 분류자 RBF1, RBF2, 및 RBF3에 알려지지 않은 이미지(200)가 통과될 때, 바람직하게 두개의 값들을 출력하는데, 한 값은 등급 라벨(그 이미지(200)가 예를 들면, 사람, 동물, 또는 사물에 대응하는 등급)에 대응하고 다른 값은 알려지지 않은 이미지(200)가 표시된 등급에 속하는 확률을 나타내는 확률값이다.
도 2에 도시된 바와 같이, 본 발명의 분류 방법(100)의 바람직한 구현에 있어서, x-기울기들, y-기울기들, 및 조합된 xy-기울기들에 대해 각각 트레이닝된 세 개의 분류자들이 이용된다. 따라서, 세 개의 분류자들의 각각인 RBF1, RBF2, 및 RBF3은 알려지지 않은 이미지(200)가 그들에 통과될 때 세 개의 등급 라벨들 및 세 개의 확률값들이 주어진다.
추출된 특징들의 각각에 대한 등급 라벨들 및 확률값들로부터 알려지지 않은 이미지(200)에 대한 최종 분류를 결정하는 많은 방법이 있지만, 다음의 두가지 방법들이 그들의 단순화에 바람직하다.
(1) 모든 확률값들의 평균이 취해진다. 평균이 어떤 문턱값보다 큰 경우, 그것은 이미지(200)가 표시된 등급에 속하는 것으로 결정된다. 또는
(2) 투표 방식(voting scheme)이 이용된다. 대다수의 분류자들이 고려중에 알려지지 않은 이미지(200)에 대해 특정 등급에 일치하는 경우, 알려지지 않은 이미지(200)가 그 등급에 속하는 것으로 결정된다. 예를 들면, RBF1은 이미지(200)가 등급 1에 속하는 것을 나타내고, RBF2는 이미지(200)가 등급 2에 속하는 것을 나타내며, RBF3은 이미지(200)가 등급 1에 속하는 것을 나타내면, 등급 1은 세 개의 분류자들 중 2개가 일치하기 때문에 이미지(200)에 할당된다.
도 4를 참조하면, 본 발명의 분류 방법(100)을 실행하는 장치의 개략도가 도시되어 있다. 장치는 일반적으로 참조 부호(400)에 의해 참조된다. 장치(400)는 분류될 장면(404)의 비디오 이미지 데이터를 캡처링을 위해 적어도 하나의 비디오 카메라(402)를 포함한다. 비디오 카메라(402)는 바람직하게 장면(404)의 디지털 이미지 데이터를 캡처링하거나, 대안적으로 비디오 이미지 데이터를 디지털 포맷으로 변환하기 위한 아날로그 디지털 컨버터(도시되지 않음)를 더 포함한다. 디지털 비디오 이미지 데이터는 검출 시스템(406)에 입력되어 이동 오브젝트들을 검출한다. 이동 오브젝트 이미지 데이터를 분석하고(즉, 이미지 데이터에서 각각의 검출된 이동 오브젝트로부터 둘 또는 그 이상의 특징들을 추출함), 추출된 특징들의 각각에 대한 분류 분석을 실행할뿐만 아니라 검출된 이동 오브젝트들의 각각에 대한 일치된 의견을 유도하기 위해, 검출 시스템(406)에 의해 검출된 임의의 이동 오브젝트들은 바람직하게 개인 컴퓨터와 같은 프로세서(408)에 입력된다.
본 기술 분야의 숙련자들은 본 발명의 오브젝트 분류 방법들이 보안 시스템들, 바람직하게 가정 보안 시스템들의 영역에서 특정 유틸리티를 가지는 것을 인정할 것이다. 종래 기술 분야의 보안 시스템들은 트리거 경보들에 대해 전자기식 센서들을 이용한다. 그러한 시스템들이 가진 문제점은 다수의 거짓 경보들이 발생한다는 점이다. 경보가 발생할 때마다 신호는 전형적으로 중앙 모니터링 센터로 송신된다. 그후, 중앙 모니터링 센터는 경보가 거짓 경보인지를 확인하기 위해 가정으로 전화를 하거나 연락 번호로 전화를 한다. 그러한 확인이 이루어질 수 없는 경우, 중앙 모니터링 센터는 전형적으로 경보를 조사하기 위해 경찰에 연락을 취한다. 종종, 상당한 수의 경보들이 거짓 경보들이다. 통계는 발생된 경보들의 약 90%가 거짓 경보들임을 보여준다. 이러한 문제점을 해결하기 위해, 더 새로운 시스템들은 거짓 경보들을 감소시키도록 가정에서 카메라들을 설치하고 있다. 이들 시스템들에 있어서, 중앙 모니터링 센터에서 운용자는 시각 이미지를 얻지만, 때때로 오브젝트가 명확하지 않은 점에서 여전히 부가적 작업이 필요하다. 운용자에 대한 작업량을 경감하기 위한 대안적 방법은 오브젝트를 분류하고 분류된 오브젝트들의 이미지를 운용자에게 송신하는 것이다. 따라서 오브젝트가 애완동물로 분류되면, 운용자는 가정의 누군가나 연락자에게 전화하는 일없이 거짓 경보를 확인할 수 있다.
본 발명의 분류 방법(100)은 그 방법의 개개의 단계들에 대응하는 모듈들을 바람직하게 포함한 컴퓨터 소프트웨어 프로그램과 같은 컴퓨터 소프트웨어 프로그램에 의해 실행되기에 특히 적절하다. 그러한 소프트웨어는 주변 디바이스나 집적된 칩과 같은 컴퓨터-판독 가능한 매체에 당연히 구현될 수 있다.
도시되고 기술되어진 것들이 본 발명의 양호한 실시예들로 간주되지만, 이것은, 당연히 형태 또는 세부사항에서 다양한 변형들과 변화들이 본 발명의 정신에서 벗어나지 않고 쉽게 만들어질 수 있음을 알 수 있다. 따라서 본 발명이 기술되고 설명된 정확한 형태들에 제한되지 않으나 첨부된 청구항들의 범위내에 있는 모든 변형들을 포함하도록 구성되어야 하도록 의도한다.

Claims (19)

  1. 비디오 이미지 데이터에서 오브젝트들의 분류를 위한 방법에 있어서,
    - 상기 이미지 데이터에서 이동 오브젝트들을 검출하는 단계(104),
    - 상기 이미지 데이터에서 각각의 검출된 이동 오브젝트로부터 둘 또는 그 이상의 특징들을 추출하는 단계(110),
    - 상기 둘 또는 그 이상의 특징들의 각각에 대해 각각의 이동 오브젝트를 분류 방법에 따라 분류하는 단계(112), 및
    상기 둘 또는 그 이상의 특징들의 각각에 대해 상기 분류 방법에 기초하여 각각의 이동 오브젝트에 대한 분류를 유도하는 단계(114)를 포함하는 오브젝트들 분류 방법.
  2. 제 1 항에 있어서, 상기 검출 단계(104)는 상기 이미지 데이터로부터 배경 장면을 빼는 단계를 포함하는, 오브젝트들 분류 방법.
  3. 제 1 항에 있어서, 상기 검출된 이동 오브젝트들로부터 의도하지 않은 이동 오브젝트들을 필터링 해내는 단계(106)를 더 포함하는, 오브젝트들 분류 방법.
  4. 제 3 항에 있어서, 상기 필터링 단계(106)는 각각의 검출된 이동 오브젝트의 검출된 속도 및 종횡비에 따라 의도하지 않은 이동 오브젝트들을 필터링 해내는 단계를 포함하는, 오브젝트들 분류 방법.
  5. 제 1 항에 있어서, 상기 추출 단계(110)는 상기 검출된 이동 오브젝트들의 각각으로부터 x-기울기(204), y-기울기(202), 및 조합된 xy-기울기(206) 특징들 중 적어도 둘을 추출하는 단계를 포함하는, 오브젝트들 분류 방법.
  6. 제 5 항에 있어서, 노이즈의 영향들을 감소시키기 위해 상기 이미지 데이터를 평활화하는 단계(108)와, 그후 상기 추출 단계에 앞서 상기 이미지 데이터에 걸쳐 미분 연산자를 적용하는 단계를 더 포함하는, 오브젝트들 분류 방법.
  7. 제 1 항에 있어서, 상기 분류 단계(112)는 상기 둘 또는 그 이상의 특징들 각각에 대해 동일한 분류 방법을 이용하는 단계를 포함하는, 오브젝트들 분류 방법.
  8. 제 1 항에 있어서, 상기 분류 단계(112)는 적어도 둘 또는 그 이상의 특징들의 적어도 두개에 대해 적어도 두개의 서로 다른 분류 방법들을 이용하는 단계를 포함하는, 오브젝트들 분류 방법.
  9. 제 1 항에 있어서, 상기 분류 단계(112)는 적어도 하나의 상기 검출된 이동 오브젝트들을 트레이닝 및 분류하기 위해 래디얼 베이시스 함수 네트워크를 포함하는, 오브젝트들 분류 방법.
  10. 제 9 항에 있어서, 상기 트레이닝 단계는,
    (a) 상기 래디얼 베이시스 함수 네트워크를 초기화하는 단계로서,
    - 각각의 베이시스 함수 Ⅰ이 가우시안 비-선형성의 출력을 가지는 다수의 베이시스 함수들 F를 선택함으로써 네트워크 구조를 고정하는 단계,
    - K-평균들 클러스터링 알고리즘을 이용하여 상기 베이시스 함수 평균들 μ를 결정하는 단계로서, Ⅰ = 1, ..., F인, 상기 결정 단계,
    - 상기 베이시스 함수 분산들 σ 2을 결정하는 단계, 및
    - 경험적 검색에 의한 상기 베이시스 함수 분산들에 대해 전체적 비례 인자 H를 결정하는 단계를 포함하는, 상기 래디얼 베이시스 함수 네트워크 초기화 단계,
    (b) 상기 트레이닝 제공 단계로서,
    - 트레이닝 패턴들 X(p) 및 그들의 등급 라벨들 C(p)를 상기 분류 방법에 입력하는 단계로서, 패턴 인덱스는 p = 1, ..., N인, 상기 입력 단계,
    - 패턴 X(p)의 결과로서 생긴, 상기 베이시스 함수 노드들 y1(p)의 출력, F를 계산하는 단계,
    - 상기 베이시스 함수 출력들의 F x F 상관 매트릭스 R을 계산하는 단계, 및
    - F x M 출력 매트릭스 B를 계산하는 단계로서, dj는 원하는 출력이고 M은 출력 등급들의 수이며 j = 1, ..., M인, 상기 매트릭스 B 계산 단계를 포함하는 상기 트레이닝 제공 단계, 및
    (c) 가중치들을 결정하는 단계로서,
    - R-1을 얻기 위해 상기 F x F 상관 매트릭스 R을 반전하는 단계, 및
    - 상기 네트워크에서 상기 가중치들을 해결하는 단계를 포함하는 상기 가중치들 결정 단계를 포함하는, 오브젝트들 분류 방법.
  11. 제 10 항에 있어서, 상기 분류 단계(112)는,
    - 각각의 검출된 이동 오브젝트에 대해 상기 둘 또는 그 이상의 특징들 Xtest의 각각을 상기 분류 방법에 제공하는 단계, 및
    - 모든 F 베이시스 함수들에 대해, 상기 베이시스 함수 출력들을 계산하고,
    - 출력 노드 활성화들을 계산하며,
    - 최대값을 가진 상기 출력 zj를 선택하고 Xtest를 등급 j로 분류함으로써
    - 각각의 Xtest를 분류하는 단계를 포함하는, 오브젝트들 분류 방법.
  12. 제 1 항에 있어서, 상기 분류 단계(112)는 상기 둘 또는 그 이상의 특징들의 각각에 대해, 상기 검출된 이동 오브젝트가 대응하는 등급을 식별하는 등급 라벨과, 알려지지 않은 패턴이 상기 등급에 속하는 확률을 나타내는 확률값을 출력하는 단계를 포함하는, 오브젝트들 분류 방법.
  13. 제 12 항에 있어서, 상기 유도 단계(114)는 각각의 검출된 이동 오브젝트에 대해 상기 둘 또는 그 이상의 특징들에 대한 상기 확률값들을 평균하고 상기 평균이 문턱값보다 더 큰지를 결정하는 단계를 포함하는, 오브젝트들 분류 방법.
  14. 제 12 항에 있어서, 상기 유도 단계(114)는 유사한 등급으로 식별하는 대다수의 등급 라벨들이 존재하는지를 결정하는 단계를 포함하는, 오브젝트들 분류 방법.
  15. 비디오 이미지 데이터에서 오브젝트들(404)의 분류를 위한 장치에 있어서,
    - 상기 이미지 데이터에서 이동 오브젝트들을 검출하는 수단(402, 406),
    - 상기 이미지 데이터에서 각각의 검출된 이동 오브젝트로부터 둘 또는 그 이상의 특징들을 추출하는 수단(408),
    - 상기 둘 또는 그 이상의 특징들의 각각에 대해 각각의 이동 오브젝트를 분류 방법에 따라 분류하는 수단(408), 및
    - 상기 둘 또는 그 이상의 특징들의 각각에 대해 상기 분류 방법에 기초하여 각각의 이동 오브젝트에 대한 분류를 유도하는 단계(408)를 포함하는 오브젝트들(404) 분류 장치.
  16. 제 15 항에 있어서, 상기 검출된 이동 오브젝트들로부터 의도하지 않은 이동 오브젝트들을 필터링 해내는(408) 수단을 더 포함하는, 오브젝트들(404) 분류 장치.
  17. 제 15 항에 있어서, 상기 추출하는 수단(408)은 상기 검출된 이동 오브젝트들의 각각으로부터 x-기울기(204), y-기울기(202), 및 조합된 xy-기울기(206) 특징들 중 적어도 둘을 추출하고,
    상기 장치는, 노이즈의 영향들을 감소시키기 위해 상기 이미지 데이터를 평활화하고(408) 상기 추출에 앞서 상기 이미지 데이터에 걸쳐 미분 연산자를 적용하는 수단을 더 포함하는, 오브젝트들(404) 분류 장치.
  18. 기계 장치에 의해 실행 가능한 명령들의 프로그램을 실체적으로 포함하여 비디오 이미지 데이터에서 오브젝트들의 분류를 위한 방법 단계들을 실행하는, 상기 기계 장치에 의해 판독 가능한 프로그램 저장 디바이스에 있어서, 상기 방법은,
    - 상기 이미지 데이터에서 이동 오브젝트들을 검출하는 단계,
    - 상기 이미지 데이터에서 각각의 검출된 이동 오브젝트로부터 둘 또는 그 이상의 특징들을 추출하는 단계,
    - 상기 둘 또는 그 이상의 특징들의 각각에 대해 각각의 이동하는 오브젝트를 분류 방법에 따라 분류하는 단계, 및
    - 상기 둘 또는 그 이상의 특징들의 각각에 대해 상기 분류 방법에 기초하여 각각의 이동 오브젝트에 대한 분류를 유도하는 단계를 포함하는, 프로그램 저장 디바이스.
  19. 비디오 이미지 데이터에서 오브젝트들의 분류를 위한 컴퓨터 판독 가능한 매체에 포함된 컴퓨터 프로그램 제품에 있어서,
    - 상기 이미지 데이터에서 이동 오브젝트들을 검출하는 컴퓨터 판독 가능한 프로그램 코드 수단(computer readable program code means),
    - 상기 이미지 데이터에서 각각의 검출된 이동 오브젝트로부터 둘 또는 그 이상의 특징들을 추출하는 컴퓨터 판독 가능한 프로그램 코드 수단,
    - 상기 둘 또는 그 이상의 특징들에 대해 각각의 이동 오브젝트를 분류 방법에 따라 분류하는 컴퓨터 판독 가능한 프로그램 코드 수단, 및
    - 상기 둘 또는 그 이상의 특징들의 각각에 대해 상기 분류 방법에 기초하여 각각의 이동 오브젝트들에 대한 분류를 유도하는 컴퓨터 판독 가능한 프로그램 코드 수단을 포함하는 컴퓨터 프로그램 제품.
KR1020027014469A 2001-02-27 2002-02-13 모델 앙상블들을 통한 오브젝트들의 분류 KR20020093092A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/794,443 2001-02-27
US09/794,443 US6778705B2 (en) 2001-02-27 2001-02-27 Classification of objects through model ensembles
PCT/IB2002/000425 WO2002069267A2 (en) 2001-02-27 2002-02-13 Classification of objects through model ensembles

Publications (1)

Publication Number Publication Date
KR20020093092A true KR20020093092A (ko) 2002-12-12

Family

ID=25162631

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020027014469A KR20020093092A (ko) 2001-02-27 2002-02-13 모델 앙상블들을 통한 오브젝트들의 분류

Country Status (6)

Country Link
US (1) US6778705B2 (ko)
EP (1) EP1421557A2 (ko)
JP (1) JP2004523840A (ko)
KR (1) KR20020093092A (ko)
CN (1) CN1561503A (ko)
WO (1) WO2002069267A2 (ko)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7043075B2 (en) * 2001-09-27 2006-05-09 Koninklijke Philips Electronics N.V. Computer vision system and method employing hierarchical object classification scheme
US20030063781A1 (en) * 2001-09-28 2003-04-03 Koninklijke Philips Electronics N.V. Face recognition from a temporal sequence of face images
US7308133B2 (en) * 2001-09-28 2007-12-11 Koninklijke Philips Elecyronics N.V. System and method of face recognition using proportions of learned model
US7020336B2 (en) * 2001-11-13 2006-03-28 Koninklijke Philips Electronics N.V. Identification and evaluation of audience exposure to logos in a broadcast event
JP2003228706A (ja) * 2002-02-05 2003-08-15 Fuji Xerox Co Ltd データ分類装置
JP2003256443A (ja) * 2002-03-05 2003-09-12 Fuji Xerox Co Ltd データ分類装置
US7181062B2 (en) * 2002-08-30 2007-02-20 Lockheed Martin Corporation Modular classification architecture for a pattern recognition application
US7801361B2 (en) * 2002-10-15 2010-09-21 Definiens Ag Analyzing pixel data using image, thematic and object layers of a computer-implemented network structure
US8594410B2 (en) 2006-08-28 2013-11-26 Definiens Ag Context driven image mining to generate image-based biomarkers
US7873223B2 (en) * 2002-10-15 2011-01-18 Definiens Ag Cognition integrator and language
WO2004055715A1 (en) * 2002-12-13 2004-07-01 Koninklijke Philips Electronics N.V. Expression invariant face recognition
US7212651B2 (en) * 2003-06-17 2007-05-01 Mitsubishi Electric Research Laboratories, Inc. Detecting pedestrians using patterns of motion and appearance in videos
ITMI20031449A1 (it) * 2003-07-15 2005-01-16 St Microelectronics Srl Metodo per classificare una immagine digitale
US20050058350A1 (en) * 2003-09-15 2005-03-17 Lockheed Martin Corporation System and method for object identification
US7599530B2 (en) * 2003-10-01 2009-10-06 Authentec, Inc. Methods for matching ridge orientation characteristic maps and associated finger biometric sensor
US8200477B2 (en) * 2003-10-22 2012-06-12 International Business Machines Corporation Method and system for extracting opinions from text documents
US7710452B1 (en) 2005-03-16 2010-05-04 Eric Lindberg Remote video monitoring of non-urban outdoor sites
ITBG20050013A1 (it) * 2005-03-24 2006-09-25 Celin Technology Innovation Srl Metodo per il riconoscimento tra un primo oggetto ed un secondo oggetto rappresentati da immagini.
US20070058836A1 (en) * 2005-09-15 2007-03-15 Honeywell International Inc. Object classification in video data
WO2007051118A2 (en) 2005-10-25 2007-05-03 Nxstage Medical, Inc Safety features for medical devices requiring assistance and supervision
US7728839B2 (en) * 2005-10-28 2010-06-01 Honda Motor Co., Ltd. Discriminative motion modeling for human motion tracking
US20070160123A1 (en) * 2006-01-11 2007-07-12 Gillespie Richard P System for isolating an object in a broadcast signal
US20080123959A1 (en) * 2006-06-26 2008-05-29 Ratner Edward R Computer-implemented method for automated object recognition and classification in scenes using segment-based object extraction
US20080112593A1 (en) * 2006-11-03 2008-05-15 Ratner Edward R Automated method and apparatus for robust image object recognition and/or classification using multiple temporal views
US8195734B1 (en) 2006-11-27 2012-06-05 The Research Foundation Of State University Of New York Combining multiple clusterings by soft correspondence
US8989468B2 (en) * 2007-05-25 2015-03-24 Definiens Ag Generating an anatomical model using a rule-based segmentation and classification process
CN101079109B (zh) * 2007-06-26 2011-11-30 北京中星微电子有限公司 基于制服特征的身份识别方法和系统
WO2009006605A2 (en) 2007-07-03 2009-01-08 Pivotal Vision, Llc Motion-validating remote monitoring system
US8737703B2 (en) * 2008-01-16 2014-05-27 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting retinal abnormalities
US8718363B2 (en) * 2008-01-16 2014-05-06 The Charles Stark Draper Laboratory, Inc. Systems and methods for analyzing image data using adaptive neighborhooding
US8150169B2 (en) * 2008-09-16 2012-04-03 Viewdle Inc. System and method for object clustering and identification in video
DE102008043954A1 (de) * 2008-11-21 2010-05-27 Robert Bosch Gmbh Sensornetzwerksystem, Übertragunsprotokoll, Verfahren zum Wiedererkennen eines Objekts sowie Computerprogramm
KR101268520B1 (ko) * 2009-12-14 2013-06-04 한국전자통신연구원 영상 인식 장치 및 방법
CN101908153B (zh) * 2010-08-21 2012-11-21 上海交通大学 低分辨率图像处理中的头部姿态估计的方法
KR101425170B1 (ko) * 2010-11-16 2014-08-04 한국전자통신연구원 영상 촬영 장치의 객체 추적 장치 및 방법과 보안 관리 시스템의 객체 추적 장치
CN103108151A (zh) * 2011-11-09 2013-05-15 华为技术有限公司 视频监控的方法和系统
CN102521565B (zh) * 2011-11-23 2014-02-26 浙江晨鹰科技有限公司 低分辨率视频的服装识别方法及系统
US8917934B2 (en) 2012-06-14 2014-12-23 International Business Machines Corporation Multi-cue object detection and analysis
KR20150031985A (ko) * 2013-09-17 2015-03-25 한국전자통신연구원 모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법
CN104217216B (zh) * 2014-09-01 2017-10-17 华为技术有限公司 生成检测模型的方法和设备、用于检测目标的方法和设备
CN104361363B (zh) * 2014-11-25 2018-01-16 中国科学院自动化研究所 深度反卷积特征学习网络、生成方法及图像分类方法
US10332028B2 (en) * 2015-08-25 2019-06-25 Qualcomm Incorporated Method for improving performance of a trained machine learning model
CN106650806B (zh) * 2016-12-16 2019-07-26 北京大学深圳研究生院 一种用于行人检测的协同式深度网络模型方法
CN107085704A (zh) * 2017-03-27 2017-08-22 杭州电子科技大学 基于elm自编码算法的快速人脸表情识别方法
CN108178037A (zh) * 2017-12-30 2018-06-19 武汉大学 一种基于卷积神经网络的电梯故障识别方法
CN110276411B (zh) * 2019-06-28 2022-11-18 腾讯科技(深圳)有限公司 图像分类方法、装置、设备、存储介质和医疗电子设备
CN111784709B (zh) * 2020-07-07 2023-02-17 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备和计算机可读介质
CN111625672B (zh) * 2020-07-30 2020-10-30 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2953712B2 (ja) * 1989-09-27 1999-09-27 株式会社東芝 移動物体検知装置
GB2266638B (en) * 1992-04-01 1996-09-25 Kenneth Stanley Jones Multiple visual display from motion classifications for digital TV
KR100213015B1 (ko) * 1994-03-31 1999-08-02 윤종용 양자화 방법 및 회로
JP3569992B2 (ja) * 1995-02-17 2004-09-29 株式会社日立製作所 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム
US5854856A (en) * 1995-07-19 1998-12-29 Carnegie Mellon University Content based video compression system
US6263088B1 (en) * 1997-06-19 2001-07-17 Ncr Corporation System and method for tracking movement of objects in a scene
JP3141004B2 (ja) * 1998-08-31 2001-03-05 インターナショナル・ビジネス・マシーンズ・コーポレ−ション 動画中のオブジェクトを分類する方法
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis

Also Published As

Publication number Publication date
WO2002069267A2 (en) 2002-09-06
US6778705B2 (en) 2004-08-17
EP1421557A2 (en) 2004-05-26
CN1561503A (zh) 2005-01-05
WO2002069267A3 (en) 2004-02-05
JP2004523840A (ja) 2004-08-05
US20020181785A1 (en) 2002-12-05

Similar Documents

Publication Publication Date Title
US6778705B2 (en) Classification of objects through model ensembles
Hashemzadeh et al. Fire detection for video surveillance applications using ICA K-medoids-based color model and efficient spatio-temporal visual features
Sehairi et al. Comparative study of motion detection methods for video surveillance systems
Heikkila et al. A texture-based method for modeling the background and detecting moving objects
Vishwakarma et al. Hybrid classifier based human activity recognition using the silhouette and cells
Nguyen et al. Gaussian-mixture-model-based spatial neighborhood relationships for pixel labeling problem
Ryan et al. Scene invariant multi camera crowd counting
Khan et al. Situation recognition using image moments and recurrent neural networks
Gurwicz et al. Multiclass object classification for real-time video surveillance systems
CN104063719A (zh) 基于深度卷积网络的行人检测方法及装置
JP2004361987A (ja) 画像検索システム、画像分類システム、画像検索プログラム及び画像分類プログラム、並びに画像検索方法及び画像分類方法
JP2006012174A (ja) ビデオ中の異常事象を検出する方法
Kobayashi et al. Three-way auto-correlation approach to motion recognition
WO2007044037A1 (en) Robust perceptual color identification
Ciampi et al. Counting Vehicles with Cameras.
CN109271932A (zh) 基于颜色匹配的行人再识别方法
Hussein et al. A comprehensive evaluation framework and a comparative study for human detectors
CN112464730A (zh) 一种基于域无关前景特征学习的行人再识别方法
Djerida et al. Background subtraction in dynamic scenes using the dynamic principal component analysis
WO2018173848A1 (ja) オブジェクト追跡システム、インテリジェント撮像装置、オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び記憶媒体
Pohudina et al. Method for identifying and counting objects
Vijayan et al. Contextual background modeling using deep convolutional neural network
Thangaraj et al. A competent frame work for efficient object detection, tracking and classification
Dai et al. Retracted: efficient object analysis by leveraging deeply-trained object proposals prediction model
Kaur et al. A survey of image processing technique for wheat disease detection

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid