KR101492180B1 - 비디오 분석 - Google Patents

비디오 분석 Download PDF

Info

Publication number
KR101492180B1
KR101492180B1 KR20130052108A KR20130052108A KR101492180B1 KR 101492180 B1 KR101492180 B1 KR 101492180B1 KR 20130052108 A KR20130052108 A KR 20130052108A KR 20130052108 A KR20130052108 A KR 20130052108A KR 101492180 B1 KR101492180 B1 KR 101492180B1
Authority
KR
South Korea
Prior art keywords
image
sequence
image frames
mask
masks
Prior art date
Application number
KR20130052108A
Other languages
English (en)
Other versions
KR20130125336A (ko
Inventor
프레드릭 후고손
Original Assignee
엑시스 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엑시스 에이비 filed Critical 엑시스 에이비
Publication of KR20130125336A publication Critical patent/KR20130125336A/ko
Application granted granted Critical
Publication of KR101492180B1 publication Critical patent/KR101492180B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

감시 카메라(100)에 의해서 획득된 이미지들에서 객체들을 분석하기 위한 방법(104) 및 객체 분석기(100)는 제 1 및 제 2 이미지 프레임들의 시퀀스를 이용한다. 여기서 제 1 이미지 프레임은 제 1 이미지 영역(300)을 커버하면서 제 1 이미지 해상도를 가지며, 그리고 상기 제 2 이미지 프레임들의 시퀀스는 상기 제 1 이미지 영역(300)에 위치하는 제 2 이미지 영역(3020)을 커버하면서 상기 제 1 이미지 해상도보다 더 높은 제 2 이미지 해상도를 가진다. 객체 마스크의 공통 세트가 제공되고, 여기서 두 이미지 영역들 모두에 존재함으로써 식별되는 객체들(304)의 객체 마스크들은 병합된다.

Description

비디오 분석{VIDEO ANALYSIS}
본 발명은 비디오 분석을 위한 방법 및 디바이스에 관한 것이다.
이미지 프로세싱은 예를 들어, 감시 환경 내에 존재하는 객체들을 검출 및 추적하기 위한 감시 카메라들에 일반적으로 이용된다. 객체 검출 및 추적이 실행되는 경우, 장면 묘사(scene description)는 감시된 장면 내에 존재하는 객체들과 관련된 소위 메타 데이터(meta data)를 포함하여 종종 제공된다. 이러한 메타 데이터는 객체들의 서로 다른 묘사적 특성들(descriptive features)을 포함할 수 있으며, 장면 및 장면 내에 존재하는 객체들의 실제 이미지 데이터 대신에 혹은 여기에 추가하여 이용될 수 있다.
카메라로부터의 이미지 데이터의 정밀도(detail level)에 따라, 메타 데이터의 서로 다른 유형들이 추출될 수 있다. 예로서, 높은 해상도를 갖는 이미지 데이터에 대해서 자동차의 유형과 같은 메타 데이터가 이용될 수 있는 반면, 더 낮은 해상도를 갖는 이미지 데이터에 대해서는, 오직 객체가 차량이라는 정보만이 추출될 수 있다. 객체들의 검출 및 분석에는 많은 어려운 점이 있고, 이러한 분야에서 개선이 필요하다.
본 발명의 목적은 감시 카메라(monitoring camera)에 의해 획득된 장면(scene)에서 객체들의 이미지 분석 및 추적을 개선시키는 것이다.
이런 목적 및 다른 목적들은, 청구항 제1항에 따른 감시 카메라에 의해 획득된 이미지들에서 객체들을 분석하는 방법에 의해서 성취되고, 아울러 감시 카메라에 의해 획득된 이미지들에서 객체들을 분석하기 위한 객체 분석기를 통해서 성취된다. 본 발명의 다른 실시예들이 종속 청구항들에서 제공된다.
더 구체적으로는, 감시 카메라에 의해 획득된 이미지들에서 객체들을 분석하는 방법이 제공되며, 이 방법은,
제 1 이미지 해상도를 가지며 제 1 이미지 영역을 커버(cover)하는 제 1 이미지 프레임들의 시퀀스(sequence of image frames)를 수신하는 단계와,
상기 제 1 이미지 해상도보다 더 높은 제 2 이미지 해상도를 가지며 상기 제 1 이미지 영역의 일부분인 제 2 이미지 영역을 커버하는 제 2 이미지 프레임들의 시퀀스를 수신하는 단계와,
상기 제 1 이미지 프레임들의 시퀀스에 존재하는 객체들을 검출하는 단계와,
상기 제 2 이미지 프레임들의 시퀀스에 존재하는 객체들을 검출하는 단계와,
상기 제 1 이미지 프레임들의 시퀀스에서 검출된 객체들에 대한 제 1 객체 마스크들의 세트(set of object masks)를 제공하는 단계와,
상기 제 2 이미지 프레임들의 시퀀스에서 검출된 객체들에 대한 제 2 객체 마스크들의 세트를 제공하는 단계와,
상기 제 2 객체 마스크들의 세트 내의 제 2 객체 마스크와 적어도 부분적으로 중첩하는 상기 제 1 객체 마스크들의 세트 내의 제 1 객체 마스크를 식별함으로써 상기 제 1 이미지 프레임들의 시퀀스 및 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 객체를 식별하는 단계와,
상기 제 1 이미지 영역에만 존재하는 부분들(parts)에 대한 상기 제 1 객체 마스크로부터의 데이터, 그리고 상기 제 2 이미지 영역에 존재하는 부분들에 대한 상기 제 2 객체 마스크로부터의 데이터를 포함시킴으로써 상기 제 1 객체 마스크 및 상기 제 2 객체 마스크를 제 3 객체 마스크에 병합하는 단계와, 그리고
제 3 객체 마스크들의 세트를 제공하는 단계를 포함하며,
여기서, 상기 제 3 객체 마스크들의 세트는,
상기 제 1 객체 마스크를 제외한 상기 제 1 객체 마스크들의 세트와,
상기 제 2 객체 마스크를 제외한 상기 제 2 객체 마스크들의 세트와, 그리고
상기 제 3 객체 마스크를 포함한다.
이것은 두 이미지 프레임들의 시퀀스들 모두에 대한 하나의 공통 장면 묘사(common scene description)의 제공을 가능하게 하며, 여기서 두 시퀀스들 모두에 나타나는 객체들은 두 이미지 프레임들의 시퀀스들 모두로부터 조합된 메타 데이터와 관련될 수 있다. 하나의 동일한 객체는 장면 묘사에서 오직 한번 표시되며, 오직 하나의 장면 묘사만이 감시 카메라로부터의 자료(material)의 다른 프로세싱에서 이용되는바, 결과적으로 이것은 또한, 대역폭을 절약할 수 있으며 그리고 분석될 데이터량을 감소시킬 것이다. 또한, 이것은 장면에 걸쳐 이동하는 객체를 추적하는 능력을 개선시킨다.
제 2 이미지 영역(여기서, 이미지 프레임들이 더 높은 해상도를 가짐)에 존재하는 식별된 객체의 부분들을 표시하는 제 3 객체 마스크의 그러한 부분들은, 객체 마스크의 나머지 부분들보다 더 정밀(detail)하게 될 것이다. 비록 제 3 객체 마스크의 부분들만이 더 높은 정밀도를 갖지만, 이러한 객체 마스크의 분석은 훨씬 더 용이할 수 있다(인간의 절반에 해당하는 마스크가 인간으로서 매우 쉽게 인식될 수 있으며 그외 것으로 인식되지는 않음).
상기 객체들을 검출하는 단계들은,
상기 제 1 이미지 프레임들의 시퀀스 및 상기 제 2 이미지 프레임들의 시퀀스를 배경 모델(background model)을 표시하는 이미지 데이터와 비교하는 단계와,
이미지 프레임을 각각의 이미지 프레임들의 시퀀스에서 이전에 획득된 이미지 프레임과 비교하는 단계와, 그리고
얼굴 인식과 같은 패턴 인식을 수행하는 단계 중 하나 이상을 포함할 수 있다.
상기 방법은, 상기 제 1 이미지 프레임들의 시퀀스에만 존재하는 상기 제 3 객체 마스크의 부분들에 대한 상기 제 1 이미지 프레임들의 시퀀스로부터의 이미지 데이터, 그리고 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 상기 제 3 객체 마스크의 부분들에 대한 상기 제 2 이미지 프레임들의 시퀀스로부터의 이미지 데이터를 포함시킴으로써 상기 식별된 객체의 객체 묘사(object description)를 구성(compose)하는 단계를 더 포함할 수 있다. 이러한 방식으로, 다른 부분들보다 어떤 부분들에서 더 정밀한 객체 묘사(하지만 감시 장면을 분석하는 경우는 훨씬 더 더움이 되는 객체 묘사)가 제공된다.
더 상세하게는, 상기 객체 묘사를 구성하는 단계는, 상기 제 1 이미지 프레임들의 시퀀스로부터 상기 제 1 이미지 프레임들의 시퀀스에 존재하는 객체의 부분들의 제 1 비트맵 표시(bitmap representation)를 준비하는 단계와, 상기 제 2 이미지 프레임들의 시퀀스로부터 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 객체의 부분들의 제 2 비트맵 표시를 제공하는 단계와, 그리고 상기 제 1 비트맵 표시를 상기 제 2 이미지 해상도로 스케일링(scaling)하여 상기 제 1 비트맵 표시와 상기 제 2 비트맵 표시를 조합함으로써 제 3 비트맵 표시를 제공하는 단계를 포함할 수 있다. 이것은 예를 들어, 제 1 비트맵 표시 내에 비트맵 요소(bitmap element)들을 복제(duplicating)하는 것을 포함할 수 있다.
그 다음에, 객체의 벡터 표시(vector representation)가 상기 제 3 비트맵 표시에 기초하여 제공될 수 있다.
본 발명의 다른 실시예에 따르면, 감시 카메라에 의해 획득된 이미지들에서 객체들을 분석하기 위한 객체 분석기가 제공되며, 상기 객체 분석기는,
제 1 이미지 해상도를 가지며 제 1 이미지 영역을 커버하는 제 1 이미지 프레임들의 시퀀스, 그리고 상기 제 1 이미지 해상도보다 더 높은 제 2 이미지 해상도를 가지며 상기 제 1 이미지 영역의 일부분인 제 2 이미지 영역을 커버하는 제 2 이미지 프레임들의 시퀀스를 수신하도록 구성된 이미지 데이터 입력과,
상기 제 1 이미지 프레임들의 시퀀스에 존재하는 객체들, 그리고 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 객체들을 검출하도록 구성된 객체 검출기와,
상기 제 1 이미지 프레임들의 시퀀스에서 검출된 객체들에 대한 제 1 객체 마스크들의 세트, 그리고 상기 제 2 이미지 프레임들의 시퀀스에서 검출된 객체들에 대한 제 2 객체 마스크들의 세트를 제공하도록 구성된 제 1 객체 마스크 세트 제공기(object mask set provider)와,
상기 제 2 객체 마스크들의 세트 내의 제 2 객체 마스크와 적어도 부분적으로 중첩하는 상기 제 1 객체 마스크들의 세트 내의 제 1 객체 마스크를 식별함으로써 상기 제 1 이미지 프레임들의 시퀀스 및 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 객체를 식별하도록 구성된 객체 식별기와,
상기 제 1 이미지 영역에만 존재하는 부분들에 대한 상기 제 1 객체 마스크로부터의 데이터, 그리고 상기 제 2 이미지 영역에 존재하는 부분들에 대한 상기 제 2 객체 마스크로부터의 데이터를 포함시킴으로써 상기 제 1 객체 마스크 및 상기 제 2 객체 마스크를 제 3 객체 마스크에 병합하도록 구성된 객체 마스크 병합기와, 그리고
제 3 객체 마스크들의 세트를 제공하도록 구성된 제 2 객체 마스크 세트 제공기를 포함하며,
상기 제 3 객체 마스크들의 세트는,
상기 제 1 객체 마스크를 제외한 상기 제 1 객체 마스크들의 세트와,
상기 제 2 객체 마스크를 제외한 상기 제 2 객체 마스크들의 세트와, 그리고
상기 제 3 객체 마스크를 포함한다.
본 발명의 적용가능한 다른 범위는 하기의 상세한 설명으로부터 명확해질 것이다. 그러나 본 발명의 권리범위 내에서의 다양한 변경들과 수정들은 이러한 상세한 설명으로부터 당업자들에게는 자명한 것이므로, 비록 본 발명의 바람직한 실시예들을 제시한다고 하더라도 상세한 설명 및 특정한 예들은 오직 이해를 돕기 위한 방법으로서 제공되는 것으로 이해해야 할 것이다. 그런 이유로, 디바이스 및 방법이 변동될 수 있기 때문에, 본 발명이 기술된 디바이스 또는 기술된 방법들의 특정 컴포넌트 부분들로 한정되는 것이 아님을 이해해야 할 것이다. 또한, 여기서 사용된 기술용어는 오직 특정 실시예들을 설명하기 위한 목적을 위한 것이며 이에 한정하고자 의도된 것이 아님을 이해해야 할 것이다. 상세한 설명 및 첨부된 청구항에 사용된 것처럼, "하나", "한 개", "그" 및 "상기"와 같은 용어들은 달리 명백한 문구로 기술되지 않는 한, 하나 이상의 요소들이 있음을 의미하도록 의도된 것임을 유의해야만 한다. 따라서 예를 들어, "센서" 또는 "상기 센서"와 같은 기재는 수 개의 센서들 등을 포함할 수 있다. 더욱이, "포함한다"라는 단어는 다른 요소들 또는 단계들을 배제하는 것이 아니다.
본 발명의 다른 특징들과 장점들은, 첨부되는 도면과 연계되어 다음에 제시되는 본 발명의 바람직한 실시예들의 상세한 설명으로부터 명백하게 될 것이다.
도 1은 감시 카메라를 개략적으로 도시한다.
도 2는 본 발명의 실시예들에 따른 방법을 도시한다.
도 3은 상기 감시 카메라에 의해 감시되는 이미지 영역들을 도시한다.
본 발명의 실시예들은, 장면의 비디오를 획득하는 이미지 디바이스, 예를 들어, 기계적으로 또는 수치적으로 이동 및 기울이는 것이 가능한 감시 카메라(mechanically or digitally pan- and tiltable monitoring camera)(100)(그 컴포넌트들이 도 1에 도시됨)에서 구현될 수 있다. 대안적으로, 본 발명은 객체들의 추적을 유지하기 위한 기능들을 구현하는 임의의 디바이스에서, 예를 들어, 비디오 인코딩 디바이스, 비디오 서버, 비디오 프로세싱 디바이스 등에서, 구현될 수 있다. 더욱이, 객체 분석기의 서로 다른 컴포넌트들은 소프트웨어로 또는 하드웨어로, 또는 이들의 조합으로 구현될 수 있음을 유의해야 한다.
카메라(100)는 이미지 프레임들의 시퀀스들의 형식으로, 장면의 이미지들을 획득하도록 구성된 이미지 획득 수단(102)을 포함한다. 이미지 획득 수단(102)은 이미지 데이터를 기록(register)하기 위한 이미지 센서(103)를 포함하며, 도면에서 도시되지 않은 다수의 종래 컴포넌트들을 더 포함할 수 있는바, 이러한 컴포넌트들에는, 렌즈와, 이미지 센서(103)에 의해 기록된 이미지 데이터를 처리하기 위한 이미지 프로세서, 그리고 처리된 이미지 데이터를 저장하기 위한 RAM(Random Access Memory), 하드디스크 드라이브, 또는 플래시 메모리 등과 같은 임의의 적절한 유형의 메모리와 같은 것이 있다.
이미지 프레임들의 시퀀스 형태의 이미지 데이터는 이미지 데이터 입력(106)을 통해 객체 분석기(104)에 제공된다. 특히, 도 3에도 도시된 바와 같이, 객체 분석기(104)는, 확대하지 않은 제 1 이미지 영역(300)을 커버하는 제 1 이미지 프레임들의 시퀀스, 그리고 제 1 이미지 영역(300)의 일부인 확대된 제 2 이미지 영역(302)을 커버하는 제 2 이미지 프레임들의 시퀀스를 수신한다. 제 1 이미지 영역(300)에 대한 이미지 프레임들은 제 2 이미지 영역(302)에 대한 이미지 프레임들보다 더 낮은 정밀도를 가지는바, 즉, 제 1 이미지 프레임들의 시퀀스는 제 2 이미지 프레임들의 시퀀스보다 더 낮은 이미지 해상도를 가진다. 더 높은 해상도로 다른 이미지 프레임들의 시퀀스들에 표시되는 이용가능한 수개의 이러한 제 2 이미지 영역들이 있을 수 있으며, 여기에 기술되는 방법 및 디바이스는 이러한 경우에도 사용되도록 또한 쉽게 구성됨에 유의해야 한다. 이하에서는, 특정 경우의 두 이미지들의 시퀀스들이 설명되지만, 수개의 다른 이미지 스트림들로 용이하게 확장될 수 있다.
두 이미지 프레임들의 시퀀스들은 예를 들어, 높은 해상도를 갖는 확대된 제 2 이미지 영역(302)의 이미지들 및 더 낮은 해상도를 갖는 축소된 제 1 영역(300)의 이미지들을 교대로(alternatingly) 획득하도록 구성된 이미지 획득 디바이스 내의 이미지 센서에 의해서, 서로 다른 방법들로 성취될 수 있다. 다른 대안은, 두 이미지 프레임들의 시퀀스들을 성취하기 위해, 이미지 센서에 의해 획득된 이미지 데이터에 관해 (전형적으로 다운샘플링(downsampling)을 포함하는) 이미지 획득 디바이스에서의 적절한 이미지 처리를 수행하는 것이다.
두 이미지 프레임의 시퀀스들 또는 스트림들이 이미지 데이터 입력(106)을 통해 객체 분석기(104)에 의해 수신된 경우, 객체 검출기(108)에 의해서 두 이미지 스트림들에서 객체들이 검출된다. 이러한 객체 검출은 잘 알려진 수개의 서로 다른 방법들(이것은 본 명세서에서 상세하게 기술되지 않음)을 이용함으로써 수행될 수 있다. 하나의 예는, 얼굴 인식과 같은 여러 형태의 패턴 인식을 위한 알고리즘들을 이용하는 것이다. 또 다른 예는, 배경 모델에서 이미지 데이터와의 비교를 수행하는 것이다. 이러한 배경 모델은 두 이미지 영역들 모두에 대해 이용되는 단일 배경 모델일 수 있거나, 또는 서로 다른 이미지 영역들에 대해 별개의 배경 모델들을 포함할 수 있다. 배경 모델은 일반적으로 해당 이미지 영역에 대한 이미지들의 시퀀스 형태로 히스토리 데이터(historical data)를 축적함으로써 제공된다. 객체 검출의 다른 예는, 움직이는 객체가 존재함을 나타내는 프레임들 간의 차이들을 검출하기 위해 이미지 프레임이 이전 이미지 프레임과 비교되는 경우이다. 이것은 또한, 배경 모델과의 비교의 특별한 경우로서 고려될 수 있는바, 여기서 히스토리는 오직 하나의 이전 이미지만을 포함한다.
객체 분석기(104)는 또한, 제 1 이미지 프레임들의 시퀀스 및 제 2 이미지 프레임들의 시퀀스에서 객체 검출기(108)에 의해 검출된 객체들에 대한 제 1 객체 마스크 세트 및 제 2 객체 마스크의 세트들을 각각 제공하도록 구성된 제 1 객체 마스크 세트 제공기(110)를 포함한다. 객체 마스크는, 객체가 존재하는, 이미지 요소들, 예를 들어, 블랙 이미지 요소(black image element)들을 포함하는 이미지에서 객체의 그래픽 묘사(graphical description)로서 정의될 수 있다. 창문들이 열려진 자동차의 경우 일어날 수 있는 바와 같이, 객체가 자신의 바깥 경계선에서 비어 있는 영역들을 갖는 경우, 객체 마스크는 그러한 영역들에 대해 비어있는(예컨대, 비-블랙(non-black)) 이미지 요소들을 포함할 수 있다.
두 객체 마스크 세트들은 두 개의 서로 다른 장면 묘사들의 출발점을 나타내며, 각각의 세트에서 객체 마스크들 각각과 관련된 서로 다른 유형의 메타 데이터를 포함하도록 더 정교(elaborate)하게 될 수 있다. 하지만, 본 발명자들이 실현한 바와 같이, 이러한 객체 마스크들의 세트들에서, 두 이미지 영역들(300 및 302) 모두에 나타나는 객체(304)는 제 1 세트 내의 하나의 객체 마스크 및 제 2 세트 내의 또 다른 하나의 객체 마스크에 의해서 표시될 것이다. 따라서, 본 명세서에서 기술되는 방법의 목적들을 달성하기 위해서, 이들 두 객체 마스크 세트들은 하기에 따른 최종 객체 마스크 세트를 제공하기 위한 기초로서 이용되는 임시 객체 마스크 세트들로서 보여질 수 있다.
본 명세서에서 설명되는 본 발명의 방법 및 디바이스에 따르면, 하나의 동일한 객체를 표시할 것으로 여겨지는 객체 마스크들은 병합되며, 두 이미지 스트림들의 시퀀스들 모두로부터의 데이터를 포함하는 하나의 공통 장면 묘사가 구성된다. 더 구체적으로, 객체 식별기(112)는, 중첩하는 객체 마스크들 즉, 적어도 일부 부분들에서, 두 객체 마스크들의 세트들 모두에서 동일한 좌표를 갖는 객체 마스크들을 식별함으로써, 두 이미지 프레임들의 시퀀스들 모두에 존재하는 (하나 이상의) 객체들을 식별하도록 객체 분석기(104) 내에 구성된다.
그 다음에, 중첩하는 객체 마스크들은 객체 마스크 병합기(114)에 의해 병합되는바, 객체 마스크 병합기(114)는, 오직 제 1 이미지 영역에만 존재하는 부분들에 대한 제 1 객체 마스크로부터의 데이터 그리고 제 2 이미지 영역에 존재하는 부분들에 대한 제 2 객체 마스크로부터의 데이터를 포함시킴으로써(이것이 의미하는 바는, 제 2 세트로부터의 더 정밀한 객체 마스크 데이터는 이와 같이 이용가능한 경우에 사용되며, 제 1 세트로부터의 덜 정밀한 데이터는 객체 마스크의 나머지 부분에 대해 사용된다는 것임), 동일한 객체를 표시하는 것으로서 식별된 객체 마스크들을 병합한다.
그 다음에, 최종 제 3 객체 마스크들의 세트가 제 2 객체 마스크 세트 제공기(116)에 의해 제공된다. 제 3 객체 마스크들의 세트는, 병합된 객체 마스크 또는 마스크들(두 이미지 프레임들의 시퀀스들 모두에 존재하는 하나 이상의 객체가 있는 경우), 그리고 제 1 객체 마스크들의 세트로부터의 나머지 객체 마스크들을 포함한다. 일반적으로, 제 2 이미지 영역은 제 1 이미지 영역의 일부분이기 때문에, 제 2 이미지 프레임들의 시퀀스에서 검출됨과 아울러 제 2 객체 마스크들의 세트 내의 객체 마스크들에 의해서 표시되는 모든 객체들은 또한 제 1 객체 마스크들의 세트에 존재할 것이다. 그러나, 객체가 너무 작은 경우 또는 제 1 이미지 프레임들의 시퀀스에서 사용되는 더 낮은 해상도에서는 검출되지 않는 그런 형상을 갖는 경우가 있을 수 있다. 따라서, 가장 일반적인 경우에 있어서, 두 이미지 영역들 모두에 존재하는 객체에 속하는 것으로서 객체 식별기에 의해 식별되지 않는 제 2 객체 마스크들의 세트로부터의 그러한 객체 마스트들이 또한, 제 3 세트에 추가될 수 있다.
최종 객체 마스크들의 세트는 객체 묘사 구성기(118)에 의해 구성되는 객체 묘사를 포함하는 공통 장면 묘사에 대한 기초를 형성한다. 그 다음에, 메타 테이터는 제 1 이미지 프레임들의 시퀀스 및 제 2 이미지 프레임들의 시퀀스 모두로부터의 식별된 객체들에 대해 수집된다. 이러한 객체 묘사들은, 객체에 대한 객체 마스크, 그리고 알파뉴메릭 심벌(alphanumeric symbol)과 같은 식별 마커(identifying marker), 뿐만 아니라 객체 마스크 내의 실제 이미지 데이터를 포함할 수 있다. 객체 묘사는 또한, 객체를 "차량" 또는 "인간"과 같은 객체 카테고리로 분류하는 데이터를 포함하여 더 정교하게 될 수 있다. 이것은 또한, 객체의 이전 움직임들에 대한 데이터, 그리고 다른 특징들(예를 들어, 자동차의 번호판 등록 번호 혹은 사람의 신원과 같은 것)을 포함할 수도 있다. 장면 묘사는 감시된 장면에 존재하는 객체들의 수개의 객체 묘사들을 포함할 수 있다.
두 이미지 프레임들의 시퀀스들 모두에 존재하는 것으로서 식별된 객체 혹은 객체들에 대한 객체 묘사들은, 오직 제 1 이미지 프레임들의 시퀀스에만 존재하는 관련된 객체 마스크의 부분들에 대한 제 1 이미지 프레임들의 시퀀스로부터의 이미지 데이터, 그리고 제 2 이미지 프레임들의 시퀀스에 존재하는 관련된 객체 마스크의 부분들에 대한 제 2 이미지 프레임들의 시퀀스로부터의 이미지 데이터를 포함시키거나 혹은 분석함으로써, 제공된다.
더 상세하게는, 두 이미지 프레임들의 시퀀스들 모두에 존재하는 것으로서 식별된 이러한 객체들에 대한 객체 묘사는, 제 1 이미지 프레임들의 시퀀스로부터 제 1 이미지 프레임들의 시퀀스에 존재하는 객체의 부분들에 대한 제 1 비트맵 표시, 그리고 제 2 이미지 프레임들의 시퀀스로부터 제 2 이미지 프레임들의 시퀀스에 존재하는 객체의 부분들에 대한 제 2 비트맵 표시를 제공함으로써, 구성된다. 그 다음에, 이들 두 비트맵 표시들은, 제 1 비트맵 표시를 제 2 이미지 해상도로 스케일링함으로써(예를 들어, 비트맵 요소들을 제 1 비트맵 표시 내에 복사함으로써), 하나의 단일 비트맵 표시에 조합된다. 보간(interpolation) 단계들이 또한, 필요하다면 수행될 수 있다. 그 다음에, 객체의 벡터 표시가 객체의 조합된 비트맵 표시에 기초하여 구성된다.
본 발명의 실시예들에 따라 방법(200)이 도 2에 도시된다. 단계(202)에서, 제 1 이미지 프레임들의 시퀀스 및 제 2 이미지 프레임들의 시퀀스가 수신된다. 제 1 이미지 프레임들의 시퀀스는 제 1 이미지 영역(300)을 커버하고, 제 1 이미지 해상도를 가지며, 그리고 제 2 이미지 프레임들의 시퀀스는 제 1 이미지 영역보다 더 작고 제 1 영역(300) 내에 위치하는 제 2 이미지 영역(302)을 커버한다. 제 2 이미지 프레임들의 시퀀스는 제 1 이미지 해상도보다 더 높은 제 2 이미지 해상도를 갖는다.
단계(204)에서는, 객체들이 제 1 이미지 프레임들의 시퀀스 및 제 2 이미지 프레임들의 시퀀스에서 검출되고, 단계(206)에서는, 검출된 객체들에 대해 제 1 임시 객체 마스크들의 세트 및 제 2 임시 객체 마스크들의 세트가 제공된다. 단계(208)에서, 제 1 이미지 프레임들의 시퀀스 및 제 2 이미지 프레임들의 시퀀스 모두에 존재하는 객체(304)가, 제 2 객체 마스크들의 세트 내의 제 2 객체 마스크와 적어도 부분적으로 중첩하는 제 1 객체 마스크들의 세트 내의 제 1 객체 마스크를 식별함으로써, 식별되고, 단계(210)에서는, 이들 객체 마스크들이 제 3 객체 마스크에 병합된다.
마지막으로, 단계(212)에서는, 제 1 객체 마스크를 제외한 제 1 객체 마스크들의 세트와, 제 2 객체 마스크를 제외한 제 2 객체 마스크들의 세트와, 그리고 제 3 객체 마스크를 포함하는, 최종 제 3 객체 마스크들의 세트가 제공된다.
달리 말하면, 감시 카메라에 의해서 획득된 이미지들에서 객체들을 분석하기 위한 방법 및 객체 분석기는 제 1 이미지 프레임들의 시퀀스 및 제 2 이미지 프레임들의 시퀀스를 이용하는바, 여기서 제 1 이미지 프레임들의 시퀀스는 제 1 이미지 영역을 커버하고 제 1 이미지 해상도를 가지며, 그리고 제 2 이미지 프레임들의 시퀀스는 제 1 이미지 영역 내에 위치하는 제 2 이미지 영역을 커버하고, 제 1 이미지 해상도보다 더 높은 제 2 이미지 해상도를 갖는다. 객체 마스크들의 공통 세트가 제공되는바, 여기에 두 이미지 영역들 모두에 존재하는 것으로서 식별된 객체들의 객체 마스크들이 병합된다.

Claims (18)

  1. 감시 카메라(monitoring camera)에 의해 획득된 이미지들에서 객체들을 분석하는 방법으로서,
    제 1 이미지 해상도를 가지며 제 1 이미지 영역을 커버(cover)하는 제 1 이미지 프레임들의 시퀀스(sequence of image frames)를, 전자 디바이스에 의해, 수신하는 단계;
    상기 제 1 이미지 해상도보다 더 높은 제 2 이미지 해상도를 가지며 상기 제 1 이미지 영역의 일부분인 제 2 이미지 영역을 커버하는 제 2 이미지 프레임들의 시퀀스를, 상기 전자 디바이스에 의해, 수신하는 단계;
    상기 제 1 이미지 프레임들의 시퀀스에 존재하는 객체들을, 상기 전자 디바이스에 의해, 검출하는 단계;
    상기 제 2 이미지 프레임들의 시퀀스에 존재하는 객체들을, 상기 전자 디바이스에 의해, 검출하는 단계;
    상기 제 1 이미지 프레임들의 시퀀스에서 검출된 객체들에 대한 제 1 객체 마스크들의 세트(set of object masks)를, 상기 전자 디바이스에 의해, 제공하는 단계;
    상기 제 2 이미지 프레임들의 시퀀스에서 검출된 객체들에 대한 제 2 객체 마스크들의 세트를, 상기 전자 디바이스에 의해, 제공하는 단계;
    상기 제 2 객체 마스크들의 세트 내의 제 2 객체 마스크와 적어도 부분적으로 중첩하는 상기 제 1 객체 마스크들의 세트 내의 제 1 객체 마스크를 검출함으로써 상기 제 1 이미지 프레임들의 시퀀스 및 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 객체를, 상기 전자 디바이스에 의해, 식별하는 단계;
    상기 제 1 이미지 영역에만 존재하는 부분들(parts)에 대한 상기 제 1 객체 마스크로부터의 데이터, 및 상기 제 2 이미지 영역에 존재하는 부분들에 대한 상기 제 2 객체 마스크로부터의 데이터를 포함시킴으로써 상기 제 1 객체 마스크 및 상기 제 2 객체 마스크를 제 3 객체 마스크에, 상기 전자 디바이스에 의해, 병합하는 단계; 그리고
    제 3 객체 마스크들의 세트를, 상기 전자 디바이스에 의해, 제공하는 단계를 포함하여 구성되며,
    상기 제 3 객체 마스크들의 세트는,
    상기 제 1 객체 마스크를 제외한 상기 제 1 객체 마스크들의 세트;
    상기 제 2 객체 마스크를 제외한 상기 제 2 객체 마스크들의 세트; 그리고
    상기 제 3 객체 마스크를 포함하는 것을 특징으로 하는 객체 분석 방법.
  2. 제 1 항에 있어서,
    상기 객체들을 검출하는 단계들은, 상기 제 1 이미지 프레임들의 시퀀스 및 상기 제 2 이미지 프레임들의 시퀀스를 배경 모델(background model)을 표시하는 이미지 데이터와 비교하는 단계를 포함하는 것을 특징으로 하는 객체 분석 방법.
  3. 제 1 항에 있어서,
    상기 객체들을 검출하는 단계들은, 이미지 프레임을 상기 각각의 이미지 프레임들의 시퀀스에서 이전에 획득된 이미지 프레임과 비교하는 단계를 포함하는 것을 특징으로 하는 객체 분석 방법.
  4. 제 1 항에 있어서,
    상기 객체들을 검출하는 단계들은, 얼굴 인식과 같은 패턴 인식을 수행하는 단계를 포함하는 것을 특징으로 하는 객체 분석 방법.
  5. 제 1 항에 있어서,
    상기 제 1 이미지 프레임들의 시퀀스에만 존재하는 상기 제 3 객체 마스크의 부분들에 대한 상기 제 1 이미지 프레임들의 시퀀스로부터의 이미지 데이터, 그리고 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 상기 제 3 객체 마스크의 부분들에 대한 상기 제 2 이미지 프레임들의 시퀀스로부터의 이미지 데이터를 포함시킴으로써 상기 식별된 객체의 객체 묘사(object description)를 구성(compose)하는 단계를 더 포함하는 것을 특징으로 하는 객체 분석 방법.
  6. 제 5 항에 있어서,
    상기 객체 묘사를 구성하는 단계는,
    상기 제 1 이미지 프레임들의 시퀀스로부터 상기 제 1 이미지 프레임들의 시퀀스에 존재하는 상기 식별된 객체의 부분들의 제 1 비트맵 표시(bitmap representation)를 제공하는 단계,
    상기 제 2 이미지 프레임들의 시퀀스로부터 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 상기 식별된 객체의 부분들의 제 2 비트맵 표시를 제공하는 단계, 그리고
    상기 제 1 비트맵 표시를 상기 제 2 이미지 해상도로 스케일링(scaling)하여 상기 제 1 비트맵 표시와 상기 제 2 비트맵 표시를 조합함으로써 제 3 비트맵 표시를 제공하는 단계를 포함하는 것을 특징으로 하는 객체 분석 방법.
  7. 제 6 항에 있어서,
    상기 객체 묘사를 구성하는 단계는, 상기 제 3 비트맵 표시에 기초하여 상기 식별된 객체의 벡터 표시(vector representation)를 제공하는 단계를 포함하는 것을 특징으로 하는 객체 분석 방법.
  8. 감시 카메라에 의해 획득된 이미지들에서 객체들을 분석하기 위한 객체 분석기로서,
    제 1 이미지 해상도를 가지며 제 1 이미지 영역을 커버하는 제 1 이미지 프레임들의 시퀀스, 그리고 상기 제 1 이미지 해상도보다 더 높은 제 2 이미지 해상도를 가지며 상기 제 1 이미지 영역의 일부분인 제 2 이미지 영역을 커버하는 제 2 이미지 프레임들의 시퀀스를 수신하도록 되어 있는 이미지 데이터 입력;
    상기 제 1 이미지 프레임들의 시퀀스에 존재하는 객체들, 그리고 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 객체들을 검출하도록 되어 있는 객체 검출기;
    상기 제 1 이미지 프레임들의 시퀀스에서 검출된 객체들에 대한 제 1 객체 마스크들의 세트, 그리고 상기 제 2 이미지 프레임들의 시퀀스에서 검출된 객체들에 대한 제 2 객체 마스크들의 세트를 제공하도록 되어 있는 제 1 객체 마스크 세트 제공기(object mask set provider);
    상기 제 2 객체 마스크들의 세트 내의 제 2 객체 마스크와 적어도 부분적으로 중첩하는 상기 제 1 객체 마스크들의 세트 내의 제 1 객체 마스크를 식별함으로써 상기 제 1 이미지 프레임들의 시퀀스 및 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 객체를 식별하도록 되어 있는 객체 식별기;
    상기 제 1 이미지 영역에만 존재하는 부분들에 대한 상기 제 1 객체 마스크로부터의 데이터, 및 상기 제 2 이미지 영역에 존재하는 부분들에 대한 상기 제 2 객체 마스크로부터의 데이터를 포함시킴으로써 상기 제 1 객체 마스크 및 상기 제 2 객체 마스크를 제 3 객체 마스크에 병합하도록 되어 있는 객체 마스크 병합기; 그리고
    제 3 객체 마스크들의 세트를 제공하도록 되어 있는 제 2 객체 마스크 세트 제공기를 포함하여 구성되며,
    상기 제 3 객체 마스크들의 세트는,
    상기 제 1 객체 마스크를 제외한 상기 제 1 객체 마스크들의 세트,
    상기 제 2 객체 마스크를 제외한 상기 제 2 객체 마스크들의 세트, 그리고
    상기 제 3 객체 마스크를 포함하는 것을 특징으로 하는 객체 분석기.
  9. 제 8 항에 있어서,
    상기 객체 검출기는, 이미지 프레임을 상기 각각의 이미지 프레임들의 시퀀스에서 이전에 획득된 프레임과 비교하도록 되어 있는 것을 특징으로 하는 객체 분석기.
  10. 제 8 항에 있어서,
    상기 객체 검출기는, 상기 제 1 이미지 프레임들의 시퀀스 및 상기 제 2 이미지 프레임들의 시퀀스를 배경 모델을 표시하는 이미지 데이터와 비교하도록 되어 있는 것을 특징으로 하는 객체 분석기.
  11. 제 8 항에 있어서,
    상기 객체 검출기는, 얼굴 인식과 같은 패턴 인식을 수행하도록 되어 있는 것을 특징으로 하는 객체 분석기.
  12. 제 8 항에 있어서,
    상기 제 1 이미지 프레임들의 시퀀스에만 존재하는 상기 제 3 객체 마스크의 부분들에 대한 상기 제 1 이미지 프레임들의 시퀀스로부터의 이미지 데이터, 및 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 상기 제 3 객체 마스크의 부분들에 대한 상기 제 2 이미지 프레임들의 시퀀스로부터의 이미지 데이터를 포함시킴으로써 상기 식별된 객체의 객체 묘사를 제공하도록 되어 있는 객체 묘사 구성기(object description composer)를 더 포함하는 것을 특징으로 하는 객체 분석기.
  13. 제 12 항에 있어서,
    상기 객체 묘사 구성기는,
    상기 제 1 이미지 프레임들의 시퀀스로부터 상기 제 1 이미지 프레임들의 시퀀스에 존재하는 상기 식별된 객체의 부분들의 제 1 비트맵 표시, 및 상기 제 2 이미지 프레임들의 시퀀스로부터 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 상기 식별된 객체의 부분들의 제 2 비트맵 표시를 제공하고, 그리고
    상기 제 1 비트맵 표시를 상기 제 2 이미지 해상도로 스케일링하여 상기 제 1 비트맵 표시와 상기 제 2 비트맵 표시를 조합함으로써 제 3 비트맵 표시를 제공하도록 되어 있는 것을 특징으로 하는 객체 분석기.
  14. 제 13 항에 있어서,
    상기 객체 묘사 구성기는,
    상기 제 3 비트맵 표시에 기초하여 상기 식별된 객체의 벡터 표시를 제공하도록 되어 있는 것을 특징으로 하는 객체 분석기.
  15. 컴퓨터-프로그램 명령어들을 포함하는 비-일시적인 컴퓨터-판독가능한 매체로서, 상기 명령어들이 정보 프로세싱 시스템에 의해 실행될 때, 상기 정보 프로세싱 시스템으로 하여금:
    제 1 이미지 해상도를 가지며 제 1 이미지 영역을 커버하는 제 1 이미지 프레임들의 시퀀스를 수신하고;
    상기 제 1 이미지 해상도보다 더 높은 제 2 이미지 해상도를 가지며 상기 제 1 이미지 영역의 일부분인 제 2 이미지 영역을 커버하는 제 2 이미지 프레임들의 시퀀스를 수신하고;
    상기 제 1 이미지 프레임들의 시퀀스에 존재하는 객체들을 검출하고;
    상기 제 2 이미지 프레임들의 시퀀스에 존재하는 객체들을 검출하고;
    상기 제 1 이미지 프레임들의 시퀀스에서 검출된 객체들에 대한 제 1 객체 마스크들의 세트를 제공하고;
    상기 제 2 이미지 프레임들의 시퀀스에서 검출된 객체들에 대한 제 2 객체 마스크들의 세트를 제공하고;
    상기 제 2 객체 마스크들의 세트 내의 제 2 객체 마스크와 적어도 부분적으로 중첩하는 상기 제 1 객체 마스크들의 세트 내의 제 1 객체 마스크를 검출함으로써 상기 제 1 이미지 프레임들의 시퀀스 및 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 객체를 식별하고;
    상기 제 1 이미지 영역에만 존재하는 부분들에 대한 상기 제 1 객체 마스크로부터의 데이터, 및 상기 제 2 이미지 영역에 존재하는 부분들에 대한 상기 제 2 객체 마스크로부터의 데이터를 포함시킴으로써 상기 제 1 객체 마스크 및 상기 제 2 객체 마스크를 제 3 객체 마스크에 병합하고; 그리고
    제 3 객체 마스크들의 세트를 제공하도록 하고,
    상기 제 3 객체 마스크들의 세트는,
    상기 제 1 객체 마스크를 제외한 상기 제 1 객체 마스크들의 세트;
    상기 제 2 객체 마스크를 제외한 상기 제 2 객체 마스크들의 세트; 그리고
    상기 제 3 객체 마스크를 포함하는 것을 특징으로 하는 비-일시적인 컴퓨터-판독가능한 매체.
  16. 제 15 항에 있어서,
    상기 시스템은 이미징 디바이스, 비디오 인코딩 디바이스, 비디오 서버 및 비디오 프로세싱 디바이스 중 하나 이상을 포함하는 것을 특징으로 하는 비-일시적인 컴퓨터-판독가능한 매체.
  17. 정보 프로세싱 시스템에 있어서,
    회로를 포함하고, 상기 회로는,
    제 1 이미지 해상도를 가지며 제 1 이미지 영역을 커버하는 제 1 이미지 프레임들의 시퀀스를 수신하고;
    상기 제 1 이미지 해상도보다 더 높은 제 2 이미지 해상도를 가지며 상기 제 1 이미지 영역의 일부분인 제 2 이미지 영역을 커버하는 제 2 이미지 프레임들의 시퀀스를 수신하고;
    상기 제 1 이미지 프레임들의 시퀀스에 존재하는 객체들을 검출하고;
    상기 제 2 이미지 프레임들의 시퀀스에 존재하는 객체들을 검출하고;
    상기 제 1 이미지 프레임들의 시퀀스에서 검출된 객체들에 대한 제 1 객체 마스크들의 세트를 제공하고;
    상기 제 2 이미지 프레임들의 시퀀스에서 검출된 객체들에 대한 제 2 객체 마스크들의 세트를 제공하고;
    상기 제 2 객체 마스크들의 세트 내의 제 2 객체 마스크와 적어도 부분적으로 중첩하는 상기 제 1 객체 마스크들의 세트 내의 제 1 객체 마스크를 검출함으로써 상기 제 1 이미지 프레임들의 시퀀스 및 상기 제 2 이미지 프레임들의 시퀀스에 존재하는 객체를 식별하고;
    상기 제 1 이미지 영역에만 존재하는 부분들에 대한 상기 제 1 객체 마스크로부터의 데이터, 및 상기 제 2 이미지 영역에 존재하는 부분들에 대한 상기 제 2 객체 마스크로부터의 데이터를 포함시킴으로써 상기 제 1 객체 마스크 및 상기 제 2 객체 마스크를 제 3 객체 마스크에 병합하고; 그리고
    제 3 객체 마스크들의 세트를 제공하도록 하고,
    상기 제 3 객체 마스크들의 세트는,
    상기 제 1 객체 마스크를 제외한 상기 제 1 객체 마스크들의 세트;
    상기 제 2 객체 마스크를 제외한 상기 제 2 객체 마스크들의 세트; 그리고
    상기 제 3 객체 마스크를 포함하는 것을 특징으로 하는 정보 프로세싱 시스템.
  18. 제 17 항에 있어서,
    상기 정보 프로세싱 시스템은 이미징 디바이스, 비디오 인코딩 디바이스, 비디오 서버 및 비디오 프로세싱 디바이스 중 하나 이상인 것을 특징으로 하는 정보 프로세싱 시스템.
KR20130052108A 2012-05-08 2013-05-08 비디오 분석 KR101492180B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP12167074.9A EP2662827B1 (en) 2012-05-08 2012-05-08 Video analysis
EP12167074.9 2012-05-08

Publications (2)

Publication Number Publication Date
KR20130125336A KR20130125336A (ko) 2013-11-18
KR101492180B1 true KR101492180B1 (ko) 2015-02-10

Family

ID=46044568

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130052108A KR101492180B1 (ko) 2012-05-08 2013-05-08 비디오 분석

Country Status (6)

Country Link
US (1) US8983131B2 (ko)
EP (1) EP2662827B1 (ko)
JP (1) JP5722381B2 (ko)
KR (1) KR101492180B1 (ko)
CN (1) CN103391424B (ko)
TW (1) TWI507998B (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9335766B1 (en) * 2013-12-06 2016-05-10 Google Inc. Static obstacle detection
CN104954812A (zh) * 2014-03-27 2015-09-30 腾讯科技(深圳)有限公司 一种视频同步播放的方法、装置及系统
CN105100580B (zh) * 2014-05-12 2020-10-02 索尼公司 监视系统以及用于监视系统的控制方法
WO2016025485A2 (en) * 2014-08-14 2016-02-18 Qualcomm Incorporated Detection of action frames of a video stream
CN105976415B (zh) * 2016-05-20 2020-05-26 腾讯科技(深圳)有限公司 一种遮罩显示处理方法和装置
CN106131470A (zh) * 2016-06-24 2016-11-16 维沃移动通信有限公司 一种视频录制的方法及移动终端
KR102414602B1 (ko) * 2016-11-03 2022-06-30 삼성전자주식회사 데이터 인식 모델 구축 장치 및 이의 데이터 인식 모델 구축 방법과, 데이터 인식 장치 및 이의 데이터 인식 방법
WO2018084577A1 (en) 2016-11-03 2018-05-11 Samsung Electronics Co., Ltd. Data recognition model construction apparatus and method for constructing data recognition model thereof, and data recognition apparatus and method for recognizing data thereof
WO2020034083A1 (en) * 2018-08-14 2020-02-20 Huawei Technologies Co., Ltd. Image processing apparatus and method for feature extraction
JP7279341B2 (ja) * 2018-11-06 2023-05-23 富士フイルムビジネスイノベーション株式会社 識別システム、識別装置、データ取得システム及びデータ取得装置
CN109618218B (zh) * 2019-01-31 2021-05-28 维沃移动通信有限公司 一种视频处理方法及移动终端
KR20240042706A (ko) * 2022-09-26 2024-04-02 한화비전 주식회사 감시 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002030122A1 (en) 2000-10-04 2002-04-11 Axis Ab Method and apparatus for digitally processing frequently updated images from a camera
US20060159342A1 (en) 2005-01-18 2006-07-20 Yiyong Sun Multilevel image segmentation
US20090003652A1 (en) 2006-08-11 2009-01-01 Fotonation Ireland Limited Real-time face tracking with reference images
US20110115917A1 (en) 2009-11-13 2011-05-19 Hon Hai Precision Industry Co., Ltd. Surveillance system and surveilling method

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5657402A (en) * 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
EP1181816A4 (en) 1999-02-24 2006-11-02 Dialog Semiconductor Gmbh METHOD AND DEVICE FOR A FOVEAL DISPLAY WITH DOUBLE DEFLECTION
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
DE10310636A1 (de) 2003-03-10 2004-09-30 Mobotix Ag Überwachungsvorrichtung
WO2004086748A2 (en) * 2003-03-20 2004-10-07 Covi Technologies Inc. Systems and methods for multi-resolution image processing
JP2005173787A (ja) * 2003-12-09 2005-06-30 Fujitsu Ltd 移動物体の検出・認識を行う画像処理装置
JP2006033793A (ja) * 2004-06-14 2006-02-02 Victor Co Of Japan Ltd 追尾映像再生装置
JP4561380B2 (ja) * 2005-01-24 2010-10-13 コニカミノルタホールディングス株式会社 検出装置、検出方法及び検出プログラム
DE602005012672D1 (de) * 2005-02-21 2009-03-26 Mitsubishi Electric Corp Verfahren zum Detektieren von Gesichtsmerkmalen
DE602005012673D1 (de) * 2005-02-21 2009-03-26 Mitsubishi Electric Corp Schnelles Verfahren zum Detektieren von Objekten durch statistischen Mustervergleich
JP4832878B2 (ja) * 2005-12-09 2011-12-07 倉敷紡績株式会社 画像合成処理装置及び方法
DE102007019531A1 (de) * 2007-04-25 2008-11-13 Continental Automotive Gmbh Fahrspurdetektion mit Kameras unterschiedlicher Brennweite
JP4891163B2 (ja) * 2007-07-04 2012-03-07 キヤノン株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2010039788A (ja) * 2008-08-05 2010-02-18 Toshiba Corp 画像処理装置及びその方法並びに画像処理プログラム
US9898675B2 (en) * 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
JP2011059898A (ja) * 2009-09-08 2011-03-24 Fujifilm Corp 画像解析装置、画像解析方法およびプログラム
TWI430185B (zh) * 2010-06-17 2014-03-11 Inst Information Industry 臉部表情辨識系統及其辨識方法及其電腦程式產品
JP5570895B2 (ja) * 2010-07-15 2014-08-13 富士フイルム株式会社 検出器構成装置、方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002030122A1 (en) 2000-10-04 2002-04-11 Axis Ab Method and apparatus for digitally processing frequently updated images from a camera
US20060159342A1 (en) 2005-01-18 2006-07-20 Yiyong Sun Multilevel image segmentation
US20090003652A1 (en) 2006-08-11 2009-01-01 Fotonation Ireland Limited Real-time face tracking with reference images
US20110115917A1 (en) 2009-11-13 2011-05-19 Hon Hai Precision Industry Co., Ltd. Surveillance system and surveilling method

Also Published As

Publication number Publication date
JP2013235580A (ja) 2013-11-21
JP5722381B2 (ja) 2015-05-20
US20130301876A1 (en) 2013-11-14
CN103391424A (zh) 2013-11-13
TWI507998B (zh) 2015-11-11
CN103391424B (zh) 2016-02-24
KR20130125336A (ko) 2013-11-18
TW201411500A (zh) 2014-03-16
US8983131B2 (en) 2015-03-17
EP2662827B1 (en) 2016-01-13
EP2662827A1 (en) 2013-11-13

Similar Documents

Publication Publication Date Title
KR101492180B1 (ko) 비디오 분석
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US9684835B2 (en) Image processing system, image processing method, and program
US9704063B2 (en) Method of sampling feature points, image matching method using the same, and image matching apparatus
EP3425590B1 (en) Image processing apparatus, image processing method, and storage medium
EP2450832A1 (en) Image processing apparatus and image processing method
US9811755B2 (en) Object monitoring system, object monitoring method, and monitoring target extraction program
JP6568374B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6292540B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP2009027393A (ja) 映像検索システムおよび人物検索方法
US20190073813A1 (en) Image processing apparatus, image providing apparatus,control methods thereof, and medium
CN108460319B (zh) 异常人脸检测方法及装置
CN110244923B (zh) 一种图像显示方法及装置
US11244168B2 (en) Method of highlighting an object of interest in an image or video
US11341773B2 (en) Detection device and control method of the same
US20170018091A1 (en) Re-wandering alarm system and method
WO2023281559A1 (ja) 人物同定装置、及び人物同定方法
JP7357649B2 (ja) 識別を容易にするための方法および装置
KR101926435B1 (ko) 시간압축방식을 이용한 객체 추적 시스템
JP4434689B2 (ja) 物体計数方法及び物体計数装置
WO2020095790A1 (ja) 被写体検知装置、システム、方法および記録媒体
JP6645166B2 (ja) 移動時間記憶システム、移動時間記憶方法および移動時間記憶プログラム
CN116778004A (zh) 图像流中对象的改进的屏蔽
KR20200011221A (ko) 영상병합 스트림 리즈닝 감시방법
CN117523523A (zh) 一种停车位检测的方法、装置、存储介质及车辆

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180124

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190123

Year of fee payment: 5