KR101441947B1 - 카메라 이동 영향을 검출하고 억제하는 감시 카메라 장치및 그 제어 방법 - Google Patents

카메라 이동 영향을 검출하고 억제하는 감시 카메라 장치및 그 제어 방법 Download PDF

Info

Publication number
KR101441947B1
KR101441947B1 KR1020080011391A KR20080011391A KR101441947B1 KR 101441947 B1 KR101441947 B1 KR 101441947B1 KR 1020080011391 A KR1020080011391 A KR 1020080011391A KR 20080011391 A KR20080011391 A KR 20080011391A KR 101441947 B1 KR101441947 B1 KR 101441947B1
Authority
KR
South Korea
Prior art keywords
pixel
model
module
gaussian
image
Prior art date
Application number
KR1020080011391A
Other languages
English (en)
Other versions
KR20090043416A (ko
Inventor
껑위 마
박태서
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20090043416A publication Critical patent/KR20090043416A/ko
Application granted granted Critical
Publication of KR101441947B1 publication Critical patent/KR101441947B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

카메라 이동 영향을 검출하고 억제하는 감시 카메라 장치 및 그 제어 방법을 개시한다. 본 발명은 새 이미지를 캡쳐하는 이미지 캡쳐 모듈 및 장면 모델을 저장하고, 캡쳐한 새 이미지와 장면 모델을 비교하여 장면 모델을 업그레이드하고, 장면 모델의 업그레이드 결과에 따라 새 이미지의 화소 상태를 확정하여 카메라 이동 여부를 검출하며, 상기 카메라의 이동이 검출될 때 상기 카메라 이동으로 발생한 오류를 억제하는 이미지 처리 모듈을 구비한다.
카메라, 이동, 감시, 화소 모델

Description

카메라 이동 영향을 검출하고 억제하는 감시 카메라 장치 및 그 제어 방법{SURVEILLANCE CAMERA APPARATUS FOR DETECTING AND SUPPRESSING CAMERA SHIFT AND CONTROL METHOD THEREOF}
본 발명은 감시 카메라 장치 및 그 제어 방법에 관한 것으로, 더욱 상세하게는 카메라의 이동이 발생시키는 영향을 검출하고 억제하는 감시 카메라 장치 및 그 제어 방법에 관한 것이다.
감시 카메라는 보안을 위해 광범위하게 이용되고 있다. 하지만, 민감한 사안에 대해서는 검사를 위해 사람의 노동력이 더 필요한 경우가 왕왕 있다. 따라서, 감시 시스템의 연구 개발은 사람 및 기타 이동체의 검출, 추적 및 분석을 실행할 수 있는 스마트 카메라의 연구에 초점이 맞추어져 있다.
감시 카메라를 실생활에 응용하는 과정에서 일부 외적인 요인이 자동 시스템의 성능에 영향을 주는 경우가 있다. 이러한 요인에는 날씨, 예를 들어 바람, 눈, 비등이 있고 카메라 장치 자체의 문제 또는 기타 환경적 요인이 있을 수 있다. 일반적으로 종래 배경 상쇄법(background subtraction method)를 이용하여 카메라의 안정성을 꾀하였다. 하지만, 바람, 폭풍우, 트럭 통과, 심지어 사람의 조작 등 의 이유로 카메라의 안정성을 확실히 보장하는 것은 어려움이 있다.
종래 배경 상쇄법은 매번 입력되는 새 이미지로 장면 모델을 업그레이드하여 상기 장면 모델이 카메라 이동 후 천천히 업그레이드할 수 있는 충분한 시간, 일반적으로 약 1분 정도의 시간을 확보한다. 대부분의 연구원들은 이점에 주목하지 않고, 단지 카메라가 정지되어 있다는 가정으로 모델이 새로운 장면을 학습해 나갈 것으로 간단히 생각한다.
다른 방법으로 종래 이동억제방법은, 디지털 카메라 레코더를 이용한다. 상기 종래 방법은 비디오 프레임 중 원하지 않는 카메라의 이동을 제거한다. 이는 고주파수 운동은 일반적으로 카메라의 흔들림으로 인한 것이고 저주파수 운동이 고객이 원하는 운동이라는 생각에 기초한 것이다. 비디오 프레임의 각 특징을 매칭시킴으로써 시스템은 운동 벡터를 측정할 수 있다. 이러한 평활 운동 조작을 통해 고주파수 운동을 제거할 수 있다. 마지막으로 측정된 운동과 희망 운동에 근거하여 각 프레임에 대해 공간변환을 진행함으로써 안정적 비디오 프레임을 얻을 수 있다.
카메라의 이동을 처리할 때, 종래 배경상쇄법은 새 모델을 업그레이드하는데 긴 시간이 필요하므로 실제 응용시 그다지 이상적이지 않다. 실제 카메라의 이동은 매우 심각한 것으로, 특히 카메라와 장면 사이의 거리가 아주 멀고 초점거리가 아주 길 때 카메라의 작은 회전에도 이미지는 큰 위치 이동을 일으킨다. 하지만, 자동 감시 시스템에서 1분간의 업그레이드 시간은 너무 길어, 상기 카메라의 이동으로 많은 오류가 발생하여 별도로 사람이 오류를 구분하기 위해 투입되어 작 업을 해야 한다.
비디오 주파수를 안정적으로 처리하는 상기 방법에 대해, 육안으로 보기에도 안정된 비디오 주파수는 더 보기에 좋다. 원 이미지와 종래 배경 상쇄법을 사용한 이미지를 비교하면, 두 이미지는 거의 유사하게 보이지만, 컴퓨터의 측면에서는 변화된 화소는 앞선 비디오 프레임의 화소와 동일하지는 않다. 컴퓨터를 이용하여 비디오 프레임을 처리시 이런 현상으로 인해 많은 오류가 발생할 수 있다.
본 발명은 상기와 같은 종래 기술을 개선하기 위해 안출된 것으로서, 카메라의 이동에 의한 영향을 억제할 수 있는 감시 카메라 장치 및 방법을 제공하는 것을 목적으로 한다.
상술한 본 발명의 과제를 해결하기 위하여 본 발명은,
새 이미지를 캡쳐하는 이미지 캡쳐 모듈 및 장면 모델을 저장하고, 상기 캡쳐한 새 이미지와 상기 장면 모델을 비교하여 상기 장면 모델을 업그레이드하고, 상기 장면 모델의 업그레이드 결과에 따라 상기 새 이미지의 화소 상태를 확정하여 카메라 이동 여부를 검출하며, 상기 카메라의 이동이 검출될 때 상기 카메라 이동으로 발생한 오류를 억제하는 이미지 처리 모듈을 구비하는 감시 카메라 장치를 제공한다.
또한, 상술한 본 발명의 과제를 해결하기 위하여 본 발명은,
새 이미지를 캡쳐하고 장면 모델을 저장하는 단계와, 상기 캡쳐된 새 이미지와 상기 저장된 장면 모델을 비교하여 정합 화소 모델을 찾는 단계와, 상기 정합 화소 모델을 업그레이드하고, 상기 이미지의 화소 상태를 확정하는 단계와, 상기 이미지의 화소 상태에 따라 카메라 이동을 검출하는 단계 및, 상기 카메라 이동이 검출되었을 때, 상기 카메라 이동이 일으키는 오류를 억제하는 단계를 포함하는 감시 카메라 제어 방법을 제공한다.
이하에서는 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다.
본 발명의 일 실시예에 따른 감시 카메라 장치는 MoG(Mixture of Gaussian) 배경 상쇄법에 기초하여, 장면 모델을 온라인 학습하여 업그레이드한다. 상기 장면 모델에서 각 화소의 가능한 색 범위와 가중치(weight)가 기록된다. 상기 장면 모델 은 그레디언트(gradient) 맵을 보유하여 배경의 그레디언트를 저장한다. 카메라의 이동이 일으키는 이미지 차이와 그레디언트 맵이 서로 밀접하게 관련되므로, 배경 상쇄법의 문턱값은 상기 그레디언트에 따라 변화한다.
도 1은 본 발명의 일실시예에 따른 감시 카메라 장치 중 카메라의 이동이 일으키는 영향을 검출하고 억제하는 장치의 구조를 보이는 블록도이다.
도 1을 참조하면, 상기 장치는 시스템 검출을 위해 새 이미지를 캡쳐하는 이미지 캡쳐 모듈(100), 상기 캡쳐된 새 이미지와 장면 모델을 비교하여 비교 결과에 따라 상기 장면 모델을 업그레이드하고, 상기 장면 모델의 업그레이드 결과에 따라 화소의 상태를 확정함으로써 상기 카메라의 이동여부를 검출하며, 상기 카메라의 이동을 검출하면, 상기 카메라의 이동이 일으키는 오류를 억제하는 이미지 처리 모듈(200)을 구비한다. 상기 장치는 상기 오류가 억제된 이미지를 표시하는 디스플레이 모듈(300)을 더 구비할 수 있다.
도 2는 도 1에 도시된 본 발명의 일 실시예에 따른 감시 카메라 장치의 이미지 처리 모듈(200)의 구조를 보이는 블록도이다.
도 2를 참조하면, 이미지 처리 모듈(200)은, 장면모델모듈(210), 장면 비교 및 모델 업그레이드 모듈(220), 이동 검출 모듈(230) 및 이동 억제 모듈(240)을 포함한다. 장면 모델 모듈(210)은 장면 히스토리를 기록하고, 장면 비교 및 모델 업그레이드 모듈(220)은 입력된 새 이미지와 장면 모델 모듈(210)의 장면 모델을 비교하고 상기 장면 모델을 업그레이드하며, 상기 장면 모델의 업그레이드 결과에 따라 이미지의 화소 상태를 확정한다. 이동 검출 모듈(230)은 이미지의 화소 상태에 따라 카메라의 이동이 발생했는지를 검출하고, 이동 억제 모듈(240)은 카메라의 이동이 일으키는 오류로 인한 경고를 감소시킨다.
장면 모델 모듈(210)의 장면 모델은 각 화소의 화소 모델로 이루어진다. 각 화소의 화소 모델은 평균색, 색 분산(variance) 및 색의 가중치를 보존한다. 상기 장면 모델에서 MoG(혼합 가우스)는 각 화소에 나타나는 대표색의 히스토리를 기록하는데 사용된다. 각 화소의 색은 여러 값을 가질 수 있다. 예를 들어 정지 상태의 배경에서 화소는 여러 배경색 또는 대상색일 수 있다. 각 화소색은 장면 모델 중 상이한 색 모듈에 저장된다.
아래 수학식 1의 혼합가우스 모델은 각 화소의 분포를 설명한다.
Figure 112008009220285-pat00001
여기서, wi는 각 단위 가우스의 가중치(weight), N(ui, σi)는 중심(즉 평균 색)이 ui이고, 분산이 σi인 가우스 분포이다. 만약 색이 너무 복잡하면, 비교적 큰 가중치를 가진 것이다. 운동 물체에 대해 화소가 아주 짧은 시간 나타나면 이로 인해 각 색은 아주 작은 가중치를 가지게 된다.
상기 장면 모델의 업그레이드 실행 중, 혼합가우스 배경 모델을 업그레이드하기 위해, 새 이미지의 화소와 각 가우스 분포를 서로 비교할 필요가 있다. 만약 새 화소가 한 가우스에 속하면 상기 가우스의 중심과 분산을 업그레이드하고 가중치를 업그레이드한다. 여기서, 구 가우스 중심과 새 입력 화소의 색에 대해 가중치의 평균을 구함으로써 상기 중심을 업그레이드하고, 구 가우스 분산과 새 화소와 예전 가우스의 중심과의 거리에 대한 평균을 구하여 분산을 업그레이드하며, 상기 가우스의 가중치를 증가시키고 기타 가우스의 가중치를 감소시킴으로써 가중치를 업그레이드한다. 만약 새 화소가 임의의 가우스에 포함되지 않으면, 최소 가중치를 가지는 구 가우스를 제거하고, 상기 새 화소의 색을 중심으로 하는 새 가우스를 증가시킨다.
장면 모델 모듈(210)에는 배경의 그레디언트를 저장하는 그레디언트 맵이 있다. 아래 수학식 2를 통해 화소(p)의 그레디언트를 계산한다.
Figure 112008009220285-pat00002
여기서, G(p)는 화소(p)점 및 주변 화소(q) 점이 존재하는 위치의 배경색의 차이를 나타낸다. Np는 화소(p)점의 인접 화소를 나타낸다. 상기 장면 모델 중 각 화소의 다양한 색을 포함하고 수학식 2에서 u1 p는 화소(p)점에서 일반적으로 나타나 는 색이고, u1 q와 u2 q는 화소(p)점에 인접한 화소(q)점에서 자주 나타나는 두 종류의 색을 표시한다.
수학식 2로부터 알 수 있듯이, 화소(p)점에 자주 나타나는 색과 주변 각 화소점에서 자주 나타나는 두 색을 비교하여 두 차이 중 비교적 작은 값을 화소(p)점과 화소(q)점의 차이로 할 수 있다. 각 화소(p)점과 각 화소(p)점에 인접한 다수의 화소(q)점을 비교하면, 상기 차이의 최대값이 화소(p)점의 그레디언트, 즉 G(p)가 된다. 수학식 2에서 알 수 있듯이, 동적 배경 영역에서 그레디언트맵의 그레디언트값은 한 프레임 이미지의 그레디언트값보다 작다.
좀 더 상세히 설명하면 동적 배경 영역에서의 그레디언트 값이 정적 배경 영역에서의 그레디언트 값보다 대체로 작은 것은, 나뭇가지를 예로 들어 설명한다면, 바람에 흔들리는 나뭇가지 주변의 그레디언트값이 가만히 있는 나뭇가지 주변의 그레디언트 값보다 대체로 작다. 이는 흔들리는 나뭇가지와 같은 영역에선 큰 그레디언트를 갖는 경계선 영역이 인접 화소를 넘나드는 경향이 있으므로, 각 화소에서 자주 나타나는 값(ui)이 인접 화소에 영향을 받아 결국 인접한 화소들 간의 평균값 차이가 작아지는데 기인한다.
도 3은 본 발명의 일 실시예에 따른 감시 카메라 장치의 이미지 처리 모듈(200) 중 장면 비교 및 모델 업그레이드 모듈(220)의 구조를 보이는 블록도이다.
도 3을 참조하면, 장면비교 및 모델 업그레이드 모듈(220)은 화소 정합 모듈(221), 모델 업그레이드 모듈(222) 및, 화소 상태 확정 모듈(223)을 구비한다. 이미지 캡쳐 모듈(100)이 새 이미지를 캡쳐할 때 화소 정합 모듈(221)은 상기 장면 모델 중 상기 캡쳐한 이미지의 각 화소와 정합되는 화소 모델을 찾고, 모델 업그레이드 모듈(222)은 상기 정합 화소 모델을 업그레이드하며, 화소 상태 확정 모듈(223)은 상기 이미지 중 화소의 상태가 전경(foregraound)인지 배경(background)인지를 확정한다.
도 4는 본 발명의 일실시예에 따른 감시 카메라 장치의 이미지 처리 모듈(200) 중 이동 검출 모듈(230)의 구조를 보이는 블록도이다.
도 4를 참조하면, 이동 검출 모듈(230)은 연결 영역 분석 모듈(231)과 결정 모듈(232)를 포함한다. 연결 영역 분석 모듈(231)은 전경 화소에 대해 분석을 진행하고 상기 전경 화소를 몇 개의 영역으로 구분한다. 결정 모듈(232)는 연결 영역 분석 모듈(231)이 구분한 영역의 개수에 따라 현재 카메라 이동이 있는지 여부를 확정한다.
도 5는 본 발명의 일 실시예에 따른 감시 카메라 장치의 이미지 처리 모듈(200) 중 이동 억제 모듈(240)의 구조를 보이는 블록도이다.
이동 억제 모듈(240)은 적용 문턱값 계산 모듈(241), 화소 정합 모듈(242), 모델 업그레이드 모듈(243), 화소 상태 확정 모듈(244)를 구비한다. 이동 억제 모듈(240)의 구조와 장면 비교 및 모델 업그레이드 모듈(220)의 구조는 대체로 유사하며, 다른 점이 있다면 이동 억제 모듈(240)은 장면 비교 및 모델 업그레이드 모듈(220)에서 전경으로 확정되는 화소를 실험 검증한다는 것이다.
도 6은 본 발명의 일 실시예에 따른 카메라 이동이 발생하는 영향을 검출하 고 억제하는 방법을 보이는 플로우 차트이다.
도 1 내지 도 6을 참조하면, 단계(S610)에서 이미지 캡쳐 모듈(100)은 새 이미지를 캡쳐하고, 단계(S620)에서 장면 비교 및 모델 업그레이드 모듈(220)은 상기 새 이미지와 장면을 비교하고 장면 모델을 업그레이드한 다음, 임의의 화소의 상태가 전경인지 배경인지를 확정하고, 모든 화소를 조합하여 표시 이미지를 형성한다. 상기 단계(S620)에 대해서는 도 7에서 상세히 설명한다. 계속하여 단계(S630)에서 이동 검출 모듈(230)은 스캔 라인 보충 방법을 사용하여 카메라의 이동이 있었는지 여부를 판단한다. 단계(S630)에 대해서는 도 8에서 상세히 설명한다. 카메라의 이동이 있었다고 판단되면 단계(S640)에서 카메라의 이동을 억제한다. 단계(S640)에 대해서는 도 9에서 상세히 설명한다. 단계(S650)에서 카메라 이동시의 억제된 이미지 또는 카메라 이동이 없을 때의 캡쳐된 이미지를 출력한다.
도 7은 도 6에 도시된 본 발명의 일 실시예에 따른 방법 중 장면 비교 및 모델 업그레이드 과정(S620)의 플로우 차트를 보인다.
도 2, 도 3 및 도 7을 참조하면, 단계(S710)에서 장면 비교 및 모델 업그레이드 모듈(220)은 캡쳐된 이미지의 화소를 얻는다. 단계(S720)에서 각 화소에 대해 화소 정합 모듈(221)은 장면 모델 중 각 가우스 중심(ui)을 비교하여 가장 근접한 가우스를 찾는다. 그런 다음, 상기 화소와 가장 근접한 가우스 사이의 거리를 계산하고, 상기 거리가 수학식 3의 거리(D)보다 작은지를 판단한다.
Figure 112008009220285-pat00003
여기서, σi 는 가장 근접한 가우스의 분산이고, Thrvar은 상수이며, 본 발명의 감시 시스템 중 Thrvar은 가장 바람직하게는 3이지만, 본 발명은 이에 한정되지 않는다.
만약 거리가 D=σiⅹThrvar보다 작으면, 상기 화소는 가장 가까운 가우스 모델에 정합되는 것으로 판단한다.
도 10은 도 7의 정합 화소 모델을 찾는 단계(S720)을 보이는 개략도이다.
도 10을 참조하면, 참조번호 101은 예를 들어 RGB의 색 공간을 나타내고, 가우스(102)는 전경의 가우스이고, 가우스(103)은 배경의 가우스이며, 화소(104)는 입력 화소이며, 입력 화소(104)는 어떠한 배경 가우스의 범위에도 있지 않다. 화소(105)는 다른 입력 화소이고, 이는 가우스(103)이 포괄하는 범위 내에 있어 화소(105)와 가우스(103)의 모델은 서로 정합하는 것으로 판단한다.
다시 도 3 및 도 7을 참조하면, 단계(S730)에서 모델 업그레이드 모듈(222)은 화소 모델에 업그레이드를 진행한다. 만약 상기 화소가 한 가우스에 속하면 상기 가우스의 중심과 분산을 업그레이드하고 가중치를 업그레이드한다. 여기서, 상기 가우스의 가중치를 업그레이드하고 기타 가우스의 가중치를 감소시킴으로써 상기 가중치를 업그레이드할 수 있다. 만약 상기 화소가 임의의 가우스에 포함되지 않으면, 최소 가중치를 가지는 구 가우스를 제거하고 상기 화소의 색을 중심으로 하는 새 가우스를 증가시킨다. 상기 화소 모델에 대해 업그레이드를 진행함과 동시에 상기 수학식 2에 따라 그레디언트에 대해 업그레이드를 진행한다. 장면 모델의 변화는 매우 느리므로, 상기 그레디언트맵은 각각의 새 프레임에 대해서가 아니라 N개의 새 프레임 단위로 한번 업그레이드할 뿐이다.
단계(S740)에서 화소 상태 확정 모듈(223)은 이미지의 화소 상태가 전경인지 배경인지를 확정한다. 먼저 화소 상태 확정 모듈(223)은 전경 및 배경을 확정하는데 사용할 확률 문턱값을 계산한다. 전체 비디오 주파수가 지속되는 동안, 상기 이미지의 임의의 화소에 대해 Thrbg와 동일하거나 이를 넘는 시간 동안 상기 화소가 배경색이고, 남는 시간 동안 전경 물체의 색이면 상기 화소는 분명 배경일 것이다. Thrbg 는 전체 비디오 주파수 지속 시간 동안 상기 화소가 배경색을 나타내는 시간 비율이 될 것이며, 본 발명의 감시 시스템에서 가장 바람직하게는 Thrbg=85%이다.
그런 다음 캡쳐된 이미지의 화소 가중치가 가우스 모델에 대해 큰 값에서 작은 값 순서로 배열된다. 가중치의 내림차순 배열에 따라 각 모델의 가중치를 서로 더하여 더해진 결과가 Thrbg을 넘을 때까지 계속한다. 서로 더해진 각 가중치와 관련되는 모델이 배경 모델로 분류되고, 후반부의 모델은 전경 모델로 분류된다.
단계(S750)에서 모든 화소의 상태가 조합되어 표시 이미지를 형성한다. 상기 표시 이미지 중 각 화소는 두 가중치를 취할 수 있는데, 예를 들어 카메라 이동 을 나타내는 실험 결과인 도 13 내지 15 중 흰 색은 전경을, 검은 색은 배경을 표시한다.
도 8은 도 6의 본 발명의 일 실시예에 따른 방법 중 카메라 이동을 검출하는 단계(S630)을 상세히 보이는 플로우 차트이다. 본 발명의 감시 카메라 이동 검출 방법은 스캔 라인 보충 방법(scan line filling method)을 사용한다.
도 2, 도 4 및 도 8을 참조하면, 단계(S810)에 있어서, 이동 검출 모듈(230)은 표시 이미지를 얻는다. 단계(S820)에서 연결 영역 분석 모듈(231)은 전경 화소에 대해 분석을 진행하고, 상기 전경 화소를 수 개 영역으로 구분한다. 여기서, 각 영역은 연결된 전경 화소로서 한 조를 이룬다. 단계(S830)에서 결정 모듈(232)은 영역의 개수를 계산한다. 만약 상기 영역의 개수가 문턱값보다 크다면, 현재 카메라의 이동이 있다는 것을 확정한다. 그렇지 않으면 현재 카메라 이동이 없다고 확정한다. 하지만, 때로 많은 작은 영역이 존재하여도 반드시 카메라의 이동이 발생하는 것은 아니다. 예를 들어, 나뭇잎이 흔들릴 때 많은 작은 변화 영역이 존재한다. 하지만 여전히 이런 상황은 카메라의 이동이 있었다고 인식된다. 이러한 상황에서 작은 영역은 배경이므로 이를 억제하여 오류를 감소시킬 수 있다.
도 9는 도 6에 도시된 본 발명의 일 실시예에 따른 방법 중 카메라 이동 발생 시 오류를 감소시키는 단계(S640)을 상세히 보이는 플로우 차트이다. 상기 단계는 장면 비교 및 모델 업그레이드 단계와 거의 비슷하며, 단지 구별점은 상기 과정에서는 장면 비교 및 모델 업그레이드 모듈(220)에서 전경 화소로 구별되기만 하는 화소를 실험 증명하여 카메라의 이동을 억제한다는 것이다.
도 2, 도 5 및 도 9를 참조하면, 단계(S910)에서 이동 억제 모듈(240)은 이미지 중 전경 화소를 얻는다. 이러한 전경 화소는 단계(S740)에서 화소 상태 확정 모듈(223)이 전경 상태에 있다고 확정한 전경 화소이다. 단계(S920) 이후 정합 전경 화소 모델을 찾는다. 상기 과정 중 화소 정합 모듈(242)은 적용 문턱값 계산 모듈(241)을 사용하여 계산한 적용 문턱값(Thrp)으로 정합 전경 화소 모델을 찾는다. 적용 문턱값 계산 모듈(241)은 아래의 수학식 4를 이용해 적용 문턱값(Thrp)를 계산할 수 있다.
Figure 112008009220285-pat00004
여기서, a는 장치 변수이고, p는 전경 화소이며, G(p)는 전경 화소(p)의 그레디언트이다. 문턱값(Thrvar)은 화소 정합 모듈(221)이 장면 모델 중 상기 화소와 정합하는 화소 모델에서 찾은 문턱값(Thrvar)와 동일하다. 수학식 3으로부터 큰 그레디언트 값을 가지는 화소에 대해 적용 문턱값(Thrp)의 값은 문턱값(Thrvar)보다 큰 것을 알 수 있고, 그레디언트가 작은 화소에 대해 적용 문턱값(Thrp)의 값은 문턱값(Thrvar)과 동일하다.
그런 다음 수학식 5에 따라 색(c)의 화소(p)가 가우스 분포N(ui, σi)와 정 합하는 지를 결정한다.
Figure 112008009220285-pat00005
여기서, c는 화소(p)의 색이고 ui 와 σi는 각각 화소(p)가 이전 임의의 시각에 색(c)에 있을 경우 가우스의 중심과 분산이며, Thrp 은 적용 문턱값이다.
만약 색(c)가 수학식 5를 만족하면, 상기 화소는 오류로 인식된다. 즉, 가우스 분포 N(ui, σi)는 색(c)의 화소 정합 모델이다. 만약 화소(p)에서 상기 수학식 5가 만족된다면 상기 화소(p)에서 일어난 (|c-ui|)만큼의 변화는 전경이 아닌 배경 내의 미미한 변화로 인식되므로 화소(p)는 전경에서 제외되고 현재 화소(p)의 가우스 분포에 정합하는 배경으로 간주된다. 즉, 수학식 3과 같이 고정 문턱값을 사용하였다면 카메라의 흔들림에 의해 배경 중 경계영역이 움직이면서 해당 경계영역 근처에서 발생한 화소(p)의 값의 변화가 해당 화소(p)의 가우스 분포 중심값(ui)과의 차이보다 크므로 무조건 전경으로 오인식되었을 텐데, 수학식 4와 같이 그레디언트(G(p))에 비례하여 증가하는 적용 문턱값(Thrp)을 수학식 5와 같이 적용함으로써 화소(p)에서의 변화가 전경으로 오인식되는 걸 방지할 수 있다.
상술한 과정을 통해 전경 화소의 정합 모델을 찾는다. 문턱값(Thrp)을 사용하여 전경 화소(p)의 정합 모델을 찾은 후 단계(S930)에서 정합 모델에 대해 업 그레드를 실행한다. 단계(S930)의 업그레이드 과정과 도 7의 단계(S730)에서 진행하는 화소 모델 업그레이드 과정은 유사하며, 단계(S920)에서 정합 가우스 분포를 찾은 경우, 상기 가우스의 중심과 분산을 업그레이드하고 가중치를 업그레이드한다.
만약 상기 화소가 임의의 가우스에 속하지 않으면, 즉 수학식 5를 만족하지 않으면, 최소 가중치를 가지는 구 가우스를 제거하고, 상기 화소의 색(즉, 화소(p)의 색(c))를 중심으로 하는 새 가우스를 증가시킨다. 그런 다음, 도 7의 단계(S740)과 단계(S750)과 유사한 과정의 단계(S940)과 단계(S950)을 진행하여 화소 상태를 확정하고 표시 이미지를 설정한다.
도 11은 카메라 이동을 보이는 개략도이다.
도 11에서 도시한 바와 같이, 참조부호 561이 표시하는 이미지는 실제 물체이며, 참조부호 562는 카메라의 화소를 대표한다. 카메라는 물체를 화소로 분산시키고, 물체 경계의 화소는 전경색 및 배경색의 조합으로 이루어짐을 알 수 있다. 카메라 이동시 화소색의 변화와 카메라 이동 거리와 전경색 및 배경색 간의 차이는 관련이 있다. 화소 거리는 측정이 매우 어렵지만, 전경색 및 배경색 사이의 차이는 배경 모델의 그레디언트값과 동일한 값이다.
도 12는 카메라의 미세 이동이 발생한 것에 대한 실험 결과 사진을 보이는 도면이다. 도 12를 참조하면, 상부의 나무가 있는 거리 사진은 원 이미지이며, 아래 이미지는 이를 줌(zoom)한 상세 이미지이다. 이 경우 두 이미지의 차이가 거의 나타나지 않는다.
도 13은 카메라의 미세 이동이 발생할 때 이를 억제한 실험 결과를 보이는 도면이다. 도 13의 상부에 나무가 있는 정원 사진은 원 이미지이며, 아래 이미지는 이동억제전 화소 모델로 정합된 이미지(a)와 이동 억제 처리를 행한 이미지(b)이다. 상기 이동이 미세하여 이동 억제 후 거의 오류가 발생하지 않는 것을 알 수 있다.
도 14는 도 13의 이동에 비해 이동이 비교적 큰 카메라 이동에 대한 실험 결과를 보이는 도면이다.
도 14에 도시된 바와 같이, 이동 억제 전의 화소 모델 이미지(a)와 이동 억제 후 이미지(b)를 비교하면, 이동 억제 후 여전히 오류가 잔류하는 것을 알 수 있으나 이 오류는 이미 작은 수로 억제되고 억제된 오류는 후속 처리 과정을 통해 제거될 수 있다. 상기 장면에서 어떤 사람이 걸어가며, 이 사람의 영역은 전경으로 검출된다. 이동 억제 후의 이미지에서, 비록 이동으로 인한 전경이 감소되었으나 상기 사람 영역은 영향을 받지 않는다. 따라서, 본 발명의 카메라 이동 검출 및 억제 방법에 따르면, 이동 억제가 오류를 많이 감소시킬 수는 있으나 모든 전경 영역에 대한 영향을 억제할 수 없다는 것을 알 수 있다.
도 15는 도 14의 이동에 비해 더 큰 카메라 이동이 있었을 때의 실험 결과를 보이는 도면이다.
도 15를 참조하면, 상기 이동이 너무 커서 억제 전의 이미지(a)에 비해 심지어 억제 후에도 여전히 많은 오류가 존재한다. 하지만 이동 억제 후 대부분의 오류가 이미 제거되었음을 뚜렷이 볼 수 있다.
본 발명의 일 실시예에 따른 장치 및 방법에 따르면 효과적으로 감시 카메라 시스템의 카메라 이동을 검출하고 카메라 이동이 일으킨 오류를 효과적으로 억제할 수 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.
도 1은 본 발명의 일실시예에 따른 감시 카메라 장치 중 카메라의 이동이 일으키는 영향을 검출하고 억제하는 장치의 구조를 보이는 블록도,
도 2는 도 1에 도시된 본 발명의 일 실시예에 따른 감시 카메라 장치의 이미지 처리 모듈(200)의 구조를 보이는 블록도,
도 3은 본 발명의 일 실시예에 따른 감시 카메라 장치의 이미지 처리 모듈(200) 중 장면 비교 및 모델 업그레이드 모듈(220)의 구조를 보이는 블록도,
도 4는 본 발명의 일실시예에 따른 감시 카메라 장치의 이미지 처리 모듈(200) 중 이동 검출 모듈(230)의 구조를 보이는 블록도,
도 5는 본 발명의 일 실시예에 따른 감시 카메라 장치의 이미지 처리 모듈(200) 중 이동 억제 모듈(240)의 구조를 보이는 블록도,
도 6은 본 발명의 일 실시예에 따른 카메라 이동이 발생하는 영향을 검출하고 억제하는 방법을 보이는 플로우 차트,
도 7은 도 6에 도시된 본 발명의 일 실시예에 따른 방법 중 장면 비교 및 모델 업그레이드 과정(S620)의 플로우 차트,
도 8은 도 6의 본 발명의 일 실시예에 따른 방법 중 카메라 이동을 검출하는 단계(S630)을 상세히 보이는 플로우 차트,
도 10은 도 7의 정합 화소 모델을 찾는 단계(S720)을 보이는 개략도,
도 11은 카메라 이동을 보이는 개략도,
도 12는 카메라의 미세 이동이 발생한 것에 대한 실험 결과 사진을 보이는 도면,
도 13은 카메라의 미세 이동이 발생한 것에 대한 실험 결과 사진을 보이는 도면,
도 14는 도 13의 이동이 비교적 큰 카메라 이동에 대한 실험 결과를 보이는 도면,
도 15는 도 14의 이동에 비해 더 큰 카메라 이동이 있었을 때의 실험 결과를 보이는 도면.

Claims (24)

  1. 새 이미지를 캡쳐하는 이미지 캡쳐 모듈; 및
    장면 모델을 저장하고, 상기 캡쳐한 새 이미지와 상기 장면 모델을 비교하여 상기 장면 모델을 업그레이드하고, 상기 장면 모델의 업그레이드 결과에 따라 상기 새 이미지의 화소 상태를 확정하여 카메라 이동 여부를 검출하며, 상기 카메라의 이동이 검출될 때 상기 카메라 이동으로 발생한 오류를 억제하는 이미지 처리 모듈;
    을 구비하는 감시 카메라 장치.
  2. 제1항에 있어서,
    상기 오류가 억제된 이미지를 표시하는 디스플레이 모듈을 더 구비하는 감시 카메라 장치.
  3. 제1항에 있어서,
    상기 장면 모델은 화소가 분포한 집합이고, 수학식 6에 나타나는 wi는 각 가우스의 가중치, N(ui, σi)는 중심이 ui, 분산이 σi 인 가우스 분포를 가지는 혼합 가우스 모델로 상기 각 화소의 색 분포를 설명하는 감시 카메라 장치.
    Figure 112008009220285-pat00006
  4. 제3항에 있어서,
    상기 이미지 처리 모듈은,
    상기 장면 모델을 저장하는 장면 모델 모듈;
    상기 캡쳐한 새 이미지와 상기 저장된 장면 모델을 비교하고, 상기 비교 결과에 따라 상기 장면 모델을 업그레이드하며, 상기 장면 모델에 대한 업그레이드 결과에 따라 상기 이미지의 화소의 상태를 확정하는 장면 비교 및 모델 업그레이드 모듈;
    상기 이미지의 화소 상태에 따라 상기 카메라가 이동하였는지를 검출하는 이동 검출 모듈; 및
    상기 이동 검출 모듈이 상기 카메라 이동을 검출할 때 상기 카메라 이동으로 인해 일어난 오류를 억제하는 이동 억제 모듈;
    을 구비하는 감시 카메라 장치.
  5. 제4항에 있어서,
    상기 장면 모델 모듈은 수학식 7을 통해 Np는 화소(p)의 인접 화소, u1 p는 p 점에서 가장 자주 나타나는 색, u1 q 와 u2 q는 p점에 인접한 q점에서 자주 나타나는 두 가지 색을 나타낼 때, 상기 각 화소(p)의 그레디언트(G(p))를 계산하고 저장하는 감시 카메라 장치.
    Figure 112008009220285-pat00007
  6. 제5항에 있어서,
    상기 장면 비교 및 모델 업그레이드 모듈은,
    상기 장면 모델 중 상기 새 이미지의 각 화소에 정합하는 화소 모델을 찾는 화소 정합 모듈;
    상기 화소 정합 모듈이 찾은 상기 정합 화소 모델을 업그레이드하는 모델 업그레이드 모듈; 및
    상기 이미지의 각 화소가 전경 화소인지 배경 화소인지를 확정하는 화소 상태 확정 모듈;
    을 구비하는 감시 카메라 장치.
  7. 제6항에 있어서,
    상기 화소 정합 모듈은 상기 새 이미지의 각 화소와 상기 혼합 가우스 모델 의 각 가우스 중심(ui)을 비교하여 가장 근접한 가우스를 찾고, 상기 새 이미지의 각 화소와 가장 근접한 가우스 간의 거리를 계산하며, 수학식 8을 이용하여 σi는 가장 근접한 가우스의 분산을 표시하고 문턱값(Thrvar)이 상수일 때 상기 거리가 수학식 8의 거리(D)보다 작은지를 판단하며, 만약 상기 거리가 상기 수학식 8의 거리(D)보다 작으면, 상기 화소를 상기 가장 근접한 가우스 모델로 설정하는 감시 카메라 장치.
    Figure 112008009220285-pat00008
  8. 제6항에 있어서,
    상기 모델 업그레이드 모듈은 상기 화소가 상기 가장 근접한 가우스 모델에 속하면, 상기 가우스 모델의 중심과 분산을 업그레이드하고 상기 가우스 모델의 가중치를 증가시키고 기타 가우스 모델의 가중치를 감소시키며, 상기 화소가 임의의 가우스 모델에 속하지 않으면, 상기 모델 업그레이드 모듈은 최소 가중치를 가지는 가우스 모델을 제거하며, 상기 화소의 색을 중심으로 하는 새 가우스 모델을 증가시키는 감시 카메라 장치.
  9. 제8항에 있어서,
    상기 모델 업그레이드 모듈은 상기 화소 정합 모듈이 찾은 상기 정합 화소 모델을 업그레이드하는 동시에 상기 그레디언트에 대해 업그레이드를 진행하는 감시 카메라 장치.
  10. 제4항에 있어서,
    상기 이동 검출 모듈은,
    연결된 전경 화소를 한 영역으로 분할하여 상기 연결된 전경 화소를 포함하는 다수의 영역을 얻는 연결 영역 분석 모듈; 및
    상기 영역의 개수를 계산하여, 만약 상기 개수가 문턱값보다 크면 현재에 상기 카메라의 이동이 있었음을 확정하는 결정 모듈;
    을 구비하는 감시 카메라 장치.
  11. 제4항에 있어서,
    상기 이동 억제 모듈은,
    적용 문턱값을 계산하는 적용 문턱값 계산 모듈;
    상기 적용 문턱값 계산 모듈이 계산한 상기 적용 문턱값을 채용하여 상기 장면 모델에서 전경 화소와 정합하는 화소 모델을 찾는 화소 정합 모듈;
    상기 화소 정합 모듈이 찾은 정합 화소 모델에 대해 업그레이드를 진행하는 모델 업그레이드 모듈; 및
    업그레이드된 상기 이미지의 각 화소가 전경 화소인지 배경 화소인지를 확정하는 화소 상태 확정 모듈;
    을 구비하는 감시 카메라 장치.
  12. 제11항에 있어서,
    상기 적용 문턱값은 Thrp 가 화소(p)의 적용 문턱값이고 a가 장치 변수이며, p가 전경 화소이고, G(p)가 전경 화소(p)의 그레디언트를 표시하고, 문턱값(Thrvar)이 상수인 경우 수학식 9를 이용하여 계산하는 감시 카메라 장치.
    Figure 112008009220285-pat00009
  13. 제12항에 있어서,
    상기 화소 정합 모듈은 수학식 10을 이용하여 상기 전경 화소와 정합하는 모델을 찾고, 만약 화소(p)의 색(c)이 수학식 10을 만족하면 상기 전경 화소와 상기 모델의 가우스 분포(N(ui, σi))가 정합하는 것으로 판단하는 감시 카메라 장치.
    Figure 112008009220285-pat00010
  14. 새 이미지를 캡쳐하고 장면 모델을 저장하는 단계;
    상기 캡쳐된 새 이미지와 상기 저장된 장면 모델을 비교하여 정합 화소 모델을 찾는 단계;
    상기 정합 화소 모델을 업그레이드하고, 상기 이미지의 화소 상태를 확정하는 단계;
    상기 이미지의 화소 상태에 따라 카메라 이동을 검출하는 단계; 및
    상기 카메라 이동이 검출되었을 때, 상기 카메라 이동이 일으키는 오류를 억제하는 단계;
    를 포함하는 감시 카메라 제어 방법.
  15. 제14항에 있어서,
    상기 장면 모델을 저장하는 단계에서,
    상기 장면 모델은 화소가 분포한 집합이고, 수학식 11에 나타나는 wi는 각 단일 가우스의 가중치, N(ui, σi)는 중심이 ui, 분산이 σi 인 가우스 분포를 가지는 혼합 가우스 모델로 상기 각 화소의 색 분포를 설명하는 감시 카메라 제어 방법.
    Figure 112008009220285-pat00011
  16. 제14항에 있어서,
    상기 장면 모델을 저장하는 단계에서,
    수학식 12를 통해 Np는 화소(p)의 인접 화소, u1 p는 p점에서 가장 자주 나타나는 색, u1 q 와 u2 q는 p점에 인접한 q점에서 자주 나타나는 두 가지 색을 나타낼 때, 상기 각 화소(p)의 그레디언트(G(p))를 계산하고 저장하는 감시 카메라 제어 방법.
    Figure 112008009220285-pat00012
  17. 제15항에 있어서,
    상기 정합 화소 모델을 찾는 단계는,
    상기 새 이미지의 각 화소와 혼합 가우스 모델의 각 화소의 중심(ui)를 비교하여 가장 근접한 가우스를 찾는 단계와,
    상기 새 이미지의 각 화소와 가장 근접한 가우스 사이의 거리를 계산하고, 상기 거리가 σi가 가장 근접한 가우스의 분산이고 Thrvar이 상수일 때 수학식 13의 거리(D)보다 작으면 상기 화소는 상기 가장 근접한 가우스 모델과 정합하는 것을 확정하는 단계
    를 포함하는 감시 카메라 제어 방법.
    Figure 112008009220285-pat00013
  18. 제15항에 있어서,
    상기 이미지의 화소 상태를 확정하는 단계는,
    상기 정합 화소 모델에 업그레이드를 진행하는 단계와,
    상기 이미지의 각 화소가 전경 화소인지 배경 화소인지를 확정하는 단계
    를 포함하는 감시 카메라 제어 방법.
  19. 제18항에 있어서,
    상기 정합 화소 모델에 업그레이드를 진행하는 단계는,
    상기 화소가 상기 가장 근접한 가우스 모델에 속하면, 상기 가우스 모델의 중심과 분산을 업그레이드하고 상기 가우스 모델의 가중치를 증가시키며 기타 가우스 모델의 가중치를 감소시키는 단계와,
    상기 화소가 임의의 가우스 모델에 속하지 않으면, 상기 최소 가중치를 가지는 가우스 모델을 제거하고 상기 화소의 색을 중심으로 하는 새 가우스 모델을 증가시키는 단계
    를 포함하는 감시 카메라 제어 방법.
  20. 제14항에 있어서,
    상기 이미지의 화소의 상태를 확정하는 단계에서,
    상기 모든 화소의 상태를 조합하여 표시 이미지를 형성하는 감시 카메라 제어 방법.
  21. 제14항에 있어서,
    상기 카메라 이동을 검출하는 단계는,
    연결된 전경 화소를 한 영역으로 분할하여 연결된 전경 화소를 포함하는 다수의 영역을 얻는 단계와,
    상기 영역의 개수를 계산하여, 만약 상기 개수가 문턱값보다 크면 현재 상기 카메라의 이동이 있음을 확정하는 단계
    를 포함하는 감시 카메라 제어 방법.
  22. 제14항에 있어서,
    상기 카메라 이동이 일으키는 오류를 억제하는 단계는,
    적용 문턱값을 계산하는 단계와,
    상기 계산된 적용 문턱값을 채용하여 상기 장면 모델 중 전경 화소와 정합하는 모델을 찾는 단계와,
    상기 찾은 정합 모델을 업그레이드하는 단계와,
    상기 이미지의 각 화소가 전경 화소인지 배경 화소인지를 확정하는 단계
    를 포함하는 감시 카메라 제어 방법.
  23. 제22항에 있어서,
    상기 적용 문턱값을 계산하는 단계에서,
    상기 적용 문턱값은 Thrp 가 화소(p)의 적용 문턱값이고 a가 시스템 변수이며, p가 전경 화소이고, G(p)가 전경 화소(p)의 그레디언트를 표시하고, Thrvar이 상수인 경우 수학식 14를 이용하여 계산하는 감시 카메라 제어 방법.
    Figure 112008009220285-pat00014
  24. 제23항에 있어서,
    상기 전경 화소와 정합하는 모델을 찾는 단계에서,
    수학식 15를 이용하여 상기 전경 화소와 정합하는 모델을 찾고, 만약 화소(p)의 색인 c가 상기 수학식 15를 만족하면 상기 전경 화소와 가우스 분포 N(ui, σi)가 정합하는 것으로 판단하는 감시 카메라 제어 방법.
    Figure 112008009220285-pat00015
KR1020080011391A 2007-10-29 2008-02-04 카메라 이동 영향을 검출하고 억제하는 감시 카메라 장치및 그 제어 방법 KR101441947B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN200710165357A CN101426080B (zh) 2007-10-29 2007-10-29 监控系统中检测并抑制相机移动产生的影响的设备和方法
CN200710165357.5 2007-10-29

Publications (2)

Publication Number Publication Date
KR20090043416A KR20090043416A (ko) 2009-05-06
KR101441947B1 true KR101441947B1 (ko) 2014-11-03

Family

ID=40616391

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080011391A KR101441947B1 (ko) 2007-10-29 2008-02-04 카메라 이동 영향을 검출하고 억제하는 감시 카메라 장치및 그 제어 방법

Country Status (2)

Country Link
KR (1) KR101441947B1 (ko)
CN (1) CN101426080B (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101039248B1 (ko) * 2009-07-09 2011-06-07 엠텍비젼 주식회사 차량용 영상 저장 장치 및 그 설치 상태 통지 방법
CN102118561B (zh) * 2010-05-27 2013-09-11 周渝斌 监控系统中相机移动检测系统及方法
CN102340619A (zh) * 2010-07-21 2012-02-01 杭州华三通信技术有限公司 一种移动侦测方法和装置
CN102890771A (zh) * 2011-07-20 2013-01-23 上海银晨智能识别科技有限公司 判断图像摄取装置是否发生移动的方法和系统
CN102722889B (zh) * 2012-05-31 2015-12-16 信帧科技(北京)有限公司 一种图像背景获取方法和装置
JP5397714B1 (ja) * 2012-08-01 2014-01-22 株式会社ジェイエイアイコーポレーション 監視用カメラ装置
CN105678730A (zh) * 2014-11-17 2016-06-15 西安三茗科技有限责任公司 一种基于图像识别的相机移动自检测方法
CN111147806A (zh) * 2018-11-06 2020-05-12 天地融科技股份有限公司 一种视频内容风险检测方法、装置及系统
CN109438356B (zh) * 2018-11-29 2022-04-08 江苏乐斯化学有限公司 一种咪鲜胺原药的纯化方法
CN111014892B (zh) * 2019-12-13 2021-11-23 华中科技大学鄂州工业技术研究院 一种焊缝轨迹监控系统
CN115565134B (zh) * 2022-10-13 2024-03-15 广州国交润万交通信息有限公司 球机监控盲区诊断方法、系统、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010000107A (ko) * 2000-04-28 2001-01-05 이종법 다중 이동물체 추적/감시 시스템
WO2005122094A1 (en) 2004-06-14 2005-12-22 Agency For Science, Technology And Research Method for detecting desired objects in a highly dynamic environment by a monitoring system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7359552B2 (en) * 2004-12-15 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Foreground detection using intrinsic images
CN100508555C (zh) * 2007-03-23 2009-07-01 北京中星微电子有限公司 一种静止物体检测的方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010000107A (ko) * 2000-04-28 2001-01-05 이종법 다중 이동물체 추적/감시 시스템
WO2005122094A1 (en) 2004-06-14 2005-12-22 Agency For Science, Technology And Research Method for detecting desired objects in a highly dynamic environment by a monitoring system

Also Published As

Publication number Publication date
CN101426080A (zh) 2009-05-06
KR20090043416A (ko) 2009-05-06
CN101426080B (zh) 2012-10-17

Similar Documents

Publication Publication Date Title
KR101441947B1 (ko) 카메라 이동 영향을 검출하고 억제하는 감시 카메라 장치및 그 제어 방법
US9098748B2 (en) Object detection apparatus, object detection method, monitoring camera system and storage medium
US10070053B2 (en) Method and camera for determining an image adjustment parameter
JP5389903B2 (ja) 最適映像選択
US7822275B2 (en) Method for detecting water regions in video
US8254630B2 (en) Subject extracting method and device by eliminating a background region using binary masks
KR100659781B1 (ko) 씨씨디 영상에서의 연기 검출방법 및 장치
EP2709062B1 (en) Image processing device, image processing method, and computer readable medium
US10127635B2 (en) Method and device for image noise estimation and image capture apparatus
KR101204259B1 (ko) 화재 검출 방법
JP4764172B2 (ja) 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム
CN107635099B (zh) 一种人体感应双光网络摄像机及安防监控系统
JP6924064B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
JP2008259161A (ja) 目標追尾装置
JP3486229B2 (ja) 画像変化検出装置
CN102111552A (zh) 图像处理设备和图像处理方法
WO2013114803A1 (ja) 画像処理装置及びその画像処理方法、並びにコンピュータ・プログラム、および画像処理システム
CN108184098B (zh) 安全区域的监控方法以及系统
CN111428626B (zh) 一种移动物体的识别方法、装置、及存储介质
JP2010074315A (ja) 被写体追尾方法及び撮像装置
JP4751871B2 (ja) 撮像対象検出装置および方法
KR101893677B1 (ko) 컬러 영상 내의 변화영역을 검출하는 방법 및 그 장치
JP2009258770A (ja) 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
JP3736836B2 (ja) 物体検出方法及び物体検出装置及びプログラム
WO2013114802A1 (ja) 画像処理装置及びその画像処理方法、並びにコンピュータ・プログラム、および画像処理システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170818

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190820

Year of fee payment: 6