KR101889051B1 - 모니터링 시스템들에서 신뢰성을 증가시키는 방법 - Google Patents

모니터링 시스템들에서 신뢰성을 증가시키는 방법 Download PDF

Info

Publication number
KR101889051B1
KR101889051B1 KR1020160165973A KR20160165973A KR101889051B1 KR 101889051 B1 KR101889051 B1 KR 101889051B1 KR 1020160165973 A KR1020160165973 A KR 1020160165973A KR 20160165973 A KR20160165973 A KR 20160165973A KR 101889051 B1 KR101889051 B1 KR 101889051B1
Authority
KR
South Korea
Prior art keywords
line
predetermined
image
lines
distance
Prior art date
Application number
KR1020160165973A
Other languages
English (en)
Other versions
KR20170069937A (ko
Inventor
엠마뉴엘 요한쏜
Original Assignee
엑시스 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엑시스 에이비 filed Critical 엑시스 에이비
Publication of KR20170069937A publication Critical patent/KR20170069937A/ko
Application granted granted Critical
Publication of KR101889051B1 publication Critical patent/KR101889051B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 모션 비디오 카메라에 의해 캡처되는 장면 내의 미리결정된 제1 라인에서 객체가 넘어가는 이벤트를 검출하는 방법에 관한 것이다. 객체 이미지가 상기 미리결정된 제1 라인을 넘어가는지를, 상기 모션 비디오 카메라에 의해 캡처되는 상기 장면의 이미지들로부터 결정하는 단계와; 상기 미리결정된 제1 라인을 넘어가는 상기 객체 이미지의 크기에 연관된 크기 값을 계산하는 단계와; 상기 객체와 상기 미리결정된 제1 라인과의 접촉점과 미리 결정된 제2 라인 근처의 점 사이의 거리로부터 계산된 값을 라인 거리를 설정하는 단계와; 그리고 기 계산된 크기 값과 상기 라인 거리 사이의 관계가 미리결정된 범위 내에 있으면 객체가 넘어가는 이벤트 신호를 발생시키는 단계를 포함한다.

Description

모니터링 시스템들에서 신뢰성을 증가시키는 방법{METHOD FOR INCREASING RELIABILITY IN MONITORING SYSTEMS}
본 발명은, 캡처된 모션 비디오의 분석, 특히, 미리결정된 라인을 넘는 객체들을 모션 비디오에서 검출하는 방법에 관한 것이다.
감시에서 하나의 공통적인 작업은, 미리 결정된 경계 또는 라인, 예를 들어, 펜스를 어떤 사람 또는 어떤 물체가 넘어가는지를 결정하는 것이다. 이러한 타입의 감시는, 수동적으로 수행이 되면 매우 지루한 작업이며, 그 결과 다양한 자동적인 시스템들이 수년간 제안되고 있다. 실제 물리적인 전선으로부터 광의 빔들까지의 서로 다른 타입들의 트립와이어(tripwire)들이 사용되고 있다. 이후에, 트립와이어는 논리적인 영역까지 확장되었다. 이러한 전형에서, 트립와이어는 카메라에 의해 캡처되는 모션 비디오를 분석하는 소프트웨어에서 구현된다. 그와 같은 논리 트립와이어들은 일반적으로 캡처되는 장면에서 하나의 또는 복수의 라인들을 정의하고, 이후, 모션 비디오는 상기 비디오에서 움직이는 객체들을 식별하도록 분석되며, 그리고 식별된 객체가 정의된 라인을 깨뜨리면, 이벤트가 발생된다. 상기 이벤트는, 알람, 오퍼레이터 인터페이스상의 표시, 일지의 입력 등을 발생시킬 수 있다.
상기 시스템이 유용한 알람들을 발생시키고 그리고 긍정 오류들을 발생을 피하도록 하기 위해, 상기 시스템들은, 일반적으로, 상기 장면에서 논리적인 라인을 넘어가는 객체가 단지 관심있는 타입들인 경우들에서만 이벤트를 발생시키도록 구성된다. 일부 애플리케이션들에서는, 관심있는 타입의 객체들은 사람들이며, 다른 애플리케이션들에서는, 코끼리들이며, 또 다른 애플리케이션들에서는, 개들이다. 관심있는 타입들의 객체들은, 심지어, 일정한 프로세스에서의 제품들, 예를 들어, 컨베이어 벨트에서 튀는 것없이 컨베이어 벨트 상에서 전달되는 객체들일 수 있다. 긍정 오류들을 발생시킬 수 있는 단순한 트립와이어 구현이 갖는 하나의 문제점은, 검출된 객체가 쥐, 사람 또는 트럭인지에 상관없이 검출된 객체가 라인을 넘어서자마자 이벤트가 발생한다는 점이다. 이러한 문제점은, 검출된 객체가 특정 크기일 때에만 또는 특정 크기들의 범위일 때에만 시스템이 이벤트를 발생시킴으로써 일부 알려진 구현들들에서 해결된다.
"Cisco Video Analytics User Guide", 2011, Text Part Number: OL-24428-01, from Cisco Systems Inc., 170 West Tasman Drive, San Jose, CA 95134-1706, USA에서, 일반적인 비디오 분석 프로세스로부터 특정 크기보다 작은 객체들을 삭제하는 최소 크기의 필터 그리고 특정 크기보다 큰 객체들을 삭제하는 최대 크기 필터를 구현하는 시스템이 개시된다. 상기 최대 필터는 장면의 스냅 샷으로 설정된다. 전방에 하나의 박스 및 후방에 하나의 박스인 2개의 박스들은, 장면의 스냅 샷으로 표시된다. 사용자는 이후, 전방 및 후방에 있는 객체들을 최대 크기를 각각 나타내기 위해 박스들의 각각의 크기를 변경시킨다. 이후, 동일한 절차가 최소 크기의 필터에 대해 수행된다. 즉, 박스들이 표시되고 그리고 박스들의 크기들이 조정된다. 상기 문서는, 또한, 최대 크기 필터 및 최소 크기 필터 각각이 사용될 수 있는 2개의 예들을 서술한다. 예를 들어, 나무 또는 나무의 가지로부터의 그림자는 사람으로서 잘못 분류될 수 있다. 이것은, 바람이 나무에 불고 그리고 나무의 그림자가 비디오 트립와이어를 넘으면 잘못된 알람들을 초래할 수 있다. 그와 같은 경우에서, 최대 객체 필터는, 비디오 트립와이어를 넘는 매우 큰 객체들을 무시할 정도로 충분한 정보를 시스템에 제공하도록 정의될 수 있다. 다른 예에서, 다람쥐와 같은 작은 동물은 잘못 분류될 수 있고 그리고 비디오 트립와이어를 넘을 때 잘못된 알람을 트리거할 수 있다. 이러한 상황은, 그때, 비디오 트립와이어를 넘는 작은 객체들을 상기 시스템이 무시하게 하는 최소 객체 크기 필터를 사용하여 해결될 수 있다.
따라서, 상기 구현은, 검출되는 상기 객체들의 크기로부터 구별가능한 크기를 갖는 객체들로부터 발생하는 긍정 오류들의 문제점을 해결한다. 하지만, 필터들을 설정하는 행위들은 매우 번거로우며 그리고 필터들의 설정들을 조정하는 것도 용이하지 않다.
본 발명의 목적은 모션 비디오 카메라에 의해 캡처되는 장면에서 미리결정된 라인들을 넘어가는 객체들의 개선된 검출을 제공하는 것이다. 추가적인 목적은, 검출되는 상기 객체들의 크기로부터 구별가능한 크기를 갖는 객체들을 발생시키는 긍정 오류들의 수를 감소시키는 것이다.
제1 양상에 따라, 이러한 그리고 다른 목적들은, 모션 비디오 카메라에 의해 캡처되는 장면 내의 미리결정된 제1 라인에서 객체가 넘어가는 이벤트를 검출하는 방법에 의해 전체적으로 또는 부분적으로 달성된다. 상기 방법은, 객체 이미지가 상기 미리결정된 제1 라인을 넘어가는지를, 상기 모션 비디오 카메라에 의해 캡처되는 상기 장면의 이미지들로부터 결정하는 단계와; 상기 미리결정된 제1 라인을 넘어가는 상기 객체 이미지의 크기에 관련된 크기 값을 계산하는 단계와; 상기 객체와 상기 미리결정된 제1 라인과의 접촉점과 미리 결정된 제2 라인 사이의 가장 가까운 거리로부터 계산된 값을 라인 거리 값으로 설정하는 단계와; 그리고 상기 계산된 크기 값과 상기 라인 거리 사이의 관계가 미리결정된 범위 내에 있으면 객체가 넘어가는 이벤트 신호를 발생시키는 단계를 포함한다. 상기 객체 이미지의 위치에서의 상기 장면에서의 참조에 상기 객체 이미지의 크기를 관련시키는 장점은, 상기 캡처되는 장면 내의 객체 이미지의 크기와 상기 대응하는 실제 객체의 실제 크기 사이의 관련성을 결정하는 것이 가능하다는 점이다. 따라서, 객체의 실제 크기가, 검출 라인을 따라, 객체 이미지 크기가 계산되는 것과 독립적으로 특정 크기 범위 내에 있는지를 결정하는 것이 가능하고, 그 결과, 관심이 없는 크기인 객체들로부터 긍정 오류들을 발생시키는 위험을 감소시키는 것이 가능해진다. 이는, 캡처된 이미지의 깊이로 스케일링되는 참조를 제공할 확률로 인해 가능해진다. 즉, 상기 참조는 카메라로부터 거리가 멀어질수록 더 작아지고, 이는 카메라로부터 상이한 거리들에 위치되는 객체의 행위에 대응한다. 더욱이, 2개의 라인들을 도입하고 그리고 상기 선을 넘는 객체의 위치에서 2개의 선들 사이의 거리를 생기게 함으로써, 상기 참조는, 선을 넘는 규칙들을 설정하는 프로세스가 더 간단해지도록 하고 그리고 그 결과들이 긍정 오류들에 덜 빠지도록 한다.
상기 객체의 크기는, 상기 캡처된 이미지 내의 객체에 의해 점유되는 영역의 크기에 연관될 수 있다. 추가로, 상기 객체 이미지의 크기에 연관된 상기 영역의 크기는, 상기 객체 이미지가 상기 캡처된 이미지에서 점유하는 이미지 요소들의 수로부터 계산될 수 있다.
일부 실시예들에서, 객체가 상기 미리결정된 제1 라인을 넘어가는 지를 결정하는 단계는, 상기 객체를 나타내는 이미지 요소가 상기 미리결정된 제1 라인에 포함되는 이미지 요소 상에 위치된다면, 상기 장면의 캡처된 이미지들에서 검출하는 단계를 포함한다. 일부 실시예들에서, 상기 미리결정된 제1 라인 및 상기 미리결정된 제2 라인은 가상의 라인들이고, 각 라인은 상기 장면 내에서 위치들을 나타내는 적어도 2개의 좌표들에 의해 정의된다. 상기 모션 비디오 카메라로부터 멀어지는 위치들을 나타내는 상기 장면 내의 이미지 요소들에서 상기 제1 및 제2 미리결정된 라인들이 서로 가까워지도록, 상기 제1 및 제2 미리결정된 라인들이 상기 장면에서 정의될 수 있다. 상기 라인들이 이러한 방식으로 정의되게 함으로써, 상기 카메라로부터의 서로 다른 거리들에서의 여러 참조 값들은, 상기 라인들이 상기 장면의 각각의 특성들에 가까워지게 함으로써 상기 사람에 의해 용이하게 가까워지도록 라인을 넘어가는 것과 관련된 이벤트 규칙들을 사용자가 용이하게 설정하도록 할 것이다. 많은 사람들에게, 실제 2개의 평행선들의 원근 시점을 모방하는 카메라의 캡처된 장면에서 2개의 라인들을 원근법으로 그리는 것은 용이하고 자연스럽다. 일반적으로, 통상적인 장면은, 2개의 라인들 사이의 거리의 정확성을 식별하기 위해 사용될 수 있는 여러 객체 참조들을 포함한다. 명백하게, 이러한 객체 참조들은, 한 쌍의 철로일 수 있지만, 사람의 생각에서 이용가능한 복잡한 이미지 분석에 의해 용이하게 처리되는 모든 것들, 예를 들어, 나무들, 기둥들, 펜스의 일부분들, 창문들, 잔디들 등도 가능하다. 이러한 것은 본 방법을 더욱 견고하게 한다.
상기 라인 거리를 설정하는 단계는, 상기 객체와 상기 미리결정된 제1 라인과의 접촉점에 대해 가장 짧은 거리를 갖는 상기 미리결정된 제2 라인을 따르는 위치를 계산하는 단계를 포함할 수 있다. 이러한 방식으로 참조 값에 액세스하는 것의 장점은, 2개의 라인들에 의해 도입되는 참조 값을 계속해서 적용하는 것으로부터 참조 값을 얻는 용이한 방법이라는 것이다.
더욱이, 상기 미리결정된 제1 라인 및 상기 미리결정된 제2 라인은 검출 라인 쌍이고, 그리고 복수의 검출 라인 쌍들은 장면에 대해 정의될 수 있다. 이러한 방식으로, 장면에서 하나 이상의 라인 또한 제한을 넘어가는 이벤트들을 정의하는 것이 가능하다. 또한, 상기 장면에서 복잡한 라인들에 대해 교차하는 라인 이벤트들의 발생을 용이하게 할 것이다.
일부 실시예들에서, 상기 객체가 넘어가는 이벤트 신호는, 상기 객체의 계산된 크기와 상기 라인 거리의 제곱 사이의 관계가 미리결정된 범위 내에 있을 때 발생된다. 더욱이, 상기 객체가 넘어가는 이벤트 신호는, 관계식 Ld 2k ≤ AO ≤ Ld 2K이 유효할 때 발생되고, Ld는 프로세스에서 결정된 상기 라인 거리의 값이고, AO는 상기 프로세스에서 결정된 상기 객체 영역의 값이고, k는 미리결정된 최저 한계 상수이며, 그리고 K는 미리결정된 최고 한계 상수이다.
일 양상에 따라, 캡처된 장면에서 미리결정된 라인들을 넘어가는 객체들을 검출하는 시스템은 상기의 표현된 다양한 방법들을 수행하도록 구성될 수 있다. 그와 같은 시스템에서의 피처들의 장점들은, 상기 방법에서의 대응하는 피처에 대한 장점과 일치할 수 있다.
본 발명의 추가적인 범위의 적용가능성은, 아래에서 주어진 상세한 설명으로부터 더 명확해질 것이다. 하지만, 본 발명의 바람직한 실시예들을 나타내는 동안, 상게한 설명 및 특정 실시예들은 단지 예로서 주어지는바, 이는 본 발명의 범위 내의 다양한 변화들 및 수정들이 상세한 설명으로부터 통상의 기술자에게 명확해지기 때문임을 알 수 있다. 따라서, 이러한 발명은, 서술된 디바이스의 특정 컴포넌트 부분들 또는 서술된 방볍들의 단계들로 제한되지 않는바, 이는 그와 같은 디바이스 및 방법은 변할 수 있기 때문임을 알 수 있다. 여기에서 사용되는 용어는 단지 특정 실시예들을 서술할 목적이고, 제한할려고 의도되지는 않음을 이해할 수 있다. 명세서 및 첨부된 청구 범위들에서 사용되는 것처럼, 단수를 나타내는 용어("하나") 및 "상기"는, 본문이 명확하게 다르게 표시되지 않으면 하나의 이상의 요소들이 존재함을 의미하도록 의도된다. 따라서, "센서" 또는 "상기 센서"에 대한 참조는, 여러 센서들을 포함할 수 있다. 더욱이, 단어 "포함하는"는 다른 요소들 또는 다른 단계들을 배재하지는 않는다.
본 발명의 다른 피처들 및 이점들은, 첨부된 도면들을 참조하여 현재의 바람직한 실시예의 다음의 상세한 설명으로부터 명확해질 것이다.
도 1은, 자연적인 액세스 제한, 즉, 검출 라인 쌍의 오버레이 및 객체 검출 박스가 인서팅되는 이미지인 펜스이다.
도 2는, 도 1의 검출 라인 쌍 및 객체 검출 박스를 나타내는 개략적인 이미지 및 본 발명의 실시예들에 따른 방법들에 따라 동작되는 파라미터들을 도시한다.
도 3은, 도 1의 검출 라인 쌍, 및 이벤트가 발생하는 크기보다 크거나 작은 크기들을 갖는 객체들의 2개의 예들을 나타내는 개략적인 이미지이다.
도 4는, 장면에서의 검출 라인들을 설정하기 위한 프로세서의 플로우차트이다.
도 5는, 모션 비디오 카메라에 의해 캡처되는 장면에서의 미리결정된 제1 라인에서 객체가 넘어가는 이벤트를 검출하는 방법의 플로우차트이다.
도 6은, 본 발명의 일부 실시예들에 따른 라인을 넘어가는 것을 검출하는 장치에 대한 개략적인 블록도이다.
도 7은, 본 발명의 일부 실시예들에 따른 모션 비디오 카메라에서 라인을 넘어가는 것을 검출하는 장치에 대한 개략적인 블록도이다.
도 8은, 복수의 검출 라인 쌍들을 나타내는 개략적인 이미지이다.
추가로, 도면들에서, 동일한 참조 번호들은 여러 도면들에 걸쳐 동일하거나 또는 대응하는 부분들을 나타낸다.
상기에서 서술한 것처럼, 본 발명은, 라인 또는 복수의 접속된 라인들이 사람, 동물 또는 상기에서 논의된 것과 같은 어떤 다른 객체를 통과하는 것이 금지된 경계 또는 제한을 정의하는 영역들에서의 주변 감시 및/또는 감시에 관한 것이다. 본 텍스트에서, 미리결정된 라인 또는 제한을 넘어가는 객체의 검출은, 트립와이어, 트립와이어 검출, 주변을 넘어가는 검출, 라인을 넘어가는 검출로 언급될 수 있다. 이러한 용어들은 장면에서 미리결정된 라인을 넘어가는 객체의 이벤트를 검출하거나 또는 이벤트에 반응하는 동일한 기능을 모두 나타낸다.
도 1을 참조하면, 모션 비디오 카메라에 의해 캡처된 조사된 장면(10)의 일 예가 도시된다. 상기 장면에서, 펜스(12)의 형태의 물리적인 주변이 존재한다. 현재의 예에서, 펜스(12)가 사람들이 건너갈 수 없는 주변임이 추측된다. 상기 주변을 통과하는 사람의 검출을 용이하게 하도록, 물리적인 주변(12)이, 검출을 수행하는 시스템에서, 한 쌍이 논리적인 라인들(14, 16)에 의해 표시된다. 상기 검출을 수행하는 시스템은, 상기 장면의 이미지를 캡처하는 모션 비디오 카메라이거나 또는 상기 카메라에 접속되고 상기 캡처된 장면으로부터의 이미지 데이터를 처리하는 기능을 갖는 다른 디바이스일 수 있다. 2개의 논리적인 라인들(14, 16)은 사용자에 의해 정의될 수 있다. 디스플레이 상에 그리고/또는 장면의 디지털 표시상에 논리적 라인들을 정의하는 복수의 방법들이 통상의 기술자에게 알려진다. 예를 들어, 사용자는 의도된 라인의 각각에 끝에서 한 점을 선택할 수 있고 그리고 상기 라인이 한 점에서 다른 점으로부터 연장되는 라인으로서 정의될 수 있다. 상기 2개의 라인들은, "원근법(perspective)"으로 그려진다. 즉, 상기 2개의 선들 사이의 거리는 상기 장면에서의 깊이를 반영해야한다. 이것은, 디스플레이되는 캡처된 장면을 바라보고 그리고 상기 장면의 여러 깊이에서의 라인들 사이의 고정된 거리를 상상하는 사용자에 의해 달성될 수 있고, 이는 수평선상에서의 한 점 쪽으로 수렴하는 2개의 라인들을 초래할 것이고, 상기 수평선은 보일 수도 보이지 않을 수도 있다. 이러한 방식으로, 사용자는 정의된 주변을 따라 캡처된 장면 내에서 다양한 깊이로 객체들의 실제 크기를 결정하기 위해 근접한 참조를 입력할 것이다.
상기 검출을 수행하는 시스템은, 또한, 장면에서 특정한 움직이는 객체들에서 객체들을 검출하는 객체 검출 기능을 포함한다. 또한, 상기 시스템은, 객체 이미지(18)의 영역 A0를 결정하거나 또는 근사치를 구하도록 배열되고, 상기 객체 이미지(18)는 모션 비디오 카메라에 의해 캡처되는 실제 객체의 표시이다. 상기 객체 검출, 및 상기 객체 이미지 영역 A0의 결정 또는 근사화는, 어떤 알려진 프로세스, 알고리즘 또는 수치적인 방법을 사용하여 수행될 수 있다. 상기 영역은, 예를 들어, 상기 검출된 이미지(18)에 대해 직사각형(20) 또는 다각형을 근사화함으로써 계산될 수 있고, 이후, 직사각형(20) 또는 다각형 내부의 이미지 요소들의 수를 카운트할 수 있다. 이미지 요소는 이미지 블록일 수 있거나 픽셀일 수 있다.
본 발명의 실시예들에서, 검출되는 객체는, 검출된 객체 이미지(18)의 결정된 영역, 및 객체 이미지(18)가 상기 라인을 가로지를 때 검출되는 라인들을 따른 위치에서, 2개의 라인들(14, 16) 사이의 거리에 기초하여 관심있는 객체로 결정된다. 객체 이미지(18)의 영역과 2개의 라인들(14, 16) 간 거리 사이의 관계는, 그때, 카메라로부터 먼 거리의 객체들이 카메라에 가까운 동일한 크기의 객체보다 더 작은 영역으로서 캡처될 경우라도, 상기 검출 시스템은 특정 실제 크기 범위 내에서 객체들을 정확하게 처리하도록 사용하는 것이 가능할 수 있다. 주변(12)을 따라 표시되는 위치가 발견되는 카메라로부터 멀리 떨어질수록 상기 라인들(12, 14) 사이의 거리는 더 작아지도록 배열되는 라인들(14, 16)에 의해 이것은 달성된다. 따라서, 2개의 라인들(14, 16) 사이의 거리는, 검출된 객체 이미지(18)의 실제 크기가 미리결정된 범위 내에 있는지를 시스템이 결정하도록 크기 참조로서 사용될 수 있다.
도 2에서, 일부 실시예들에 따른 트립와이어 이벤트를 결정하는데 고려하는 파라미터들이 도시된다. 이전에 언급된 것처럼, 검출된 객체 이미지(18)가 라인들(14, 16) 중 하나를 넘어가는 위치에서, 상기 라인들(14, 16) 사의 거리 Ld가 결정된다. 이러한 거리 Ld는 상기 가로지를 때 상기 라인들(14, 16) 사이의 가장 짧은 거리를 계산함으로써 결정될 수 있다. 또한, 라인(14)을 가로지를 때 검출된 객체 이미지(18)의 영역 A0가 결정된다. 이러한 영역 A0는 객체 주변의 논리적인 박스를 발생시킴으로써 결정될 수 있고 그리고 이후 박스 내의 픽셀들의 수를 계산할 수 있다. 다른 대안은, 검출된 객체 이미지(18)에 의해 점유되는 픽셀들에 기초하여 상기 영역을 계산하는 것이다. 통상의 기술자는, 디지털 이미지 내의 특정 영역 중 상기 영역을 계산하기 위한 다수의 방법들을 잘 알고 있다. 상기 객체 이미지(18) 가로지름이 트립와이어 이벤트를 발생시키는지 결정하기 위해, 상기 거리 Ld와 상기 객체 이미지의 영역 A0사이의 관계가 관찰된다. 이러한 관찰은, 명확하게 관심이 없는 객체들에 대한 트립와이어 이벤트, 예를 들어, 주변(12)을 넘어가는 토끼, 주변(12)을 넘어가는 구름의 그림자 등을 발생시키는 것을 피하도록 구현될 것이다. 도 3은, 매우 작은 객체 AO1 및 매우 큰 객체 AO2를 나타내는 영역들을 도시하고, 이 AO1 및 AO2 모두는, 트립와이어 이벤트를 발생시키는 객체 크기들의 범위 밖에 있어야 한다. 더욱이, 이러한 도면에서 보여진 것처럼, 2개의 객체 이미지들(30, 32)은 2개의 선들(14, 16) 사이의 서로 다른 거리들에 관한 것이다. 영역 AO1를 갖는 객체 이미지(30)는, 상기 라인들 중 하나를 넘어가는 객체 이미지(30)의 위치에서 상기 라인들(14, 16) 사이의 거리인 Ld1에 관한 것이고, 그리고 영역 AO2를 갖는 객체 이미지(32)는, 상기 라인들(14, 16) 중 하나를 넘어가는 객체 이미지(32)의 위치에서 상기 라인들(14, 16) 사이의 거리인 Ld2에 관한 것이다.
일부 실시예들에서, 라인(14, 16)을 넘어가는 상기 검출된 객체 이미지(18)의 위치에서의 상기 라인들(14, 16) 사이의 거리 Ld와 상기 검출된 객체 이미지(18)의 영역 사이의 관계는, 상기 라인(14, 16)을 넘어가는 객체 이미지의 위치에서 라인 거리 Ld에 기초하여 객체 이미지(18)의 영역에 대한 최저 검출 한계를 계산하고 그리고 동일한 라인 거리에 기초하여 객체 이미지(18)의 영역에 대한 최고 검출 한계를 계산함으로써, 즉, 특정 위치에서 트립와이어 이벤트를 트리거해야하는 영역들의 범위를 계산함으로써 결정될 수 있다. 상기 최저 검출 한계는, 상기 라인 거리 Ld의 제곱에 최저 검출 한계 계수 k를 곱한 것인 Ld 2k으로 계산될 수 있다.
최고 검출 한계는, 상기 라인 거리 Ld의 제곱에 최고 검출 한계 계수 K를 곱한 것인 Ld 2K으로 계산될 수 있다.
그에 따라, 트립와이어 이벤트를 트리거할 검출된 객체의 영역의 크기는 다음과 같이 표현될 수 있다:
Ld 2k ≤ AO ≤ Ld 2K
최저 제한 계수 k의 값 및 최고 제한 계수 K의 값은, 일부 실시예들에 따라, 미리 설정되고 그리고 조정가능하다. 이러한 계수들의 값들은 카메라에서 사용되는 렌즈들의 초점 거리에 따라 변할 수 있다. 상기 계수들의 값들은, 카메라의 광학 시스템에 적용가능하면, 줌 레벨들에 따라 변할 수 있다. 하지만, 상기 라인들(14, 16)이 대략 1m 떨어져 설정되고 그리고 트립와이어 이벤트가 사람 크기의 객체에 의해 트리거되도록 가정되면, 이러한 계수들의 초기값은 k=1/5 및 K=5가 될 수 있다. 이러한 계수 값들은 상당히 큰 오차 한계를 허용한다. 즉, 일부 원치 않는 긍정 오류 발생시킬 수 있지만, 조정들이 쉽게 발생할 수 있는 시스템 셋업에서의 완벽한 시작점일 수 있다. 사용된 객체 검출 알고리즘이 객체 이미지보다 훨씬 큰 객체 이미지 영역을 제공하는 경향이 있을 때, 이러한 계수들은 또한 양호한 시작점이다. 검출되는 객체 이미지에 대한 더 정확한 추정 알고리즘을 갖는 구현들에서, 상기 계수들은 유리하게 k=0.75 그리고 K=1.25로 설정될 수 있다.
더욱이, 도 1 내지 도 3에 관련하여 서술된 것처럼 셋업에서의 트립와이어 검출은, 상기 라인들(14, 16)의 어느 것이 정의된 범위 내에의 크기를 갖는 객체 이미지(18)에 의해 훼손될 때 트립와이어 이벤트를 발생시키도록 구성될 수 있다. 하지만, 대안으로, 상기 라인들(14, 16) 중 단지 하나만이 넘어가는 객체를 검출하도록 배열될 수 있거나 또는 다른 대안에서 추가적인 라인이 주변 자체에 배열될 수 있는 반면 라인들(14 및 16)에 대응하는 2개의 라인들은 카메라로부터의 거리에 관련된 객체들의 상대적인 크기를 계산하기 위한 입력을 제공하도록 배열된다. 다른 실시예들에서, 2개의 검출 라인들(14, 16)의 시스템은, 객체가 검출 라인들(14, 16) 중 제1 검출 라인를 가로지를 때 트립와이어 이벤트를 발생시키도록 지시받을 수 있고, 그리고 제2 검출 라인(14, 16)을 훼손한다. 실제의 라인을 넘어가는 객체의 어떤 부분도 존재하지 않는 캡처된 장면에서, 객체 이미지(18)의 일부가 검출 라인(14, 16) 상에 존재하도록, 객체가 검출 라인까지 움직이는 상황에 대해 오류가 있는 이벤트 발생을 피할 수 있다는 점에서, 이러한 구현은 유리하다.
이제, 본 발명의 일부 실시예들에 따라, 사용자가 트립와이어 라인들을 설정하는 방법인, 프로세스(100)을 나타내는 도 4의 플로우차트를 참조하여 보자. 첫번째, 트립와이어 검출이 설정되는 장면의 디지털 이미지는, 단계 102에서, 검출 라인들을 설정하는 오퍼레이터에 대해 디스플레이된다. 디지털 이미지는 장면의 정지 이미지일 수 있거나, 기록된 모션 비디오가 될 수 있거나 또는 라이브의 모션 비디오 스트림일 수 있다. 이후, 사용자는, 단계 104에서, 장면 내의 제1 지점 및 제2 지점을 나타냄으로써 제1 검출 라인(14)을 정의하여 시작한다. 상기 라인은, 이러한 2개의 지점들 사이의 라인으로 정의된다. 이후, 사용자는, 단계 106에서, 장면 내의 제3 지점 및 제4 지점을 나타냄으로써 제2 검출 라인(16)을 정의한다. 상기에서 언급된 것처럼, 2개의 라인들(14, 16)은, 사이 라인들이 서로에 대해 더 먼 거리에서 배열되는 영역들보다, 상기 카메라로부터 더 멀리 있는 장면의 위치들에서 서로 더 가까운 거리에 배열된다. 상기 라인들이 설정될 때, 단계 108에서, 사용자는 상위 및 하위 한계 계수들 k 및 K의 값들을 조정할 기회를 갖도록 표시된다. 라인들(14, 16)이 정의될 때, 상기 시스템은, 특정 경우에서의 애플리케이션에 대해 관련된 크기들의 객체들의 검출을 위해 설정된다.
도 5의 플로우차트에서, 트립와이어 이벤트 발생에 대한 프로세스(200)가 표시된다. 상기 프로세스는, 단계 202에서, 모션 비디오를 수신하는 것 및 단계 204에서, 모션 비디오에서 객체 이미지들을 검출하는 것을 포함한다. 객체 이미지(18)의 위치는, 이후, 단계 206에서, 검출 라인들(14, 16) 중 적어도 하나에 의해 점유되는 위치들과 비교된다. 검출된 객체 이미지(18)가 검출 라인들(14, 16) 중 하나를 가로지르면, 그때, 상기 프로세스는 단계 208로 계속된다. 검출된 객체 이미지(18)가 상기 검출 라인들(14, 16) 중 하나를 가로지르지 못할 때, 그때, 상기 프로세스는 리턴하여 다른 모션 비디오를 수신하고 계속하여 객체 이미지들을 검출한다.
상기 시스템이 라인을 넘어가는 것으로 해석하는 주변이 무엇인지 정의하기 위한 다양한 방법들이 존재한다. 상기 시스템을 구현하는 하나의 방식은, 상기 객체 이미지 주변에 그려진 박스가 라인을 터치할 때, 상기 라인을 넘어감을 검출하는 것이다. 다른 것은, 상기 검출된 객체 이미지의 픽셀 또는 한 상의 픽셀들이 상기 라인을 터치하자마자 넘어감을 검출하는 것이다. 또 다른 방식은, 미리결정된 양의 상기 객체 이미지가 상기 라인을 넘어갔을 때 또는 전체 객체 이미지가 상기 라인을 넘어가고 다른 측면 상에서 상기 라인으로부터 멀어지며 움직일 때, 상기 라인의 넘어감을 검출하는 것이다. 더욱이, 상기에서 언급된 것처럼, 검출시 사용되는 상기 라인들은 구현에 따라 변할 수 있다.
객체 이미지(18)가 상기 라인(14, 16)을 넘어가는 것으로 검출될 때, 상기 객체 이미지(18)의 영역 AO는, 단계 208에서 계산된다. 상기 영역 AO는, 또한, 이전에 서술된 서로 다른 방식들로 결정될 수 있다. 이후, 상기 객체 검출이 관련된 객체에 관련되는지 여부를 결정하기 위해, 단계 210에서, 넘어가는 라인의 위치에서 검출 라인 쌍 중 상기 검출 라인들(14, 16) 간 가장 짧은 거리가 계산된다. 상기 라인들 중 하나를 넘어가는 상기 객체의 위치에서, 상기 2개의 라인들(14, 16) 간 거리에 도달하기 위한 다른 기법들은, 이전에서 논의된 것처럼 구현될 수 있다. 이후, 단계 212에서, 이전에 서술된 것처럼, 예를 들어, 라인 거리 제곱 Ld 2과 객체 영역 AO을 비교함으로써, 그러한 라인 제곱 거리에서 2개의 라인들(14, 16) 사이의 거리 만큼 표시된 상기 카메라로부터의 거리에서 상기 객체 이미지(18)의 영역 AO이 이전에 서술된 범위 내에 있는지를 결정하기 위해, 상기 객체의 영역 AO 및 상기 라인들 중 하나를 넘어갈 때 상기 라인들 중 거리 Ld가 사용된다. 상기 라인 거리 Ld와 상기 라인(14, 16)을 넘어가는 상기 객체 이미지(18)의 영역 AO 사이의 관계가, 실제 객체가 현재 모니터링 기법에 대해 관심있는 크기를 갖는다고 나타내면, 이후, 단계 214에서, 트립와이어 이벤트가 발생되고, 그리고 트립와이어 이벤트는 모니터링하고 있는 클라이언트의 알람 시그널링 디바이스 또는 디스플레이 상에서 사용자 또는 사용자들에게 표시된다. 상기 라인(14, 16)을 넘어가는 객체의 영역 AO이 관심있는 객체들보다 더 작거나 또는 더 큰 값으로 결정될 때, 이후 프로세스는 단계 202로 리턴하고 그리고 트립와이어 이벤트를 발생시키지 않고 상기 트립와이어들을 계속해서 모니터링한다.
도 6을 참조하면, 본 발명의 일부 실시예들에 따라 라인을 넘어가는 것을 검출하는 디바이스(300)의 일 예가 도시된다. 이러한 라인을 넘어가는 것을 검출하는 디바이스이는, 비디오 입력 디바이스(302), 객체 이미지 검출기(304), 프로세싱 유닛(306), 비-휘발성 메모리(308), 트립와이어 이벤트 발생기(310), 상기 이벤트를 포함하는 데이터의 출력을 위한 출력부(312)를 포함한다. 상기 라인을 넘어가는 것을 검출하는 디바이스(300)은, 범용 컴퓨터, 아날로그 비디오를 디지털 비디오로 인코딩하고 컴퓨터 네트워크를 통해 상기 클라이언트들에 상기 발생된 비디오를 전송하도록 배열되는 네트워킹 비디오 인코더, 또는 모션 비디오에서 라인을 넘어가는 것들을 검출할 목적으로 만들어진 디바이스가 될 수 있다. 비디오 입력부(302)는, 모션 비디오, 예를 들어, 아날로그 비디오 또는 디지털 비디오를 포함하는 네트워크 트래픽를 수신하도록 구성되는 포트이다. 상기 객체 검출기(304)는 상기 수신된 모션 비디오 내에서 객체들을 검출하도록 구성된다.
상기 객체 이미지 검출기(304)는 전자 회로, 로직 게이트들 등을 사용하여 구현될 수 있다. 객체 이미지 검출기(304)는, 또한, 프로세싱 디바이스에서 실행되는 프로그램 코드에 의해 구현될 수 있고, 상기 프로세싱 디바이스는 개별 프로세싱 디바이스 또는 프로세싱 유닛(306)일 수 있다. 객체 이미지 검출기(304)의 기능은, 수신된 모션 비디오에서 객체 이미지들을 식별하는 것이고, 그리고 통상의 기술자는 그와 같은 기능을 달성하기 위해 복수의 서로 다른 가능한 구현들을 잘 알고 있다.
상기 프로세싱 유닛(306)은, 메모리에 저장되는 프로그램 코드를 실행가능하게 하는 어떤 타입의 범용 컴퓨터, 예를 들어, 마이크로프로세서, CPU 등일 수 있다. 상기 예시적인 라인을 넘어가는 것을 검출하는 디바이스(300)에서, 상기 프로세싱 유닛(306)은, 상기 검출 라인 쌍(14, 16) 내의 상기 라인들(14, 16) 중 적어도 하나를 넘어가는 객체 이미지(18)의 검출에 관련된 코드 및 객체 이미지의 영역을 계산하고, 라인 거리 Ld와 객체 이미지 영역 AO사이의 관계를 계산된 코드를 구동하고, 그리고 이러한 동작들에 기초하여, 트립와이어 이벤트의 발생에 대한 명령어를 전송한다. 일부 실시예들에서, 도 5와 관련하여 서술된 모든 기능들은 대응하는 프로세싱 유닛에서 코드를 실행함으로써 수행된다. 비-휘발성 메모리(308)는 프로세싱 유닛(306)에 의해 실행되는 프로그램 코드와 같은 정보를 저장할 수 있다. 또한, 상기 비-휘발성 메모리(308)는, 또한, 라인을 넘어가는 것의 검출에서 사용되는 검출 라인들(14, 16) 및 동일한 목적으로 사용되는 계수들, k, K를 정의하는 데이터를 저장할 수 있다.
트립와이어 이벤트 발생기(310)는, 검출 라인(14, 16)을 넘어갔다는 사실을 사용자 또는 운영자에게 경고하는 트립와이어 이벤트를 발생시키도록 배열된다. 상기 출력(312)은, 네트워크를 통해 클라이언트에 상기 트립와이어 이벤트를 전송하기 위한 네트워크 접속이 될 수 있다. 대안으로, 상기 출력부(312)는 사용자 또는 운영자에 인터페이스를 나타내는 디스플레이 출력일 수 있고, 그리고 그러한 경우에, 상기 트립와이어 이벤트 발생기(310)는 표시될 그래픽 오버레이 및/또는 사운드를 발생시킬 수 있다.
다른 실시예들에서, 라인을 넘어가는 것을 검출하는 디바이스는 네트워킹 모션 비디오 카메라(320) 내에서 구현된다. 그와 같은 실시예의 일 예는, 도 7에서 도시된다. 도 6의 피처와 동일한 참조번호를 갖는 도 7에서의 피처는, 도 6과 관련하여 서술되는 것으로 이해되며, 따라서, 도 7의 서술에서는 서술되지 않는다. 피처들에서의 중요한 차이는, 네트워킹 모션 비디오 카메라(320)에서의 출력 디바이스(312)가 네트워크 접속을 제공하도록 구성된 디바이스이고, 상기 네트워킹 모션 비디오 카메라(320)는 상기 라인을 넘어가는 것을 검출하는 디바이스(300)에 대한 대체인 것이다. 더욱이, 비디오 입력부(302)는 렌즈(322), 이미지 센서(324) 및 이미지 프로세서(326)에 의해 대체된다. 이러한 피처들은 통상의 기술자에게 잘 알려져 있고, 따라서 여기에서 더 상세하게 서술되지 않는다.
본 발명의 일부 실시예들에 따라, 라인 검출 프로세스는 복수의 라인들에 대한 라인을 넘어가는 것을 검출하도록 구현될 수 있다. 도 8에서, 이러한 예가 도시된다. 이 도면은, 2개의 서로 다른 검출 라인 쌍들(14a, 16a 및 14b, 16b)을 도시한다. 상기 라인 검출 동작은, 상기 프로세스가 각 검출 라인 쌍을 개별적으로 검사하는 것, 즉, 객체 이미지(18)가 라인을 넘어가는지에 대한 테스트가 각 검출 라인 쌍(14a, 16a 및 14b, 16b)에 대해 개별적으로 수행되는 차이점을 갖는 하나의 라인 검출기 쌍에 대해 동일한 방식으로 동작할 것이다. 이후, 단일 검출 라인 쌍에 대해 서술되는 상기 서술된 프로세스는, 본 서술에서 이전에 단일 검출 라인 쌍에 대해 서술되었던 것과 동일한 방식으로, 각 검출 라인 쌍(14a, 16a 및 14b, 16b)을 처리함으로써 다수의 검출 라인 쌍에도 적용가능하다. 통상의 기술자는, 검출 라인 쌍들의 수는 2보다 클 수 있음을 인식한다. 검출 라인 쌍들의 수를 제한하는 한가지는, 상기 캡처된 모션 비디오의 해상도 및 하나의 장면 내에서 적합할 수 있는 검출 라인 쌍들의 수일 수 있다. 더욱이, 검출 라인 쌍들의 수는, 또한, 검출 프로세스를 구현하는 상기 디바이스의 처리 전력에 의해 제한될 수 있다.
일부 실시예들에 따라, 라인을 넘어가는 것의 검출에 대해 처리되는 모션 비디오는 캡처된 적외선 방사로부터 만들어진 모션 비디오, 즉, 적외선 모션 비디오일 수 있다. 모션 비디오 카메라에서 구현되는 프로세스의 경우에서, 모션 비디오 카메라는 적외선을 캡처하는 것이 가능한 적외선 이미지 센서를 포함한다.

Claims (11)

  1. 모션 비디오 카메라에 의해 캡처되는 장면 내의 미리결정된 제1 라인(14; 16)에서 객체가 넘어가는 이벤트(object crossing event)를 검출하는 방법으로서,
    객체 이미지(18)가 상기 미리결정된 제1 라인(14; 16)을 넘어가는지를, 상기 모션 비디오 카메라에 의해 캡처되는 상기 장면의 이미지들로부터 결정하는 단계와;
    상기 미리결정된 제1 라인(14; 16)을 넘어가는 상기 객체 이미지(18)의 크기에 연관된 크기 값(Ao)을 계산하는 단계와;
    상기 객체와 상기 미리결정된 제1 라인(14; 16)과의 접촉점과 미리 결정된 제2 라인(16; 14) 사이의 가장 가까운 거리로부터 계산된 값을 라인 거리(Ld) 값으로 설정하는 단계와; 그리고
    상기 계산된 크기 값(A0)과 상기 라인 거리(Ld) 사이의 관계가 미리결정된 범위 내에 있으면 객체가 넘어가는 이벤트 신호를 발생시키는 단계를 포함하는 것을 특징으로 하는
    객체가 넘어가는 이벤트를 검출하는 방법.
  2. 제1항에 있어서,
    상기 객체 이미지(18)의 크기에 연관된 상기 크기 값(Ao)은, 상기 캡처된 이미지 내의 객체에 의해 점유되는 영역의 크기(Ao)에 연관되는 것을 특징으로 하는 객체가 넘어가는 이벤트를 검출하는 방법.
  3. 제2항에 있어서,
    상기 객체 이미지(18)의 크기에 연관된 상기 영역의 크기(Ao)는, 상기 객체 이미지(18)가 상기 캡처된 이미지에서 점유하는 이미지 요소들의 수로부터 계산되고, 상기 이미지 요소는 이미지 블록 또는 픽셀인 것을 특징으로 하는 객체가 넘어가는 이벤트를 검출하는 방법.
  4. 제1항에 있어서,
    객체가 상기 미리결정된 제1 라인(14; 16)을 넘어가는 지를 결정하는 단계는, 상기 객체를 나타내는 이미지 요소가 상기 미리결정된 제1 라인(14; 16)에 포함되는 이미지 요소 상에 위치된다면, 상기 장면의 캡처된 이미지들에서 검출하는 단계를 포함하고, 상기 이미지 요소는 이미지 블록 또는 픽셀인 것을 특징으로 하는 객체가 넘어가는 이벤트를 검출하는 방법.
  5. 제1항에 있어서,
    상기 미리결정된 제1 라인(14; 16) 및 상기 미리결정된 제2 라인(16; 14)은 가상의 라인들이고, 각 라인(14; 16)은 상기 장면 내에서 위치들을 나타내는 적어도 2개의 좌표들에 의해 정의되는 것을 특징으로 하는 객체가 넘어가는 이벤트를 검출하는 방법.
  6. 제1항에 있어서,
    상기 모션 비디오 카메라로부터 멀어지는 위치들을 나타내는 상기 장면 내의 이미지 요소들에서 상기 제1 및 제2 미리결정된 라인(14; 16)들이 서로 가까워지도록, 상기 제1 및 제2 미리결정된 라인(14; 16)들이 상기 장면에서 정의되고, 상기 이미지 요소는 이미지 블록 또는 픽셀인 것을 특징으로 하는 객체가 넘어가는 이벤트를 검출하는 방법.
  7. 제1항에 있어서,
    상기 라인 거리(Ld)를 설정하는 단계는, 상기 객체 이미지(18)와 상기 미리결정된 제1 라인(14; 16)과의 접촉점에 대해 가장 짧은 거리를 갖는 상기 미리결정된 제2 라인(16; 14)을 따르는 위치를 계산하는 단계를 포함하는 것을 특징으로 하는 객체가 넘어가는 이벤트를 검출하는 방법.
  8. 제1항에 있어서,
    상기 미리결정된 제1 라인(14; 16) 및 상기 미리결정된 제2 라인(16; 14)은 검출 라인 쌍이고, 그리고 복수의 검출 라인 쌍들(14a; 16a; 14b; 16b)은 장면에 대해 정의될 수 있는 것을 특징으로 하는 객체가 넘어가는 이벤트를 검출하는 방법.
  9. 제1항에 있어서,
    계산된 크기 값(A0)과 상기 라인 거리(Ld)의 제곱 사이의 관계가 상기 미리결정된 범위 내에 있을 때, 상기 객체가 넘어가는 이벤트 신호가 발생되는 것을 특징으로 하는 객체가 넘어가는 이벤트를 검출하는 방법.
  10. 제1항에 있어서,
    상기 객체가 넘어가는 이벤트 신호는, 관계식 Ld 2k ≤ AO ≤ Ld 2K이 유효할 때 발생되고, Ld는 프로세스에서 결정된 상기 라인 거리의 값이고, AO는 상기 프로세스에서 결정된 상기 객체 영역의 값이고, k는 미리결정된 최저 한계 상수(lower limit constant)이며, 그리고 K는 미리결정된 최고 한계 상수(upper limit constant)인 것을 특징으로 하는 객체가 넘어가는 이벤트를 검출하는 방법.
  11. 캡처된 장면에서 미리결정된 라인들을 넘어가는 객체들을 검출하는 시스템으로서, 상기 시스템은 제1항의 방법을 수행하도록 되어 있는 것을 특징으로 하는
    객체들을 검출하는 시스템.
KR1020160165973A 2015-12-11 2016-12-07 모니터링 시스템들에서 신뢰성을 증가시키는 방법 KR101889051B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15199524.8 2015-12-11
EP15199524.8A EP3179406B1 (en) 2015-12-11 2015-12-11 Method for increasing reliability in monitoring systems

Publications (2)

Publication Number Publication Date
KR20170069937A KR20170069937A (ko) 2017-06-21
KR101889051B1 true KR101889051B1 (ko) 2018-08-20

Family

ID=55024761

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160165973A KR101889051B1 (ko) 2015-12-11 2016-12-07 모니터링 시스템들에서 신뢰성을 증가시키는 방법

Country Status (6)

Country Link
US (1) US10055847B2 (ko)
EP (1) EP3179406B1 (ko)
JP (1) JP6325643B2 (ko)
KR (1) KR101889051B1 (ko)
CN (1) CN106874829B (ko)
TW (1) TWI704529B (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11445102B2 (en) 2018-08-31 2022-09-13 Sony Corporation Information processing device and information processing method
US11475640B2 (en) * 2020-02-28 2022-10-18 Manuel Martinello Detection-area fencing with polarity and object ingress/egress monitoring
US11556098B2 (en) 2020-02-28 2023-01-17 Ricoh Company, Ltd. Tracking conditions concerning an area to automatically generate artificial intelligence based responsive actions

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6816184B1 (en) * 1998-04-30 2004-11-09 Texas Instruments Incorporated Method and apparatus for mapping a location from a video image to a map
TWI277912B (en) * 2005-01-11 2007-04-01 Huper Lab Co Ltd Method for calculating a transform coordinate on a second video of an object having an object coordinate on a first video and related operation process and video surveillance system
JP4601666B2 (ja) * 2005-03-29 2010-12-22 富士通株式会社 映像検索装置
TW200806020A (en) * 2006-07-07 2008-01-16 Wen Wen Hung Tech Corp Image tracking method
CN101123721A (zh) * 2007-09-30 2008-02-13 湖北东润科技有限公司 一种智能视频监控系统及其监控方法
DE102007058959A1 (de) * 2007-12-07 2009-06-10 Robert Bosch Gmbh Konfigurationsmodul für ein Überwachungssystem, Überwachungssystem, Verfahren zur Konfiguration des Überwachungssystems sowie Computerprogramm
US20110033087A1 (en) * 2008-04-09 2011-02-10 Finn Alan M Video content analysis
RU2484531C2 (ru) * 2009-01-22 2013-06-10 Государственное научное учреждение центральный научно-исследовательский и опытно-конструкторский институт робототехники и технической кибернетики (ЦНИИ РТК) Устройство обработки видеоинформации системы охранной сигнализации
GB2484668A (en) * 2010-10-18 2012-04-25 Intelligent Door Solutions Ltd Motion Sensitive System and Method of Generating a Control Signal
EP2607952B1 (en) * 2011-12-21 2013-12-04 Axis AB Monitoring camera and method for monitoring
CN103456024B (zh) * 2012-06-02 2016-03-09 浙江西谷数字技术有限公司 一种运动目标越线判断方法
KR20140056790A (ko) * 2012-10-31 2014-05-12 한국전자통신연구원 영상 인식 장치 및 그 방법
JP5574551B2 (ja) * 2012-12-14 2014-08-20 株式会社日立国際電気 画像処理装置および画像処理方法
CN103345840B (zh) * 2013-05-28 2015-09-23 南京正保通信网络技术有限公司 一种交叉道路口横穿道路事件视频检测方法
JP2015018330A (ja) * 2013-07-09 2015-01-29 大日本印刷株式会社 移動体の方向別計数システム
TWI508027B (zh) * 2013-08-08 2015-11-11 Huper Lab Co Ltd 三維偵測裝置及其偵測影像之方法

Also Published As

Publication number Publication date
CN106874829A (zh) 2017-06-20
JP2017188070A (ja) 2017-10-12
EP3179406A1 (en) 2017-06-14
TWI704529B (zh) 2020-09-11
JP6325643B2 (ja) 2018-05-16
US20170169560A1 (en) 2017-06-15
EP3179406B1 (en) 2017-11-22
TW201721583A (zh) 2017-06-16
KR20170069937A (ko) 2017-06-21
US10055847B2 (en) 2018-08-21
CN106874829B (zh) 2018-10-26

Similar Documents

Publication Publication Date Title
AU2012340862B2 (en) Geographic map based control
US10438069B2 (en) Method and apparatus for detecting abnormal situation, and non-transitory computer-readable recording medium
KR101530255B1 (ko) 객체 자동 추적 장치가 구비된 cctv 시스템
CN112733690B (zh) 一种高空抛物检测方法、装置及电子设备
CN111489342B (zh) 一种基于视频的火焰检测方法、系统及可读存储介质
KR101889051B1 (ko) 모니터링 시스템들에서 신뢰성을 증가시키는 방법
US9714833B2 (en) Method of determining the location of a point of interest and the system thereof
CN111179329A (zh) 三维目标检测方法、装置及电子设备
CN107005655A (zh) 图像处理方法
CN111724558A (zh) 一种监控方法、装置及入侵报警系统
US20180260964A1 (en) System and method for detecting moving object in an image
CN112215037B (zh) 对象追踪方法及装置、电子设备及计算机可读存储介质
JP6494418B2 (ja) 画像解析装置、画像解析方法、およびプログラム
WO2016139868A1 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
CN114120171A (zh) 基于视频帧的火灾烟雾检测方法、装置、设备及存储介质
US20220035003A1 (en) Method and apparatus for high-confidence people classification, change detection, and nuisance alarm rejection based on shape classifier using 3d point cloud data
CN112784642A (zh) 车辆检测方法及装置
JP6096589B2 (ja) 火災検知装置及び火災検知方法
CN113108919B (zh) 人体温度检测方法、装置和存储介质
JP7079466B2 (ja) 人属性認識システムおよびプログラム
JP7311299B2 (ja) 人認識システムおよび人認識プログラム
JP4634920B2 (ja) 監視装置
KR101543096B1 (ko) 2d와 3d 영상 분석을 이용한 침입 감지 방법
JP6317490B2 (ja) 火災検知装置及び火災検知方法
JP2023173564A (ja) 水面検出装置、水面検出方法および水面検出プログラム

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right