KR100259737B1 - 화상픽업 장치의 시야내에 위치되는 물체를 감지하는 방법 및 장치 - Google Patents

화상픽업 장치의 시야내에 위치되는 물체를 감지하는 방법 및 장치 Download PDF

Info

Publication number
KR100259737B1
KR100259737B1 KR1019960016320A KR19960016320A KR100259737B1 KR 100259737 B1 KR100259737 B1 KR 100259737B1 KR 1019960016320 A KR1019960016320 A KR 1019960016320A KR 19960016320 A KR19960016320 A KR 19960016320A KR 100259737 B1 KR100259737 B1 KR 100259737B1
Authority
KR
South Korea
Prior art keywords
image
image data
similarity
field
data
Prior art date
Application number
KR1019960016320A
Other languages
English (en)
Other versions
KR960040799A (ko
Inventor
와따루 이또
히로타다 우에다
Original Assignee
소가 마사히로
히다치덴시 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP11862995A external-priority patent/JP3294468B2/ja
Priority claimed from JP23030195A external-priority patent/JP3377659B2/ja
Application filed by 소가 마사히로, 히다치덴시 가부시키가이샤 filed Critical 소가 마사히로
Publication of KR960040799A publication Critical patent/KR960040799A/ko
Application granted granted Critical
Publication of KR100259737B1 publication Critical patent/KR100259737B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 화상픽업장치의 화상필드내의 물체를 감지하는 장치 및 방법을 제공한다. 화상필드내에서 채택된 기준배경화상의 데이터는 저장수단에 저장된다. 화상픽업장치에 의해 채택된 화상데이터가 독출된다. 기준배경화상의 데이터는 각각의 화소에서 독출된 화상데이터와 비교되어, 양 데이터들 사이의 차분값이 산출될 수 있다. 차분값은 각각의 화소에서 소정의 임계값과 비교된다. 이 비교결과에 의거하여, 물체의 화상에 대한 이진화데이터가 발생된다. 이진화데이터에 의거하여, 물체가 감지된다. 그리고 나서, 저장수단에 저장된 기준배경화상의 데이터는 새로운 데이터로 적절히 갱신된다.

Description

화상픽업장치의 시야내에 위치되는 물체를 감지하는 방법 및 장치
제1도는 본 발명의 일 실시예의 작동을 설명한 흐름도,
제2도는 본 발명의 다른 실시예의 작동을 설명한 흐름도,
제3도는 본 발명의 또 다른 실시예의 작동을 설명한 흐름도,
제4도는 본 발명의 다른 실시예의 작동을 설명한 흐름도,
제5도는 본 발명의 다른 실시예의 작동을 설명한 흐름도,
제6도는 본 발명의 다른 실시예의 작동을 설명한 흐름도,
제7도는 본 발명의 다른 실시예의 작동을 설명한 흐름도,
제8도는 차분계산을 사용하여 물체를 감지하는 작동을 설명한 흐름도,
제9a, 9b, 9c, 9d도 및 제9e도는 차분계산을 사용하여 물체를 감지함으로써 발생하는 문제를 설명하는 도면,
제10도는 본 발명에 따라 물체를 감지하는데 사용되는 유사도의 효과를 설명하는 도면,
제11도는 종래기술에 따라 시간차에 의거하여 물체를 감지하는 설명도,
제12도는 본 발명의 일 실시예가 적용된 화상감시용 시스템을 도시한 블록도,
제13도는 본 발명이 철도 건널목에 진입하는 물체를 감지하는데 적용된 일 실시예를 도시한 흐름도,
제14도는 본 발명의 일 실시예에 따라 배경화상을 작성하는 처리를 도시한 흐름도,
제15도는 본 발명의 일 실시예에 따른 물체감지작동의 일 예를 도시한 설명도,
제16도는 본 발명의 일 실시예에 따른 물체감지작동의 일 예를 도시한 설명도,
제17도는 본 발명이 화쇄류(火碎流) 감시시스템에 적용된 일 실시예를 도시한 흐름도,
제18도는 본 발명이 화쇄류 감시시스템에 적용된 실시예에 의해 실행된 감지작동의 일 예를 도시한 설명도,
제19도는 본 발명의 제 1실시예에 따라서 기준배경화상을 작성하고 갱신하는 작동을 설명한 흐름도,
제20a도 및 제20b도는 화소(pixel) 휘도값의 메디안계산에 의해 발생되는 효과를 설명한 다이아그램,
제21도는 본 발명의 제 2실시예에 따라서 기준배경화상을 작성하고 갱신하는 작동을 설명한 흐름도,
제22도는 본 발명의 일 실시예에 따라서 물체감지방법의 작동을 설명한 흐름도,
제23도는 본 발명이 철도 건널목에 진입하는 물체를 감지하는데 적용된 일 실시예의 작동을 도시한 흐름도,
제24a, 24b, 24c도 및 제24d도는 본 발명의 일 실시예에 따른 차분계산 효과를 통해 물체를 감지하는 작동을 도시한 설명도,
제25도는 본 발명의 다른 실시예에 따른 물체감지작동을 설명한 흐름도,
제26도는 본 발명의 또 다른 실시예에 따른 물체감지작동을 설명한 흐름도,
제27도는 본 발명의 실시예에 따른 물체감지작동을 도시한 설명도이다.
〈도면의 주요부분에 대한 부호의 설명〉
121 : TV 카메라 122 : 데이터버스
123 : 입력 인터페이스 124 : 화상메모리
125 : 작업메모리 126 : CPU
127 : 프로그램 메모리 128 : 출력 인터페이스
129 : 화상출력 인터페이스 130 : 경보등
본 발명은 텔레비젼 카메라와 같은 화상픽업장치를 사용하여 화상을 감시하는 시스템에 관한 것이다. 특히, 본 발명은 위험지대에 진입하는 물체를 감지하는 경우와 같이 높은 신뢰도를 필요로하는 경우에 바람직한 화상감시용 시스템에서 물체를 감시하는 방법 및 장치에 관한 것이다.
최근, TV 카메라를 사용하도록 설치된 화상감시 시스템이 대중화되었다. 이러한 감시시스템에서는, 사람의 눈과는 별개로 비디오신호에 의거하여 감시시야로 진입하는 사람이나 차량 등의 물체를 자동으로 감지하여 소정의 보고 및 경보를 알리는 시스템이 요구되어 왔다. 이러한 타입의 자동감시 시스템은 TV 카메라에 의해 발생된 비디오신호를 처리하여 물체를 감지하는 것이 필요하다.
이러한 비디오신호를 처리함으로써 물체를 감지하는 시스템 중의 하나로서, 시스템에 순차적으로 들어온 최근의 화상을 바로 이전의 화상과 비교하여, 각각 대응하는 화소에 대한 휘도차를 구하고, 차이가 큰 영역을 물체영역으로 간주하는 차분법이 널리 공지되어 사용되고 있다.
제 8도의 흐름도를 참조하여 차분값을 감지하는 시스템의 기본적인 흐름을 설명한다. 도시된 바와 같이, 단계 81에서, TV 카메라로부터 현재의 화상을 포착한다. 다음 단계 82에서, 미리 저장된 배경화상과 포착된 화상 사이의 휘도차를 구한다. 그리고 나서, 단계 83에서, 차분값에 대한 이진화처리를 행한다. 마지막으로, 단계 84에서, 디지탈값을 소정의 임계값과 비교하며, 그 비교결과에 의거하여 물체의 존재여부를 감지한다.
예를 들어, 제 9a도에 도시된 바와 같이, TV 카메라에 의해 촬영되는 배경화상이 철도 건널목이라고 가정하는 경우, 한 대의 자동차(90)가 이 건널목에 다가올 때 제 9b도의 좌측에 도시된 화상이 촬영된다. 제 9b도의 우측에 도시된 화상은 제 9a도의 배경화상 및 제 9b도의 좌측화상 사이의 각각의 화소에 대한 화소데이터의 차분값을 이진화하여 얻어진다.
이러한 타입의 시스템에서는, 제 9b도의 우측화상에 나타낸 바와 같이 피감지 물체에 부분적인 틈 또는 갭(91)이 나타난다. 이러한 틈 또는 갭은 물체를 감지하는데 있어서 오류를 야기할 수 있다.
그러나, 이러한 문제점은 시스템에 확대(dilation) 및 축소(erosion)조작을 적용함으로써 극복가능하다.
차분을 처리하여 움직이는 물체를 감지하는 시스템의 응용례로서, 예를 들어, "화상인식기술을 이용한 인텔리젼트 화상 핸들링(Intelligent Image Handling with Image Recognition Techique)"(우에다 외 공저)이 "O 플러스 E(O plus E)" 제 176호, 122 내지 136쪽에 기재되었다.
이 논문에 개시된 움직이는 물체를 감지하는 시스템은 시간적으로 연속하는 세 화상으로 물체를 감지하도록 설치된다. 제 11도에 도시된 바와 같이, 먼저, 시간적으로 연속하는 세 화상(111, 112, 113)이 입력된다고 가정하면, 화상들(111 및 112)의 사이와 화상들(112 및 113)의 사이의 휘도차가 계산된다. 이러한 두 휘도 차이값은 이진화된 후, 확대(dilation) 및 축소(errosion)조작을 받으며, 그 결과 화상(114, 115)이 얻어진다. 다음에, 이러한 이진화상(화면)(114, 115)은 AND연산되어 이들 화상 사이의 공통부를 도출하며, 이러한 공통부에서 물체의 화상(116)이 구해진다.
그러나, 전술된 방법에서는, 다음의 잘못된 감지작동이 발생할 수 있다. 즉, 물체가 실제로 시야내로 진입하지 않았는데도 잘못 감지될 수 있다. 예를 들어, 제 9c도에 도시된 바와 같이, 날씨 또는 채광의 변화가 전체 피화상 물체의 휘도변화를 일으키면, 시야내로 아무런 물체가 진입하지 않더라도 물체(93)(철도)가 잘못 감지될 수 있다. 제 9d도에 도시된 바와 같이, 시야의 바깥에 위치된 물체가 빛을 발하여 화상필드내의 영역에 반사광선(94)을 비추게 되면, 반사광선이 물체(95)로서 잘못 감지된다. 또한, 제 9e도에 도시된 바와 같이, 시야의 바깥에 위치된 물체의 그림자(96)가 화상필드내의 영역에 닿으면, 그림자가 물체(97)로서 잘못 감지된다.
그런데, 이러한 차분계산은 기준배경화상(예를 들어, 제 9a도)을 필요로 한다. 그러므로, 기준배경화상이 사전에 만들어진 후 메모리에 미리 저장된다. 기준배경화상을 만들기 위하여, 시야내로 진입하는 물체가 없을 때 조작자의 선택에 따라 채택된 비디오신호(통상, 일 프레임의 비디오신호)를 기준배경화상으로서 사용하도록 설치된 시스템, 또는 각각의 화소에서 화상을 구성하는 소정 개수의 프레임을 평균하고 이 평균된 프레임을 기준배경화상으로서 사용하도록 설치된 시스템이 알려져 있다.
전자의 시스템에서는, 사람의 결정에 의해 순간적인 화상이 선택된다. 만일 이 비디오신호에 다른 노이즈가 우연히 혼합되면, 이 노이즈는 배경화상에 유지된다. 따라서 정확한 배경화상을 얻기 어렵다. 또한, 전송시스템의 노이즈환경의 관점에서 볼 때, 노이즈의 혼합은 그렇게 드문 현상이 아니다. 따라서, 실용적인 측면에서, 이것은 큰 장애가 된다.
후자의 시스템에서는, 정확한 배경화상을 얻기 위하여, 평균될 화상을 이루는 프레임의 수를 예를 들어 1500개 정도로 많이 만들어야 한다. 그 결과, 기준배경 화상을 만드는 화상이 입력될 때와 차분이 처리되어 물체를 감지할 때 사이에 큰 시간갭(30Hz의 프레임주파수에서 약 50초)이 발생한다. 그러므로, 예를 들어, 화상필드가 해질 무렵에 점차 어둑어둑해지면, 이러한 시간갭에 의하여 물체를 감지할 수 있을 만큼 정확한 기준배경화상을 만드는 것이 불가능하게 된다.
본 발명의 목적은 화상픽업장치의 시야에 진입하는 물체를 단시간동안 신뢰성있고 정확하게 감지하는 방법 및 장치를 제공하는 것이다.
본 발명의 다른 목적은 날씨변화 또는 채광상태, 반사광선 또는 그림자와 같은 장애요소의 역효과로부터 발생하는 잘못된 감지작동을 야기하지 않는 물체를 감지하는 방법 및 장치를 제공하는 것이다.
본 발명의 또 다른 목적은, 국부온도가 화상픽업장치의 시야내에서 변화되는 부분을 나머지 부분들과 명확히 분별하도록 작동하는 물체를 감지하는 방법 및 장치를 제공하는 것이다.
본 발명의 다른 목적은 적절한 기준배경화상을 자동으로 만들어서 단시간동안 차분값을 도출하는 방법을 제공함으로써 매우 신뢰성있는 물체를 감지하는 방법 및 장치를 제공하는 것이다.
본 발명에 따라 화상픽업장치의 화상필드에 진입하는 물체를 감지하는 방법 및 장치에서, 화상필드내에 위치되는 기준배경화상의 데이터를 저장유닛에 저장하고, 화상픽업장치에 의해 촬영된 화상데이터를 독출하고, 각각의 화소에서 기준배경화상의 데이터를 독출된 화상데이터와 비교하고, 각각의 화소의 차분값을 출력하고, 각각의 화소에서 차분값을 소정의 임계값과 비교하고, 이 비교결과에 의거하여 물체화상의 디지탈데이터를 만들고, 이진데이터에 의거하여 물체의 존재여부를 감지하며, 저장유닛에 저장된 기준배경화상의 데이터를 적절하게 갱신하는 처리를 실행한다.
본 발명의 여러 목적 및 이점들은 첨부된 도면을 참조로 한 다음의 설명으로 명확해질 것이다.
다음에, 도면을 참조하여 본 발명의 실시예를 설명한다.
제 1 내지 제 7도는 화상픽업장치의 필드내로 진입하는 물체를 감지하도록 설치된 실시예들의 작동을 도시한 흐름도이다. 이러한 실시예들에 따른 방법들은 화상픽업장치 및 컴퓨터에 의하여, 컴퓨터의 도움으로 저장매체에 저장된 도시된 흐름도를 코드화하도록 짜여진 프로그램의 제어하에서 실행가능하다.
제 1 내지 제 7도에 도시된 방법을 설명하기 전에, 제 12도를 참조하여 본 발명의 일 실시예에 따른 화상감시용 시스템을 설명한다.
제 12도는 본 발명의 실시예에 따른 화상감시용 시스템을 도시한다. 도시된 바와 같이, TV 카메라(121)는 감시될 영역(감시필드)의 화상을 포착하여 비디오신호를 발생한다. 이 비디오신호는 입력 인터페이스(I/F)(123) 및 데이터버스(122)를 통하여 화상메모리(124)에 전송된다.
한편, CPU(126)는 프로그램메모리(127)에 저장된 프로그램에 따라 작업메모리(125)를 사용함으로써 화상을 분석하도록 작동한 후 물체감지를 개시한다. 물체감지처리에 의거하여, 프로그램은 출력 인터페이스(I/F)(128)를 통하여 경보등(130)을 점등시키거나 화상출력 인터페이스(I/F)(129)를 통하여 모니터(131)에 화상을 표시한다. 제 1도의 흐름도의 작동을 실행하는 프로그램이 프로그램 메모리(127)에 저장된다.
제 1도에 도시된 흐름도를 따라서, 화상을 입력하는 단계 11에서, TV 카메라로부터 화상이 독출된다. 그리고 나서, 차분을 처리하는 단계 12에서, 독출화상과 미리 형성되어 메모리에 저장된 기준배경화상 사이의 각각의 화소의 차분을 계산하는 작동이 실행된다. 다음에, 코드데이터를 저장하는 단계 13에서, 휘도의 차분값의 부호가 메모리에 저장된다. 다음의 판정단계 14에서, 부호에 따라 작동이 분기된다. 부호가 양이면, 제 1이진화처리(단계 15)가 실행된다. 부호가 음이면, 제 2이진화처리(단계 16)가 실행된다. 이진화처리는 차분값을 임계값과 비교하도록 실행된다.
이러한 제 1 및 제 2이진화처리(단계 15 및 16)는 대응하는 가변임계값을 갖는다. 그러므로, 부호가 양 또는 음인지 여부에 의존하여 기준배경화상에 대한 휘도변화의 질이 변화가능하면, 정확한 이진화처리가 실행될 수 있다. 이진화된 결과에 따라, 단계 17에서, 물체가 명확하게 감지될 수 있다.
예를 들어, 흐렸다가 맑아지는 날씨의 변화 또는 물체에 가해지는 광선에 의하여 기준배경화상에 대한 입력화상의 변화가 초래된다고 가정하면, 이러한 변화는 차분값의 부호를 양이 되게 한다. 또는, 물체에 의해 던져진 그림자에 의해 화상 자체가 어두워짐으로써 변화가 초래되면, 이러한 변화는 차분값의 부호를 음이 되게 한다. 이러한 변동은 차분값의 부호, 즉, 차분값이 양 또는 음의 여부에 의존한다. 그러므로, 종래기술은 단순히 유일한 임계값을 갖는 차분값의 절대값을 이진화하므로, 광범위한 변화에 대처할 수 없다.
그러나, 제 1도에 도시된 방법은 차분값의 부호의 양 또는 음의 여부에 의존하여 변화의 방향, 즉, 임계값을 변화하도록 형성된다. 그러므로, 이러한 방법은 변화에 유연하게 대처할 수 있어서, 물체를 정확히 감지할 수 있다.
제 2도에 도시된 흐름도에서는, 제 1도에 도시된 처리에 단계 24의 처리가 부가된다. 단계 24에서의 처리는 입력화상 및 기준배경화상 사이의 국부적 휘도분포 패턴의 유사도를 계산하도록 실행된다. 제 2도의 흐름도는 제 1 및 제 2이진화처리(단계 26 및 27)에서의 이진화 조건으로서 유사도를 포함하도록 형성된다. 그러므로, 이러한 처리흐름은 기준배경화상에 대한 입력화상의 변이에 더욱 유연하게 대처할 수 있어, 더욱 정확한 감지가 가능해진다. 단계 21 내지 23, 25, 및 28은 제 1도의 단계 11 내지 13, 14, 및 17에 각각 대응하므로 이들 단계의 작동에 대한 설명은 생략한다.
여기서, 유사도란 국부적 휘도분포패턴에 대하여 기준배경화상에 대한 입력화상의 상관성을 의미한다. 제 10도에서, 화상환경에서의 휘도변화에 의하여 부호 102로 지시된 바와 같이 기준배경화상(101)에 비하여 전체적인 입력화상이 더욱 어둑해졌다고 가정하는 경우, 흰선 및 철도와 같은 배경화상(101)의 패턴은 입력화상(102)에 그대로 남는다. 그러므로, 배경화상(101)의 국부영역, 예를 들어, 영역(104) 및 입력화상(102)의 국부영역(105) 사이에 고 유사도가 나타난다.
한편, 기준배경화상과는 달리, 부호 103에 의해 지시된 바와 같이, 물체(차량)(106)가 위치된 입력화상의 영역에는, 물체(106)가 배경을 감추기 때문에, 흰선 및 철도와 같은 패턴이 나타나지 않는다. 그러므로, 영역(104 및 106) 사이에 저유사도가 나타난다.
제 3도의 흐름도에서는, 이진화단계 34의 다음 단계 35에서, 유사도가 계산된다. 단계 36에서, 계산된 유사도가 기준값과 비교된다. 유사도가 기준값 보다 높은지의 여부에 의존하여, 서로 다른 질을 갖는 두 영역(A 및 B), 즉, 배경화상의 휘도가 변화되는 영역 및 물체가 위치되는 영역이 서로 분리된다.
단계 35에서의 유사도계산은, 단계 34에서의 이진화처리에서 차분값이 소정의 임계값을 초과하고 있는 화소에 대해서만 실행된다. 이것은 계산량을 최소로 감소하게 해준다.
제 4도의 흐름도에서는, 물체를 감지하도록, 유사도를 산정하는 처리가 제 2도에 도시된 처리에 부가된다. 차분값의 부호가 양이면, 이진화처리는 단계 45에서 실행된다. 그 후, 단계 46에서, 입력화상 및 기준배경화상 사이에서 국부적 휘도분포형태의 유사도가 계산된다. 단계 47에서, 유사도는 기준값과 비교된다. 제 9d도에 도시된 바와 같이, 램프에서 비춰진 빛에 의해 더욱 밝아진 영역(94)이 존재하는 경우, 차분값의 부호는 양이고 유사도는 높게 판정된다. 그러므로, 단계 48에서, 영역(94)내에 어떠한 물체가 존재하는 것으로 판정되지 않는다. 반대로, 차분값의 부호가 양이고 유사도가 높지 않으면(제 10도의 103), 단계 49에서, 영역(94)에 물체가 존재하는 것으로 판정된다.
즉, 제 9d의 영역(94)에 의해 지시된 바와 같이, 빛에 의해 더욱 밝아진 영역에서는, 휘도가 더 높음에도 불구하고, 길 위의 패턴은 유지된다. 그러므로, 제 10도의 국부영역(104 및 105)과 마찬가지로, 유사도가 높아진다.
따라서, 이러한 유사도를 사용하여, 램프로부터 비춰진 광선에 의해 더욱 밝아진 영역(94)으로부터 물체를 신뢰성있게 분별할 수 있다.
다음에, 제 5도의 흐름도에서는, 제 4도와 마찬가지로, 물체를 감지하도록, 유사도를 산정하는 처리가 제 2도에 도시된 처리에 부가된다. 만일 차분값의 부호가 음이면, 단계 55에서, 이진화처리가 실행된다. 단계 56에서, 이 처리는 입력화상 및 기준배경화상 사이의 국부적 휘도분포패턴의 유사도를 계산하도록 실행된다. 단계 57에서, 유사도는 기준값과 비교된다. 제 9e도에 도시된 바와 같이, 물체의 그림자에 의해 어두워진 영역(96)이 존재하는 경우, 차분값의 부호는 음이고 유사도는 높은 것으로 판정된다. 그러므로, 단계 58에서, 영역(96)(그림자)에 물체가 존재하는 것으로 판정되지 않는다. 반대로, 차분값의 부호가 음이고 유사도가 그렇게 높지 않으면, 단계 59에서, 영역(96)에 물체가 존재하는 것으로 판정된다.
즉, 물체 자체의 그림자에 의해 어두워진 영역에서는, 제 9e도의 영역(96)에 의해 지시된 바와 같이, 휘도가 낮음에도 불구하고, 길 위의 패턴은 유지된다. 그러므로, 제 10도의 국부영역(104 및 105)과 마찬가지로, 유사도가 더욱 높아진다.
따라서, 이러한 유사도를 사용하여, 그림자에 의해 어두워진 영역(96)으로부터 물체를 신뢰성있게 분별할 수 있다.
제 6도의 흐름도에서, 입력화상 및 기준배경화상 사이에서 국부적 휘도분포 패턴의 유사도를 산정하는 처리(단계 67)가 도입된다. 이 부가된 처리는, 온도가 국부적으로 상승하는 영역을 감지가능하게 해준다.
단계 61에서, 물체는 적외선 TV 카메라에 의해 화상화된다. 포착된 비디오신호는 메모리에 입력화상으로서 저장된다. 단계 62에서, 각각의 화소에서, 동일한 적외선 TV 카메라에 의해 화상화되어 메모리에 미리 저장된 기준배경화상과 독출된 입력화상이 비교되어, 양 화상들 사이의 차분값 및 그 부호를 감지한다. 그 후, 단계 63에서, 부호데이터가 메모리에 저장된다. 만일, 단계 64에서, 부호가 양으로 판정되면, 단계 65에서는, 단계 62에서 계산된 차분값이 소정의 기준값(임계값)과 비교되어, 이진화처리가 실행되게 한다. 단계 66에서, 기준배경화상 및 입력화상 사이의 유사도를 계산하는 작동이 실행된다. 만일, 단계 67에서, 유사도가 낮다고 판정되면, 단계 68에서는, 입력화상에 온도가 상승하는 영역(물체)가 존재하는 것으로 판정된다.
즉, 국부온도가 상승하는 영역 및 국부온도가 안정하게 유지되는 영역 사이에 휘도분포의 차이가 발생한다. 입력화상 및 기준배경화상 사이의 휘도분포형태의 유사도는 낮아진다. 예를 들어, 제 6도에 도시된 바와 같이 물체를 감지하는 방법이 화쇄류를 감지하는데 적용된다고 가정하는 경우, 화쇄류에 의해 용암돔이 형성되면, 이러한 용암돔의 국부영역에서 온도가 급격히 상승한다. 그러므로, 유사도가 낮아진다. 한편, 예를 들어, 화쇄류에 의해 따뜻해진 구름에 대해서는, 전체의 구름에 관해 온도가 균일하게 상승한다. 그러므로, 유사도는 높아진다.
따라서, 따뜻해진 구름을 화쇄류로부터 분별할 수 있도록, 유사도를 산정하는 처리(단계 67)가 제 1도의 처리에 부가된다.
제 7도의 흐름도에서, 입력화상 및 기준배경화상 사이에서 국부적 휘도분포형태의 유사도를 산정하는 처리(단계 77)가 도입된다. 이 처리는, 온도가 하강하는 국부영역을 감지가능하게 해준다.
단계 71에서, 물체는 적외선 TV 카메라에 의해 화상화된다. TV 카메라에 의해 포착된 비디오신호는 메모리에 입력화상으로서 독출된다. 단계 72에서, 적외선 TV 카메라에 의해 채택되어 메모리에 미리 저장된 기준배경화상이 각각의 화소에서 독출된 입력화상과 비교되어, 양 화상들 사이의 차분값 및 그 부호가 감지된다. 단계 73에서, 부호데이터가 메모리에 저장된다. 만일, 단계 74에서, 부호가 음으로 판정되면, 다음 단계 75에서는, 단계 72에서 계산된 차분값이 소정의 기준값(임계값)과 비교되어, 이진화처리가 실행되게 한다. 단계 76에서, 기준배경화상 및 입력화상 사이의 유사도를 계산하는 처리가 실행된다. 만일, 단계 77에서, 유사도가 낮다고 판정되면, 단계 78에서는, 입력화상에서 온도가 하강하는 영역(물체)이 존재하는 것으로 판정된다.
즉, 온도가 하강하는 국부영역 및 온도가 하강하지 않는 국부영역 사이에 휘도분포의 차이가 발생한다. 입력화상 및 기준배경화상 사이의 휘도분포패턴의 유사도는 낮아진다. 예를 들어, 제 7도에 도시된 바와 같이 물체를 감지하는 방법이 화쇄류를 감지하는데 적용된다고 가정하는 경우, 용암돔이 떨어지면, 용암돔의 열원이 낙하되기 때문에, 용암돔의 온도가 급격히 낮아진다. 이것은, 유사도가 낮아지는 것을 의미한다. 한편, 예를 들어, 화쇄류에 의해 따뜻해진 구름에 대해서는, 열원에 의해 구름에 인가되는 열이 감소되는 경우, 전체 구름은 실질적으로 균일하게 냉각된다. 마찬가지로, 구름의 온도는 균일하게 하강된다. 그러므로, 유사도는 높아진다.
따라서, 유사도를 산정하는 단계 77에서, 물체를 감지하는데 있어서, 온도가 국부적으로 하강하는 물체(영역)만을 나머지 물체로부터 분리가능하게 한다.
다음에, 실례가 되는 실시예들을 들어, 본 발명에 따른 물체감지방법을 상세히 설명한다.
아래에 개시된 실시예들은, 철도 건널목내로 진입하는 보행자 또는 차량 등의 물체를 감지하는 화상감시 시스템에 본 발명이 적용되도록 이루어진다. TV 카메라는 철도 건널목 전체를 볼 수 있는 위치에 설치된다. TV 카메라는 카메라 자체에 의해 채택된 화상을 나타내는 비디오신호를 발생한다. 비디오신호는 물체를 감지하도록 처리된다. 실시예에 대한 설명은 흐름도를 따라서 기술한다. 본 실시예에 대한 흐름도의 작동은 제 12도에 도시된 시스템에 의해 실행된다.
제 13도는 본 발명의 실시예에 따라 CPU(126)에 의해 실행되는 물체감지처리를 도시한다. 본 실시예에 의해 실행되는 처리는, 제 4도 및 제 5도에 도시된 처리들을 결합한 것으로 배경화상의 갱신처리가 부가된 것이다.
제 13도의 처리가 개시될 때, 화상을 입력하는 단계 141에서, 카메라(121)에 의해 찍힌 비디오신호가 320×240 화소를 포함하는 화상데이터 f(x, y)로서 독출되는데, 여기서 x 및 y는 스크린상에서의 화소의 좌표이며, f(x, y)는 좌표(x, y)에서의 화소의 휘도값을 나타낸다.
다음에, 판정단계 142에서, 새로운 기준배경화상이 만들어지는지의 여부가 판정된다.
이러한 기준배경화상을 만들어서 갱신하기 위하여 CPU(126)는 제 13도의 흐름도와 병행하여 제 14도에 도시된 처리를 실행한다.
제 14도의 흐름도를 살펴보면, 먼저, 단계 161에서, 입력화상이 TV 카메라로부터 0.2초의 일정한 간격으로 포착된다. 포착된 화상의 프레임이 20개에 달할 때, 이 20개의 프레임들은 메모리에 저장(기억)된다.
다음에, 단계 162에서, 각각의 화소에서, 각각이 20개의 프레임의 메디안이 다음의 식(1)에 의해 계산되어 배경화상데이터 r(x, y)를 구한다.
여기서 f(k)(x, y)는 20개의 프레임에 대한 화상데이터를 나타내고, k = 1, 2, …, 20이다.
식(1)에서, med{ }는 메디안을 나타낸다. 20개의 프레임의 동일위치에 있는 화소는 휘도값이 큰 순서대로 정렬된다. 10번째(중앙의) 값의 화소를 채택하여, 그 화소를 배경화상데이터 r(x, y)로서 가정한다. 단계 163에서, 식(1)은 새로운 기준배경화상을 도출하도록 계산된다.
그러므로, 기준배경화상(163)은 화상데이터 r(x, y)와 동등하게 된다.
이러한 실시예에서, 20개 프레임의 화상만이 0.2초의 균일한 간격으로 시료화된다. 통상의 TV 카메라와 같은 화상픽업장치의 프레임주기는 1/60초이다. 메디안계산이 행해지는, TV 카메라로부터 출력된 1초 당 60 프레임의 화상을 독출하기 위하여, 필요한 경우, 다른 개수의 프레임을 적당한 간격으로 독출하여도 좋다. 즉, 화상픽업장치의 출력프레임들은 적당하게 세분화되어 독출하여도 좋다. 또는, 화상픽업장치의 프레임의 출력주기 보다 긴 주기로 화상을 독출할 수도 있다. 이점에 대해서는 나중에 더욱 상세히 설명한다.
제 13도의 처리로 돌아가면, 배경화상을 만드는 작업이 완료되는 경우, 단계 143에서, 메모리에 저장된 현재의 기준배경화상은 막 만들어진 새로운 기준배경화상으로 갱신된다. 그리고 나서, 작동은 다음 단계 144로 향한다. 만일 새로운 기준배경화상을 만드는 작업이 완료되지 않으면, 작동은 차분값을 처리하는 단계 144로 향한다. 단계 144에서, 입력화상은 각각 2×2 화소로 이루어진 블록으로 나뉜다. 전체 화상은 160×120 블록으로 이루어진 블록영역 fn(i, j)로 나뉜다. 그리고 나서, 각각의 블록영역의 평균 휘도(Af)가 도출되는데, 이때 n은 블록번호이며, i, j는 블록내에서 화소의 좌표위치를 나타낸다.
또한, 기준배경화상데이터 r(x, y)에 대해서도, 마찬가지로, 전체 화상은 160×120 블록으로 이루어진 블록영역 rn(i, j)으로 나뉜다. 그리고 나서, 각각의 블록영역의 평균휘도(Ar)가 도출된다. 각각의 블록영역의 평균휘도(Af 및 Ar)는 다음의 식(2)에 의해 계산된다;
여기서 B는 주 블록영역을 나타내고, [B]는 영역(B)에 포함된 화소의 개수를 나타낸다.( 본 실시예는 2×2 화소로 이루어진 블록을 사용한다. 그러므로, i, j∈B는 0≤i≤1 및 0≤j≤1을 나타내며, [B]는 4이다.)
다음에, 입력화상 및 기준배경화상 사이의 평균휘도의 차분값 εn은 식(3)에 의해 각각의 블록에서 도출된다.
εn= │Af - Ar│
(n = 1, 2, 3 …)… (3)
부호데이터를 저장하는 이후 단계 145에서, 차분값의 부호데이터(Sn)는 식(4)에 의해 도출되어 메모리에 저장된다.
Sn= { 1 (Af > Ar)
-1 (Af ≤ Ar) … (4)
다음에, 판정단계 146에서, 부호데이터(Sn)에 따른 제 1 또는 제 2이진화단계(147 또는 152)를 진행한다.
이러한 이진화처리는 차분값(εn)을 소정의 임계값과 비교함으로써 실행된다. 양의 부호에 대한 임계값, 즉, 단계 147에서의 임계값(th+)은 식(5)에 의해 도출된다.
th+ = μ++ K+σ+… (5)
이때,
여기서, εd는 d번째 블록에서의 입력화소 및 배경화상 사이의 차분값[식(2) 참조];
μ+는 물체를 포함하지 않도록 설정된 블록들 중 양의 차분값을 갖는 블록들의 평균 차분값으로서, 이 값은 화상에 내포된 노이즈의 평균수준을 나타냄;
σ+는 물체를 포함하지 않도록 설정된 블록들 중 양의 차분값을 갖는 블록들의 차분값의 표준편차로서, 이 값은 화상에 내포된 노이즈의 수준이 어떻게 변동하는 가를 나타냄;
K+는 조절가능한 파라미터; 및
[R+]는 부호(Sn)가 양이고 물체가 존재하지 않는 영역에 내포된 화소의 개수이다.
또한, 단계 152에서, 마찬가지로, 음의 부호(Sn)에 대한 임계값(th-)이 다음의 식(6)에 의해 얻어진다.
th-= μ-+ K-σ-… (6)
이때,
여기서 K-는 조절가능한 파라미터이며, [R-]는 음의 부호를 가지며 물체가 존재하지 않는 영역에 내포된 화소의 개수이다.
유사도를 계산하는 단계 148 및 153에서, 각각의 블록에 대하여, 유사도(γn)는 다음의 식(7)에 의하여 계산된다.
여기서, 위 식에 사용된 각 기호의 정의를 이하에 설명하면,
[ ] : [ ] 내에 포함된 집합을 구성하는 요소의 수,
Dn: n번째 블록 근처의 블록(n번째 블록포함),
B : 해당블록, 즉, [B]은 해당 블록내 화소수,
fd(i, j) : 블록내 입력화상의 화소값,
: 블록내 fd(i, j)의 평균값,
rd(i, j) : 블록내 배경화상의 화소값 및
: 블록내 rd(i, j)의 평균값 이다.
유사도를 결정하는 단계(149 및 154)에서, 조절가능한 파라미터 T+및 T-는 이러한 단계에 대한 임계값으로서 설정된다. 이러한 파라미터상에서, 유사도(γn)가 임계값 보다 높은지의 여부가 판정된다.
구체적으로, 판정단계 149에서, 유사도(γn)는 임계값(T+)과 비교된다. 만일 유사도(γn)가 임계값(T+)을 초과하면, 단계 150에서, 램프에 의해 조사되는 영역이, 제 9d도에 지시된 바와 같이, 빛이 반사되는 영역(94)으로서 감지되도록 판정된다. 유사도(γn)가 단계 149에서 임계값(T+) 이하인 경우에만, 물체가 단계 151에서 감지되는 것으로 판정된다.
마찬가지로, 판정단계 154에서, 유사도(γn)는 임계값(T-)과 비교된다. 만일 γn이 임계값(T-)을 초과하면, 단계 155에서, 물체의 그림자에 의해 어두워지는 영역이, 제 9e도에 지시된 바와 같이, 그림자영역(96)으로서 감지되도록 판정된다. γn이 임계값(T-) 이하인 경우에만, 단계 156에서, 물체가 감지되는 것으로 판정된다.
그리고 나서, 물체가 단계 151 또는 156에서 감지될 때, CPU(126)는 출력 I/F(128)를 통하여 경보등(130)을 켜거나 화상출력 I/F(129)를 통하여 모니터(131)상에 화상을 표시하도록 작동하여, 사용자에게 물체가 감지됨을 보고한다.
앞에 개시된 바와 같이, 본 실시예에 따른 방법은 화상픽업장치의 필드내에서 물체만을 명확히 감지할 수 있다. 제 15 및 제 16도를 참조하여, 제 13도에 도시된 바와 같은 물체를 감지하는 방법을 구체적으로 설명한다.
제 15도에서, 입력화상(171)상에서, 해질 무렵에, 차량(171A)이 철도 건널목 근처에 정차한다. 차량(171A)의 그림자(171B)는 건널목 안으로 연장된다. 만일 이러한 입력화상(171)이 종래의 방법에 의해 판정되면, 화상(173)에 나타나듯이, 물체(173A)가 건널목으로 진입하는 것으로 잘못 판정된다.
한편, 제 13도에 도시된 실시예에 따라, 먼저 제 14도에 도시된 처리가 실행되어, 기준배경화상(172)을 구하고, 대략 매 4초마다 새로운 배경화상으로 갱신한다.
다음에, 그림자부분(171B)은 코드데이터(Sn)를 음으로 만드므로, 판정단계 154로 진행하여, 여기서 기준배경화상(172) 및 입력화상(171) 사이의 유사도가 판정된다.
차량(171A)이 존재하는 영역에서는, 차량(171A)이 배경부분을 가리므로, 유사도는 그렇게 높아지지 않는다. 따라서, 제 13도에 도시된 단계 156에서, 이러한 영역(171A)은 실제로 물체를 갖는 것으로 판정된다. 반면, 그림자영역(171B)에서는, 아무것도 배경을 가리지 않는다. 그러므로, 유사도는 높아진다. 그 결과, 제 13도의 단계 155에서, 물체가 아니라 그림자라고 판정된다.
따라서, 본 실시예에 따라, 화상(174)에 의해 도시된 바와 같이, 차량(174A)은 그림자(171B)와 명확히 분별되어, 건널목에 들어온 물체만이 확실히 감지된다. 이러한 경우, 그림자(174B)가 생기더라도, 건널목에 물체가 들어오지 않은 것으로 판정된다.
다음에, 제 16도에는, 오토바이가 건널목에 들어가기 전에 오토바이(181A)의 헤드라이트에 의해 가해진 광선(181B)이 철도 건널목으로 침범하는 입력화상(181)이 도시된다. 이러한 경우, 만일 입력화상(181)이 종래의 방법에 의해 판정되면, 화상(183)에 의해 도시된 바와 같이, 건널목에 물체(183A)가 들어온 것으로 잘못 판정된다.
한편, 제 13도에 도시된 실시예에 따라, 제 14도에 도시된 처리가 실행되어, 기준배경화상(172)을 구하고, 대략 매 4초마다 새로운 화상으로 갱신한다.
다음에, 부호데이터(Sn)는 헤드라이트에 의해 가해진 광선(181B)에서 양이 되므로, 유사도를 판정하는 단계 149로 진행한다. 단계 149에서, 가장 최근의 기준배경화상(172) 및 입력화상(181) 사이의 유사도가 높은지의 여부가 판정된다.
오토바이(181A)가 존재하는 영역에서는, 오토바이(181A)가 배경부분을 가리므로, 유사도가 그렇게 높지 않다. 그러므로, 단계 151에서, 물체가 존재하는 것으로 판정된다. 한편, 광선영역(181B)에서는, 배경부분이 가려지지 않으므로, 유사도가 높아진다. 그 결과, 단계 150에서, 물체가 아니라 단지 밝은 부분이라는 것으로 판정된다.
따라서, 본 실시예에 따라, 화상(184)에 의해 도시된 바와 같이, 오토바이(174A) 및 그 헤드라이트로부터 가해진 광선은 제 13도에 도시된 물체(151, 150)와 같이 서로 명확히 구별된다. 이것은, 철도 건널목으로 진입하는 물체만이 확실히 감지가능하다는 것을 의미한다. 이 경우, 광선부분(184B)이 나타나더라도, 철도 건널목에 진입하는 물체가 없는 것으로 판정된다.
다음에, 본 발명의 다른 실시예에 따른 방법을 설명한다.
본 실시예의 구성은 활화산의 화쇄류를 감시하는데 본 발명을 적용한 것이다. 제 12도에 도시된 바와 같은 화상감시용 장치에서는, 적외선 TV 카메라(적외선 화상픽업장치)가 카메라(121)로 사용된다. 적외선 TV 카메라는, 물체의 따뜻한 부분에서 휘도가 더 커지는 입력화상을 산출한다. 제 12도에 도시된 시스템에서, CPU(126)는 제 17도에 도시된 처리를 실행한다.
제 17도에, 괄호로 도시된 바와 같이, 단계 191 내지 199 및 단계 201 내지 203의 루틴은 제 13도에 도시된 단계 141 내지 149 및 단계 152 내지 154의 루틴과 동일하다. 그러므로, 이러한 루틴은 간략하게 설명한다. 처리작동은 휘도, 즉, 입력화상 및 기준배경화상 사이의 온도차이의 부호에 의거하여 유사도를 결정하는 단계 199 및 동일한 기능의 단계 203 중의 어느 하나로 향한다. 단계 199 및 203에서, 조절가능한 파라미터 T+및 T-는 유사도를 결정하는 임계값으로서 사용된다. 만일 어떠한 영역이 양의 부호 및 임계값 이하의 유사도를 갖는다면, 단계 200에서, 이 영역(물체)은 고온을 갖는 것으로 판정된다. 만일 그 영역이 음의 부호 및 임계값 이하의 유사도를 갖는다면, 단계 204에서, 그 영역(물체)은 저온을 갖는 것으로 판정된다.
제 18도를 참조하여 본 실시예에 따른 방법의 작동을 설명한다. 입력화상(211)은 화쇄류가 발생할 때 순간적으로 포착된 화상이다. 부호 212는 기준배경화상을 표시한다.
제 18도에 도시된 화상에 대해 제 17도의 처리가 실행된 후, 결과화상이 화상(213)으로 만들어진다. 이 화상상에서, 화쇄류에 의해 온도가 높아진 부분은, 화쇄류가 유출된 후 온도가 낮아진 부분으로부터 분명하게 분별가능하게 된다.
즉, 온도가 높아진 영역 및 온도가 안정하게 유지되는 나머지 영역 사이에 휘도분포패턴의 차이가 발생하므로, 휘도분포형태의 유사도는 낮아진다.
화쇄류에 의해 용암돔이 형성되는 부분에서는, 국부온도가 급격히 상승한다. 그러므로, 유사도는 낮아진다. 한편, 예를 들어, 화쇄류에 의해 따뜻해진 구름에서, 전체의 온도가 균일하게 상승한다. 그러므로, 유사도는 높아진다.
따라서, 유사도를 산정하는 단계 199를 부가함으로써, 가열된 구름과 같은 부분이 존재하는 경우, 온도가 상승하는 영역(화쇄류)을 단계 200에서 나머지 영역으로부터 명확하게 분별할 수 있다.
한편, 국부온도가 하강하는 영역에서는, 온도가 안정하게 유지되는 영역과의 사이에 휘도분포패턴의 차이가 발생한다. 그러므로, 휘도분포패턴의 유사도는 낮아진다.
용암돔이 떨어지면, 열원이 떨어지는 것을 의미한다. 관련된 영역의 온도가 급격히 낮아진다. 그러므로, 이 영역은 낮은 유사도를 갖게 된다. 한편, 화쇄류에 의해 가열된 구름 등의 영역에서는, 열원에 의해 가해진 열이 감소되면, 전체영역이 실질적으로 균일하게 냉각되는데, 즉, 온도가 낮아진다. 그러므로, 유사도는 높아진다.
따라서, 유사도를 산정하는 단계 203을 부가함으로써, 온도가 낮아지는 구름과 같은 부분이 존재하는 경우, 온도가 낮아진 영역(화쇄류가 유출된)을 단계 204에서 나머지 영역으로부터 명확하게 분별할 수 있다. 이것은, 냉각영역이 뚜렷하게 감지될 수 있음을 의미한다.
그리고, 본 발명은 상술된 적용으로 제한되는 것이 아니라, 플랜트설비와 같은 금지구역에서 침입자를 감시하는 시스템과 같은 다른 시스템에도 적용가능하다.
앞서 기술된 바와 같은 실시예에 따라, 차분값의 표시가 사용되어, 휘도변동으로 인한 배경의 변화로부터 발생하는 종래의 잘못된 감지의 문제점을 극복한다. 이로써, 감시필드의 휘도변화와 같은 환경변화로 인한 역효과를 저하시킬 수 있으며, 이에 의해 물체를 정확히 감지할 수 있다. 또한, 휘도분포패턴의 유사도가 사용되어, 얼마나 많은 정도의 패턴이 저장되는 지를 판정한다. 그러므로, 실제의 물체가 존재하지 않는데도 휘도변화로 인한 환각영역이 발생하면, 물체감지시 이러한 영역이 실제의 물체로부터 명확히 분별된다.
이와 같이, 본 발명에 따른 방법은 철도 건널목과 같이 높은 신뢰도를 요하는 영역에 신뢰성있게 적용될 수 있다. 이것은, 이러한 방법이 화상감시용 장치의 적용분야를 확장시키는데 크게 공헌할 수 있음을 의미한다.
상술된 바와 같은 실시예에서, 기준배경화상을 생성하기 위하여, 다른 방법 뿐만 아니라 제 14도에 도시된 방법도 사용가능하다. 기준배경화상은, 복수의 화상프레임의 메디안을 계산하거나, 비록 더 많은 프레임을 필요로 하더라도 복수의 프레임의 평균값을 계산하여 생성될 수도 있다. 더욱이, 이를 위해 다른 통계적 방법이 사용되어도 좋다. 다음에, 도면을 참조하여 메디안계산에 의하여 기준배경화상을 생성하는 방법을 설명한다.
제 19도에 도시된 실시예에 따른 방법은, 화상수신단계 301, 화상저장단계 302, 소정 개수의 프레임이 저장되었는지의 여부를 판정하는 단계 303, 소정 개수의 프레임에 대한 저장이 완료될 때 저장된 화상의 각각의 화소에 대한 메디안을 계산하는 단계 304, 및 단계 304에서 계산된 화상을 새로운 기준배경화상으로 갱신하는 단계 305를 포함한다.
제 19도에서, 단계 301에서는, 초 당 30프레임의 비율 또는 더 높은 샘플링비율로 TV 카메라로부터 화상이 독출된다. 그리고 나서, 독출된 화상은 단계 302에서 메모리에 저장된다.
그 후, 만일, 단계 303에서, 저장된 프레임의 개수가 소정의 개수 N(N은 양수)에 도달하면, 단계 304에서, 저장된 N개의 프레임에 대하여 각각의 화소에 대한 휘도의 메디안이 화상신호상에서 계산된다. 그리고 나서, 단계 305에서, 메디안을 각각의 화소의 휘도로서 갖도록 이루어진 화상이 새로운 기준배경화상으로 갱신되어 메모리에 저장된다.
그 결과, 본 실시예의 방법은 프레임 개수 N을 큰 값으로 설정(예를 들어, N = 300)하지 않아도 매우 정확한 기준배경화상을 얻을 수 있다. 다음에, 이에 대한 근거를 설명한다.
N개의 프레임이 저장된 화상의 화소(x, y)를 주목하면, N개의 프레임은 번호대로 정렬된다. 화소의 휘도변화는 제 20a도에서 310에 의해 도시된 바와 같이 된다. 여기서, (x, y)는 프레임내의 화소위치(좌표)를 표시한다. 320×240 화소로 이루어진 화상데이터는 x = 1 내지 320, y = 1 내지 240의 값을 갖는다.
다음에, 일 위치에서의 화소(x, y)에 대하여, 휘도의 메디안이 계산된다. "휘도의 메디안이 계산된다"는 문장은, 순서대로 정렬된 데이터들이 작은 것부터 큰 것으로(오름차순) 또는 큰 것에서 작은 것으로(내림차순) 크기 순서대로 재배치되어, 가운데의 메디안을 선택하는 것을 의미한다.
제 20a도에 도시된 바와 같이 각각의 화소의 휘도의 메디안을 계산한 결과, 제 20b도에서 부호 320에 의해 도시된 바와 같은 분포가 발생한다. 화소(x, y)의 메디안은 N/2 번째 휘도값(M), 즉 메디안(M)이다.
만일 N개의 프레임에서 화상변화가 발생하지 않으면, 각각의 프레임의 동일 화소의 휘도값은 메디안(M)과 동일하게 된다. 이 경우, 부호 320은 수평선으로 된다.
그리고, 물체 또는 노이즈가 L개의 프레임(1<L<N) 이외의 나머지 프레임상에는 없음에도 불구하고, 저장된 N개의 프레임 중의 L개의 프레임상에서 물체가 포착되거나 다른 노이즈가 혼합되는 경우, 물체를 이루는 화소 또는 노이즈와 혼합된 화소는, 다른 변화가 없는 화상의 화소와 상이한 휘도값, 즉, 상이한 메디안(M)을 갖게 된다. N개의 프레임의 동일 위치에 있는 화소의 휘도값을 내림차순으로 재정렬함으로써, 프레임번호 L이 N/2 이하이면, 화소는 중심부(N/2)로부터 이격된 제 20b도의 특성 320의 양 단부에 위치된다.
물체를 구성하거나 노이즈와 혼합된 화소의 휘도값이 다른 변화없는 화소의 휘도값 보다 작을 때, 화소는 중심부(N/2)로부터 좌측(값 1 쪽으로)에 위치된다. 반면, 전자가 후자보다 클 때, 화소는 중심부(N/2)로부터 우측(값 N 쪽으로)에 위치된다.
물체 또는 다른 노이즈가 포착되는 프레임의 수(L)가 커지면, 중심부(N/2) 가까이 나타나는 화소는 더욱 많아진다. 프레임의 수(L)가 N/2 이하이면, 메디안(M)에 실질적인 영향효과가 가해지지 않는다.
즉, 물체 또는 다른 노이즈가 포착된 화소가 저장된 프레임의 수(N)의 적어도 절반 이상의 동일 위치에 머물 때에만, 물체 또는 다른 노이즈에 의해 가해진 영향이 메디안(M)에 가까운 중심부(N/2) 주위의 영역에 발생한다.
그러나, 원칙적으로, 움직이는 물체 또는 노이즈는 빠르게 움직이거나 사라진다. 이것은, 물체 또는 노이즈가 포착되는 프레임의 수가 그리 크지 않다는 것을 의미한다.
그러므로, 메디안을 계산함으로써, 움직이는 물체 또는 노이즈의 영향은 그렇게 많은 프레임 N을 독출하지 않으면서 제한될 수 있다. 이러한 메디안계산은 아주 정확한 기준배경화상을 얻게 해준다. 그리고, 메디안계산은, 물체가 프레임의 일부에서 포착되는 경우, 저장된 프레임의 절반 이하만을 필요로 한다. 그러므로, 샘플링비율을 낮춤으로써, 저장될 프레임의 수를 감소시킬 수 있다.
다음에, 화상수신단계 401 이후에 물체감지단계 402 및 판정단계 403을 추가 배치한 제 21도에 도시된 본 발명의 다른 실시예에 따른 방법을 설명한다. 단계 402 및 403에서 물체존재여부가 판정된 후, 물체가 없다고 판정된 화상에 대해서만 제 19도에 도시된 실시예의 방법에 대하여 기술된 바와 같은 동일한 처리가 실행된다. 그리고, 단계 401 및 404 내지 407에서의 처리는 단계 301 내지 305에서의 처리와 동일하므로 설명하지 않는다. 단계 402에서, 차분계산을 사용하여, 물체가 화상필드에 진입하는지 여부가 판정된다. 그리고 나서, 단계 403에서 물체가 없다고 판정된 화상은 단계 404에서 메모리에 저장된다. 다음에, 저장된 프레임의 수가 소정의 수에 달하면, 메디안 계산단계 406 및 단계 407의 처리들이 실행되어, 메디안을 계산하고(단계 406) 기준배경화상을 갱신한다(단계 407).
따라서, 본 실시예에 따르면, 단계 407에서 기준배경화상을 갱신하는데 사용된 새로운 배경화상에 물체가 들어오지 않았음이 단계 403에서 보증된다. 이로써, 메디안계산에 필요한 프레임의 수(N)를 제 19도에 도시된 실시예에 사용된 값에 비해 N = 6 정도의 작은 값으로 크게 감소시킬 수 있다.
다음에, 제 22도에 도시된 다른 실시예에 따른 방법에서, 제 19 및 제 21도에 도시된 실시예에 의해 행해진 처리가 병렬로 실행될 수 있다. 기준배경화상을 갱신하는 두 개의 시스템 처리인 단계 305 및 407에서, 본 실시예의 방법은 가장 최근의 기준배경화상을 끊임없이 생성할 수 있다.
제 19도에 도시된 실시예에서, 저장될 프레임의 수는 대략 300이며, 이 수는 제 21도에 도시된 실시예의 수 보다 훨씬 많다. 그러므로, 기준배경화상을 갱신하는 간격이 상당히 넓어진다. 이것은, 기준배경화상의 신선도가 필수적으로 만족되지 않음을 의미한다.
한편, 제 21도에 도시된 실시예에서, 물체존재여부를 판정하는 단계 403에서 YES이면, 기준배경화상을 갱신하는 단계 407의 처리는 실행되지 않는다. 이 경우, 필요한 프레임의 수를 감소시키는 것과 같은 특별한 이점을 이용하지 않을 수 있다.
그러나, 제 22도에 도시된 실시예에 따른 방법은, 제 19 및 제 21도에 도시된 실시예의 양 이점들을 이용할 수 있게 하며, 이러한 실시예들의 처리에 대응하는 최근의 기준배경화상을 사용하게 해준다. 그러므로, 기준배경화상은 더욱 정확하게 된다.
제 23도는 기준배경화상을 작성하는 처리로부터 물체를 감지하는 처리까지의 일련의 처리들을 도시하며, 이러한 처리들은 제 12도에 도시된 시스템에서 CPU(126)에 의해 실행된다. 본 실시예는 제 19도에 도시된 방법에 의거한다.
화상을 독출하는 단계 501에서, TV 카메라(121)로부터 320×240 화소를 포함하는 화상데이터와 같은 비디오신호가 독출된다. 그리고 나서, 화상저장단계 502에서, 화상데이터는 화상메모리(124)에 저장된다.
판정단계 503에서, 저장되는 프레임의 수가 소정값(N1)(예를 들어, N1= 300 = N)에 도달하면, 메디안 계산단계 504로 분기된다. 만일 소정값(N1)에 도달하지 않으면, 물체감지단계 506로 분기된다.
메디안 계산단계 504에서, 저장된 N개의 프레임을 제 20도에 도시된 바와 같이 각각의 화소에 대해 재정렬하여 다음의 식(8)에 의해 메디안(M)을 계산하는 처리가 실행된다.
여기서, f(k)(x, y)는 300개의 프레임으로 이루어진 화상데이터를 나타내고, k = 1, 2, …, 300이다. 그리고, 식(8)은, 식(1)에서 프레임의 수(N)가 300인 경우와 동일하다.
단계 505에서, 단계 504에서 도출된 메디안은 화상메모리(124)에 할당된 기준배경화상을 위한 저장영역에 저장된다.
다음에, 단계 506에서, 단계 501에서 독출된 화상데이터 및 화상메모리(124)의 저장영역에 저장된 기준배경화상 사이의 차분을 도출하는 처리가 실행된다. 만일 화상데이터가 소정의 임계값 보다 큰 차이를 갖는 부분을 가지면, 그 부분은 물체로서 감지된다.
먼저, 제 24a도에 도시된 바와 같은 기준배경화상은 제 24b도에 도시된 바와 같이 감지될 물체를 포함한 화상과 비교된다. 양 화상의 동일좌표에 위치되는 각각의 화소에서, 휘도차분이 도출된다. 차분값으로 이루어진 화상은 제 24c도에 도시된 바와 같이 작성된다. 그리고 나서, 차분값은 소정의 임계값을 부여받은 후 이진화된다. 그 결과, 제 24d도에 도시된 화상이 도출된다.
한편, 만일 물체가 없으면, 도출된 화상으로 나타나지 않는다. 그러므로, 물체만을 감지할 수 있다.
단계 507에서, 단계 506에서 주어진 결과에 의거하여 물체존재여부가 판정된다. 만일 어떤 물체가 존재하면 단계 508에서 경보가 발생된다. 만일 물체가 없으면, 화상독출단계 501로 분기된다.
다음에, 제 25도는 제 21도를 참조하여 기술된 방법의 적용례를 도시한다. 제 25도의 괄호안에 있는 각각의 숫자는 그 숫자의 단계와 동일한 처리가 실행되는 다른 도면의 단계를 지시한다.
제 25도에 도시된 실시예에서, 단계 601 내지 605에서의 처리는 제 23도의 단계 501 내지 505에서의 처리와 동일하다. 그러므로, 이들 단계에 대한 설명은 생략한다.
단계 606에서는, 단계 601과 마찬가지로, TV 카메라(121)로부터 320×240 화소로 이루어진 화상데이터로서 비디오 신호가 화상메모리(124)에 독출된다.
물체감지단계 607에서, 만일 새로운 기준배경화상이 단계 612에서 작성되면, 새로운 기준배경화상이 사용된다. 만일 그렇지 않으면, 단계 605에서 작성된 기준배경화상이 물체감지에 사용된다.
단계 608에서, 물체감지단계 607에서 물체가 존재하지 않는 것으로 판정되면, 단계 609로 분기되는 반면, 만일 어떠한 물체가 존재하는 것으로 판정되면, 단계 613으로 분기된다.
물체가 존재하지 않는 것으로 판정되면, 단계 609에서, 단계 606에서 얻어진 화상이 메모리에 저장된다.
판정단계 610에서, 저장되는 프레임의 수가 소정의 수(N2)에 달하면(예를 들어, N2= 6), 메디안 계산단계 611로 분기된다. 프레임의 수가 소정의 수(N2)에 도달하지 않으면, 화상독출단계 606로 분기된다.
메디안 계산단계 611에서, 제 20도에 도시된 바와 같이 각각의 화소에 대하여 소정수(N2)의 저장된 프레임을 재정렬하여 앞의 식(8)에 의해 메디안을 계산하는 작동이 실행된다.
단계 611에서 도출된 메디안은 단계 612에서 화상메모리(124)에 할당된 기준배경화상을 위한 저장영역에 저장된다.
제 26도는 제 22도를 참조하여 기술된 방법의 적용례를 도시한다.
단계 701 내지 705에서의 처리는 제 23도의 단계 501 내지 505에서의 처리와 동일하다. 그러므로, 이들 단계에 대한 설명은 생략한다.
계속해서 단계 706에서, 화상독출처리가 실행된다. 이것은 단계 501의 처리와 동일하다. 또한, 단계 707에서, 물체감지처리가 실행된다. 이것은 단계 506의 처리와 동일하다. 그리고 나서, 제 1 및 제 2시스템의 처리들이 병렬로 실행된다. 제 1시스템의 처리는 제 19도에 도시된 방법과 동일하다. 제 2시스템의 처리는 제 21도에 도시된 방법과 동일하다.
제 1시스템의 처리와 상응하는 단계 708 내지 710의 처리는 제 23도에 도시된 단계 502 내지 504의 처리와 동일하다. 다음에, 제 2시스템의 처리와 상응하는 단계 712 내지 715 및 717의 처리는 제 25도에 도시된 단계 608 내지 611의 처리와 동일하다. 그러므로, 이들 단계에 대한 설명은 생략한다. 단계 711에서, 제 1시스템의 처리에 의해 얻어진 화상은 기준배경화상의 후보(A)로서 간주된다. 단계 716에서, 제 2시스템의 처리에 의해 얻어진 화상은 기준배경화상의 후보(B)로 간주된다.
단계 718, 719, 및 720에서, 제 1시스템의 처리에 의하여 단계 711에서 얻어진 기준배경화상(A) 및 제 2시스템의 처리에 의하여 단계 716에서 얻어진 기준배경화상(B) 중에서 이른 것을 선택하여, 메모리에 저장된 이전의 기준배경화상을 선택된 화상으로 대체하는 처리가 실행된다. 단계 703에서 독출된 프레임의 수(N0), 단계 709에서 독출된 프레임의 수(N1), 및 단계 714에서 독출된 프레임의 수(N2)는 N0≥N1≥N2의 관계를 갖도록 설정된다. 만일 N0≥N1≥N2의 관계가 설정되면, 화상상태에 대해 적당한 수의 프레임이 샘플링되어, 물체가 효율적으로 감지될 수 있다. 예를 들어, 추전할만한 N0는 500이다.
다음에, 제 27도를 참조하여 이러한 실시예들에 의해 얻어진 감지결과를 설명한다.
제 27도에서, 화상(801)은 TV 카메라(12)(제 12도 참조)에 의해서 촬영되어 화상독출단계 501에서 독출된 화상데이터의 일예이다.
이러한 화상에 대하여, 제 23도에 도시된 실시예에 따라, 화상내의 트럭이 대략 5초 이상 일 위치에 머물지 않으면(프레임주파수 60Hz에서 N = 300), 물체(트럭)가 나타나지 않은 정확한 기준배경화상은 제 27도의 화상(802)에 의해 도시된 바와 같이 뚜렷하게 얻어질 수 있다.
제 25 및 제 26도에 도시된 실시예들에서, 물체가 적어도 세 프레임 동안 잘못 감지되지 않으면, 제 27도의 화상(802)에 의해 도시된 바와 같이, 물체(트럭)가 나타나지 않은 정확한 기준배경화상을 구할 수 있다.
따라서, 상술된 실시예들에 따라, 기준배경화상을 작성하는데 필요한 프레임의 수가 감소되면, 정확한 기준배경화상을 확실히 얻을 수 있다. 그러므로, 휘도변화 등의 환경변화가 발생하는 옥외장소에서도, 지체없이 최근의 기준배경화상을 사용하여 물체를 감지할 수 있다. 이것은, 매우 신뢰성있는 감시시스템을 제공해준다.
상술된 적용례에 부가하여, 본 발명은 플랜트설비 또는 금지구역에 대한 침입자감시용 시스템에도 적용될 수 있다.
본 발명에 따르면, 기준배경화상을 작성하는데 메디안계산을 사용한다. 따라서, 본 실시예의 방법은, 기준배경화상을 작성하는 종래기술이 수반하는 문제점을 극복할 수 있으며 노이즈 빛을 견디어 낼 수 있다. 또한, 본 실시예의 방법은 각각의 화소의 평균을 채택하도록 형성된 방법과 비교하여 기준배경화상을 작성하는데 적은 수의 프레임을 필요로 한다. 그러므로, 본 실시예의 방법은 가장 최근의 기준배경화상을 갖는 매우 신뢰성있는 감시시스템을 제공한다.
그리고, 본 발명에 따른 물체감지방법은 휘도데이터 뿐만 아니라 비디오신호의 칼라데이터를 사용할 수도 있다.

Claims (43)

  1. 화상픽업장치의 화상필드 내의 물체를 감지하는 장치에 있어서: 상기 화상필드의 기준배경화상의 데이터를 저장하는 메모리; 상기 화상픽업장치로부터 화상데이터를 입력하는 수단; 상기 입력된 화상데이터와 상기 저장된 기준배경화상 데이터 사이의 차분값을 검출하고 상기 차분값의 부호를 검출하기 위하여, 상기 입력된 화상데이터를 상기 저장된 기준배경화상 데이터와 비교하는 수단; 상기 화상필드 내의 휘도(brightness)가 증가된 영역 및 암도(darkness)가 증가된 영역으로부터 상기 화상필드 내의 물체가 구별될 수 있도록, 상기 차분값의 부호에 응답하여 변화되는 차분 임계값에 의거하여 상기 차분값을 이진화 데이터로 변환하는 변환기; 상기 입력된 화상데이터와 상기 저장된 기준배경화상 데이터 사이의 유사도를 계산하는 계산기; 및 상기 차분값의 부호와 유사도에 의거하여 물체가 상기 화상필드 내에 존재하는 지를 감지하는 검출기를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 장치.
  2. 제1항에 있어서, 상기 변환기는, 상기 화상필드 내의 휘도가 증가된 영역으로부터 상기 화상필드 내의 물체가 구별될 수 있도록, 상기 차분값의 부호가 양(+)인 경우에는 제 1 임계값에 의거하여 상기 차분값을 제 1 이진화데이터로 변환하는 제 1 변환기; 및 상기 화상필드 내의 암도가 증가된 영역으로부터 상기 화상필드 내의 물체가 구별될 수 있도록, 상기 차분값의 부호가 음(-)인 경우에는 제 2 임계값에 의거하여 상기 차분값을 제 2 이진화데이터로 변환하는 제 2 변환기를 포함하고, 상기 검출기는 상기 제 1 이진화데이터, 제 2 이진화데이터 및 유사도에 의거하여 상기 화상필드 내에 물체가 존재하는지 여부를 감지하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 장치.
  3. 화상픽업장치의 화상필드 내의 물체를 감지하는 방법에 있어서: 상기 화상필드의 기준배경화상의 데이터를 저장하는 단계; 상기 화상픽업장치로부터 화상데이터를 독출하는 단계; 상기 독출된 화상데이터와 상기 저장된 기준배경화상 데이터 사이의 차분값을 검출하고 상기 차분값의 부호를 검출하기 위해서 상기 독출된 화상데이터를 상기 저장된 기준배경화상 데이터와 비교하는 단계; 상기 화상필드 내의 휘도가 증가된 영역 및 암도가 증가된 영역으로부터 상기 화상필드 내의 물체가 구별될 수 있도록, 상기 차분값의 부호에 응답하여 변화되는 차분 임계값에 의거하여 상기 차분값을 이진화 데이터로 변환하는 단계; 상기 독출된 화상데이터와 상기 저장된 기준배경화상 데이터 사이의 유사도를 계산하는 단계; 및 상기 차분값의 부호와 상기 유사도에 의거하여 상기 화상필드 내에 물체가 존재하는지 여부를 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  4. 제3항에 있어서, 상기 변환단계는, 상기 화상필드 내의 휘도가 증가된 영역으로부터 상기 화상필드 내의 물체가 구별될 수 있도록, 상기 차분값의 부호가 양(+)인 경우에는 제 1 임계값에 의거하여 상기 차분값을 제 1 이진화데이터로 변환하는 단계; 및 상기 화상필드 내의 암도가 증가된 영역으로부터 상기 화상필드 내의 물체가 구별될 수 있도록, 상기 차분값의 부호가 음(-)인 경우에는 제 2 임계값에 의거하여 상기 차분값을 제 2 이진화데이터로 변환하는 단계를 포함하고, 상기 감지단계는 상기 제 1 이진화데이터, 제 2 이진화데이터 및 유사도에 의거하여 상기 화상필드 내에 물체가 존재하는지 여부를 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  5. 제3항에 있어서, 상기 기준배경화상 데이터를 저장하는 단계는, 소정 주기동안 상기 화상픽업장치로부터 소정수 프레임의 화상데이터를 독출하는 단계; 상기 화상픽업장치로부터 독출된 상기 소정수 프레임 화상데이터 중 메디안 화상데이터를 계산하는 단계; 및 상기 저장된 기준배경화상 데이터를 상기 메디안 화상데이터로 갱신하는 단계를 포함하는 것을 특징으로 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  6. 제5항에 있어서, 상기 소정 주기동안 상기 화상픽업장치로부터 독출되는 화상데이터 프레임의 소정수는 상기 소정 주기동안 상기 화상픽업장치에 의해서 제공되는 프레임의 총수보다 작은 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  7. 제5항에 있어서, 상기 소정수 프레임의 화상데이터 각각이 상기 화상픽업장치로부터 독출되는 주기가 상기 화상픽업장치가 1 프레임의 화상데이터를 제공하는 주기보다 긴 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  8. 제5항에 있어서, 상기 감지단계는 물체가 감지되는 경우에 경보를 알리는 단계를 포함하고, 상기 저장된 기준배경화상 데이터를 갱신하는 단계는, 상기 감지단계에서 물체가 감지되지 않는 경우에 상기 저장된 기준배경화상 데이터를 갱신하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  9. 제5항에 있어서, 상기 소정수 프레임의 화상데이터를 독출하는 단계는, 상기 화상픽업장치로부터 N1(적어도 2 이상의 양의 정수)개 프레임의 화상데이터를 독출하는 단계; 및 상기 감지단계에서 물체가 감지되지 않는 경우에는 상기 화상픽업장치로부터 N2(적어도 2 이상이고 N1 보다 작은 양의 정수)개 프레임의 화상데이터를 독출하는 단계를 포함하고, 상기 메디안 화상데이터를 계산하는 단계는, 상기 N1개 프레임의 화상데이터의 제 1 메디안 화상데이터를 게산하는 단계; 및 상기 N2개 프레임의 화상데이터의 제 2 메디안 화상데이터를 계산하는 단계를 포함하며, 상기 저장된 기준배경화상 데이터를 갱신하는 단계는, 상기 제 1 메디안 화상데이터와 제 2 메디안 화상데이터 중 어느 하나로 상기 저장된 기준배경화상 데이터를 교체하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  10. 제5항에 있어서, 상기 저장된 기준배경화상 데이터를 갱신하는 단계는, 상기 감지단계에서 물체가 감지되지 않는 경우에는 상기 메디안 화상데이터로 상기 저장된 기준배경화상 데이터를 갱신하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  11. 제3항에 있어서, 물체가 감지되지 않는 경우에 상기 저장된 기준배경화상 데이터를 갱신하는 단계를 더 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  12. 화상픽업장치의 화상필드 내의 물체를 감지하는 방법에 있어서: 상기 화상필드의 기준배경화상의 복수개 화소데이터를 저장하는 단계; 상기 화상픽업장치로부터 복수개 화소의 화상데이터를 독출하는 단계; 상기 독출된 화상데이터의 화소데이터와 상기 저장된 기준배경화상 데이터의 화소 중 이에 대응하는 화소데이터 사이 각각의 차분값을 검출하고 상기 각각의 차분값 부호를 검출하기 위하여, 상기 독출된 화상데이터의 화소데이터를 상기 저장된 기준배경화상 데이터의 화소 중 이에 대응하는 화소데이터와 비교하는 단계; 상기 화상필드 내의 휘도가 증가된 영역 및 암도가 증가된 영역으로부터 상기 화상필드 내의 물체가 구별될 수 있도록, 상기 각각의 차분값 부호에 응답하여 변화되는 차분 임계값에 의거하여 상기 차분값들을 각각의 이진화데이터로 변환하는 단계; 상기 독출된 화상데이터의 화소와 상기 저장된 기준배경화상 데이터의 화소중 이에 대응하는 화소 사이 각각의 유사도를 계산하는 단계; 및 상기 차분값의 부호와 상기 유사도에 의거하여 상기 화상필드 내에 물체가 존재하는지 여부를 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  13. 제12항에 있어서, 상기 계산단계는 상기 변환단계 이후에 수행되는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  14. 제13항에 있어서, 상기 감지단계는, 상기 유사도를 유사도 임계값과 비교하는 단계; 및 상기 화소가 각각 상기 유사도 임계값보다 크지 않은 유사도를 갖는 상기 화상필드의 영역내에 물체가 존재한다는 것을 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  15. 제13항에 있어서, 상기 감지단계는, 상기 유사도를 유사도 임계값과 비교하는 단계; 및 화소가 각각 양(+)의 부호인 차분값을 갖고 상기 유사도 임계값보다 큰 유사도를 갖는 상기 화상필드의 영역내에는 물체가 존재하지 않는다는 것을 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  16. 제13항에 있어서, 상기 감지단계는, 상기 유사도를 유사도 임계값과 비교하는 단계; 및 화소가 각각 음(-)의 부호인 차분값을 갖고 상기 유사도 임계값보다 큰 유사도를 갖는 상기 화상필드의 영역내에는 물체가 존재하지 않는다는 것을 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  17. 제13항에 있어서, 상기 감지단계는, 상기 유사도를 유사도 임계값과 비교하는 단계; 및 화소가 각각 상기 유사도 임계값보다 크지 않은 임계값을 갖는 상기 화상필드의 영역으로부터 화소가 각각 상기 유사도 임계값보다 큰 유사도를 갖는 상기 화상필드의 영역을 구별하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  18. 제17항에 있어서, 상기 화상픽업장치는 적외선 화상픽업장치이고, 상기 구별단계는, 화소가 각각 양(+)의 부호인 차분값을 갖고 상기 유사도 임계값보다 크지 않은 각각의 유사도를 갖는 상기 화상필드의 영역을 온도가 증가한 상기 화상필드의 영역으로 판정하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  19. 제17항에 있어서, 상기 화상픽업장치는 적외선 화상픽업장치이고, 상기 구별단계는, 화소가 각각 음(-)의 부호인 차분값을 갖고 상기 유사도 임계값보다 크지 않은 각각의 유사도를 갖는 상기 화상필드의 영역을 온도가 감소한 상기 화상필드의 영역으로 판정하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  20. 제12항에 있어서, 상기 계산단계는 상기 변환단계 이후에 수행되며, 상기 차분 임계값보다 높은 임계값을 갖는 각 화소에 대하여만 수행되는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  21. 제1항에 있어서, 상기 검출기는, 상기 화상필드 내의 물체가 상기 화상필드 내의 휘도가 증가된 영역 및 암도가 증가된 영역으로부터 구별되도록, 상기 유사도를 상기 차분값의 부호에 응답하여 변화되는 유사도 임계값과 비교함으로써 상기 화상필드 내에 물체가 존재하는지 여부를 감지하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  22. 제3항에 있어서, 상기 감지단계는, 상기 화상필드 내의 물체가 상기 화상필드 내의 휘도가 증가된 영역 및 암도가 증가된 영역으로부터 구별되도록, 상기 유사도를 상기 차분값의 부호에 응답하여 변화되는 유사도 임계값과 비교함으로써 상기 화상필드 내에 물체가 존재하는지 여부를 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  23. 제12항에 있어서, 상기 감지단계는, 상기 화상필드 내의 물체가 상기 화상필드 내의 휘도가 증가된 영역 및 암도가 증가된 영역으로부터 구별되도록, 상기 유사도를 상기 차분값의 부호에 응답하여 변화되는 유사도 임계값과 비교함으로써 상기 화상필드 내에 물체가 존재하는지 여부를 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  24. 화상픽업장치의 화상필드 내의 물체를 감지하는 장치에 있어서: 상기 화상필드의 기준배경화상의 데이터를 저장하는 메모리; 상기 화상픽업장치로부터 화상데이터를 입력하는 수단; 상기 입력된 화상데이터와 상기 저장된 기준배경화상 데이터 사이의 차분값을 검출하고 상기 차분값의 부호를 검출하기 위하여, 상기 입력된 화상데이터를 상기 저장된 기준배경화상 데이터와 비교하는 수단; 상기 차분값의 부호에 의존하는 차분 임계값에 의거하여 상기 차분값을 이진화데이터로 변환하는 변환기; 상기 입력된 데이터와 상기 저장된 기준배경화상 데이터 사이의 유사도를 계산하는 계산기; 및 상기 화상필드의 휘도가 증가된 영역 및 암도가 증가된 영역으로부터 상기 화상필드 내의 물체가 구별되도록, 상기 차분값의 부호, 유사도 및 상기 차분값의 부호에 응답하여 변화되는 유사도 임계값에 의거하여 물체가 상기 화상필드 내에 존재하는 지를 감지하는 검출기를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 장치.
  25. 제24항에 있어서, 상기 변환기는, 상기 차분값의 부호가 양(+)인 경우에는 제 1 임계값에 의거하여 상기 차분값을 제 1 이진화데이터로 변환하는 제 1 변환기; 및 상기 차분값의 부호가 음(-)인 경우에는 제 2 임계값에 의거하여 상기 차분값을 제 2 이진화데이터로 변환하는 제 2 변환기를 포함하고, 상기 검출기는 상기 제 1 이진화데이터, 제 2 이진화데이터, 유사도 및 유사도 임계값에 의거하여 상기 화상필드 내에 물체가 존재하는지 여부를 감지하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 장치.
  26. 화상픽업장치의 화상필드 내의 물체를 감지하는 방법에 있어서: 상기 화상필드의 기준배경화상의 데이터를 저장하는 단계; 상기 화상픽업장치로부터 화상데이터를 독출하는 단계; 상기 독출된 화상데이터와 상기 저장된 기준배경화상 데이터 사이의 차분값을 검출하고, 상기 차분값의 부호를 검출하기 위해서 상기 독출된 화상데이터를 상기 저장된 기준배경화상 데이터와 비교하는 단계; 상기 차분값의 부호에 의존하는 차분 임계값에 의거하여 상기 차분값을 이진화 데이터로 변환하는 단계; 상기 독출된 화상데이터와 상기 저장된 기준배경화상 데이터 사이의 유사도를 계산하는 단계; 및 상기 화상필드의 휘도가 증가된 영역 및 암도가 증가된 영역으로부터 상기 화상필드 내의 물체가 구별되도록, 상기 차분값의 부호, 유사도 및 상기 차분값의 부호에 응답하여 변화되는 유사도 임계값에 의거하여 상기 화상필드 내에 물체가 존재하는지 여부를 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  27. 제26항에 있어서, 상기 변환단계는, 상기 차분값 부호가 양(+)인 경우에는 제 1 임계값에 의거하여 상기 차분값을 제 1 이진화데이터로 변환하는 단계; 및 상기 차분값의 부호가 음(-)인 경우에는 제 2 임계값에 의거하여 상기 차분값을 제 2 이진화데이터로 변환하는 단계를 포함하고, 상기 감지단계는 상기 제 1 이진화데이터, 제 2 이진화데이터, 유사도 및 유사도 임계값에 의거하여 상기 화상필드 내에 물체가 존재하는지 여부를 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  28. 제26항에 있어서, 상기 기준배경화상 데이터를 저장하는 단계는, 소정 주기동안 상기 화상픽업장치로부터 소정수 프레임의 화상데이터를 독출하는 단계; 상기 화상픽업장치로부터 독출된 상기 소정수 프레임의 화상데이터 중 메디안 화상데이터를 계산하는 단계; 및 상기 저장된 기준배경화상 데이터를 상기 메디안 화상데이터로 갱신하는 단계를 포함하는 것을 특징으로 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  29. 제28항에 있어서, 상기 소정 주기동안 상기 화상픽업장치로부터 독출되는 화상데이터 프레임의 소정수는 상기 소정 주기동안 상기 화상픽업장치에 의해서 제공되는 프레임의 총수보다 작은 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  30. 제28항에 있어서, 상기 화상픽업장치로부터 상기 소정수 프레임의 화상데이터 각각이 독출되는 주기가 상기 화상픽업장치가 1 프레임의 화상데이터를 제공하는 주기보다 긴 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  31. 제28항에 있어서, 상기 감지단계는 물체가 감지되는 경우에 경보를 알리는 단계를 포함하고, 상기 저장된 기준배경화상 데이터를 갱신하는 단계는, 상기 감지단계에서 물체가 감지되지 않는 경우에 상기 저장된 기준배경화상 데이터를 갱신하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  32. 제28항에 있어서, 상기 소정수 프레임의 화상데이터를 독출하는 단계는, 상기 화상픽업장치로부터 N1(적어도 2 이상의 양의 정수)개 프레임의 화상데이터를 독출하는 단계; 및 상기 감지단계에서 물체가 감지되지 않는 경우에는 상기 화상픽업장치로부터 N2(적어도 2 이상이고 N1 보다 작은 양의 정수)개 프레임의 화상데이터를 독출하는 단계를 포함하고, 상기 메디안 화상데이터를 계산하는 단계는, 상기 N1개 프레임의 화상데이터의 제 1 메디안 화상데이터를 계산하는 단계; 및 상기 N2개 프레임의 화상데이터의 제 2 메디안 화상데이터를 계산하는 단계를 포함하며, 상기 저장된 기준배경화상 데이터를 갱신하는 단계는, 상기 제 1 메디안 화상데이터와 제 2 메디안 화상데이터 중 어느 하나로 상기 저장된 기준배경화상 데이터를 교체하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  33. 제28항에 있어서, 상기 저장된 기준배경화상 데이터를 갱신하는 단계는, 상기 감지단계에서 물체가 감지되지 않는 경우에는 상기 메디안 화상데이터로 상기 저장된 기준배경화상 데이터를 갱신하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  34. 제26항에 있어서, 물체가 감지되지 않는 경우에 상기 저장된 기준배경화상 데이터를 갱신하는 단계를 더 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  35. 화상픽업장치의 화상필드 내의 물체를 감지하는 방법에 있어서: 상기 화상필드의 기준배경화상의 복수개 화소데이터를 저장하는 단계; 상기 화상픽업장치로부터 복수개 화소의 화상데이터를 독출하는 단계; 상기 독출된 화상데이터의 화소데이터와 상기 저장된 기준배경화상 데이터의 화소 중 이에 대응하는 화소데이터 사이 각각의 차분값을 검출하고, 상기 각각의 차분값 부호를 검출하기 위하여, 상기 독출된 화상데이터의 화소데이터를 상기 저장된 기준배경화상 데이터의 화소 중 이에 대응하는 화소데이터와 비교하는 단계; 상기 각각의 차분값 부호에 의존하는 차분 임계값에 의거하여 상기 차분값들을 각각의 이진화데이터로 변환하는 단계; 상기 독출된 화상데이터의 화소와 상기 저장된 기준배경화상 데이터의 화소 중 이에 대응하는 화소 사이 각각의 유사도를 계산하는 단계; 및 상기 화상필드 내의 휘도가 증가된 영역 및 암도가 증가된 영역으로부터 상기 화상필드 내의 물체가 구별되도록, 상기 차분값의 부호, 유사도 및 상기 차분값의 부호에 응답하여 변화되는 유사도 임계값에 의거하여 상기 화상필드 내에 물체가 존재하는지 여부를 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  36. 제35항에 있어서, 상기 계산단계는 상기 변환단계 이후에 수행되는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  37. 제36항에 있어서, 상기 감지단계는, 상기 유사도를 유사도 임계값과 비교하는 단계; 및 상기 화소가 각각 상기 유사도 임계값보다 크지 않은 유사도를 갖는 상기 화상필드의 영역내에 물체가 존재한다는 것을 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  38. 제36항에 있어서, 상기 감지단계는, 상기 유사도를 유사도 임계값과 비교하는 단계; 및 화소가 각각 양(+)의 부호인 차분값을 갖고 상기 유사도 임계값보다 큰 유사도를 갖는 상기 화상필드의 영역내에는 물체가 존재하지 않는다는 것을 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  39. 제36항에 있어서, 상기 감지단계는, 상기 유사도를 유사도 임계값과 비교하는 단계; 및 화소가 각각 음(-)의 부호인 차분값을 갖고 상기 유사도 임계값보다 큰 유사도를 갖는 상기 화상필드의 영역내에는 물체가 존재하지 않는다는 것을 감지하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  40. 제36항에 있어서, 상기 감지단계는, 상기 유사도를 유사도 임계값과 비교하는 단계; 및 화소가 각각 상기 유사도 임계값보다 크지 않은 임계값을 갖는 상기 화상필드의 영역으로부터 화소가 각각 상기 유사도 임계값보다 큰 유사도를 갖는 상기 화상필드의 영역을 구별하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  41. 제40항에 있어서, 상기 화상픽업장치는 적외선 화상픽업장치이고, 상기 구별단계는, 화소가 각각 양(+)의 부호인 차분값을 갖고 상기 유사도 임계값보다 크지 않은 각각의 유사도를 갖는 상기 화상필드의 영역을 온도가 증가한 상기 화상필드의 영역으로 판정하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  42. 제40항에 있어서, 상기 화상픽업장치는 적외선 화상픽업장치이고, 상기 구별단계는, 화소가 각각 음(-)의 부호인 차분값을 갖고 상기 유사도 임계값보다 크지 않은 각각의 유사도를 갖는 상기 화상필드의 영역을 온도가 감소한 상기 화상필드의 영역으로 판정하는 단계를 포함하는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
  43. 제35항에 있어서, 상기 계산단계는 상기 변환단계 이후에 수행되며, 상기 차분 임계값보다 높은 임계값을 갖는 각 화소에 대하여만 수행되는 것을 특징으로 하는 화상픽업장치의 화상필드 내의 물체를 감지하는 방법.
KR1019960016320A 1995-05-17 1996-05-16 화상픽업 장치의 시야내에 위치되는 물체를 감지하는 방법 및 장치 KR100259737B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP11862995A JP3294468B2 (ja) 1995-05-17 1995-05-17 映像監視装置における物体検出方法
JP95-118629 1995-05-17
JP23030195A JP3377659B2 (ja) 1995-09-07 1995-09-07 物体検出装置及び物体検出方法
JP95-230301 1995-09-07

Publications (2)

Publication Number Publication Date
KR960040799A KR960040799A (ko) 1996-12-17
KR100259737B1 true KR100259737B1 (ko) 2000-06-15

Family

ID=26456540

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960016320A KR100259737B1 (ko) 1995-05-17 1996-05-16 화상픽업 장치의 시야내에 위치되는 물체를 감지하는 방법 및 장치

Country Status (4)

Country Link
US (1) US6088468A (ko)
EP (1) EP0749098B1 (ko)
KR (1) KR100259737B1 (ko)
DE (1) DE69622476T2 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100471362B1 (ko) * 2000-08-31 2005-03-08 가부시키가이샤 히다치 고쿠사이 덴키 물체검출방법과 물체검출장치 및 그 물체검출방법을사용한 침입물체감시장치
KR100994367B1 (ko) 2008-10-13 2010-11-16 국방과학연구소 영상 추적 장치의 이동표적 움직임 추적 방법
KR20220055127A (ko) * 2020-10-26 2022-05-03 엘아이지넥스원 주식회사 배경 모델링 및 이진화를 통한 적외선 영상의 표적 탐지 장치 및 방법

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139495A (ja) * 1997-07-24 1999-02-12 Nec Corp 画像監視装置
JP3581265B2 (ja) * 1999-01-06 2004-10-27 シャープ株式会社 画像処理方法およびその装置
JP4028135B2 (ja) * 1999-05-27 2007-12-26 本田技研工業株式会社 物体検出装置
US7133537B1 (en) * 1999-05-28 2006-11-07 It Brokerage Services Pty Limited Method and apparatus for tracking a moving object
WO2001017838A1 (de) * 1999-09-09 2001-03-15 Tiefenbach Gmbh Verfahren zur überwachung eines gefahrenbereichs
JP3463098B2 (ja) * 1999-10-08 2003-11-05 独立行政法人産業技術総合研究所 モジュレートアプタマー及びこれを用いた標的タンパク質の検出方法
DE19958634A1 (de) 1999-12-04 2001-06-21 Alcatel Sa Verfahren zum Erkennen von Hindernissen auf Bahnstrecken
DE10000287B4 (de) * 2000-01-07 2004-02-12 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung und Verfahren zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
DE10050083A1 (de) * 2000-10-10 2002-04-18 Sick Ag Vorrichtung und Verfahren zur Erfassung von Objekten
US7200246B2 (en) * 2000-11-17 2007-04-03 Honeywell International Inc. Object detection
US6711279B1 (en) * 2000-11-17 2004-03-23 Honeywell International Inc. Object detection
US7643655B2 (en) * 2000-11-24 2010-01-05 Clever Sys, Inc. System and method for animal seizure detection and classification using video analysis
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
GB2371617A (en) * 2001-01-15 2002-07-31 Wayne Jeffrey Forsythe Railway safety system for detecting track obstruction
AUPR676201A0 (en) * 2001-08-01 2001-08-23 Canon Kabushiki Kaisha Video feature tracking with loss-of-track detection
US7162101B2 (en) * 2001-11-15 2007-01-09 Canon Kabushiki Kaisha Image processing apparatus and method
AU2003253881A1 (en) * 2002-07-15 2004-02-02 Baylor College Of Medicine Computer user interface facilitating acquiring and analyzing of biological specimen traits
US7729511B2 (en) * 2002-09-24 2010-06-01 Pilz Gmbh & Co. Kg Method and device for safeguarding a hazardous area
KR100575906B1 (ko) 2002-10-25 2006-05-02 미츠비시 후소 트럭 앤드 버스 코포레이션 핸드 패턴 스위치 장치
GB2411229B (en) * 2003-07-22 2006-04-12 Hitachi Int Electric Inc Object tracking method and object tracing apparatus
JP3987013B2 (ja) * 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
US20050052533A1 (en) * 2003-09-05 2005-03-10 Hitachi Kokusai Electric Inc. Object tracking method and object tracking apparatus
JP4376653B2 (ja) * 2004-02-17 2009-12-02 富士重工業株式会社 車外監視装置
JP2005242694A (ja) * 2004-02-26 2005-09-08 Mitsubishi Fuso Truck & Bus Corp ハンドパターンスイッチ装置
GB2416943A (en) * 2004-08-06 2006-02-08 Qinetiq Ltd Target detection
US7982774B2 (en) * 2004-09-13 2011-07-19 Sony Corporation Image processing apparatus and image processing method
US7733369B2 (en) * 2004-09-28 2010-06-08 Objectvideo, Inc. View handling in video surveillance systems
US10019877B2 (en) 2005-04-03 2018-07-10 Qognify Ltd. Apparatus and methods for the semi-automatic tracking and examining of an object or an event in a monitored site
JP4412236B2 (ja) * 2005-05-30 2010-02-10 ソニー株式会社 画像処理装置、画像処理方法および画像処理プログラム
US8587658B2 (en) * 2007-06-08 2013-11-19 Nikon Corporation Imaging device, image display device, and program with intruding object detection
US20090268942A1 (en) * 2008-04-23 2009-10-29 Price John D Methods and apparatus for detection of motion picture piracy for piracy prevention
US8634635B2 (en) * 2008-10-30 2014-01-21 Clever Sys, Inc. System and method for stereo-view multiple animal behavior characterization
KR101097484B1 (ko) * 2009-09-29 2011-12-22 삼성전기주식회사 미디안 필터, 이를 사용하는 자동 밝기 제어 장치 및 방법
ES2494343T3 (es) 2009-12-11 2014-09-15 Bea S.A. Dispositivo de exploración
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
JP5938631B2 (ja) * 2011-12-19 2016-06-22 パナソニックIpマネジメント株式会社 物体検出装置及び物体検出方法
CN104254873A (zh) 2012-03-15 2014-12-31 行为识别系统公司 视频监控系统中的警报量归一化
EP2903263A4 (en) 2012-09-27 2015-11-04 Panasonic Ip Man Co Ltd IMAGE PROCESSING DEVICE AND METHOD
US9140444B2 (en) 2013-08-15 2015-09-22 Medibotics, LLC Wearable device for disrupting unwelcome photography
US9639954B2 (en) * 2014-10-27 2017-05-02 Playsigh Interactive Ltd. Object extraction from video images
CN106781449A (zh) * 2017-02-21 2017-05-31 青岛智能产业技术研究院 路口行人过街综合管理控制系统
CN110531382A (zh) * 2018-05-25 2019-12-03 上海大学 利用gps测量技术监测火山的方法
CN108881462B (zh) * 2018-07-03 2020-10-23 刘彪 一种基于班班通的教学功能室使用情况监控系统
US10997453B2 (en) * 2019-01-29 2021-05-04 Adobe Inc. Image shadow detection using multiple images
CN111586348B (zh) * 2020-04-15 2022-04-12 福建星网视易信息系统有限公司 一种视频背景图像获取方法、存储介质、视频抠像方法和存储设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0779429A (ja) * 1993-09-08 1995-03-20 Toshiba Corp 画像監視装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01273198A (ja) * 1988-04-25 1989-11-01 Matsushita Electric Works Ltd 画像監視装置
US5109435A (en) * 1988-08-08 1992-04-28 Hughes Aircraft Company Segmentation method for use against moving objects
US5261010A (en) * 1991-09-27 1993-11-09 Hughes Aircraft Comany Automatic mask threshold

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0779429A (ja) * 1993-09-08 1995-03-20 Toshiba Corp 画像監視装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100471362B1 (ko) * 2000-08-31 2005-03-08 가부시키가이샤 히다치 고쿠사이 덴키 물체검출방법과 물체검출장치 및 그 물체검출방법을사용한 침입물체감시장치
KR100994367B1 (ko) 2008-10-13 2010-11-16 국방과학연구소 영상 추적 장치의 이동표적 움직임 추적 방법
KR20220055127A (ko) * 2020-10-26 2022-05-03 엘아이지넥스원 주식회사 배경 모델링 및 이진화를 통한 적외선 영상의 표적 탐지 장치 및 방법
KR102456019B1 (ko) * 2020-10-26 2022-10-18 엘아이지넥스원 주식회사 배경 모델링 및 이진화를 통한 적외선 영상의 표적 탐지 장치 및 방법

Also Published As

Publication number Publication date
EP0749098A3 (en) 1999-06-09
US6088468A (en) 2000-07-11
KR960040799A (ko) 1996-12-17
DE69622476D1 (de) 2002-08-29
DE69622476T2 (de) 2002-11-28
EP0749098B1 (en) 2002-07-24
EP0749098A2 (en) 1996-12-18

Similar Documents

Publication Publication Date Title
KR100259737B1 (ko) 화상픽업 장치의 시야내에 위치되는 물체를 감지하는 방법 및 장치
US5862508A (en) Moving object detection apparatus
US6711279B1 (en) Object detection
EP0671706B1 (en) Method and apparatus for moving object extraction based on background subtraction
US6931146B2 (en) Method and apparatus for detecting moving object
CA2151079C (en) Differential motion detection method using background image
US9047515B2 (en) Method and system for wildfire detection using a visible range camera
CN101211407A (zh) 昼夜图像识别方法和装置
JPH1196376A (ja) 移動物体追跡装置及び方法
JP7125843B2 (ja) 障害検知システム
JP3294468B2 (ja) 映像監視装置における物体検出方法
JPH11224389A (ja) 炎の検出方法、火災検出方法および火災検出装置
JPH07262355A (ja) 画像監視装置
JPH0973541A (ja) 物体検出装置及び物体検出方法
JP3034101B2 (ja) 動きベクトルによる識別方法及び装置
US20150043775A1 (en) Object detection device, object detection method and program
JPH05205175A (ja) 物体検出装置
JP2002145072A (ja) 踏切障害物検知装置
JPH0514891A (ja) 画像監視装置
JP2000023141A (ja) 移動物体監視装置
JP4004840B2 (ja) 物体検出方法及び物体検出装置
JPH0397080A (ja) 画像監視装置
JPH0512591A (ja) 監視装置
JP3659609B2 (ja) 物体検出方法及び物体検出装置
KR100284596B1 (ko) 교차로에서 대기길이 측정방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130304

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20140228

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20150302

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20160303

Year of fee payment: 17

EXPY Expiration of term