KR20020018150A - 물체검출방법과 물체검출장치 및 그 물체검출방법을사용한 침입물체감시장치 - Google Patents

물체검출방법과 물체검출장치 및 그 물체검출방법을사용한 침입물체감시장치 Download PDF

Info

Publication number
KR20020018150A
KR20020018150A KR1020010052898A KR20010052898A KR20020018150A KR 20020018150 A KR20020018150 A KR 20020018150A KR 1020010052898 A KR1020010052898 A KR 1020010052898A KR 20010052898 A KR20010052898 A KR 20010052898A KR 20020018150 A KR20020018150 A KR 20020018150A
Authority
KR
South Korea
Prior art keywords
image
reference background
predetermined
background image
imaging
Prior art date
Application number
KR1020010052898A
Other languages
English (en)
Other versions
KR100471362B1 (ko
Inventor
이토와타루
우에다히로타다
오카다도시미치
Original Assignee
엔도 마코토
가부시키가이샤 히다치 고쿠사이 덴키
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엔도 마코토, 가부시키가이샤 히다치 고쿠사이 덴키 filed Critical 엔도 마코토
Publication of KR20020018150A publication Critical patent/KR20020018150A/ko
Application granted granted Critical
Publication of KR100471362B1 publication Critical patent/KR100471362B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 촬상장치로부터의 화상신호에 기준배경화상에 대한 차분처리를 행하여 소정 감시구역 내의 상기 기준배경화상에 존재하지 않는 물체를 검출하는 물체검출방법과 장치 및 침입물체검출장치를 제공하는 것을 목적으로 한다.
물체가 존재하지 않는 소정 감시구역을 촬상장치로 주사하여 미리 기준배경화상군을 기억장치에 등록하여 두고, 감시시 촬상장치로 소정 감시구역을 주사하면서 촬상장치로부터 프레임단위로 화상을 순차적으로 출력하여 촬상장치로부터의 화상에 대응하는 기준배경화상을 기준배경화상군으로부터 선택하고, 촬상장치로부터의 화상과 그 화상에 대응하는 기준배경화상 사이에서 차분처리를 행하여 차분처리의 결과에 의거하여 물체검출처리를 한다.

Description

물체검출방법과 물체검출장치 및 그 물체검출방법을 사용한 침입물체감시장치{OBJECT DETECTING METHOD AND OBJECT DETECTING APPARATUS AND INTRUDING OBJECT MONITORING APPARATUS EMPLOYING THE OBJECT DETECTING METHOD}
본 발명은 촬상장치를 사용한 물체검출에 관한 것으로, 특히 촬상장치의 줌렌즈의 줌렌즈설정을 바꾸거나, 촬상장치의 촬상방향을 바꾸거나, 또는 촬상장치를 이동하거나 하여 그 감시시야를 바꾸면서 촬상장치로 소정의 감시구역을 주사하여 감시시야 내에 침입하여 오는 물체를 자동적으로 검출하는 물체검출방법과 장치 및 침입물체감시장치에 관한 것이다.
카메라 등의 촬상장치를 사용한 침입물체검출장치는 종래부터 널리 사용되고 있다. 그러나 최근 이와 같은 침입물체검출장치에 있어서, 그 감시시야영역 내에 들어오는 인간이나 자동차(차량) 등의 침입물체의 검출을 모니터에 표시되는 화상을 보면서 행하는 유인감시에 의한 것이 아니라, 촬상장치로부터 입력되는 화상신호로부터 침입물체를 자동적으로 검출하여 소정의 통지나 경보조치를 할 수 있도록한 침입물체검출장치가 요구되게 되고 있다.
이와 같은 침입물체검출장치를 실현하기 위해서는, 먼저 촬상장치로부터 얻어진 입력화상과, 검출해야 할 침입물체가 찍혀 있지 않은 화상(즉, 기준배경화상이나, 이전에 취득한 입력화상)을 화상처리에 의해 비교하여 차이를 검출한다. 예를 들면 입력화상과 검출해야 할 침입물체가 찍혀 있지 않은 기준배경화상을 비교하여 화소마다의 휘도치의 차분을 구하고, 그 차분치가 큰 화소의 영역을 침입물체로서 검출한다. 이 차분을 구하는 방법은 차분법이라 불리어 종래부터 널리 사용되고 있다.
차분법의 처리를 도 9에 의해 설명한다. 도 9는 차분법에 있어서의 물체검출의 처리원리를 설명하기 위한 도면으로, 901은 입력화상, 902는 기준배경화상, 903은 차분화상, 904는 차분화상(903)의 2치화 화상, 905는 감산기, 906은 2치화기, 907은 입력화상(901) 내에 촬상된 사람형의 물체, 908은 차분에 의해 생긴 영역, 909는 차분에 의해 생긴 영역(908)을 2치화처리하였을 때의 휘도치 "255"의 클러스터(덩어리)의 화상이다.
도 9에 있어서, 감산기(905)는 입력화상(901)과 기준배경화상(902)의 화소마다의 휘도치의 차분을 계산하여 차분화상(903)을 출력한다. 차분화상(903) 중에는 예를 들면 입력화상(1) 내에 촬상된 사람형의 물체(907)를 기준배경화상(902)과 입력화상(901) 사이에서 차분이 생긴 영역(908)으로서 2치화기(906)에 가한다.
2치화기(906)는 차분화상(903)의 화소마다의 휘도치가 소정의 한계치(Th) 미만인 휘도치를 "0", 한계치(Th) 이상인 화소의 휘도치를 "255"(1화소의 휘도치를 8비트로 계산)로 하여 2치화 화상(904)을 얻는다. 이에 의하여 입력화상(901)에 찍힌 사람형의 물체(907)는 감산기(905)에 의해 차분이 생긴 영역(908)으로서 계산되어 2치화기(906)에 의해 휘도치 "255"가 되는 화소의 클러스터를 나타내는 화상 (909)으로서 검출된다.
상기한 바와 같이 차분법은 미리 검출해야 할 침입물체가 찍혀 있지 않은 기준배경화상을 준비하여 두는 것이 필요하나, 촬상장치의 줌렌즈의 줌렌즈설정이나 촬상방향을 바꾸거나, 촬상장치 자신을 이동하거나 하여 카메라의 시야가 변화하여 기준배경화상과 다른 시야각, 시야방향이 되는 경우에는 미리 준비해 둔 기준배경화상은 사용할 수 없다. 따라서 이 경우에는 차분법은 적용할 수 없다는 문제가 생긴다. 또 만약 기준배경화상을 다시 만든다 하여도 그 동안은 물체검출을 행할 수 없게 되어 버린다는 문제가 발생한다. 따라서 차분법에 의한 종래의 침입물체검출방법에서는 촬상장치의 줌설정이나 촬상방향을 변경하면서, 또는 촬상장치 자신을 이동하면서의 침입물체의 검출은 실질적으로 불가능하였다.
본 발명의 목적은 상기와 같은 단점을 제거하고 촬상장치의 줌설정이나 촬상방향을 변경하여도 침입물체 등의 물체를 검출할 수 있는 신뢰성이 높은 물체검출방법과 물체검출장치 및 침입물체감시장치를 제공하는 데에 있다.
도 1은 본 발명의 일 실시예를 설명하기 위한 도,
도 2는 본 발명의 침입물체감시장치의 일 실시예의 구성을 나타내는 블록도,
도 3은 본 발명의 일 실시예의 물체검출방법의 처리동작을 나타내는 플로우차트,
도 4는 본 발명의 다른 실시예의 물체검출방법의 처리동작을 나타내는 플로우차트,
도 5는 본 발명의 또 다른 실시예의 물체검출방법의 처리동작을 나타내는 플로우차트,
도 6은 본 발명의 또 다른 실시예의 물체검출방법의 처리동작을 나타내는 플로우차트,
도 7a, 도 7b, 도 7c는 입력화상과 기준배경화상 사이의 위치 어긋남을 설명하기 위한 도,
도 8a, 도 8b는 입력화상과 기준배경화상 사이의 프레임 어긋남을 설명하기 위한 도,
도 9는 배경화상 차분법의 처리의 원리를 설명하기 위한 도,
도 10은 도 3 내지 도 6의 물체검출방법에 있어서의 기준배경화상군 초기화 단계의 더욱 상세한 처리동작을 나타내는 플로우차트,
도 11a, 도 11b, 도 11c, 도 11d는 템플릿매칭에 의한 프레임 어긋남의 보정을 설명하기 위한 도,
도 12는 본 발명의 또 다른 실시예의 물체검출방법을 설명하기 위한 도면이다.
본 발명의 일 측면에 의한 소정 감시구역내의 물체를 검출하는 물체검출방법은 이하의 단계를 구비한다.
물체가 존재하지 않는 소정 감시구역의 다른 장소를 소정 시각에 촬상장치로 촬상하여 검출해야 할 물체가 찍혀 있지 않은 상기 다른 장소에 대응하는 각각의 촬상화상을 복수개 등록하고,
상기 시각과는 다른 시각에 상기 촬상장치로 상기 소정 감시구역을 촬상하고 상기 촬상장치로부터의 화상과 그 화상에 대응하는 등록화상을 비교하고 그 비교의 결과에 의거하여 물체검출처리를 한다.
일 실시예에 있어서 상기 등록화상은 기준배경화상으로서, 상기 비교단계는 상기 촬상장치로부터의 화상과 상기 기준배경화상 중의 소정화상과의 차분처리에 의해 행한다.
이 물체검출방법은 상기 촬상장치로부터의 화상과 그것에 대응하는 기준배경화상 사이의 위치 어긋남을 검출하고, 또한 검출한 위치 어긋남에 따라 상기 촬상장치로부터의 화상을 보정하는 단계를 가지고, 그 보정된 화상이 그것에 대응하는 상기 기준배경화상 사이에 상기 차분처리를 실행하는 것을 바람직한 특징으로 한다.
구체적으로는 촬상장치를 이동하면 촬상장치가 흔들려 위치 어긋남이 발생하고, 그 때문에 촬상장치로부터의 화상과 기준배경화상 사이에도 위치 어긋남이 발생한다. 이 위치 어긋남이 물체검출시 즉, 차분처리 이후의 처리에 있어서 물체로서 오검출된다. 이 위치 어긋남을 제거하기 위하여 바람직하게는 상기 위치 어긋남을 검출하는 단계는 상기 촬상장치로부터의 화상과 그것에 대응하는 상기 기준배경화상 사이에 템플릿매칭을 행하여 위치 어긋남을 검출하는 템플릿매칭단계를 포함한다.
일 실시예에 있어서, 상기 템플릿매칭단계는 상기 기준배경화상 위에 복수의 구획을 설정하여 각 구획의 화상을 템플릿으로서 사용하여 상기 화상에 대하여 템플릿매칭을 행하여 검출된 위치 어긋남의 평균을 상기 위치 어긋남으로 한다.
상기 물체검출방법은 상기 촬상장치로부터의 화상의 프레임과 상기 대응하는 기준배경화상의 프레임 사이의 프레임 어긋남을 검출하는 프레임 어긋남 검출단계를 가지고, 프레임 어긋남이 있는 경우, 다른 기준배경화상을 선택하도록 하는 것을 다른 바람직한 특징으로 한다.
즉, 차분처리를 실행할 때, 적절한 기준배경화상을 선택하는 것이 중요하다. 기준배경화상군으로부터 적절한 기준배경화상이 선택되지 않고, 따라서 프레임 어긋남이 발생하면 촬상장치로부터의 화상과 선택한 기준배경화상 사이에서 배경부분에 어긋남이 생겨 물체검출시, 즉 차분처리 이후의 처리에 있어서 물체로서 오검출된다. 이 위치 어긋남을 제거하기 위하여 바람직하게는 상기 프레임 어긋남 검출 단계는 상기 촬상장치로부터의 화상과 상기 대응하는 기준배경화상 사이에 템플릿매칭을 행하여 프레임 어긋남을 검출하는 템플릿매칭단계를 포함한다.
일 실시예에 있어서, 상기 템플릿매칭단계는 상기 대응하는 기준배경화상 위에 복수의 구획을 설정하고, 각 구획의 화상을 템플릿으로서 사용하여 상기 화상에 대하여 템플릿매칭을 행하고, 검출된 프레임 어긋남 정보에 따라 상기 기준배경화상의 프레임보다 시간적으로 전 또는 후의 프레임의 기준배경화상을 선택하도록 한다.
대체예로서 상기 프레임 어긋남 검출단계는 상기 촬상장치의 위치와 촬상시야정보의 적어도 한쪽에 의거하여 상기 프레임 어긋남을 보정하는 것을 더욱 바람직한 특징으로 한다.
일 실시예에 있어서, 상기 촬상장치의 특정한 위치와 그 위치에 대응하는 기준배경화상의 특정한 프레임을 미리 대응시켜 두고, 상기 촬상장치가 상기 특정한 위치에 왔을 때에 상기 특정한 프레임의 기준배경화상을 사용하여 상기 프레임 어긋남을 보정한다.
일 실시예에 있어서, 상기 촬상시야정보는 상기 소정의 감시시야 내의 특정물체를 표적으로서 포함하고, 그 표적과 그 표적에 대응하는 특정한 프레임의 기준배경화상을 미리 대응시켜 두고, 상기 촬상장치가 상기 표적을 촬상하였을 때에 상기 특정한 프레임의 기준배경화상을 사용하여 상기 프레임 어긋남을 보정한다.
상기 물체검출방법은 상기 기준배경화상을 갱신하는 단계를 가지고, 상기 기준배경화상의 적어도 하나를 갱신하는 것을 또 다른 바람직한 특징으로 한다.
일 실시예에 있어서 상기 갱신하는 단계는 상기 물체검출처리단계에 있어서 상기 화상 중에 물체가 검출되지 않았을 때 상기 대응하는 기준배경화상을 상기 화상으로 갱신한다.
본 발명의 다른 측면에 의한 소정 감시구역 내의 물체를 검출하는 물체검출방법은 이하의 단계를 구비한다.
상기 물체가 존재하지 않는 상기 소정 감시구역의 다른 장소를 소정 시각에 상기 촬상장치로 소정의 주사패턴에 따라 촬상하여 미리 기준배경화상군을 기억장치에 등록하고,
상기 촬상장치에 의해 상기 소정 감시구역을 상기 소정의 주사패턴과 실질적으로 동일하게 하여 촬상하고, 또한 상기 기억장치에 기억된 상기 기준배경화상군의 소정의 화상을 동기하여 판독하고,
상기 촬상장치로부터의 화상과 판독한 기준배경화상군 사이에서 차분처리를 행하고,
상기 차분처리의 결과에 의거하여 물체검출처리를 한다.
상기 소정의 주사패턴은 예를 들면 상기 촬상장치의 줌렌즈의 줌비, 촬상방향, 촬상장치의 이동경로 중 적어도 하나 또는 2개 이상 조합의 소정의 시간적 변화를 포함한다.
일 실시예에 있어서, 상기 소정의 주사패턴은 촬상장치가 소정의 이동경로를 따라 소정의 속도 프로파일로 이동하는 패턴이다.
따른 실시예에 있어서, 상기 소정의 주사패턴은 촬상장치의 위치는 고정이고, 상기 촬상장치의 줌비와 촬상방향이 주기적으로 변화되는 패턴을 포함한다.
상기 기준배경화상군은 상기 물체가 존재하지 않는 상기 소정 감시구역을 상기 촬상장치로 상기 소정의 주사패턴에 따라 주사하여 그 촬상장치로부터 출력되는 화상을 소정 샘플링 간격으로 샘플링하여 얻은 화상의 집합이며, 상기 등록단계에서는 상기 기준배경화상군의 각각의 기준배경화상에 촬상순 또는 샘플링순으로 프레임번호를 붙여 등록하고, 상기 촬상하는 단계에서는 그 프레임번호를 사용하여 상기 촬상장치에서의 촬상과 상기 등록장치로부터의 기준배경화상의 판독을 동기하여 행하고, 이로써 상기 촬상장치로부터의 상기 화상에 대응하는 기준배경화상을 상기 기준배경화상군으로부터 선택하는 것을 다른 바람직한 특징으로 한다.
일 실시예에 있어서, 상기 감시개시로부터 현재까지의 경과시간과 상기 소정 샘플링간격의 관계로부터 상기 대응하는 기준배경화상의 프레임번호를 산출하고, 그 산출한 프레임번호를 사용하여 상기 촬상장치에서의 촬상과 상기 기억장치로부터의 기준배경화상의 판독의 동기를 취한다.
상기 촬상장치로부터의 상기 화상과 상기 선택된 기준배경화상 사이의 프레임 어긋남을 검출하는 프레임 어긋남 검출단계을 가지고, 프레임 어긋남이 있는 경우, 다른 기준배경화상을 선택하도록 하는 것을 바람직한 다른 특징으로 한다.
상기 촬상장치로부터의 상기 화상과 상기 판독한 기준배경화상 사이의 공간적 위치 어긋남을 검출하여 검출한 공간적 위치 어긋남에 따라 상기 판독한 화상을 보정하는 단계를 가지고, 그 보정된 화상을 사용하여 상기 차분처리를 행하는 것을 또 다른 바람직한 특징으로 한다.
본 발명의 또 다른 측면에 의한 소정 감시구역 내의 물체를 검출하는 물체검출장치는 이하의 것을 구비한다.
촬상장치 ; 상기 촬상장치에 접속되어 그 촬상장치로부터의 영상신호를 화상데이터로 변환하는 화상입력 인터페이스와, 중앙처리유닛과, 메모리를 포함하여 상기 화상신호를 처리하는 처리부와, 상기 화상입력 인터페이스와 상기 처리부를 상호 접속하는 버스와, 여기서 상기 처리부는 상기 물체를 검출하기 위한 상기 물체검출장치를 이하와 같이 제어한다.
검출해야 할 물체가 존재하지 않는 상기 소정 감시구역을 촬상하는 상기 촬상장치로부터 화상을 순차적으로 상기 메모리에 기록하고, 상기 소정 감시구역을 소정주사패턴에 따라 촬상하는 상기 촬상장치로부터의 화상이 순차적으로 상기 처리부에 입력되어 그 입력화상에 대응하는 상기 기억되어 있는 화상을 상기 메모리로부터 판독하고, 상기 입력화상과 상기 판독된 화상을 비교하여 그 비교의 결과에 의거하여 물체검출을 한다.
일 실시예에 있어서, 상기 버스에 접속되어 상기 촬상장치의 줌렌즈의 줌비를 변화시키는 줌렌즈제어장치 및 상기 촬상장치의 촬상방향을 바꾸는 운대(雲臺)제어장치를 가진다.
다른 실시예에 있어서 상기 촬상장치가 이동장치 위에 탑재된다.
일 실시예에 있어서 상기 이동장치는 이동체를 포함한다.
다른 실시예에 있어서 상기 이동장치는 운대를 포함한다.
본 발명의 또 다른 측면에 의한 소정 감시구성 내의 물체를 검출하는 물체검출장치는 이하를 구비한다.
촬상장치 ; 상기 촬상장치에 접속되어 그 촬상장치로부터의 영상신호를 화상 데이터로 변환하는 화상입력 인터페이스와, 중앙처리유닛과, 메모리를 포함하여 상기 화상신호를 처리하는 처리부와, 상기 화상입력 인터페이스와 상기 처리부를 상호 접속하는 버스를 가지고 상기 처리부는 상기 물체를 검출하기 위하여 상기 물체검출장치를 이하와 같이 제어한다.
검출해야 할 물체가 존재하지 않는 상기 소정 감시구역을 촬상하는 상기 촬상장치로부터의 화상이 기준배경화상군에 포함되는 하나의 기준배경화상으로서 미리 상기 메모리에 기록되고, 상기 소정 감시구역을 소정 주사패턴에 따라 촬상하는 상기 촬상장치로부터의 화상이 순차적으로 상기 처리부에 입력되고, 그 입력화상의 촬상과 동기하여 상기 기준배경화상군으로부터 하나의 기준배경화상이 상기 메모리로부터 판독되고, 상기 입력화상과 상기 판독한 기준배경화상의 화소마다의 화소치의 차분치가 산출되어 그 차분치가 큰 영역이 상기 물체로서 검출된다.
본 발명의 또 다른 측면에 의한 소정 감시구역 내의 침입물체를 감시하는 감시장치는 이하의 것을 구비한다.
촬상장치 ; 상기 촬상장치에 접속되어 그 촬상장치로부터의 영상신호를 화상데이터로 변환하는 화상입력 인터페이스와, 중앙처리유닛과, 메모리를 포함하여 상기 화상신호를 처리하는 처리부와, 감시모니터와, 상기 화상입력 인터페이스와 상기 처리부를 상호접속하는 버스를 가지고, 상기 처리부는 상기 감시장치를 아래와 같이 제어한다.
검출해야 할 침입물체가 존재하지 않는 상기 소정 감시구역을 촬상하는 상기촬상장치로부터의 n 번째마다의 화상이 기준배경화상군으로서 미리 상기 메모리에 기록되고, n은 1 이상의 정수이고, 상기 소정 감시구역을 소정 주사패턴에 따라 촬상하는 상기 촬상장치로부터의 화상이 순차적으로 상기 처리부에 입력되고, 그 입력화상에 대응하는 기준배경화상이 상기 화상메모리로부터 판독되고, 상기 입력화상과 판독된 그 입력화상에 대응하는 기준배경화상의 화소마다의 화소치의 차분치가 산출되고, 그 차분치가 큰 영역이 상기 침입물체로서 검출되어 상기 감시모니터에 표시된다.
본 발명의 또 다른 측면에 의한 소정 감시구역 내의 침입물체를 감시하는 감시장치는 이하의 것을 구비한다.
촬상장치 ; 상기 촬상장치에 접속되어 그 촬상장치로부터의 영상신호를 화상 데이터로 변환하는 화상입력 인터페이스와, 중앙처리유닛과, 메모리를 포함하여 상기 화상신호를 처리하는 처리부와, 감시모니터와, 상기 화상입력 인터페이스와, 상기 처리부와, 상기 감시모니터를 상호접속하는 버스를 가지고 상기 처리부는 상기감시장치를 아래와 같이 제어한다.
검출해야 할 침입물체가 존재하지 않은 상기 소정 감시구역을 촬상하는 상기촬상장치로부터의 n 번째마다의 화상이 기준배경화상군으로서 미리 상기 메모리에 기록되고, n은 1 이상의 정수이고, 상기 소정 감시구역을 소정 주사패턴에 따라 촬상하는 상기 촬상장치로부터의 화상이 순차적으로 상기 처리부에 입력되고, 상기 입력화상의 촬상과 동기하여 상기 기준배경화상군이 상기 메모리로부터 판독되고, 상기 입력화상과 판독된 기준배경화상의 화소마다의 화소치의 차분치가 산출되고, 그 차분치가 큰 영역이 상기 침입물체로서 검출되어 상기 감시모니터에 표시된다.
이하 본 발명의 실시예를 도면에 따라 설명한다. 전 도면을 통하여 동일한 부재에는 동일한 참조부호를 붙인다.
본 발명의 침입물체감시장치의 일 실시예를 도 2에 의해 설명한다. 도 2는 침입물체감시장치의 하드웨어구성을 나타내는 블록구성도이다.
201은 텔레비젼카메라(이하 TV카메라라 함), 202는 운대, 203은 줌렌즈, 204는 화상입력 I/f, 205는 화상출력 I/f, 216은 감시모니터, 215는 데이터버스, 206은 통신 I/f, 213은 운대제어장치, 214는 줌제어장치, 207은 출력 I/f, 217은 경고등, 208은 CPU(Central Processing Unit), 209는 화상메모리, 210은 프로그램메모리, 211은 워크메모리, 212는 외부기억장치이다. TV카메라(201)는 운대(202)에 설치되고, TV카메라(201)는 줌렌즈(203)를 구비하고, 운대(202)는 운대제어장치(213)에 접속되고, 줌렌즈(203)는 줌제어장치(214)에 접속되고, 운대제어장치(213) 및 줌제어장치(214)는 통신 I/f(206)에 접속되고, TV카메라(201)는 화상입력 I/f(204)에 접속되고, 감시모니터(216)는 화상출력 I/f(205)에 접속되고, 경고등(217)은 출력 I/f(207)에 접속되어 있다. 또 화상입력 I/f(204), 화상출력 I/f(205), 통신 I/f(206), 출력 I/f(207), CPU(208), 화상메모리(209), 프로그램메모리(210), 워크메모리(211) 및 외부기억장치(212)는 데이터버스(214)에 접속되어 있다.
도 2에 있어서, TV카메라(201)는 그 감시시야 내에 들어간 감시대상구역의 일 부분을 촬상한다. 침입물체감시장치는 예를 들면 운대(202), 줌렌즈(303)를 조작하여 TV카메라(201)로 감시대상구역 전체를 주사(scan)함으로써 감시대상구역 전체를 촬상한다.
운대(202)는 운대제어장치(213)의 운대제어신호에 의해 TV카메라(201)의 촬상방향을 바꾸어 줌렌즈(203)는 줌제어장치(214)의 줌제어신호에 의해 줌렌즈의 줌비를 바꾼다.
TV카메라(201)는 촬상한 화상을 영상신호로 변환하고 변환된 영상신호를 화상입력 I/f(204)에 입력한다. 화상입력 I/f(204)는 입력한 영상신호를 침입물체감시장치에서 처리하는 포맷(예를 들면, 폭 320pix, 높이 240pix, 8bit/pix)의 화상데이터로 변환하고, 데이터버스(215)를 거쳐 화상메모리(209)에 보낸다. 화상메모리(209)는 보내져 온 화상데이터를 축적한다. 또 축적하는 화상데이터의 양에 따라 화상데이터를 화상메모리(209)로부터 외부기억장치(212)로 옮긴다.
CPU(208)는 프로그램메모리(210)에 보존되어 있는 프로그램에 따라 워크메모리(211) 내에서 화상메모리(209)에 축적된 화상의 해석을 행한다.
상기 해석의 결과, 만약 TV카메라(201)의 촬상시야 내에 침입물체가 침입한 것 및 그 관련정보를 얻으면, CPU(208)는 처리결과 또는 소정의 운대제어신호 또는 줌제어신호에 따라 데이터버스(215)로부터 통신 I/f(206)를 거쳐 운대제어장치 (213)에 운대제어신호를 송신시키고, 또 통신 I/f(206)를 거쳐 줌제어장치(214)에 줌제어신호를 송신시킨다.
다시 CPU(208)는 화상출력 I/f(205)를 거쳐 감시모니터(216)에 예를 들면 처리결과화상을 표시하고, 출력 I/f(207)를 거쳐 경고등(217)을 점등한다. 통신 I/f (206)는 CPU(208)로부터의 신호를 운대제어장치(213) 및 줌제어장치(214)를 인식할 수 있는 포맷(예를 들면 RS0232c 통신장치)으로 변환하고, 운대(202)의 팬·틸트모터나 줌렌즈(203)의 줌비를 제어한다.
또 화상출력 I/f(205)는 CPU(208)로부터의 신호를 감시모니터(216)를 사용할 수 있는 포맷(예를 들면 NTSc영상신호)으로 변환하여 감시모니터(216)에 보낸다. 감시모니터(216)는 예를 들면 침입물체검출결과화상을 표시한다.
도 3은 본 발명의 일 실시예의 처리동작을 나타내는 플로우차트의 일례이다.도 3의 플로우차트에 나타내는 처리동작은 도 2에 나타낸 침입물체감시장치를 사용하여 실행된다. 이 제 1 실시예는 화상메모리(209) 또는 외부기억장치(212)에 기억되어 있는 기준배경화상군, 즉 복수의 기준배경화상(기준배경화상 또는 복수의 프레임의 기준배경화상) 중으로부터 감시시야내를 촬상하여 얻어지는 입력화상에 대응하는 기준배경화상을 선택하고, 도 9에서 설명한 차분법에 의해 TV카메라(201)의 시야 내에 침입한 물체를 검출하는 방법이다.
상기 기준배경화상군, 즉 복수의 기준배경화상신호는 후기하는 바와 같이 소정의 주사패턴에 따라 TV카메라(201)를 이동시키면서 또는 운대로 그 촬상방향을 바꾸면서 TV카메라(201)로 검출대상물체가 존재하지 않는 감시대상구역을 주사하여 감시장치의 감시시야를 순차적으로 바꾸어 촬상함으로써 얻을 수 있다. 「소정의 주사패턴」이란, TV카메라(201)를 이동시킬 때의 소정의 궤적이나 소정의 촬상방향의 변화를 포함한 시간경과에 따르는 촬상조건의 변화패턴이다. 소정의 주사패턴에는 다시 TV카메라(201)의 줌렌즈의 줌비를 시간과 함께 바꿀 때의 소정의 줌비 변화패턴을 포함하는 경우가 있다. 또한 이하의 설명에서 「소정의 주사패턴에 따라 TV카메라(201)를 이동시키고, 또는 운대로 그 촬상방향을 바꾸면서 TV카메라(201)로 감시대상구역을 주사하여 감시장치의 감시시야를 순차적으로 바꾸는 것」을 간단하게 「감시장치의 소정의 시야변화」라 한다.
도 3에 있어서, 먼저 기준배경화상군 초기화 단계(300)에서는 기준배경화상군의 초기화를 행한다. 이 처리를 도 10을 사용하여 설명한다. 도 10은 기준배경화상군의 초기화처리의 흐름을 나타내는 플로우차트이다. 기준배경화상군의 초기화처리는 먼저 기준배경화상군 추가등록 필요성 판정단계(1001)에서는 워크메모리 (211) 또는 외부기록장치(212)에 기억되어 있는 기준배경화상군이 감시장치의 소정의 감시시야변화에 대한 모든 기준배경화상을 유지하고 있는지의 여부를 판정하고, 기준배경화상군이 모든 기준배경화상을 유지하고 있는경우(미리 감시장치의 소정의 감시시야변화에 대한 기준배경화상군을 작성하고 있는 경우), 기준배경화상군의 추가등록은 필요없는 것으로서 기준배경화상군의 초리화처리를 종료하고(화상입력단계(301)로 복귀하고), 기준배경화상을 전혀 유지하고 있지 않는 또는 일부밖에 유지하고 있지 않은 경우는 기준배경화상군의 추가등록이 필요한 것으로 하여 프레임번호산출단계(1002)로 분기한다. 프레임번호산출단계(1002)에서는 추가해야 할 기준배경화상군의 프레임번호를 산출한다. 프레임번호는 입력화상과 기준배경화상군 내에 유지되어 있는 기준배경화상의 동기를 취하기 위하여 사용되고, 감시개시시각의 프레임번호를 예를 들면 frame = 0 으로서 표현한다. 기준배경화상군 내의 기준배경화상을 소정의 샘플링간격(예를 들면 30프레임/매초)으로 유지하는 경우, 프레임번호가 300인 경우, 감시개시시각으로부터 10초 경과하고 있는 것을 나타낸다. 즉 감시개시시각으로부터 10초 경과한 시점에서 입력한 입력화상에 대응하는 기준배경화상의 프레임번호(frame)는 frame = 300 이 된다. 프레임번호산출단계(1002)에서는 예를 들면 기준배경화상군이 기준배경화상을 전혀 유지하고 있지 않을 경우, frame = 0 [감시장치의 소정의 감시시야 변화의 개시점(감시개시시각 시점의 감시시야에 상당)을 나타낸다]으로 한다. 또 기준배경화상군이 기준배경을 예를 들면 10 프레임유지(감시장치의 소정의 감시시야 변화의 개시점으로부터 10 프레임경과하고 있는 것을 나타냄)하고 있는 경우, frame = 10 으로 한다. 다음에 기준배경화상 취득단계 (1003)에서는 촬상장치(201)로부터 예를 들면 320 ×240 화소의 입력화상을 얻는다. 또한 기준배경화상군 추가등록단계(1004)에서는 기준배경화상취득단계(1003)에서 얻어진 입력화상을 워크메모리(21) 또는 외부기록장치(212)에 기억되어 있는 기준배경화상군에 추가등록한다. 추가등록완료판정단계(1005)에서는 기준배경화상군에 감시장치의 소정의 감시시야변화에 대한 모든 기준배경화상의 추가등록이 완료한 경우에는 기준배경화상군의 초기화처리를 종료하고[화상입력단계(301)로 복귀], 추가등록이 완료되어 있지 않은 경우에는 프레임번호산출단계 (1002)로 분기한다.
도 3으로 되돌아가 화상입력단계(301)에서는 TV카메라(201)에 의해 촬상되는 입력영상신호를 예를 들면 320 ×240 화소의 입력화상으로서 얻는다.
다음으로 기준배경화상선택/동기 판독단계(302)에서는 화상입력단계(301)에 의해 얻어진 입력화상(901)에 대응하는 동일하거나 또는 가장 가까운 화상각의 기준배경화상(902)을 복수의 기준배경화상 또는 기준배경화상군으로부터 선택한다.
본 실시예에서는 복수의 기준배경화상(즉, 기준배경화상군) 중으로부터 대응하는 기준배경화상을 선택하기 위하여 프레임번호(frame)에 의한 입력화상과 기준배경화상의 동기의 관리를 행하고 있다. 프레임번호는 감시개시시각을 예를 들면 frame = 0 으로 정하고, 감시개시시각으로부터의 경과시간에 맞추어 기준배경화상군의 샘플링간격마다 증가한다. 즉 예를 들면 기준배경화상군이 30 프레임/매초로 샘플링된 기준배경화상을 유지하고 있는 경우, 프레임번호는 1초당 30만 증가한다.기준배경화상 초기화단계(300)에 있어서, 기준배경화상군은 감시장치의 소정의 감시시야 변화의 개시점(감시개시시각 시점의 감시시야에 상당)을 기준으로 프레임번호를 산출하고(1002), 기준배경화상군을 취득하여(1003), 기준배경화상군에 추가등록하고 있다(1004). 도 12를 예로 하면 소정의 감시시야변화란, 촬상시야가 시야(1202a, 1202b, 1202c, 1202d, 1202e, 1202e, 1202d, 1202c, 1202b, 1202a)의 변화이고, 이와 같은 소정의 감시시야변화에 대하여 기준배경화상군 중에 frame = 0 내지 9의 각 프레임번호의 시야의 기준배경화상이 유지되어 있다. 감시개시시각에 있어서, 촬상장치의 시야는 1202a이고, 시간이 경과할 때마다 시야(1202a, 1202b, 1202c, 1202d, 1202e, 1202e, 1202d, 1202c, 1202b, 1202a)로 변화하고, 그에 따라 프레임번호도 frame = 0 내지 9로 증가한다. 따라서 프레임번호(frame)에 의하면 기준배경화상선택단계(302)에 있어서, 기준배경화상군 중으로부터 입력화상과 동일한 시야에서 얻어진 기준배경화상을 선택할 수 있어 입력화상과 선택해야 할 기준배경화상의 동기를 취하는 것이 가능하게 된다.
환언하면, 프레임번호(frame)는 기준배경화상군 중으로부터 입력화상에 대응하는 기준배경화상을 선택하기 위한 카운터로서 사용되고 있고, 상기한 바와 같이 예를 들면 감시개시시각(기준시각)을 frame = 0 으로 하고, 30/sec의 비율로 증가하기(NTSc 방식의 텔레비젼방송에 준거하는 TV카메라에 의해 촬상된 경우)때문에 예를 들면 frame = 300 이면 기준시각으로부터 10초 경과하였음을 알 수 있고, 따라서 기준배경화상도 기준시각으로부터 10초 경과한 것이 선택된다.
본 실시예에서는 기준배경화상의 샘플링간격이 TV카메라의 영상신호의 프레임간격과 동일하다고 하였으나, 샘플링간격은 영상신호에 의하지 않고 임의로 결정할 수 있다. 즉 TV카메라로부터의 n번째마다의 프레임화상을 기준배경화상으로 할 수 있어, n은 1에 한정하지 않고 2 이상의 정수이어도 좋다. 또 샘플링간격은 영상신호의 프레임간격에 한정되지 않고 임의로 결정할 수 있다. 이에 대하여 다시 설명한다.
본 실시예에서는 NTSc방식의 영상신호를 풀프레임(초 30프레임)으로 샘플링하는 예를 사용하고 있으나, 예를 들면 초 10프레임으로 한 경우에도 본 발명과 동일한 효과를 얻을 수 있다. 단, 샘플링간격이 길어지면 입력화상과 선택된 기준배경화상의 시야의 어긋남이 커지기 때문에 차분처리에 있어서, 오검출이 많아진다. 감시개시시각(소정의 시야변화의 개시시점)으로부터의 경과시간(t)과 프레임번호 (frame) 사이에는
의 관계가 있다. 여기서 Δt란, 샘플링간격[s]을 나타내고, 예를 들면 NTSc방식의 영상신호를 풀프레임으로 샘플링하는 경우 Δt = 1/30[s]가 되고, 초 10프레임의 경우에서는 Δt = 1/10[s]가 된다. 따라서 프레임번호는 경과시간(t)에 따라,
로서 산출할 수 있다(소수점 이하는 반올림한다). 입력화상과 선택해야 할 기준배경화상의 동기를 취하는 방법은 감시개시시각으로부터의 경과시간(t)에 따라 상기 수학식(2)로부터 프레임번호를 산출하고, 기준배경화상군으로부터 그 산출한 프레임번호의 기준배경화상을 선택하도록 한다.
복수의 기준배경화상은 화상메모리(209) 또는 외부기억장치(212)에 기록되어 있다. 또한 복수의 기준배경화상(기준배경화상군)의 기록포맷으로서 기준배경화상을 소정 프레임분 연속시킨 것이어도, MPeg(Moving Pictures experts group)나 모션 JPeg(Motion Joint Photographic Experts Group) 등의 압축된 형식으로 기록된 것이어도 좋다.
다음에 차분처리단계(303)에서는 입력화상(901)과 선택된 기준배경화상 (902)의 화소마다의 휘도치의 차분을 계산하여 차분화상(903)을 얻는다.
2치화처리단계(304)에서는 차분처리단계(303)에 의해 얻어진 차분화상(903)을 소정의 한계치(Th)(예를 들면 Th=20)를 사용하여 차분화상(903)의 화소마다의 휘도치가 소정의 한계치(Th) 미만인 휘도치를 "0", 한계치(Th) 이상의 화송의 휘도치를 "225"(1화소의 휘도치를 8비트로 계산)로 하여 2치화 화상(904)을 얻는다.
다음에 침입물체 존재판정단계(305)에서는 얻어진 2치화 화상(904)으로 휘도치 "225"가 되는 화소의 클러스터가 존재하면 침입물체 있음으로 판정하여 경보·모니터표시단계(306)로 분기하고, 클러스터가 존재하지 않으면 침입자 없음으로 판정하여 화소입력단계(301)로 분기한다.
도 3의 처리를 도 1을 사용하여 설명한다. 도 1은 도 9에서 나타낸 차분법에 있어서의 기준배경화상을 복수의 기준배경화상(기준배경화상군) 중으로부터 선택하는 것을 설명하는 도면이다. 101은 입력화상, 102는 기준배경화상군, 103은 차분화상, 104는 2치화 화상, 105는 기준배경화상선택기, 106은 차분기, 107은 2치화기, 102a, 102b, 102c, 102d, 102e, 102f, 102g는 기준배경화상군(102)에 포함되는 기준배경화상이다. 입력화상(101), 차분화상(103), 2치화 화상(104), 차분기 (106) 및 2치화기(107)에 대해서는 도 9에서 설명한 입력화상(901), 차분화상 (903), 2치화 화상(904), 차분기(905) 및 2치화기(906)와 대략 동일한 요소이므로 설명을 생략한다.
기준배경화상군(102)은 소정의 감시시야변화에 대한 기준배경화상(102a, 102b, 102c, 102d, 102e, 102f, 102g)을 촬상한 시간순으로 포함하고 있고, 기준배경화상선택기(105)에 의해 예를 들면 입력화상(101)에 대응하는 화각(畵角)이 대략 동일한 기준배경화상(102d)을 선택한다.
이 기준배경화상선택기(105)는 감시동작이 행하진 시간분만큼 frame(프레임번호)을 증가시켜 간다. 따라서 감시시야가 변화하는 장면에서도 적절한 기준배경화상을 적용할 수 있다. 정확한 침입물체검출이 가능하게 된다.
상기한 도 1에서는 촬상장치가 소정의 궤도를 소정의 속도프로파일로 이동하는 물체의 선두부분에 탑재된 예이다. 이 때의 기준배경화상군은 검출해야 할 물체가 존재하지 않은 경우에 이 소정의 궤도 위를 소정의 속도로 하였을 때에 촬상장치가 촬상한 프레임화상에 대하여 소정의 간격(예를 들면 30프레임 간격)으로 샘플링한 화상을 기준배경화상으로 하여 취득한 시간순으로 연속하여 화상메모리(209) 또는 외부기억장치(212)에 기록한 것이다.
그러나 그 외에도 촬상장치의 위치는 고정으로 하고, 촬상장치를 팬 또는 틸트(촬상방향) 또는 그 양쪽을 조합한 동작을 하게 하거나, 또 촬상장치의 줌렌즈의 줌비의 설정을 변경하거나 한다.
도 4는 본 발명의 제 2 실시예의 처리동작을 설명하는 플로우차트의 일례이다. 도 4는 도 3의 플로우차트에 기준배경 동화상 갱신단계(401)를 추가한 것이다. 도 4에 있어서 화상입력단계(301)로부터 2치화처리단계(304)까지의 처리동작과 경보·모니터표시단계(306)는 도 3에서 설명한 바와 같으므로 설명을 생략한다. 또 마찬가지로 지금부터 설명하는 플로우차트에 있어서 동일한 참조번호의 단계에 대해서는 대략 동일한 기능을 가지고 있으므로 설명을 생략한다.
침입물체 존재판정단계(305)에 있어서, 2치화처리단계(304)로부터 얻어진 2치화화상(904)에서 휘도치가 "225"인 화소의 클러스트가 존재하면 경보·모니터표시단계(306)로 처리가 진행한다. 그러나 침입물체 존재판정단계(305)에 있어서 2치화처리단계(304)로부터 얻어진 2치화화상(904)에서 휘도치가 "225"인 화소의 클러스트가 존재하지 않았다고 판정되면 처리동작은 기준배경 동화상 갱신단계(401)로 진행한다.
이 기준배경 동화상 갱신단계(401)는 침입물체 존재판정단계(305)에 의해 침입물체 없음으로 판정된 경우에 기준배경화상군(102)을 갱신하도록 한 것이다. 즉 기준배경화상군(102)의 갱신은 어떠한 형으로 입력화상(101)이 입력화상(101)에 대응하는 동일한 화상각의 기준배경화상(102d)에 반영되는 방법이면 좋다. 예를 들면 기준배경화상(102d)을 입력화상으로 치환하도록 하여도 좋다. 또는 기준배경화상(102d)과 입력화상(101)의 화소마다의 평균치를 구하고, 구한 각 평균치로 구성되는 화상을 새로운 기준배경화상(102d)으로 하여도 좋다. 따라서 감시시야가 변화하는 장면에서도 기준배경화상을 순차적으로 갱신하면서 적절한 기준배경화상을 적용할 수 있어 정확한 침입물체검출이 가능하게 된다.
도 5는 본 발명의 제 3 실시예를 나타내는 플로우차트의 일례이다. 도 5는 도 4의 플로우차트의 기준배경화상선택단계(302)와 차분처리단계(303) 사이에 위치 어긋남 보정단계(501)를 삽입한 것이다.
위치 어긋남 보정단계(501)는 TV카메라(201)의 이동시의 흔들림에 기인하는 입력화상(101)과 기준배경화상(102d) 사이의 화상의 위치 어긋남량을 계산하고, 계산한 위치 어긋남량에 의거하여 입력화상(101)의 화상 위의 위치를 보정하는 것이다. 이 처리의 일 실시예를 도 7에 의해 설명한다.
도 7a, 도 7b, 도 7c는 주지의 템플릿매칭을 이용한 위치 어긋남량의 계산방법의 일 실시예를 설명하기 위한 도면이다. 도 7a에 나타낸 701은 기준배경화상, 701a는 기준배경화상(701) 내에 설치한 구획블록, 도 7b에 나타내는 702는 입력화상, 702a는 입력화상(702) 중에서 블록(701a)으로서 검출된 영역, 702b는 블록 (701a)에 상당하는 장소의 입력화상(702) 중의 영역, 702c는 영역(702b)과 영역 (702a)의 위치 어긋남량을 나타내는 화살표, 도 7c에 나타내는 703은 기준배경화상 (701)의 모든 블록에 대한 위치 어긋남량의 분포를 나타내는 화상이다.
도 7a, 도 7b, 도 7c의 처리방법은, 기준배경화상(701)을 몇개인가의 구획(블록)으로 분할하고(이 예에서는 8개), 각각의 블록의 화상이 입력화상 위에서 어느 위치에 존재하는지를 템플릿매칭에 의해 판정하는 것이다.
도 7a, 도 7b, 도 7c에서는 블록(701a)[기준배경화상(701) 중의 사선으로 칠한 영역]을 예로 들어 나타내고 있고, 블록(701a)의 화상[입력화상(702) 중에서의 블록의 위치를 점선으로 둘러싼 영역(702B)으로 나타냄]은 입력화상(702) 중에서 영역(702A)에 존재하는 것으로서 검출되고, 그 위치 어긋남량은 화살표(702C)와 같이 된다. 이와 같이 도 7c는 입력화상과 기준배경화상의 위치 어긋남을 나타낸다. 이와 같이 "위치 어긋남(sfatial deviation)"이란, 기준배경화상에 대하여 입력화상이 공간적(상하 좌우)으로 어긋나는 것을 말한다. 템플릿매칭에 대해서는 예를 들면 1985년 총연출판에서 출판된 다무라히데유키 감수에 의한 『컴퓨터화상처리입문』이라는 서적의 P118 ~P125에 해설되어 있다. 또한 Azried Rosenfeld et al. Digital Picture Processing ACADEMIC PRESS. pp296-303이나, 1976년 U.S.Patent No. 5,554,983 에도 개시되어 있고, 이들 개시는 참조로 본원에 편성한다.
이 템플릿매칭처리를 모든 블록에 대하여 행하면 위치 어긋남의 분포(703)가 얻어진다. 그리고 이들을 평균화한 것이 입력화상의 위치어긋남량(v)이다. 즉 각 블록의 위치 어긋남량(vn)을 다음 수학식 3으로 나타내면,
(단, n = 1, 2, ……, N)
입력화상의 위치 어긋남량(v)은 수학식 4 및 수학식 5와 같이 된다.
여기서 N은 블록수(예에서는 N=8)이다.
다음에 얻어진 v = (dx, dy)에 대하여 수학식 6을 계산한다.
여기서 f(x, y)는 입력화상, f'(x, y)는 위치 어긋남을 보정한 입력화상을 나타낸다.
이아 같이 함으로써 입력화상(101)과 기준배경화상(102D)의 위치어긋남이 존재하는 장면에서도 그 위치 어긋남을 보정할 수 있어 정확한 침입물체검출이 가능하게 된다.
도 6은 본 발명의 제 4 실시예를 나타내는 플로우차트의 일례이다. 도 6은 도 4에서 나타낸 플로우차트에 프레임 어긋남 검출단계(601)와, 프레임 어긋남이 존재한 경우에 다시 기준배경화상선택단계(302)를 실행하도록 분기하는 분기단계(602)를 추가한 것이다.
프레임 어긋남 검출단계(601)는 입력화상(101)과 선택된 기준배경화상(102D)과 시간적인 어긋남을 판정하는 것이다. 이 처리의 일 실시예를 도 8, 도 11을 사용하여 설명한다. 도 8a, 도 8b는 템플릿매칭을 이용한 프레임 어긋남의 판정방법을 나타내는 도면이다. 도 8a에 나타내는 801은 기준배경화상, 도 8b에 나타내는 기준배경화상(801) 중의 분할한 모든 블록에 대한 프레임 위치 어긋남량의 분포를 나타내는 화상이다.
기준배경화상(801)을 화면의 좌우 몇개인가의 블록으로 분할하고(도 8a, 도 8b의 실시예에서는 좌우 각각 2개씩), 도 7a, 도 7b, 도 7c와 마찬가지로 각각의 블록의 화상이 입력화상 위에서 어느 위치에 존재하는지를 템플릿매칭에 의해 판정한다.
이 판정처리를 도 11a, 도 11b, 도 11c, 도 11d를 사용하여 설명한다. 도 11a 내지 도 11d는 도 1과 동일한 장면을 상정한 예이고, 도 11a의 1101은 입력화상, 도 11b의 1111은 선택된 기준배경화상을 나타낸다. 영역(1102, 1103, 1104, 1105)은 도 8a에서 설명한 블록을 나타내고, 블록을 도 8a와 마찬가지로 좌우 2개씩 배치한 예이다. 다음으로 기준배경화상(1111)에 있어서 점선으로 나타낸 영역(1112a, 1113a, 1114a, 1115a)은 각각 입력화상(1101)에 있어서의 블록의 영역(1102, 1103, 1104, 1105)에 상당하는 영역이다. 영역(1102b, 1103b, 1104b, 1105b)는 각각 영역(1102, 1103, 1104, 1105)의 화상을 사용하여 템플릿매칭을 행한 결과 얻어진 영역이다. 이 영역(1112a, 1113a, 1114a, 1115a)의 중앙으로부터영역(1112b, 1113b, 1114b, 1115b) 중앙의 각각의 위치변화가 각 블록의 위치 어긋남(화살표 1112c, 1113c, 1114c, 1115c로 표현됨)을 나타내고 있고, 각각의 위치어긋남량을 V1 = (X1, Y1), V2 = (X2, Y2), V3 = (X3, Y3), V4 = (X4, Y4)로 표현한다. 이 경우, V1, V2는 화면 좌측의 위치 어긋남, V3, V4는 화면 우측의 위치 어긋남을 나타낸다.
또한 좌우 각각의 블록의 평균위치 어긋남량으로부터 화면 좌측 블록의 평균위치 어긋남량(vL)을 vL = (xL, yL), 화면 우측 블록의 평균위치 어긋남량을 vR = (xR, yR)을 얻는다.
즉 xL=(X1+X2)/2, yL=(Y1+Y2)/2, xR=(X3+X4)/2, yR=(Y3+Y4)/2로서 화면 좌우의 평균위치 어긋남을 얻는다. 도 11의 입력화상(1101)과 기준배경화상(1111)의 경우, xL은 - (負)(화면 좌측 위로부터 우측 밑을 향하는 방향을 + (正)방향으로 함), xR은 +의 값이 된다[즉 화살표(1112c, 1113c, 1114c, 1115c)의 방향은 화면 중앙으로부터 밖을 향함]. 이 경우 기준배경화상(1111)은 입력화상(1101)에 대하여 시간적으로 앞서 있는(frame이 적절한 값에 비해 크다) 것을 나타내고 있기 때문에 xR-xL이 소정의 크기(Tf) 이상이었을 경우, frame 을 1 감소시킨다.
다음에 반대의 예를 도 11c, 11d를 사용하여 설명한다. 도 11c의 1121은 입력화상, 도 11d의 1131은 선택된 기준배경화상을 나타낸다. 상기 입력화상(1101), 기분배경화상(1111)의 예와 마찬가지로 영역(1122, 1123, 1124, 1125)은 도 8에서 설명한 블록을 나타내고, 기준배경화상(1131)에 있어서 점선으로 나타낸 영역(1132a, 1133a, 1134a, 1135a)은 각각 입력화상(1121)에 있어서의 블록의영역(1122, 1123, 1124, 1125)에 상당하는 영역이다. 영역(1132b, 1133b, 1134b, 1135b)은 각각 영역(1122, 1123, 1124, 1125)의 화상을 사용하여 템플릿매칭을 행한 결과 얻어진 영역이다. 이때 영역(1132a, 1133a, 1134a, 1135a)의 중앙으로부터 영역(1132b, 1133b, 1134b, 1135b)의 중앙의 각각의 위치변화가 각 블록의 위치 어긋남[화살표(1132c, 1133c, 1134c, 1135c)로 표현됨]을 나타내고 있고, 각각의 위치 어긋남량을 V1=(X1, Y1), V2=(X2, Y2), V3=(X3, Y3), V4=(X4, Y4)으로 표현한다. 이 경우 V1, V2는 화면 좌측의 위치 어긋남, V3, V4는 화면 우측의 위치 어긋남을 나타낸다. 또한 xL=(X1+X2)/2, yL=(Y1+Y2)/2, xR=(X3+X4)/2, yR=(Y3+Y4)/2로서 화면 좌우의 평균위치 어긋남을 얻는다. 도 11의 입력화상(1121)과 기준배경화상(1131)의 경우, xL은 +, xR은 - 의 값이 된다[즉 화살표(1112c, 1113c, 1114c, 1115c)의 방향은 화면 밖으로부터 중앙을 향함]. 이 경우 기준배경화상(1131)은 입력화상(1121)에 대하여 시간적으로 지연되고 있음(frame이 적절한 값에 비해 작음)을 나타내고 있기 때문에 xL-xR이 소정의 크기(Tf) 이상인 경우, frame을 1 증가시킨다.
여기서 Tf는 프레임 어긋남에 기인하는 화소의 위치 어긋남의 허용량을 나타내고, 그 값은 경험적으로 얻어지며, 본 실시예에서는 예를 들면 Tf=5로 설정한다.
또한 이 실시예에서는 블록을 도 8a와 마찬가지로 좌우 2개씩 합계 4개 배치한 예이나, 이 이외의 수의 블록을 배치하여도, 나아가서는 좌우 다른 수의 블록을 배치하여도 좋다.
다음에 분기단계(602)에서는 frame의 수정이 행하여진 경우에 다시 기준배경화상선택단계(302)를 실행하도록 분기한다. 이와 같이 함으로써 촬상장치가 촬상장치의 광축방향으로 이동하고 있는 장면에서 입력화상(101)과 기준배경화상(102D)의 시간적인 어긋남이 존재하는 장면에서도 그 프레임 어긋남을 보정할 수 있어 정확한 침입물체검출이 가능하게 된다. 이와 같이 "프레임 어긋남(temporal deviation)"이란, 입력화상에 대응하는 본래 있어야 할 기준배경화상과, 기준배경화상선택기(105)에 의해 선택된 기준배경화상의 어긋남을 말한다.
다음에 본 발명의 제 5 실시예를 설명한다. 본 발명의 제 5 실시예는 운대 (202) 및 줌렌즈(203)에 의해 TV카메라(201)의 촬상방향과 줌비를 주기적으로 변화시키면서 촬상장치의 시야내에 침입한 침입물체를 검출하도록 한 것이다.
즉 검출해야 할 침입물체가 존재하지 않는 경우에 운대(202) 및 줌렌즈(203)를 제어신호에 의해 제어하고, TV카메라(201)의 촬상방향과 줌렌즈(203)의 줌비를 1주기분 변화시켜 얻어지는 입력화상을 기준배경화상으로서 기준배경화상군(102)에 포함시켜 둔다.
기준배경화상선택기(105)는 1 주기분의 감시동작이 행하여졌을 때에 frame을 0으로 세트한다.
이 처리를 도 12를 사용하여 설명한다. 도 12는 TV카메라(1201)의 시야방향을 프레임번호 frame = 0 내지 9로 변화시킨 경우의 예이다. 도 12에서는 설명을 간단하게 하기 위하여 시야방향만의 변화를 표시하고 있고, 1202a, 1202b, 1202c, 1202d, 1202e와 촬상시야(입력화상)가 주기적으로 변화하고 있는 예를 나타내고 있다. 감시개시시각(frame=0)에 있어서, 촬상시야는 1202a가 되고, 감시처리가 경과할 때마다 촬상시야(1202a, 1202b, 1202c, 1202d, 1202e, 1202e, 1202d, 1202c, 1202b, 1202a)로 변화한다. 그에 따라 frame도 0 내지 9로 변화한다. 본 발명의 제 5 실시예에서는 촬상시야가 1202a로 되돌아갔을 때에 프레임번호를 0으로 한다. 이와 같이 함으로써, 시야방향을 변화시켰을 때에 프레임 어긋남이 발생한(입력화상과 기준배경화상의 동기가 어긋났다)경우에도 촬상시야가 1202a로 되돌아간 시점에서 입력화상과 기준배경화상의 동기를 취할 수 있다. 또 예를 들면 촬상시야 (1202c) 중의 십자마크(1203)와 같은 특정한 표적이 되는 모양을 미리 설정하여 두어 입력화상 중에서 그 표적이 되는 모양이 찍히는 순간에 프레임번호를 소정의 값(도 12의 예에서는 촬상시야방향이 1202a 로부터 1202e를 향하고 있는 경우는 frame=2, 촬상시야방향이 1202e로부터 1202a를 향하고 있는 있는 경우는 frame=7)으로 보정한다. 이와 같이 함으로써 프레임 어긋남이 발생한 경우에도 그 표적이 되는 모양이 찍히는 순간에 프레임번호를 적절한 값으로 보정할 수 있다. 이와 같은 보정은 촬상장치의 위치정보(상기 예에서는 소정의 기준위치 등의 정보)나 촬상시야정보(상기 예에서는 특정 표적이 되는 모양 등의 정보)의 적어도 1개 이상의 지표에 의해 실현된다.
따라서 본 발명에 의하면 운대(202) 및 줌렌즈(203)의 설정은 주기적으로 변화시키는 경우에도 적절한 기준배경화상을 얻을 수 있어 정확한 침입물체검출이 가능하게 된다.
본 발명의 제 6 실시예는 촬상장치를 소정의 궤도를 주행하는 차량, 예를 들면 선로를 주행하는 열차에 탑재하고, 침입물체가 존재하지 않는 경우에 얻어지는입력화상을 기준배경화상으로 하여 기준배경화상군(102)에 포함시켜 둔다. 따라서 본 발명에 의하면 촬상장치가 소정의 궤도를 주행하는 차량에 탑재되어 있는 경우에도 적절한 기준배경화상을 얻을 수 있어 정확한 침입물체검출이 가능하게 된다.
상기 실시예의 도 3 내지 도 6에 나타낸 플로우차트에서는 물체검출이나 침입물체검출처리동작이 종료하지 않은 기술(記述)로 되어 있다. 그러나 도 2에서 설명한 바와 같은 침입물체감시장치의 하드웨어구성에 있어서 사용자의 의사나 정전 등의 예기치 못한 사고에 의해 감시장치의 동작이 종료하면 처리동작은 도중에 종료하는 것은 분명하다.
또 종료시에는 그때까지의 검출결과나 기준배경화상을 워크메모리(만약 불폭발성이면)나 외부 메모리 등의 임의의 기억장치에 유지하여 두고 동작재개시에는 유효하게 재이용하도록 하여도 좋다.
이상과 같이 상기 실시예에 의하면 촬상장치의 줌비나 촬상방향이 바뀌는 촬상위치의 소정의 변화에 대한 2 프레임 이상의 기준배경화상을 포함하는 기준배경화상군을 기록하고, 휘도치의 차분을 계산할 때에 기준배경화상군으로부터 적절한 기준배경화상을 적용하도록 함으로써 촬상위치가 변화하는 장면에서도 촬상장치의 줌렌즈의 줌비의 설정변경이나 촬상방향의 변경이 있었을 경우에도 촬상시야 내의 침입물체를 검출할 수 있어 침입물체검출장치의 적용범위를 크게 넓힐 수 있다.
예를 들면 이동체(열차나 팬틸트카메라 등, 이동경로가 정해져 있는 것)에 설치되어 시시각각으로 시야가 바뀌는 카메라의 영상을 사용한 물체검출이 가능하게 된다.

Claims (35)

  1. 물체가 존재하지 않는 소정 감시구역의 다른 장소를 소정 시각에 촬상장치로 촬상하여 검출해야 할 물체가 찍혀 있지 않은 상기 다른 장소에 대응하는 각각의 촬상화상을 복수개 등록하는 단계와;
    상기 시각과는 다른 시각에 상기 촬상장치로 상기 소정 감시구역을 촬상하는 단계와;
    상기 촬상장치로부터의 화상과 그 화상에 대응하는 등록화상을 비교하는 단계와;
    상기 비교의 결과에 의거하여 물체검출처리를 하는 단계를 가지는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  2. 제 1항에 있어서,
    상기 등록화상은 기준배경화상이고, 상기 비교단계는 상기 촬상장치로부터의 화상과 상기 기준배경화상 중의 소정 화상의 차분처리에 의하여 행하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  3. 제 2항에 있어서,
    상기 촬상장치로부터의 화상과 그것에 대응하는 기준배경화상 사이의 위치 어긋남을 검출하고, 또한 검출한 위치 어긋남에 따라 상기 촬상장치로부터의 화상을 보정하는 단계를 더욱 가지고, 그 보정된 화상과 그것에 대응하는 상기 기준배경화상 사이에 상기 차분처리를 실행하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  4. 제 3항에 있어서,
    상기 위치 어긋남을 검출하는 단계는, 상기 촬상장치로부터의 화상과 그것에 대응하는 상기 기준배경화상 사이에 템플릿매칭을 행하여 위치 어긋남을 검출하는 템플릿매칭단계를 포함하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  5. 제 4항에 있어서,
    상기 템플릿매칭단계는, 상기 기준배경화상 위에 복수의 구획을 설정하여 각 구획의 화상을 템플릿으로서 사용하고, 상기 촬상장치로부터의 화상에 대하여 템플릿매칭을 행하여 검출된 위치 어긋남의 평균을 상기 위치 어긋남으로 하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  6. 제 2항에 있어서,
    상기 촬상장치로부터의 화상의 프레임과 상기 대응하는 기준배경화상의 프레임 사이의 프레임 어긋남을 검출하는 프레임 어긋남 검출단계를 더욱 가지고, 프레임 어긋남이 있는 경우, 다른 기준배경화상을 선택하도록 하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  7. 제 6항에 있어서,
    상기 프레임 어긋남 검출단계는, 상기 촬상장치로부터의 화상과 상기 대응하는 기준배경화상 사이에 템플릿매칭을 행하여 프레임 어긋남을 검출하는 템플릿매칭단계를 포함하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  8. 제 7항에 있어서,
    상기 템플릿매칭단계는, 상기 대응하는 기준배경화상 위에 복수의 구획을 설정하여 각 구획의 화상을 템플릿으로서 사용하고, 상기 촬상장치로부터의 화상에 대하여 템플릿매칭을 행하여 검출된 프레임 어긋남정보에 따라 상기 기준배경화상의 프레임보다 시간적으로 전 또는 후의 프레임의 기준배경화상을 선택하도록 하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  9. 제 6항에 있어서,
    상기 프레임 어긋남 검출단계는, 상기 촬상장치의 위치와 촬상시야정보의 적어도 한쪽에 의거하여 상기 프레임 어긋남을 보정하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  10. 제 9항에 있어서,
    상기 촬상장치의 특정한 위치와 그 위치에 대응하는 기준배경화상의 특정한프레임를 미리 대응시켜 두고, 상기 촬상장치가 상기 특정한 위치에 왔을 때에 상기 특정한 프레임의 기준배경화상을 사용하여 상기 프레임 어긋남을 보정하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  11. 제 9항에 있어서,
    상기 촬상시야정보는, 상기 소정 감시구역 내의 특정물체를 표적으로서 포함하고, 그 표적과 그 표적에 대응하는 특정한 프레임의 기준배경화상을 미리 대응시켜 두고, 상기 촬상장치가 상기 표적을 촬상하였을 때에 상기 특정한 프레임의 기준배경화상을 사용하여 상기 프레임 어긋남을 보정하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  12. 제 2항에 있어서,
    상기 기준배경화상을 갱신하는 단계를 더욱 가지고, 상기 기준배경화상의 적어도 하나를 갱신하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  13. 제 12항에 있어서,
    상기 갱신하는 단계는, 상기 물체검출처리단계에 있어서 상기 화상 중에 물체가 검출되지 않았을 때, 상기 대응하는 기준배경화상을 상기 화상으로 갱신하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  14. 물체가 존재하지 않는 소정 감시구역의 다른 장소를 소정시각에 촬상장치로 소정의 주사패턴에 따라 촬상하여 미리 기준배경화상군을 기억장치에 등록하는 단계와;
    상기 촬상장치에 의해 상기 소정 감시구역을 상기 소정의 주사패턴과 실질적으로 동일하게 하여 촬상하고, 또한 상기 기억장치에 기억된 상기 기준배경화상군을 동기하여 판독하는 단계와;
    상기 촬상장치로부터의 화상과 판독한 기준배경화상 사이에서 차분처리를 행하는 단계와;
    상기 차분처리의 결과에 의거하여 물체검출처리를 하는 단계를 가지는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  15. 제 14항에 있어서,
    상기 소정의 주사패턴은, 상기 촬상장치의 줌렌즈의 줌비, 촬상방향, 촬상장치의 이동궤도 중의 적어도 하나, 또는 2개 이상의 조합의 소정의 시간적 변화인 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  16. 제 14항에 있어서,
    상기 소정의 주사패턴은, 촬상장치가 소정의 이동궤도를 따라, 소정의 속도 프로파일로 이동하는 패턴을 포함하는 물체를 검출하는 물체검출방법.
  17. 제 14항에 있어서,
    상기 소정의 주사패턴은 촬상장치의 위치는 고정이고, 상기 촬상장치의 줌비와 촬상방향이 주기적으로 변화하는 패턴을 포함하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  18. 제 14항에 있어서,
    상기 기준배경화상군은, 상기 물체가 존재하지 않는 상기 소정 감시구역을 상기 촬상장치로 상기 소정의 주사패턴에 따라 주사하여 그 촬상장치로부터 출력되는 화상을 소정의 샘플링간격으로 샘플링하여 얻은 화상의 집합이고, 상기 등록단계에서는 상기 기준배경화상군의 각각의 기준배경화상에 촬상 순으로 프레임번호를 붙여 등록하고, 상기 촬상하는 단계에서는 그 프레임번호를 사용하여 상기 촬상장치에서의 촬상과 상기 등록장치로부터의 기준배경화상의 판독을 동기하여 행하고, 이로써 상기 촬상장치로부터의 상기 화상에 대응하는 기준배경화상을 상기 기준배경화상군으로부터 선택하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  19. 제 18항에 있어서,
    상기 감시개시로부터 현재까지의 경과시간과 상기 소정 샘플링간격의 관계로부터 상기 대응하는 기준배경화상의 프레임번호를 산출하고, 그 산출한 프레임번호를 사용하여 상기 촬상장치에서의 촬상과 상기 등록장치로부터의 기준배경화상의 판독의 동기를 취하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  20. 제 19항에 있어서,
    상기 촬상장치로부터의 상기 화상과 상기 선택된 기준배경화상 사이의 프레임 어긋남을 검출하는 프레임 어긋남 검출단계를 더욱 가지고, 프레임 어긋남이 있는 경우, 다른 기준배경화상을 선택하도록 하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  21. 제 20항에 있어서,
    상기 프레임 어긋남 검출단계는 상기 촬상장치로부터의 상기 화상과 상기 선택한 기준배경화상 사이에 템플릿매칭을 행하여 프레임 어긋남을 검출하는 템플릿매칭단계를 포함하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  22. 제 21항에 있어서,
    상기 템플릿매칭단계는, 상기 선택한 기준배경화상 위에 복수의 구획을 설정하여 각 구획의 화상을 템플릿으로서 사용하고, 상기 화상에 대하여 템플릿매칭을행하여 검출된 위치 어긋남정보에 따라 상기 선택한 기준배경화상보다 시간적으로 전 또는 후의 기준배경화상을 선택하도록 하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  23. 제 20항에 있어서,
    상기 프레임 어긋남 검출단계는, 상기 촬상장치의 위치와 촬상시야정보의 적어도 한쪽에 의거하여 상기 프레임 어긋남을 보정하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  24. 제 23항에 있어서,
    상기 촬상장치의 특정한 위치와 그 위치에 대응하는 기준배경화상의 특정한 프레임번호를 미리 대응시켜 두고, 상기 촬상장치가 상기 특정한 위치에 왔을 때에 그 특정한 프레임번호를 사용하여 상기 프레임 어긋남을 보정하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  25. 제 23항에 있어서,
    상기 촬상시야정보는, 상기 소정 감시구역 내의 특정물체를 표적으로 하여 포함하고, 그 표적과, 그 표적에 대응하는 기준배경화상의 특정한 프레임번호를 미리 대응시켜 두고, 상기 촬상장치가 상기 표적을 촬상하였을 때 그 특정한 프레임번호를 사용하여 상기 프레임 어긋남을 보정하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  26. 제 14항에 있어서,
    상기 촬상장치로부터의 상기 화상과 상기 판독한 기준배경화상 사이의 공간적 위치 어긋남을 검출하여 검출한 공간적 위치 어긋남에 따라 상기 판독한 화상을보정하는 단계를 더욱 가지고, 그 보정된 화상을 사용하여 상기 차분처리를 행하는 소정 감시구역 내의 물체를 검출하는 물체검출방법.
  27. 촬상장치와;
    상기 촬상장치에 접속되어 그 촬상장치로부터의 영상신호를 화상데이터로 변환하는 화상입력 인터페이스와;
    중앙처리유닛과, 메모리를 포함하여 상기 화상데이터를 처리하는 처리부와;
    상기 화상입력 인터페이스와 상기 처리부를 상호접속하는 버스를 포함하고,
    상기 처리부는 상기 물체를 검출하기 위하여 상기 물체검출장치를 이하와 같이 제어하는 검출해야 할 물체가 존재하지 않는 상기 소정 감시구역을 촬상하는 상기 촬상장치로부터 화상을 순차적으로 상기 메모리에 기록하고,
    상기 소정 감시구역을 소정 주사패턴에 따라 촬상하는 상기 촬상장치로부터의 화상이 순차적으로 상기 처리부에 입력되고,
    상기 입력화상에 대응하는 상기 기억되어 있는 화상을 상기 메모리로부터 판독하고,
    상기 입력화상과 상기 판독된 화상을 비교하여 그 비교의 결과에 의거하여 물체검출처리를 하는 소정 감시구역 내의 물체를 검출하는 물체검출장치.
  28. 제 27항에 있어서,
    상기 검출해야 할 물체가 찍혀 있지 않은 화상은 기준배경화상군이고, 상기입력화상과 상기 판독한 검출해야 할 물체가 찍혀 있지 않은 화상과의 비교는 그 입력화상과 그것에 대응하는 검출해야 할 물체가 찍혀 있지 않은 기준배경화상 사이의 차분처리를 포함하는 소정 감시구역 내의 물체를 검출하는 물체검출장치.
  29. 제 27항에 있어서,
    상기 버스에 접속되고, 상기 촬상장치의 줌렌즈의 줌비를 변화시키는 줌렌즈제어장치 및 상기 촬상장치의 촬상방향을 바꾸는 운대제어장치를 더욱 가지는 소정 감시구역 내의 물체를 검출하는 물체검출장치.
  30. 제 27항에 있어서,
    상기 촬상장치는 이동장치 위에 탑재되는 소정 감시구역 내의 물체를 검출하는 물체검출장치.
  31. 제 30항에 있어서,
    상기 이동장치는 이동체를 포함하는 소정 감시구역 내의 물체를 검출하는 물체검출장치.
  32. 제 30항에 있어서,
    상기 이동장치는 운대를 포함하는 소정 감시구역 내의 물체를 검출하는 물체검출장치.
  33. 촬상장치와;
    상기 촬상장치에 접속되어 그 촬상장치로부터의 영상신호를 화상데이터로 변환하는 화상입력 인터페이스와;
    중앙처리유닛과, 메모리를 포함하는 상기 화상데이터를 처리하는 처리부와;
    상기 화상입력 인터페이스와 상기 처리부를 상호접속하는 버스를 포함하고,
    상기 처리부는 상기 물체를 검출하기 위하여 상기 물체검출장치를 하기와 같이 제어하여 검출해야 할 물체가 존재하지 않는 상기 소정 감시구역을 촬상하는 상기 촬상장치로부터의 화상이 기준배경화상군에 포함되는 하나의 기준배경화상으로서 미리 상기 메모리에 기록되고,
    상기 소정 감시구역을 소정 주사패턴에 따라 촬상하는 상기 촬상장치로부터의 화상이 순차적으로 상기 처리부에 입력되고,
    상기 입력화상의 촬상과 동기하여 상기 기준배경화상군의 하나의 기준배경화상이 상기 메모리로부터 판독되고,
    상기 입력화상과 상기 판독한 기준배경화상의 화소마다의 화소치의 차분치가 산출되어 그 차분치가 큰 영역이 상기 물체로서 검출되는 소정 감시구역 내의 물체를 검출하는 물체검출장치.
  34. 촬상장치와;
    상기 촬상장치에 접속되어 그 촬상장치로부터의 영상신호를 화상데이터로 변환하는 화상입력 인터페이스와;
    중앙처리유닛과, 메모리를 포함하여 상기 화상데이터를 처리하는 처리부와;
    감시모니터와;
    상기 화상입력 인터페이스와 상기 처리부를 상호접속하는 버스를 포함하고,
    상기 처리부는 상기 감시장치를 하기와 같이 제어하여 검출해야 할 침입물체가 존재하지 않는 상기 소정 감시구역을 촬상하는 상기 촬상장치로부터의 n 번째마다의 화상이 기준배경화상군으로서 미리 상기 메모리에 기록되어 n은 1 이상의 정수이고,
    상기 소정 감시구역을 소정 주사패턴에 따라 촬상하는 상기 촬상장치로부터의 화상이 순차적으로 상기 처리부에 입력되고,
    상기 입력화상에 대응하는 기준배경화상이 상기 메모리로부터 판독되고,
    상기 입력화상과 판독한 그 입력화상에 대응하는 기준배경화상의 화소마다의 화소치의 차분치가 산출되어 그 차분치가 큰 영역이 상기 침입물체로서 검출되어 상기 감시모니터에 표시되는 소정 감시구역 내의 침입물체를 감시하는 감시장치.
  35. 촬상장치와;
    상기 촬상장치에 접속되어 그 촬상장치로부터의 영상신호를 화상데이터로 변환하는 화상입력 인터페이스와;
    중앙처리유닛과, 화상메모리와, 워크메모리와, 프로그램메모리를 포함하여 상기 화상데이터를 처리하는 처리부와;
    감시모니터와;
    상기 화상입력 인터페이스와 상기 처리부와 상기 감시모니터를 상호접속하는 버스를 포함하고,
    상기 처리부는 상기 감시장치를 아래와 같이 제어하여 검출해야 할 침입물체가 존재하지 않는 상기 소정 감시구역을 촬상하는 상기 촬상장치로부터의 n 번째마다의 화상이 기준배경화상군으로서 미리 상기 메모리에 기록되고 n은 1 이상의 정수이고,
    상기 소정 감시구역을 소정 주사패턴에 따라 촬상하는 상기 촬상장치로부터의 화상이 순차적으로 상기 처리부에 입력되고,
    상기 입력화상의 촬상과 동기하여 상기 기준배경화상군이 상기 메모리로부터 판독되고,
    상기 입력화상과 판독한 기준배경화상의 화소마다의 화소치의 차분치가 산출되어 그 차분치가 큰 영역이 상기 침입물체로서 검출되어 상기 감시모니터에 표시되는 소정 감시구역 내의 침입물체를 감시하는 감시장치.
KR10-2001-0052898A 2000-08-31 2001-08-30 물체검출방법과 물체검출장치 및 그 물체검출방법을사용한 침입물체감시장치 KR100471362B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000262581 2000-08-31
JPJP-P-2000-00262581 2000-08-31

Publications (2)

Publication Number Publication Date
KR20020018150A true KR20020018150A (ko) 2002-03-07
KR100471362B1 KR100471362B1 (ko) 2005-03-08

Family

ID=18750242

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0052898A KR100471362B1 (ko) 2000-08-31 2001-08-30 물체검출방법과 물체검출장치 및 그 물체검출방법을사용한 침입물체감시장치

Country Status (3)

Country Link
US (1) US7082209B2 (ko)
EP (1) EP1184809A3 (ko)
KR (1) KR100471362B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100623835B1 (ko) * 2003-10-28 2006-09-19 가부시키가이샤 히다치 고쿠사이 덴키 물체 검출 방법 및 물체 검출 장치
KR100942055B1 (ko) * 2002-03-15 2010-02-11 소니 주식회사 영상 처리 장치와 방법, 인쇄물 제조장치와 방법 및 인쇄물 제조 시스템

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6701005B1 (en) 2000-04-29 2004-03-02 Cognex Corporation Method and apparatus for three-dimensional object segmentation
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
US7424175B2 (en) 2001-03-23 2008-09-09 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US6909790B2 (en) * 2002-02-15 2005-06-21 Inventec Corporation System and method of monitoring moving objects
US7920718B2 (en) * 2002-09-05 2011-04-05 Cognex Corporation Multi-zone passageway monitoring system and method
JP3721155B2 (ja) * 2002-10-30 2005-11-30 株式会社東芝 情報処理装置および同装置の表示制御方法
AT500925A1 (de) * 2003-03-05 2006-04-15 Walter Dipl Ing Lorenz Verfahren und einrichtung zur überwachung des einstiegsbereiches von fahrzeugen
GB2404247B (en) * 2003-07-22 2005-07-20 Hitachi Int Electric Inc Object tracing method and object tracking apparatus
US8326084B1 (en) 2003-11-05 2012-12-04 Cognex Technology And Investment Corporation System and method of auto-exposure control for image acquisition hardware using three dimensional information
US7623674B2 (en) * 2003-11-05 2009-11-24 Cognex Technology And Investment Corporation Method and system for enhanced portal security through stereoscopy
JP2006050326A (ja) * 2004-08-05 2006-02-16 Toshiba Corp 情報処理装置および同装置のシーンチェンジ検出方法
JP4407454B2 (ja) * 2004-09-30 2010-02-03 セイコーエプソン株式会社 ディジタルカメラ及び画像処理方法
US7538864B2 (en) * 2005-03-24 2009-05-26 Hunter Engineering Company Vehicle wheel alignment system scanned beam imaging sensor
US8111904B2 (en) 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
KR101392294B1 (ko) 2006-04-17 2014-05-27 오브젝트비디오 인코퍼레이티드 통계적인 픽셀 모델링을 이용한 비디오 분할
US8126260B2 (en) * 2007-05-29 2012-02-28 Cognex Corporation System and method for locating a three-dimensional object using machine vision
DE102008018436B4 (de) * 2008-04-11 2022-01-13 Hänel & Co. Lagerregal mit automatischer Lagerortbuchung
US8890951B2 (en) * 2008-04-24 2014-11-18 GM Global Technology Operations LLC Clear path detection with patch smoothing approach
US8803966B2 (en) 2008-04-24 2014-08-12 GM Global Technology Operations LLC Clear path detection using an example-based approach
GB2459701B (en) * 2008-05-01 2010-03-31 Pips Technology Ltd A video camera system
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
JP5489557B2 (ja) * 2009-07-01 2014-05-14 パナソニック株式会社 画像符号化装置及び画像符号化方法
US20110103965A1 (en) * 2009-10-30 2011-05-05 General Electric Company Wind turbine blades
US8515124B2 (en) * 2010-02-04 2013-08-20 Electronics And Telecommunications Research Institute Method and apparatus for determining fake image
JP2011211628A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012033022A (ja) 2010-07-30 2012-02-16 Panasonic Corp 空間における変化領域検出装置及び方法
US8675072B2 (en) * 2010-09-07 2014-03-18 Sergey G Menshikov Multi-view video camera system for windsurfing
US10678259B1 (en) * 2012-09-13 2020-06-09 Waymo Llc Use of a reference image to detect a road obstacle
WO2015098810A1 (ja) 2013-12-27 2015-07-02 京セラドキュメントソリューションズ株式会社 画像処理装置および特定図形検出方法
KR102128319B1 (ko) * 2014-10-24 2020-07-09 에스케이 텔레콤주식회사 팬틸트줌 카메라 기반의 영상 재생방법 및 장치
GB2542115B (en) * 2015-09-03 2017-11-15 Rail Vision Europe Ltd Rail track asset survey system
GB201612528D0 (en) * 2016-07-19 2016-08-31 Machines With Vision Ltd Vehicle localisation using the ground or road surface
CN114363521B (zh) * 2022-01-12 2023-09-15 西安维沃软件技术有限公司 图像处理方法、装置及电子设备

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4937878A (en) * 1988-08-08 1990-06-26 Hughes Aircraft Company Signal processing for autonomous acquisition of objects in cluttered background
US5473364A (en) * 1994-06-03 1995-12-05 David Sarnoff Research Center, Inc. Video technique for indicating moving objects from a movable platform
JP3228638B2 (ja) * 1994-06-08 2001-11-12 松下電器産業株式会社 背景差分法を用いた移動体検出方法
US6088468A (en) * 1995-05-17 2000-07-11 Hitachi Denshi Kabushiki Kaisha Method and apparatus for sensing object located within visual field of imaging device
JPH0954883A (ja) * 1995-08-11 1997-02-25 Toshiba Corp 既知物体の進入検出方法およびその進入検出装置
JP3279479B2 (ja) * 1996-05-31 2002-04-30 株式会社日立国際電気 映像監視方法及び装置
US6529234B2 (en) * 1996-10-15 2003-03-04 Canon Kabushiki Kaisha Camera control system, camera server, camera client, control method, and storage medium
US6219468B1 (en) * 1996-10-17 2001-04-17 Minolta Co., Ltd. Image detection system
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6215519B1 (en) 1998-03-04 2001-04-10 The Trustees Of Columbia University In The City Of New York Combined wide angle and narrow angle imaging system and method for surveillance and monitoring
CN1178467C (zh) * 1998-04-16 2004-12-01 三星电子株式会社 自动跟踪运动目标的方法和装置
JPH11331821A (ja) 1998-05-11 1999-11-30 Toyo Commun Equip Co Ltd 監視システム
JP2000090277A (ja) 1998-09-10 2000-03-31 Hitachi Denshi Ltd 基準背景画像更新方法及び侵入物体検出方法並びに侵入物体検出装置
US6226388B1 (en) * 1999-01-05 2001-05-01 Sharp Labs Of America, Inc. Method and apparatus for object tracking for automatic controls in video devices
US6754367B1 (en) * 1999-09-30 2004-06-22 Hitachi Denshi Kabushiki Kaisha Method and apparatus for automatically detecting intrusion object into view of image pickup device
US20020008758A1 (en) * 2000-03-10 2002-01-24 Broemmelsiek Raymond M. Method and apparatus for video surveillance with defined zones
KR100541037B1 (ko) * 2002-03-15 2006-01-10 가부시키가이샤 히다치 고쿠사이 덴키 검출마스크영역의 설정이 용이한 촬상장치를 사용한물체검출방법 및 동 방법을 사용한 물체검출장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100942055B1 (ko) * 2002-03-15 2010-02-11 소니 주식회사 영상 처리 장치와 방법, 인쇄물 제조장치와 방법 및 인쇄물 제조 시스템
KR100623835B1 (ko) * 2003-10-28 2006-09-19 가부시키가이샤 히다치 고쿠사이 덴키 물체 검출 방법 및 물체 검출 장치

Also Published As

Publication number Publication date
US7082209B2 (en) 2006-07-25
KR100471362B1 (ko) 2005-03-08
US20020041698A1 (en) 2002-04-11
EP1184809A3 (en) 2004-06-30
EP1184809A2 (en) 2002-03-06

Similar Documents

Publication Publication Date Title
KR100471362B1 (ko) 물체검출방법과 물체검출장치 및 그 물체검출방법을사용한 침입물체감시장치
JP3279479B2 (ja) 映像監視方法及び装置
US8233044B2 (en) Method, device and computer program product for demultiplexing of video images
KR100432870B1 (ko) 침입물체 감시방법 및 침입물체 감시시스템
EP0607406B1 (en) Derivation of studio camera position and motion from the camera image
US6434276B2 (en) Image synthesis and communication apparatus
AU2002327612A1 (en) Method, device and computer program product for demultiplexing of video images
JP3647030B2 (ja) 物体検出方法及び物体検出装置及び物体検出プログラム
US20050052533A1 (en) Object tracking method and object tracking apparatus
USRE38420E1 (en) Derivation of studio camera position and motion from the camera image
JP2006245795A (ja) 動体追跡装置及び動体追跡表示装置
JP3798747B2 (ja) 複数台のカメラを使用した広域撮影方法及びその装置
KR100623835B1 (ko) 물체 검출 방법 및 물체 검출 장치
US20050007452A1 (en) Video analyzer
JP2001245284A (ja) 侵入物体監視方法および侵入物体監視装置
EP1586202B1 (en) Video content parser with scene change detector
JPH04213973A (ja) 画像ゆれ補正装置
JP4252522B2 (ja) 物体検出方法及び物体検出装置並びに物体検出プログラム
JP4499514B2 (ja) 物体監視装置及び監視システム
JP2001184586A (ja) 画像処理装置、画像処理方法及び車両監視システム
JPH0620052A (ja) 画像処理方法
Serrat et al. Alignment of videos recorded from moving vehicles
Caspi et al. Parametric sequence-to-sequence alignment
KR100322419B1 (ko) 물체 자동추적장치
JP2000099696A (ja) 炎検出装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130118

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140117

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20150119

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20160104

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee