KR20160131261A - 관심 영역을 감시하는 방법 - Google Patents

관심 영역을 감시하는 방법 Download PDF

Info

Publication number
KR20160131261A
KR20160131261A KR1020150063214A KR20150063214A KR20160131261A KR 20160131261 A KR20160131261 A KR 20160131261A KR 1020150063214 A KR1020150063214 A KR 1020150063214A KR 20150063214 A KR20150063214 A KR 20150063214A KR 20160131261 A KR20160131261 A KR 20160131261A
Authority
KR
South Korea
Prior art keywords
image
interest
foreground
surveillance camera
unit
Prior art date
Application number
KR1020150063214A
Other languages
English (en)
Inventor
최은지
장재호
정직한
임정은
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020150063214A priority Critical patent/KR20160131261A/ko
Publication of KR20160131261A publication Critical patent/KR20160131261A/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G06T7/0022
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

일체식으로 설치된 제1 감시 카메라와 제2 감시 카메라를 제어 장치가 제어하면서 관심 영역을 감시하는 방법이 개시된다. 이 방법은 단계들 (a) 내지 (d)를 포함한다. 단계 (a)에서는, 제2 감시 카메라로부터의 제2 영상이 제1 감시 카메라로부터의 제1 영상에 정합됨에 의하여, 정합 결과의 제2 영상이 구해진다. 단계 (b)에서는, 제1 감시 카메라로부터의 제1 영상에서, 관심 영역의 영상에 대한 제1 전경 영상이 추출된다. 단계 (c)에서는, 정합 결과의 제2 영상에서, 관심 영역의 영상에 대한 제2 전경 영상이 추출된다. 단계 (d)에서는, 제1 전경 영상과 제2 전경 영상이 융합되어, 융합된 결과의 전경 영상이 관심 검출-대상의 영상인지 아닌지가 판단된다.

Description

관심 영역을 감시하는 방법{Method of monitoring interested area}
본 발명은, 관심 영역을 감시하는 방법에 관한 것으로서, 보다 상세하게는, 일체식으로 설치된 제1 감시 카메라와 제2 감시 카메라를 제어 장치가 제어하면서 관심 영역을 감시하는 방법에 관한 것이다.
제1 카메라 예를 들어, 가시(可視) 영상 카메라만을 채용한 감시 시스템에 있어서, 디스플레이 장치에서의 동영상을 관찰하는 감시자는 야간 조도 범위에서 상대적으로 낮은 정보 인지력 및 상황 대응력을 가진다.
이에 따라, 제2 카메라 예를 들어, 피사체의 온도에 따른 열(熱) 영상을 취득하는 열(熱) 영상 카메라가 추가되어, 열(熱) 영상과 가시(可視) 영상이 융합된 결과의 영상이 이용된다. 즉, 관심 영역을 감시하는 방법에 있어서, 일체식으로 설치된 제1 감시 카메라와 제2 감시 카메라를 제어 장치가 제어한다.
종래의 관심-영역 감시 시스템에 있어서, 열(熱) 영상과 가시(可視) 영상이 융합된 결과의 영상에서 전경 영상을 추출하고, 추출 결과의 전경 영상이 관심 검출-대상의 영상인지 아닌지를 판단한다.
상기와 같은 종래의 관심-영역 감시 시스템에 의하면, 추출 결과의 전경 영상이 관심 검출-대상의 영상인지 아닌지를 판단함에 있어서, 잘못된 판단이 간혹 일어나고 있다. 예를 들어, 조도가 낮거나 야간인 경우 또는 특정대상이 가려져 안보이는 경우, 관심 검출-대상임에도 불구하고 검출되지 않음으로 인하여, 감시의 공백이 초래될 수 있다. 여기에서, 관심 검출-대상이란 사람 또는 차량 등의 설정 대상을 의미한다.
상기 배경 기술의 문제점은, 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 내용으로서, 반드시 본 발명의 출원 전에 일반 공중에게 공지된 내용이라 할 수는 없다.
대한민국 공개특허 공보 제2014-0017222호 (출원인 : 주식회사 제론헬스케어, 발명의 명칭 : 감시 시스템의 영상 융합을 통한 객체 감시 방법)
본 발명의 실시예는, 일체식으로 설치된 제1 감시 카메라와 제2 감시 카메라를 제어 장치가 제어하면서 관심 영역을 감시하는 방법에 있어서, 감시의 혼란 및 공백을 줄일 수 있는 방법을 제공하고자 한다.
본 발명의 일 측면에 의하면, 일체식으로 설치된 제1 감시 카메라와 제2 감시 카메라를 제어 장치가 제어하면서 관심 영역을 감시하는 방법에 있어서, 단계들 (a) 내지 (d)를 포함한다.
상기 단계 (a)에서는, 상기 제2 감시 카메라로부터의 제2 영상이 상기 제1 감시 카메라로부터의 제1 영상에 정합됨에 의하여, 정합 결과의 제2 영상이 구해진다.
상기 단계 (b)에서는, 상기 제1 감시 카메라로부터의 제1 영상에서, 상기 관심 영역의 영상에 대한 제1 전경 영상이 추출된다.
상기 단계 (c)에서는, 상기 정합 결과의 제2 영상에서, 상기 관심 영역의 영상에 대한 제2 전경 영상이 추출된다.
상기 단계 (d)에서는, 상기 제1 전경 영상과 상기 제2 전경 영상이 융합되어, 융합된 결과의 전경 영상이 관심 검출-대상의 영상인지 아닌지가 판단된다.
본 발명의 일 측면의 상기 관심 영역을 감시하는 방법에 의하면, 종래의 기술과는 다르게, 융합 결과의 전체 영상에서 전경 영상이 추출되지 않는다.
종래의 기술에 있어서, 융합 결과의 전체 영상의 정보에서는 융합 전의 두 영상들의 정보 중에서 일부가 손실될 수 있다. 이에 따라, 융합 결과의 전체 영상에서 추출된 전경 영상의 정보는 정확하다고 볼 수 없다.
본 발명의 일 측면의 상기 관심 영역을 감시하는 방법에 의하면, 상기 제1 감시 카메라로부터의 제1 영상에서 제1 전경 영상이 추출되고, 상기 정합 결과의 제2 영상에서 제2 전경 영상이 추출된 후, 상기 제1 전경 영상과 상기 제2 전경 영상이 융합된다.
따라서, 정보가 손실되기 전에 추출된 전경 영상들만의 융합에 의하여 전경 영상이 구해지므로, 종래 기술에 비하여 정확하게 전경 영상이 구해질 수 있다. 따라서, 구해진 전경 영상이 관심 검출-대상의 영상인지 아닌지가 정확하게 판단될 수 있다.
결론적으로, 본 발명의 실시예의 관심-영역 감시 방법에 의하면, 감시의 혼란 및 공백이 줄어들 수 있다.
도 1은 본 발명의 실시예의 관심-영역 감시 방법을 수행하는 제어 장치를 보여주는 도면이다.
도 2는, 본 발명의 실시예의 관심-영역 감시 방법이 하드웨어적으로 수행될 경우, 도 1의 제어 장치의 내부 구성을 보여주는 블록도이다.
도 3은, 본 발명의 실시예의 관심-영역 감시 방법이 소프트웨어적으로 수행될 경우, 도 1의 제어 장치의 동작을 보여주는 흐름도이다.
도 4는 도 2의 제1 전경-영상 추출부와 제2 전경-영상 추출부의 내부 구성을 보여주는 블록도이다.
도 5는 도 3의 단계 S304의 상세 흐름도이다.
도 6은 도 3의 단계 S305의 상세 흐름도이다.
하기의 설명 및 첨부된 도면은 본 발명에 따른 동작을 이해하기 위한 것이며, 본 기술 분야의 통상의 기술자가 용이하게 구현할 수 있는 부분은 생략될 수 있다.
또한 본 명세서 및 도면은 본 발명을 제한하기 위한 목적으로 제공된 것은 아니고, 본 발명의 범위는 청구의 범위에 의하여 정해져야 한다. 본 명세서에서 사용된 용어들은 본 발명을 가장 적절하게 표현할 수 있도록 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.
이하 첨부된 도면들을 참조하여 본 발명의 실시예가 상세히 설명된다.
도 1은 본 발명의 실시예의 관심-영역 감시 방법을 수행하는 제어 장치(103)를 보여준다.
도 1을 참조하면, 제1 감시 카메라(101)로서의 가시(可視) 영상 카메라는 촬영 대상의 가시(可視) 영상(Ivis)을 출력한다. 제2 감시 카메라(102)로서의 열(熱) 영상 카메라(102)는 촬영 대상의 온도에 따른 열(熱) 영상(Ithe)을 출력한다.
제어 장치(103)는 일체식으로 설치된 제1 감시 카메라(101)와 제2 감시 카메라(102)를 제어하면서 관심 영역을 감시한다. 제어 장치(103)는 제1 감시 카메라(101)로부터의 제1 영상(Ivis)과 정합 결과의 제2 영상을 융합하여, 융합된 결과의 전체 영상(Imix)을 디스플레이 장치(104)에게 출력한다. 융합된 결과의 전체 영상(Imix)은 관심 검출-대상의 영상을 가리키는 표식을 포함할 수 있다. 제어 장치(103)의 중요한 감시 동작만을 먼저 설명하면 다음과 같다.
먼저, 제어 장치(103)는 제2 감시 카메라(102)로부터의 제2 영상(Ithe)을 제1 감시 카메라(101)로부터의 제1 영상(Ivis)에 정합시킴에 의하여, 정합 결과의 제2 영상을 구한다.
잘 알려져 있는 바와 같이, 동일한 촬영 대상으로부터의 두 영상들을 한 영상으로 변화시키기 위해서는 정합(registration)과 융합(fusion)이 필요하다. 정합은 두 영상들의 위치를 일치시키는 처리 과정이다. 융합은 두 영상들 각각의 특징이 한 영상에 적절하게 나타나게 하는 처리 과정이다.
다음에, 제어 장치(103)는 제1 감시 카메라(101)로부터의 제1 영상(Ivis)에서, 관심 영역의 영상에 대한 제1 전경 영상을 추출한다. 즉, 가시(可視) 영상(Ivis)의 관심 영역의 영상에 대한 제1 전경 영상을 추출한다. 여기에서, 관심 영역의 영상은, 이전(以前) 프레임까지 지속적으로 갱신되되, 주기적으로 움직이는 부분 영상 예를 들어, 흔들리고 있는 나뭇잎의 부분 영상은 갱신 대상에서 제외된다.
이와 마찬가지로, 제어 장치(103)는 상기 정합 결과의 제2 영상에서, 관심 영역의 영상에 대한 제2 전경 영상을 추출한다. 즉, 열(熱) 영상(Ithe)의 관심 영역의 영상에 대한 제2 전경 영상을 추출한다.
그리고, 제어 장치(103)는, 제1 전경 영상과 제2 전경 영상을 융합하여, 융합된 결과의 전경 영상이 관심 검출-대상의 영상인지 아닌지를 판단한다. 본 실시예의 경우, 관심 검출-대상이란 사람 및/또는 차량을 의미한다.
상기와 같은 관심-영역 감시 방법에 의하면, 종래의 기술과는 다르게, 융합 결과의 전체 영상에서 전경 영상이 추출되지 않는다.
종래의 기술에 있어서, 융합 결과의 전체 영상의 정보에서는 융합 전의 두 영상들의 정보 중에서 일부가 손실될 수 있다. 이에 따라, 융합 결과의 전체 영상에서 추출된 전경 영상의 정보는 정확하다고 볼 수 없다.
본 실시예의 관심-영역 감시 방법에 의하면, 제1 감시 카메라(101)로부터의 제1 영상(Ivis)에서 제1 전경 영상이 추출되고, 정합 결과의 제2 영상에서 제2 전경 영상이 추출된 후, 제1 전경 영상과 제2 전경 영상이 융합된다.
따라서, 정보가 손실되기 전에 추출된 전경 영상들만의 융합에 의하여 전경 영상이 구해지므로, 종래 기술에 비하여 정확하게 전경 영상이 구해질 수 있다. 따라서, 구해진 전경 영상이 관심 검출-대상의 영상인지 아닌지가 정확하게 판단될 수 있다.
결론적으로, 본 발명의 실시예의 관심-영역 감시 방법에 의하면, 감시의 혼란 및 공백을 줄일 수 있다.
도 2는 본 발명의 실시예의 관심-영역 감시 방법이 하드웨어적으로 수행될 경우, 도 1의 제어 장치(103)의 내부 구성을 보여준다. 도 2에서 도 1과 동일한 참조 부호는 동일한 기능의 대상을 가리킨다. 도 2를 참조하여 이를 설명하면 다음과 같다.
제어 장치(103)는 제1 영상 전처리부(201), 제2 영상 전처리부(201), 영상 정합부(203), 전체-영상 융합부(204), 제1 전경-영상 추출부(205), 제2 전경-영상 추출부(206), 전경-영상 융합부(207), 탐지부(208), 추적부(209), 합성부(210), 출력부(211), 및 기록 매체(212)를 포함한다.
제1 영상 전처리부(201)는 제1 감시 카메라(101)로서의 가시(可視) 영상 카메라로부터의 가시(可視) 영상(Ivis)에 대하여 전처리를 수행한다. 제2 영상 전처리부(202)는 제2 감시 카메라(102)로서의 열(熱) 영상카메라로부터의 열(熱) 영상(Ithe)에 대하여 전처리를 수행한다. 제1 영상 전처리부(201)와 제2 영상 전처리부(202)의 동작은 잘 알려져 있으므로 자세한 설명이 생략된다.
영상 정합부(203)는 제2 감시 카메라(102)로부터의 제2 영상(Ithe)을 제1 감시 카메라(101)로부터의 제1 영상(Ivis)에 정합시킴에 의하여, 정합 결과의 제2 영상을 구한다. 여기에서, 미리 설정되어 있는 정합 알고리즘에 의하여 제2 영상(Ithe)이 조정됨에 의하여, 정합 결과의 제2 영상이 구해진다. 물론, 제1 감시 카메라(101)로부터의 제1 영상(Ivis)이 제2 감시 카메라(102)로부터의 제2 영상(Ithe)에 정합될 수도 있다.
전체-영상 융합부(204)는 제1 영상 전처리부(201)로부터의 제1 영상과 영상 정합부(203)로부터의 제2 영상을 융합한다. 본 실시예의 경우, 널리 사용되는 방법 중 하나인 다중 해상도 기반의 영상 융합 기법이 이용된다. 융합된 결과의 전체 영상은 합성부(210)를 통하여 출력부(211)에서 출력된다.
제1 전경-영상 추출부(205)는 제1 영상 전처리부(201)로부터의 제1 영상에서 제1 전경 영상을 추출한다.
제2 전경-영상 추출부(206)는 영상 정합부(203)로부터의 정합 결과의 제2 영상에서 제2 전경 영상을 추출한다.
전경-영상 융합부(207)는 제1 전경-영상 추출부(205)로부터의 제1 전경 영상과 제2 전경-영상 추출부(206)의 제2 전경 영상을 융합한다.
탐지부(208)는 융합 결과의 전경 영상이 관심 검출-대상의 영상인지 아닌지를 판단한다.
융합 결과의 전경 영상이 관심 검출-대상의 영상으로 판단된 경우, 추적부(209)는 해당되는 관심 검출-대상을 추적한다. 여기에서, 관심 검출-대상의 위치와 움직임 경로가 추적될 수 있고, 제1 감시 카메라(101)와 제2 감시 카메라의 패닝(panning) 및 틸팅(tilting)이 제어됨에 의하여 관심 검출-대상이 추적될 수도 있다.
합성부(210)는 관심 검출-대상의 영상을 가리키는 표식을 전체-영상 융합부(204)로부터의 융합된 전체 영상에 합성하고, 그 결과의 합성 영상(Imix)을 출력부(211)를 통하여 출력하면서 기록 매체(212)에 저장한다.
도 3은, 본 발명의 실시예의 관심-영역 감시 방법이 소프트웨어적으로 수행될 경우, 도 1의 제어 장치(103)의 동작을 보여준다. 도 1 내지 3을 참조하여 도 3의 동작을 설명하면 다음과 같다.
제어 장치(103)는, 제1 감시 카메라(101)로서의 가시(可視) 영상 카메라로부터의 가시(可視) 영상(Ivis)에 대하여 전처리를 수행하는 한편, 제2 감시 카메라(102)로서의 열(熱) 영상카메라로부터의 열(熱) 영상(Ithe)에 대하여 전처리를 수행한다(단계 S301).
다음에, 제어 장치(103)는, 제2 감시 카메라(102)로부터의 제2 영상(Ithe)을 제1 감시 카메라(101)로부터의 제1 영상(Ivis)에 정합시킴에 의하여, 정합 결과의 제2 영상을 구한다(단계 S302).
다음에, 제어 장치(103)는, 제1 영상(Ivis)과 상기 정합 결과의 제2 영상을 융합하고, 융합 결과의 전체 영상을 출력한다(단계 S303).
또한, 제어 장치(103)는 제1 영상(Ivis)에서 제1 전경 영상을 추출한다(단계 S304). 이와 마찬가지로, 제어 장치(103)는 상기 정합 결과의 제2 영상에서 제1 전경 영상을 추출한다(단계 S305).
다음에, 제어 장치(103)는 추출 결과의 제1 전경 영상과 제2 전경 영상을 융합하여, 융합 결과의 전경 영상을 구한다(단계 S306).
다음에, 제어 장치(103)는 융합 결과의 전경 영상이 관심 검출-대상의 영상인지 아닌지를 판단한다(단계 S307).
융합 결과의 전경 영상이 관심 검출-대상의 영상으로 판단된 경우, 제어 장치(103)는 관심 검출-대상을 추적한다. 여기에서, 제1 감시 카메라(101)와 제2 감시 카메라의 패닝(panning) 및 틸팅(tilting)이 제어됨에 의하여 관심 검출-대상이 추적될 수 있다(단계 S308).
여기에서, 제어 장치(103)는, 관심 검출-대상의 영상을 가리키는 표식을 융합된 결과의 전체 영상에 합성하고, 그 결과의 합성 영상(Imix)을 출력한다(단계 S309).
상기 단계들 S308과 S309는 추적 종료 신호가 발생될 때까지 계속 수행된다(단계 S310).
도 4는 도 2의 제1 전경-영상 추출부(205)와 제2 전경-영상 추출부(206)의 내부 구성을 보여준다. 도 2 및 4를 참조하여 이를 설명하면 다음과 같다.
제1 전경-영상 추출부(205)는 제1 관심-영상 로딩부(401a), 제1 차(差)영상 획득부(402a) 및 제1 노이즈 제거부(403a)를 포함한다.
제1 관심-영상 로딩부(401a)는 관심 영역의 제1 영상으로서의 제1 관심 영상을 로딩한다. 본 실시예의 경우, 제1 영상은 가시(可視) 영상(Ivis)이다.
제1 차(差)영상 획득부(402a)는 제1 관심 영상에 대한 현재 프레임의 제1 영상의 차(差)영상인 제1 차(差)영상을 구한다.
제1 노이즈 제거부(403a)는 제1 차(差)영상의 노이즈를 제거함에 의하여 상기 제1 전경-영상을 생성한다.
이와 마찬가지로, 제2 전경-영상 추출부(206)는 제2 관심-영상 로딩부(401b), 제2 차(差)영상 획득부(402b) 및 제2 노이즈 제거부(403b)를 포함한다.
제2 관심-영상 로딩부(401b)는 관심 영역의 제2 영상으로서의 제2 관심 영상을 로딩한다. 본 실시예의 경우, 제2 영상은 열(熱) 영상(Ithe)이다.
제2 차(差)영상 획득부(402b)는 제2 관심 영상에 대한 현재 프레임의 제2 영상의 차(差)영상인 제2 차(差)영상을 구한다.
제2 노이즈 제거부(403b)는 제2 차(差)영상의 노이즈를 제거함에 의하여 상기 제2 전경-영상을 생성한다.
도 5는 도 3의 단계 S304의 상세 흐름도이다. 도 1, 3 및 5를 참조하여 도 5의 동작을 설명하면 다음과 같다.
제어 장치(103)는 관심 영역의 제1 영상으로서의 제1 관심 영상을 로딩한다(단계 S501). 본 실시예의 경우, 제1 영상은 가시(可視) 영상(Ivis)이다.
다음에, 제어 장치(103)는 현재 프레임의 제1 영상과 제1 관심-영상 사이의 차(差)영상을 획득한다(단계 S502).
다음에, 제어 장치(103)는 획득된 차(差)영상의 노이즈를 제거하여 제1 전경-영상을 생성한다(단계 S503).
그리고, 제어 장치(103)는 제1 관심-영상을 갱신한다(단계 S504). 관심 영역의 영상은, 이전(以前) 프레임까지 지속적으로 갱신되되, 주기적으로 움직이는 부분 영상 예를 들어, 흔들리고 있는 나뭇잎의 부분 영상은 갱신 대상에서 제외된다.
도 6은 도 3의 단계 S305의 상세 흐름도이다. 도 1, 3 및 6을 참조하여 도 6의 동작을 설명하면 다음과 같다.
제어 장치(103)는 관심 영역의 제2 영상으로서의 제2 관심 영상을 로딩한다(단계 S601). 본 실시예의 경우, 제2 영상은 열(熱) 영상(Ithe)이다.
다음에, 제어 장치(103)는 현재 프레임의 제2 영상과 제2 관심-영상 사이의 차(差)영상을 획득한다(단계 S602).
다음에, 제어 장치(103)는 획득된 차(差)영상의 노이즈를 제거하여 제2 전경-영상을 생성한다(단계 S603).
그리고, 제어 장치(103)는 제2 관심-영상을 갱신한다(단계 S604). 상기한 바와 같이, 관심 영역의 영상은, 이전(以前) 프레임까지 지속적으로 갱신되되, 주기적으로 움직이는 부분 영상 예를 들어, 흔들리고 있는 나뭇잎의 부분 영상은 갱신 대상에서 제외된다.
이상 설명된 바와 같이, 본 발명의 일 실시예의 관심-영역 감시 방법에 의하면, 종래의 기술과는 다르게, 융합 결과의 전체 영상에서 전경 영상이 추출되지 않는다.
종래의 기술에 있어서, 융합 결과의 전체 영상의 정보에서는 융합 전의 두 영상들의 정보 중에서 일부가 손실될 수 있다. 이에 따라, 융합 결과의 전체 영상에서 추출된 전경 영상의 정보는 정확하다고 볼 수 없다.
본 실시예의 관심-영역 감시 방법에 의하면, 제1 감시 카메라로부터의 제1 영상에서 제1 전경 영상이 추출되고, 정합 결과의 제2 영상에서 제2 전경 영상이 추출된 후, 제1 전경 영상과 제2 전경 영상이 융합된다.
따라서, 정보가 손실되기 전에 추출된 전경 영상들만의 융합에 의하여 전경 영상이 구해지므로, 종래 기술에 비하여 정확하게 전경 영상이 구해질 수 있다. 따라서, 구해진 전경 영상이 관심 검출-대상의 영상인지 아닌지가 정확하게 판단될 수 있다.
결론적으로, 본 발명의 실시예의 관심-영역 감시 방법에 의하면, 감시의 혼란 및 공백을 줄일 수 있다.
이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다.
그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.
일체식으로 설치되지 않은 스테레오 카메라 시스템에도 이용될 가능성이 있다.
101 : 가시 영상 카메라, Ivis : 가시(可視) 영상,
102 : 열 영상 카메라, Ithe : 열(熱) 영상,
103 : 제어 장치, Imix : 합성 결과의 영상,
104 : 디스플레이 장치, 201 : 제1 영상 전처리부,
202 : 제2 영상 전처리부, 203 : 영상 정합부,
204 : 전체-영상 융합부, 205 : 제1 전경-영상 추출부,
206 : 제2 전경-영상 추출부, 207 : 전경-영상 융합부,
208 : 탐지부, 209 : 추적부,
210 : 합성부, 211 : 출력부,
212 : 기록 매체, 401a : 제1 관심-영상 로딩부,
402a : 제1 차(差)영상 획득부, 403a : 제1 노이즈 제거부,
401b : 제2 관심-영상 로딩부,
402b : 제2 차(差)영상 획득부, 403b : 제2 노이즈 제거부.

Claims (6)

  1. 일체식으로 설치된 제1 감시 카메라와 제2 감시 카메라를 제어 장치가 제어하면서 관심 영역을 감시하는 방법에 있어서,
    (a) 상기 제2 감시 카메라로부터의 제2 영상을 상기 제1 감시 카메라로부터의 제1 영상에 정합시킴에 의하여, 정합 결과의 제2 영상을 구함;
    (b) 상기 제1 감시 카메라로부터의 제1 영상에서, 상기 관심 영역의 영상에 대한 제1 전경 영상을 추출함;
    (c) 상기 정합 결과의 제2 영상에서, 상기 관심 영역의 영상에 대한 제2 전경 영상을 추출함; 및
    (d) 상기 제1 전경 영상과 상기 제2 전경 영상을 융합하여, 융합된 결과의 전경 영상이 관심 검출-대상의 영상인지 아닌지를 판단함;을 포함한, 관심 영역을 감시하는 방법.
  2. 제1항에 있어서, 상기 단계 (a)에서,
    미리 설정되어 있는 정합 알고리즘에 의하여 상기 제2 영상이 조정됨에 의하여, 상기 정합 결과의 제2 영상이 구해지는, 관심 영역을 감시하는 방법.
  3. 제1항에 있어서,
    (e) 상기 제1 감시 카메라로부터의 제1 영상과 상기 정합 결과의 제2 영상을 융합하여, 융합된 결과의 전체 영상을 출력함;을 더 포함한, 관심 영역을 감시하는 방법.
  4. 제3항에 있어서,
    (f) 상기 융합된 결과의 전경 영상이 상기 관심 검출-대상의 영상이면, 상기 제1 감시 카메라와 상기 제2 감시 카메라의 패닝(panning) 및 틸팅(tilting)을 제어함에 의하여 상기 관심 검출-대상을 추적함;을 더 포함한, 관심 영역을 감시하는 방법.
  5. 제4항에 있어서,
    (g) 상기 관심 검출-대상의 영상을 가리키는 표식을 상기 융합된 결과의 전체 영상에 합성함;을 더 포함한, 관심 영역을 감시하는 방법.
  6. 제1항에 있어서,
    상기 제1 감시 카메라로부터의 제1 영상은 촬영 대상의 가시(可視) 영상이고,
    상기 제2 감시 카메라로부터의 제2 영상은 촬영 대상의 온도에 따른 열(熱) 영상인, 관심 영역을 감시하는 방법.
KR1020150063214A 2015-05-06 2015-05-06 관심 영역을 감시하는 방법 KR20160131261A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150063214A KR20160131261A (ko) 2015-05-06 2015-05-06 관심 영역을 감시하는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150063214A KR20160131261A (ko) 2015-05-06 2015-05-06 관심 영역을 감시하는 방법

Publications (1)

Publication Number Publication Date
KR20160131261A true KR20160131261A (ko) 2016-11-16

Family

ID=57540418

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150063214A KR20160131261A (ko) 2015-05-06 2015-05-06 관심 영역을 감시하는 방법

Country Status (1)

Country Link
KR (1) KR20160131261A (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102059011B1 (ko) * 2019-04-30 2019-12-24 엘아이지넥스원 주식회사 딥러닝을 기반으로 하는 융합 영상 생성장치 및 방법
KR20200011819A (ko) * 2018-07-25 2020-02-04 상명대학교산학협력단 안면 움직임 정보 추출 방법 및 장치
KR102086067B1 (ko) * 2019-04-30 2020-03-06 엘아이지넥스원 주식회사 융합 영상 생성장치 및 방법
WO2021107171A1 (ko) * 2019-11-26 2021-06-03 전자부품연구원 차량용 다중 센서를 위한 딥러닝 처리 장치 및 방법
KR20210154731A (ko) * 2020-06-12 2021-12-21 서울대학교병원 안저영상의 종단적 분석을 위한 안저 변화 검출 방법 및 이를 수행하는 장치
WO2022019710A1 (en) 2020-07-23 2022-01-27 Samsung Electronics Co., Ltd. Method and electronic device for determining boundary of region of interest

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140017222A (ko) 2012-07-31 2014-02-11 주식회사 제론헬스케어 감시시스템의 영상 융합을 통한 객체 감시 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140017222A (ko) 2012-07-31 2014-02-11 주식회사 제론헬스케어 감시시스템의 영상 융합을 통한 객체 감시 방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200011819A (ko) * 2018-07-25 2020-02-04 상명대학교산학협력단 안면 움직임 정보 추출 방법 및 장치
KR102059011B1 (ko) * 2019-04-30 2019-12-24 엘아이지넥스원 주식회사 딥러닝을 기반으로 하는 융합 영상 생성장치 및 방법
KR102086067B1 (ko) * 2019-04-30 2020-03-06 엘아이지넥스원 주식회사 융합 영상 생성장치 및 방법
WO2021107171A1 (ko) * 2019-11-26 2021-06-03 전자부품연구원 차량용 다중 센서를 위한 딥러닝 처리 장치 및 방법
KR20210154731A (ko) * 2020-06-12 2021-12-21 서울대학교병원 안저영상의 종단적 분석을 위한 안저 변화 검출 방법 및 이를 수행하는 장치
WO2022019710A1 (en) 2020-07-23 2022-01-27 Samsung Electronics Co., Ltd. Method and electronic device for determining boundary of region of interest
EP4172935A4 (en) * 2020-07-23 2024-01-03 Samsung Electronics Co Ltd METHOD AND ELECTRONIC DEVICE FOR DETERMINING A REGION OF INTEREST BOUNDARY

Similar Documents

Publication Publication Date Title
KR20160131261A (ko) 관심 영역을 감시하는 방법
CN104126299B (zh) 视频图像稳定化
JP5867424B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5649429B2 (ja) 映像処理装置、カメラ装置および映像処理方法
KR101623826B1 (ko) 히트맵 영상 기능을 가진 감시카메라
WO2011078066A1 (ja) 画像処理装置および方法、並びにプログラム
US20180225852A1 (en) Apparatus and method for generating best-view image centered on object of interest in multiple camera images
US20160165129A1 (en) Image Processing Method
CN103688292A (zh) 图像显示装置和图像显示方法
KR20070010352A (ko) 다중 센서 비디오 신호의 융합에 의한 이동 객체 추적 장치
KR20130130544A (ko) 감시 영상 표시 방법 및 시스템
KR20160088129A (ko) 다중 비디오써머리제공방법 및 장치
JP2008117305A (ja) 画像処理装置
EP3018902B1 (en) Monitoring camera system
EP3629570A2 (en) Image capturing apparatus and image recording method
KR20200014694A (ko) 화상 처리 장치, 화상 처리 장치의 제어 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
GB2499427A (en) Video tracking apparatus having two cameras mounted on a moveable unit
WO2020213430A1 (ja) 映像処理装置、映像処理方法及び映像処理プログラム
WO2020117357A9 (en) Methods and systems for navigating autonomous and semi-autonomous vehicles
JP4578864B2 (ja) 自動追尾装置及び自動追尾方法
KR102256833B1 (ko) 화상 처리 장치 및 화상 처리 장치를 제어하기 위한 제어 방법
EP3454548B1 (en) Image processing apparatus, program, and method
JP2006259847A (ja) 自動追尾装置及び自動追尾方法
JP2009147607A (ja) 人物追尾装置
US20200311438A1 (en) Representative image generation device and representative image generation method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application