KR101051390B1 - 감시카메라의 객체 정보 추정장치 및 방법 - Google Patents

감시카메라의 객체 정보 추정장치 및 방법 Download PDF

Info

Publication number
KR101051390B1
KR101051390B1 KR1020090081369A KR20090081369A KR101051390B1 KR 101051390 B1 KR101051390 B1 KR 101051390B1 KR 1020090081369 A KR1020090081369 A KR 1020090081369A KR 20090081369 A KR20090081369 A KR 20090081369A KR 101051390 B1 KR101051390 B1 KR 101051390B1
Authority
KR
South Korea
Prior art keywords
surveillance
area
distance
information
point
Prior art date
Application number
KR1020090081369A
Other languages
English (en)
Other versions
KR20110023460A (ko
Inventor
한영인
서용덕
송영기
백원인
Original Assignee
주식회사 이미지넥스트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이미지넥스트 filed Critical 주식회사 이미지넥스트
Priority to KR1020090081369A priority Critical patent/KR101051390B1/ko
Publication of KR20110023460A publication Critical patent/KR20110023460A/ko
Application granted granted Critical
Publication of KR101051390B1 publication Critical patent/KR101051390B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

감시카메라의 객체 정보 추정장치 및 방법이 개시된다. 영상 입력부는 사전에 설정된 감시영역을 촬영하기 위해 설치된 감시카메라에 의해 감시영역을 촬영하여 생성한 감시영상 프레임을 입력받는다. 사용자 인터페이스부는 감시영상 프레임을 화면에 출력하여 사용자에게 제공한다. 대표점 결정부는 감시영상 프레임 상에 면적을 가지는 도형 형상의 참조영역이 사용자 인터페이스부를 통해 설정되면 참조영역을 대표하는 지점인 대표점을 결정한다. 거리 정보 산출부는 사용자 인터페이스부를 통해 입력받은 감시카메라의 설치 정보 데이터, 감시영역 내에서 참조영역을 포함하는 최소 크기의 사각형에 해당하는 영역의 실제 너비와 높이 정보 데이터 및 감시영상 프레임 상에서 대표점의 좌표 정보를 기초로 감시영역 내에서 감시카메라로부터 대표점에 대응하는 지점까지의 실제 거리를 산출한다. 본 발명에 따르면, 사용자가 감시영상 프레임 상에 거리 정보 및 크기 정보 추정을 위한 참조영역을 설정하고 데이터를 입력하도록 함으로써, 감시영역에 존재하는 객체와 감시카메라 사이의 실제 거리를 추정할 수 있어 기존의 무인 감시 시스템에 추가적인 정보를 제공할 수 있다.
감시카메라, 객체 거리 정보, 객체 크기 정보, 사용자 인터페이스

Description

감시카메라의 객체 정보 추정장치 및 방법{Apparatus and method for estimating object information of surveillance camera}
본 발명은 감시카메라의 객체 정보 추정장치 및 방법에 관한 것으로, 보다 상세하게는, 감시영역을 촬영하여 움직이는 객체를 감지하는 무인 감시카메라에 있어서 감시영역에 위치하는 객체의 정보를 획득하기 위한 장치 및 방법에 관한 것이다.
최근 보안구역에 대한 감시 필요성이 증대됨에 따라 무인 감시카메라를 사용하여 보안구역을 촬영하고, 보안구역 내에서 이동하는 객체를 감지하여 추적하는 기술이 사용되고 있다. 또한 감시카메라에 감지된 객체를 식별하기 위해 촬영된 영상으로부터 객체 부분을 추출하여 감시카메라로부터 객체까지의 실제 거리를 산출하거나 촬영된 영상에 포함된 객체의 실제 크기를 산출하여야 하는 경우가 존재한다.
일반적으로 감시카메라에 의해 촬영된 영상에서 하나의 화소에 대응하는 실제 거리는 감시카메라로부터 해당 화소에 대응하는 지점까지의 거리에 따라 달라진다. 따라서 3차원의 보안구역을 촬영한 영상으로부터 카메라와 객체 사이의 실제 거리를 구하는 과정은 매우 복잡하며 실제로 어려운 작업이다. 이러한 문제점을 해결하기 위해 여러 대의 감시카메라를 사용하여 객체까지의 실제 거리를 산출하는 방법이 사용되고 있으나 비용이 많이 들고 산출 과정이 복잡하다는 문제가 있다. 따라서 한 대의 감시카메라를 이용하여 간단한 방법으로 영상으로부터 감시카메라와 객체 사이의 거리를 알아낼 수 있는 방법이 필요하다.
또한 동일한 크기의 객체라도 감시카메라로부터의 거리에 따라 촬영된 영상에서 차지하는 영역의 크기가 달라지게 된다. 즉, 앞에서 설명한 바와 같이 영상에서 하나의 화소에 대응하는 실제 크기는 해당 화소의 영상에서의 위치에 따라 다르므로 객체의 실제 크기를 용이하게 산출할 수 없다. 따라서 한 대의 감시카메라에 의해 촬영된 영상으로부터 객체의 실제 크기를 추정할 수 있는 방법의 필요성이 제기된다.
본 발명이 이루고자 하는 기술적 과제는, 사용자 인터페이스를 통하여 사용자로부터 입력받은 정보를 기초로 감시카메라에 의해 촬영되는 감시영역에 위치하는 객체까지의 실제 거리 정보 및 객체의 실제 크기 정보를 추정할 수 있는 감시카메라의 객체 정보 추정장치 및 방법을 제공하는 데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는, 사용자 인터페이스를 통하여 사용자로부터 입력받은 정보를 기초로 감시카메라에 의해 촬영되는 감시영역에 위치하는 객체까지의 실제 거리 정보 및 객체의 실제 크기 정보를 추정할 수 있는 감시카메라의 객체 정보 추정 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한 본 발명에 따른 감시카메라의 객체 정보 추정장치는, 사전에 설정된 감시영역을 촬영하기 위해 설치된 감시카메라에 의해 상기 감시영역을 촬영하여 생성한 감시영상 프레임을 입력받는 영상 입력부; 상기 감시영상 프레임을 화면에 출력하여 사용자에게 제공하는 사용자 인터페이스부; 상기 감시영상 프레임 상에 면적을 가지는 도형 형상의 참조영역이 상기 사용자 인터페이스부를 통해 설정되면 상기 참조영역을 대표하는 지점인 대표점을 결정하는 대표점 결정부; 및 상기 사용자 인터페이스부를 통해 입력받은 상기 감시카메라의 설치 정보 데이터, 상기 감시영역 내에서 상기 참조영역을 포함하는 최소 크기의 사각형에 해당하는 영역의 실제 너비와 높이 정보 데이터 및 상기 감시영상 프레임 상에서 상기 대표점의 좌표 정보를 기초로 상기 감시영역 내에서 상기 감시카메라로부터 상기 대표점에 대응하는 지점까지의 실제 거리를 산출하는 거리 정보 산출부;를 구비한다.
상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 감시카메라의 객체 정보 추정방법은, 사전에 설정된 감시영역을 촬영하기 위해 설치된 감시카메라에 의해 상기 감시영역을 촬영하여 생성한 감시영상 프레임을 입력받는 영상 입력단계; 상기 감시영상 프레임을 화면에 출력하여 사용자에게 제공하는 제공단계; 상기 감시영상 프레임 상에 면적을 가지는 도형 형상의 참조영역이 상기 사용자에 의해 설정되면 상기 참조영역을 대표하는 지점인 대표점을 결정하는 대표점 결정단계; 및 상기 사용자로부터 입력받은 상기 감시카메라의 설치 정보 데이터, 상기 감시영역 내에서 상기 참조영역을 포함하는 최소 크기의 사각형에 해당하는 영역의 실제 너비와 높이 정보 데이터 및 상기 감시영상 프레임 상에서 상기 대표점의 좌표 정보를 기초로 상기 감시영역 내에서 상기 감시카메라로부터 상기 대표점에 대응하는 지점까지의 실제 거리를 산출하는 거리 정보 산출단계;를 가진다.
본 발명에 따른 감시카메라의 객체 정보 추정장치 및 방법에 의하면, 감시카메라에 의해 촬영된 영상을 단순히 사용자에게 제공하는 것이 아닌 사용자 인터페이스를 구비하여 사용자가 감시영상 프레임 상에 거리 정보 및 크기 정보 추정을 위한 참조영역을 설정하고 데이터를 입력하도록 함으로써, 감시영역에 존재하는 객 체와 감시카메라 사이의 실제 거리를 추정할 수 있어 기존의 무인 감시 시스템에 추가적인 정보를 제공할 수 있다. 또한 화소당 실제 길이 및 실제 너비에 관한 값을 감시영상 프레임의 두 가지 영역에 대하여 산출함으로써 간소화된 알고리즘으로 오차가 적은 거리 정보 및 크기 정보를 얻을 수 있다.
이하에서 첨부된 도면들을 참조하여 본 발명에 따른 감시카메라의 객체 정보 추정장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.
도 1은 본 발명에 따른 감시카메라의 객체 정보 추정장치에 대한 바람직한 실시예의 구성을 도시한 블록도이다.
도 1을 참조하면, 본 발명에 따른 감시카메라의 객체 정보 추정장치(100)는 영상 입력부(110), 사용자 인터페이스부(120), 대표점 결정부(130), 거리 정보 산출부(140) 및 크기 정보 산출부(150)를 구비한다.
영상 입력부(110)는 사전에 설정된 감시영역을 촬영하기 위해 설치된 감시카메라(200)에 의해 감시영역을 촬영하여 생성한 감시영상 프레임을 입력받는다.
무인 감시시스템에 사용되는 감시카메라(200)는 보안이 필요한 영역인 감시영역을 촬영하기 위해 고정된 위치에 설치된다. 감시카메라(200)는 감시영역을 지속적으로 촬영하면서 움직이는 객체가 감시영역에 진입하면 객체의 위치를 검출하고 객체의 이동경로를 추적하거나 경보음을 발생하여 사용자가 객체의 침입을 인지하도록 한다. 이와 같이 감시영역에 진입한 객체의 위치 검출 및 이동경로 추적은 종래의 감시시스템에서 사용되고 있는 방법이다.
본 발명에 따른 감시카메라의 객체 정보 추정장치(100)에서는 진입한 객체가 감시카메라(200)로부터 실제로 얼마나 떨어져 있는지를 나타내는 감시카메라(200)와 객체까지의 거리 정보 및 감시카메라(200)에 의해 촬영된 감시영상 프레임에 포함되어 있는 객체의 실제 크기가 어느 정도 되는지를 나타내는 객체의 크기 정보를 추정하기 위해 감시카메라(200)에 의해 촬영된 감시영역의 영상인 감시영상 프레임이 영상 입력부(110)로 입력된다. 이때 감시카메라(200)는 감시영역을 일정한 촬영 주기에 따라 지속적으로 촬영하므로 복수의 감시영상 프레임이 지속적으로 입력될 수 있다. 또한 감시카메라(200)는 고정된 감시영역을 촬영하도록 설정되는 CCD 카메라이다.
사용자 인터페이스부(120)는 영상 입력부(110)로 입력된 감시영상 프레임을 화면에 출력하여 사용자에게 제공한다.
본 발명에서는 감시카메라(200)로부터 감시영역에 위치하는 객체까지의 실제 거리를 추정하기 위한 초기 모델링 과정에서 필요한 데이터 입력 및 설정이 사용자에 의해 수행된다. 따라서 사용자 인터페이스부(120)는 감시카메라(200)에 의해 촬영된 영상을 화면에 출력하여 사용자가 각종 설정 및 데이터 입력 등을 수행하도록 한다. 이때 감시카메라(200)로부터 복수의 감시영상 프레임이 지속적으로 입력되면 이를 화면에 계속하여 출력한다. 사용자는 복수의 감시영상 프레임 중에서 하나를 선택하여 사용자 인터페이스부(120)를 통한 설정 및 입력 과정을 수행할 수 있다.
대표점 결정부(130)는 감시영상 프레임 상에 면적을 가지는 도형 형상의 참조영역이 사용자 인터페이스부(120)를 통해 설정되면 참조영역을 대표하는 지점인 대표점을 결정한다.
사용자는 화면에 출력된 감시영상 프레임을 확인하고, 카메라의 모델링 과정, 즉 이후 감시영역에 새롭게 진입하는 객체에 대한 거리 정보 및 크기 정보의 산출을 위한 초기 데이터 설정 과정에 필요한 참조영역을 감시영상 프레임 상에 설정한다. 감시영상 프레임이 터치스크린 상에 표시된 경우에는 사용자가 직접 화면 상에서 참조영역을 설정할 수 있고, 보통의 모니터 화면을 통해 표시된 경우에는 마우스 컨트롤이나 타블렛 펜에 의해 참조영역을 설정할 수 있다.
참조영역의 형태는 수식 적용이 용이하도록 직사각형 형태로 설정하는 것이 바람직하며, 사용자는 감시영상 프레임 상의 임의의 영역을 참조영역으로 설정하거나 모델링 과정을 위해 사전에 감시영역에 위치시킨 객체를 둘러싼 영역을 참조영역으로 설정할 수 있다. 참조영역이 복수 개 설정되는 경우에는 복수의 참조영역에 대한 실제 길이가 거의 동일하도록 하면 거리 정보 및 크기 정보 산출의 오차를 줄일 수 있다. 나아가 오차를 최소화하기 위해 크기를 알고 있는 객체, 예를 들면 사람을 감시영역의 서로 상이한 지점에 위치시키고 감시영상 프레임 상에서 객체가 차지하는 직사각형의 영역을 참조영역으로 설정할 수 있다.
사용자에 의해 감시영상 프레임 상에 참조영역이 설정되면 대표점 결정부(130)는 참조영역 상에서 참조영역을 대표하는 지점인 대표점을 결정한다. 참조영역은 복수의 화소로 이루어진 영역이므로 거리 정보 및 크기 정보의 산출을 위해 참조영역을 나타낼 수 있는 하나의 화소를 선택하는 것이 바람직하다. 대표점은 참조영역을 구성하는 복수의 화소 중에서 어느 하나를 선택함으로써 결정될 수 있다. 그러나 감시카메라(200)의 관심 대상인 객체가 주로 사람이고, 객체의 이동경로를 추적할 때 사람의 발끝의 이동경로를 추적하는 것이 일반적이므로 참조영역의 아랫변 상의 한 지점을 대표점으로 결정하는 것이 바람직하다. 또한 감시영상 프레임 상에서 설정된 참조영역의 개수가 복수 개이면 대표점의 개수도 참조영역의 수와 동일하게 결정된다.
도 2는 감시영상 프레임 상에 설정된 직사각형 형태의 참조영역 및 참조영역에 대해 결정된 대표점의 일 예를 나타낸 도면이다. 도 2를 참조하면, 감시영상 프레임(210)은 주차장에 설정된 감시영역을 감시카메라(200)에 의해 촬영하여 생성된 것이고, 굵은 선으로 표시된 직사각형의 영역은 사용자에 의해 설정된 참조영역(220)을 나타낸다. 또한 참조영역의 아랫변에 표시된 검은 점은 참조영역에 대해 결정된 대표점(230)을 나타내는 것이다.
거리 정보 산출부(140)는 사용자 인터페이스부(120)를 통해 입력받은 감시카메라(200)의 설치 정보 데이터, 감시영역 내에서 참조영역에 대응하는 영역의 실제 너비와 높이 정보 데이터 및 감시영상 프레임 상에서 대표점의 좌표 정보를 기초로 감시영역 내에서 감시카메라로부터 대표점에 대응하는 지점까지의 실제 거리를 산출한다.
본 발명에 따른 감시카메라의 객체 정보 추정장치(100)에서는 사용자로부터의 입력 및 설정에 의해 객체의 거리 및 크기 정보 산출을 위한 감시카메라(200)의 모델링 과정이 수행된다. 따라서 사용자는 앞에서 설명한 바와 같이 감시영상 프레임 상에 참조영역을 설정하는 한편, 수식 적용을 위한 각종 데이터를 사용자 인터 페이스부(120)를 통해 입력한다.
사용자 인터페치스부(120)를 통해 입력되는 데이터 중에서 감시카메라(200)의 설치 정보 데이터는 수평면으로부터 감시카메라(200)의 설치지점까지의 설치높이 및 수직면과 감시카메라(200)가 이루는 설치각도를 포함한다. 이러한 감시카메라(200)의 설치 정보 데이터는 감시영역 내에서 객체까지의 실제 거리 추정에 필요한 기준거리를 산출하기 위해 입력된다.
도 3은 감시카메라(200)의 설치 정보 데이터를 설명하기 위한 도면이다. 도 3에서 h는 수평면으로부터 감시카메라(200)의 설치 지점까지의 설치높이이고, θ는 수직면과 감시카메라(200) 사이의 설치각도이다. 이러한 감시카메라(200)의 설치 정보 데이터는 사용자가 감시카메라(200)를 설치할 때 사전에 설정하는 값이므로 사용자가 이미 알고 있는 정보에 해당한다. 도 3에 도시된 바와 같이 감시카메라(200)의 설치지점은 직각삼각형에서 밑변에 대향하는 꼭지점에 해당하고 설치각도는 빗변과 높이 사이의 각도에 해당한다. 뒤에서 설명할 거리 정보 산출부(140)는 직각삼각형에서 변의 길이와 각도 사이의 관계식을 기초로 밑변의 길이를 산출하여 이를 기준거리로 결정한다. 도 3에 도시된 직각삼각형의 밑변의 길이, 즉 L의 값은 다음의 수학식 1에 의해 산출된다.
Figure 112009053499687-pat00001
여기서, L은 기준거리, c는 빗변의 길이, h는 설치높이, 그리고 θ는 설치각 도이다.
도 4는 사용자로부터 데이터를 입력받기 위해 사용자 인터페이스부(120)가 제공하는 입력창의 일 예를 나타낸 도면이다. 도 4를 참조하면, ①로 표시된 부분에는 h의 값, 즉 수평면에서 감시카메라(200)의 설치지점까지의 거리인 설치높이가 입력되며, ②로 표시된 부분에는 θ의 값, 즉 수직면과 감시카메라(200) 사이의 설치각도가 입력된다. 사용자가 ①과 ②에 값을 모두 입력하고 ③으로 표시된 'Apply' 버튼을 클릭하면, ④로 표시된 부분에 수학식 1에 의해 산출된 L의 값이 출력된다. 또한 ⑤로 표시된 부분은 감시영역 내에서 참조영역에 대응하는 영역의 실제 너비 및 높이 정보 데이터를 입력하는 부분이다. 다만, 거리 정보 산출을 위해서는 참조영역에 대한 너비 정보는 필요하지 않기 때문에 도 4에 도시된 바와 같이 사용자가 실제 높이 정보만을 입력하도록 할 수 있다. 사용자는 사용자 인터페이스부(120)를 통해 ①,② 및 ⑤로 표시된 부분에 데이터를 입력하고, ④로 표시된 부분에 출력되는 기준거리를 확인할 수 있다.
또한 도 4에서는 참조영역의 실제 높이를 입력하는 부분이 한 개만 제공된다. 따라서 감시영상 프레임 상에 복수의 참조영역을 설정하는 경우에는 앞에서 설명한 바와 같이 각각의 참조영역에 대응하는 영역의 높이 또는 참조영역에 대응하는 영역에 포함된 객체의 크기(예를 들면, 사람의 키)를 모두 동일하게 하여 오차를 최소화할 수 있다.
다음으로 거리 정보 산출부(140)는 감시영역 내에서 감시카메라(200)로부터 대표점에 대응하는 지점까지의 실제 거리를 산출한다. 이를 위해 거리 정보 산출 부(140)는 단위길이 산출부(142) 및 실제거리 산출부(144)를 구비한다.
앞에서 설명한 바와 같이 사용자로부터 입력받은 감시카메라(200)의 설치 정보 데이터로부터 기준거리가 산출되며, 사용자의 입력에 의해 참조영역에 대응하는 실제 높이 정보가 얻어진다. 또한 감시영상 프레임 상에서 참조영역의 세로길이 및 대표점의 좌표 정보는 입력받은 감시영상 프레임을 분석하여 알 수 있는 정보이다. 거리 정보 산출부(140)는 이러한 정보들을 기초로 하여 먼저 감시영역 내에서 감시카메라(200)로부터 참조영역에 대해 결정된 대표점에 대응하는 지점까지의 실제 거리를 산출하고, 나아가 실제 높이 데이터가 주어지지 않은 새로운 객체가 감시영역에 진입하였을 때 해당 객체까지의 실제 거리까지도 추정할 수 있다. 또한 참조영역에 대해 결정된 대표점이 해당 참조영역을 대표하므로 거리 정보는 감시카메라(200)로부터 대표점에 대응하는 지점까지의 거리를 나타낸다.
도 5는 두 개의 참조영역이 설정된 감시영상 프레임 상에서 거리 정보를 산출하는 과정을 설명하기 위해 도시된 도면이다. 산출된 실제 거리와 실제로 감시영역에서 측정되는 거리 사이의 오차를 줄이기 위해서는 도 5와 같이 감시영상 프레임을 상부 및 하부의 두 개 영역으로 나누고, 각각의 영역 내에서 하나씩의 참조영역을 설정하는 것이 바람직하다. 이하에서는 감시영상 프레임의 중심을 수평으로 지나는 직선을 기준직선(500)이라 하고, 기준직선(500)의 상단에 위치하는 참조영역을 제1참조영역, 기준직선(500)의 하단에 위치하는 참조영역을 제2참조영역이라 한다. 기준직선(500)은 감시카메라(500)로부터 기준거리(L)만큼 떨어진 지점을 이은 직선의 위치를 근사화하여 감시영상 프레임의 중심을 지나도록 그려지는 것이 다. 초기 모델링 과정에서는 감시카메라(200)로부터 일정 거리에 위치하는 지점을 감시영상 프레임 상에 표시할 수 없기 때문이다.
단위길이 산출부(142)는 감시영상 프레임 상에서 제1참조영역 및 제2참조영역의 세로길이(도 5에서 H1 및 H2)에 해당하는 화소수에 대한 입력받은 실제 높이의 비에 의해 제1참조영역 및 제2참조영역에 대한 화소당 실제 높이인 제1단위길이 및 제2단위길이를 각각 산출한다.
앞에서 설명한 바와 같이 감시영상 프레임을 구성하는 각 화소에 대한 실제 길이는 감시영상 프레임 내에서 각 화소의 위치에 따라 달라진다. 감시영역 내에서 각 화소에 대응하는 지점과 감시카메라(200) 사이의 거리가 각각 상이하기 때문이다. 따라서 본 발명에서는 기준직선(500)을 중심으로 하여 상단에 위치하는 화소에 대한 실제 길이와 하단에 위치하는 화소에 대한 실제 길이를 각각 산출하였다.
이와 같이 감시영상 프레임을 기준직선(500)에 의해 두 개의 영역으로 분할하지 않고 더 많은 수의 영역으로 나누어 각각의 영역에 포함되는 화소에 대한 실제 길이를 산출할 수도 있으나, 알고리즘이 지나치게 복잡해진다는 문제가 있다. 따라서 본 발명에서는 거리 정보의 추정 과정을 간소화하기 위해 화소에 대한 실제 길이를 두 가지로 산출함으로써 실제 측정 거리와의 오차는 줄이면서도 간단한 알고리즘에 의해 감시영역에 위치하는 객체까지의 실제 거리를 추정할 수 있도록 하였다.
기준직선(500)의 상단에 위치하는 제1참조영역에 대한 화소당 실제 높이인 제1단위길이는 제1참조영역에 대해 입력받은 실제 높이를 제1참조영역의 세로길이 를 나타내는 화소 수로 나누어 얻어진다. 또한 기준직선(500)의 하단에 위치하는 제1참조영역에 대한 화소당 실제 높이인 제2단위길이는 제2참조영역에 대해 입력받은 실제 높이를 제2참조영역의 세로길이를 나타내는 화소 수로 나누어 얻어진다. 오차를 최소화하기 위해 실제 높이가 동일하도록 제1참조영역과 제2참조영역이 설정된 경우에는 동일한 실제 높이의 값을 서로 다른 화소 수로 나누게 된다. 도 5에서 제2참조영역의 세로길이가 제1참조영역의 세로길이보다 길게 나타나므로 결과적으로 제2단위길이가 제1단위길이보다 작은 값으로 산출된다.
다음으로 실제거리 산출부(144)는 도 5에 나타난 제1참조영역 및 제2참조영역에 대해 각각 결정된 대표점인 제1대표점 및 제2대표점까지의 실제 거리를 산출하되, 제1참조영역은 기준직선(500)의 상단에 위치하고 제2참조영역은 기준직선(500)의 하단에 위치하므로 서로 다른 방법을 적용한다.
즉, 기준직선(500)으로부터 제1참조영역에 대해 설정된 대표점인 제1대표점까지의 거리(도 5에서 α)에 해당하는 화소 수에 제1단위길이를 곱한 값을 기준거리에 더하여 감시영역에서 감시카메라(200)로부터 제1대표점에 대응하는 지점까지의 실제 거리를 산출한다. 또한 기준직선으로부터 제2참조영역에 대해 결정된 대표점인 제2대표점까지의 거리(도 5에서 β)에 해당하는 화소수에 제2단위길이를 곱한 값을 기준거리로부터 차감하여 감시영역에서 감시카메라(200)로부터 제2대표점에 대응하는 지점까지의 실제 거리를 산출한다. 이때 기준직선(500)으로부터 각 대표점까지의 거리는 감시영상 프레임으로부터 얻어지는 각 대표점의 좌표 정보를 기초로 하여 얻을 수 있다.
다시 말하면, 기준직선(500)의 상단에 위치하는 제1참조영역은 감시영역에서 감시카메라(200)로부터 기준거리보다 멀리 떨어진 지점에 위치하고 있는 것과 같다. 또한 기준직선(500)의 하단에 위치하는 제2참조영역은 감시영역에서 감시카메라(200) 쪽으로 기준거리보다 가까운 지점에 위치하고 있는 것과 같다. 따라서 실제거리 산출부(144)는 먼저 기준직선(500)으로부터 각 대표점까지의 부분거리를 산출하고, 대표점의 위치에 따라 부분거리를 기준거리에 더하거나 차감하여 감시영역에서 감시카메라(200)로부터 대표점에 대응하는 지점까지의 실제 거리를 산출한다.
이와 같은 초기 모델링 과정이 완료되면, 감시영상 프레임에서 기준직선(500)의 상단에 위치하는 화소들은 모두 실제 길이가 제1단위길이이고 기준직선(500)의 하단에 위치하는 화소들은 모두 실제 길이가 제2단위길이라고 가정하여 감시영역에 새로 진입한 객체에 대하여도 거리 정보를 추정할 수 있다.
즉, 기존의 감시 시스템에 의해 감시영역에 진입한 객체가 검출된 경우, 객체가 차지하는 영역에 대해 자동으로 참조영역을 설정하고 대표점을 결정할 수 있다. 이를 객체지점이라 하면 감시영역에서 감시카메라(200)로부터 객체지점에 대응하는 지점까지의 거리를 다음과 같이 산출할 수 있다.
실제거리 산출부(144)는 감시영상 프레임 상에서 객체지점이 기준직선(500)의 상단에 위치하면 다음의 수학식 2에 의해 실제 거리를 산출하고, 객체지점이 기준직선(500)의 하단에 위치하면 수학식 3에 의해 실제 거리를 산출한다.
Figure 112009053499687-pat00002
Figure 112009053499687-pat00003
여기서, D1 및 D2는 각각 객체지점이 기준직선(500)의 상단 및 하단에 위치할 때 감시영역 내에서 감시카메라(200)로부터 객체지점에 대응하는 지점까지의 실제 거리, L은 기준거리, A 및 B 는 각각 객체지점이 기준직선(500)의 상단 및 하단에 위치할 때 기준직선(500)으로부터 객체지점까지의 거리에 해당하는 화소수, 그리고 UL1 및 UL2는 각각 제1기준길이 및 제2기준길이이다.
이상에서 설명한 방법에 의해 초기 모델링 과정으로서 참조영역을 설정하고 화소당 실제 길이를 산출해 놓으면 이후 감시영역에 새로 진입하는 객체가 검출되면 해당 객체까지의 실제 거리를 추정할 수 있다. 또한 초기 모델링 과정 이후에는 감시영상 프레임 상에서 기준거리에 해당하는 지점을 지나는 직선을 기준직선으로 할 수 있으므로 실제 거리 추정에 있어서 오차를 줄일 수 있다.
한편, 초기 모델링 과정이 끝난 후 본 발명에 따른 감시카메라의 객체 정보 추정장치(100)에서는 참조영역의 세로길이 및 가로길이 정보와 참조영역에 대한 실제 길이 및 너비 정보를 기초로 하여 감시영역에 새롭게 진입하는 객체의 크기 정보를 추정할 수 있다.
크기 정보 산출부(150)는 감시영상 프레임 상에서 직사각형 형태의 제1참조영역 및 제2참조영역을 제외한 영역에 직사각형 형태의 객체영역이 설정되면, 감시영상 프레임 상에서 제1참조영역으로부터 제2참조영역에 이르기까지의 세로길이 변 화율 및 가로길이 변화율을 측정한다. 측정된 세로길이 변화율 및 가로길이 변화율과 객체영역에 대해 결정된 대표점인 제3대표점의 좌표 정보를 기초로 하여 감시영역에서 객체영역에 대응하는 영역의 너비 및 높이를 산출할 수 있다.
도 6은 객체의 크기 정보를 추정하는 방법을 설명하기 위한 도면이다. 도 6에서 감시영상 프레임의 좌측 상단에 표시된 영역은 제1참조영역, 우측 하단에 표시된 영역은 제2참조영역으로 도 5에 도시된 제1참조영역 및 제2참조영역과 동일한 크기 및 위치를 가진다. 또한 나머지 하나의 직사각형 영역은 감시영역에 진입한 객체에 대해 설정된 객체영역을 나타낸다. 다만 도 5와는 다르게 도 6에서는 각 참조영역의 좌측 상단에 위치한 꼭지점이 대표점으로 결정된다.
먼저 제1참조영역과 제2참조영역 사이의 세로길이 변화율 및 가로길이 변화율은 제1참조영역과 제2참조영역에 대한 실제 높이 및 너비가 동일하다는 것을 전제로 하여 산출되며, 동일한 객체에 대해 설정되는 참조영역의 세로길이와 가로길이가 감시영상 프레임 내에서의 위치 변화에 따라 어느 정도만큼 변화하는지를 나타내는 값이다.
세로길이 변화율 및 가로길이 변화율은 다음의 수학식 4 및 수학식 5에 의해 각각 산출된다.
Figure 112009053499687-pat00004
Figure 112009053499687-pat00005
여기서, H_Ratio는 세로길이 변화율, W_Ratio는 가로길이 변화율, H1 및 H2는 각각 제1참조영역 및 제2참조영역의 세로길이, W1 및 W2는 각각 제1참조영역 및 제2참조영역의 가로길이, 그리고 d는 제1대표점과 제2대표점 사이의 유클리디안 거리이다.
다음으로 객체영역의 세로길이와 가로길이는 다음의 수학식 6 및 수학식 7에 의해 각각 산출된다.
Figure 112009053499687-pat00006
Figure 112009053499687-pat00007
여기서, H3 및 W3은 각각 객체영역의 세로길이와 가로길이, (x3,y3)은 제3대표점의 좌표, (x1,y1)은 제1대표점의 좌표, H1 및 W1은 각각 제1참조영역의 세로길이와 가로길이, H_Ratio는 세로길이 변화율, 그리고 W_Ratio는 가로길이 변화율이다.
한편, 위와 같이 세로길이 변화율과 가로길이 변화율을 이용하지 않고 감시영상 프레임을 분석하여 객체영역의 세로길이와 가로길이를 측정할 수도 있다. 객 체영역의 세로길이와 가로길이가 얻어지면 각각의 길이에 기준길이를 곱하여 감시영역에서 객체영역에 대응하는 영역의 실제 높이 및 너비 정보를 추정할 수 있다.
크기 정보의 추정을 위해 단위길이 산출부(142)는 제1단위길이 및 제2단위길이를 산출할 때와 마찬가지로 제1참조영역 및 제2참조영역의 가로길이에 해당하는 화소 수에 대한 입력받은 실제 너비의 비에 의해 제1참조영역 및 제2참조영역에 대한 화소당 실제 너비인 제3단위길이 및 제4단위길이를 산출한다. 즉, 기준직선(500)의 상단에 위치하는 화소에 대하여는 실제 너비를 구할 때 제3단위길이가 적용되고, 기준직선(500)의 하단에 위치하는 화소에 대하여는 실제 너비를 구할 때 제4단위길이가 적용되는 것이다.
감시영역 내에서의 거리 정보를 추정할 때와 마찬가지로 크기 정보를 추정할 때에도 감시영상 프레임 내에서 제3대표점, 즉 객체영역에 대해 결정된 대표점이 기준직선(500)을 중심으로 어느 방향에 위치하는지 여부에 따라 크기 정보의 산출 과정이 달라진다.
즉, 크기 정보 산출부(150)는 제3대표점이 기준직선(500)의 상단에 위치하면 제1단위길이 및 제3단위길이를 기초로 감시영역에서 객체영역에 대응하는 영역의 실제 높이 및 너비를 산출하고, 제3대표점이 기준직선(500)의 하단에 위치하면 제2단위길이 및 제4단위길이를 기초로 감시영역에서 객체영역에 대응하는 영역의 실제 높이 및 너비를 산출한다.
이와 같이 감시영역에 진입한 객체까지의 거리 정보 및 대략적인 크기 정보를 산출함으로써 감시영역에서 이동하는 객체의 단순한 이동경로 뿐만 아니라 보다 구체적인 정보까지 얻을 수 있어서 감시 시스템의 보안 성능 향상을 가져올 수 있다.
도 7은 도 2와 같은 감시영상 프레임에 본 발명을 적용하여 특정 지점까지의 거리를 산출한 일 예를 나타낸 도면이다. 도 7을 참조하면, 감시카메라(200)로부터 점으로 표시된 지점까지의 거리를 산출한 결과 1329cm, 즉 13.29m라는 값이 얻어졌다. 감시영상 프레임의 세로길이에 대응하는 실제 거리가 31.6m이므로 본 발명의 실시 결과 얻어진 거리 정보는 매우 작은 오차를 가진다는 것을 알 수 있다.
도 8은 본 발명에 따른 감시카메라의 객체 정보 추적방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.
도 8을 참조하면, 영상 입력부(110)는 사전에 설정된 감시영역을 촬영하기 위해 설치된 감시카메라(200)에 의해 감시영역이 촬영되어 생성된 감시영상 프레임을 입력받는다(S810). 다음으로 사용자 인터페이스부(120)는 감시영상 프레임을 화면에 출력하여 사용자에게 제공한다(S820). 사용자는 감시영상 프레임 상에 참조영역을 설정하고(S830), 감시카메라(200)의 설치 정보 데이터 및 참조영역에 대응하는 영역의 실제 너비 및 높이 정보 데이터를 사용자 인터페이스부(120)를 통해 입력한다(S840). 대표점 결정부(130)는 참조영역에 대해 대표점을 결정하고, 거리 정보 산출부(140)는 앞에서 설명한 것과 동일한 과정에 의해 대표점까지의 거리를 산출한다(S850). 이후 감시영역에 새롭게 진입하는 객체에 대하여도 거리 정보를 추정할 수 있다. 또한 크기 정보 산출부(150)는 앞에서 설명한 것과 동일한 과정에 의해 감시영역에 새롭게 진입하는 객체의 실제 높이 및 너비 정보를 산출한 다(S860). 이와 같이 얻어진 거리 정보 및 크기 정보의 값은 사용자 인터페이스부(120)를 통해 출력되어 사용자에게 제공될 수 있다(S870).
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
도 1은 본 발명에 따른 감시카메라의 객체 정보 추정장치에 대한 바람직한 실시예의 구성을 도시한 블록도,
도 2는 감시영상 프레임 상에 설정된 직사각형 형태의 참조영역 및 참조영역에 대해 결정된 대표점의 일 예를 나타낸 도면,
도 3은 감시카메라의 설치 정보 데이터를 설명하기 위한 도면,
도 4는 사용자로부터 데이터를 입력받기 위해 사용자 인터페이스부가 제공하는 입력창의 일 예를 나타낸 도면,
도 5는 두 개의 참조영역이 설정된 감시영상 프레임 상에서 거리 정보를 산출하는 과정을 설명하기 위해 도시된 도면,
도 6은 객체의 크기 정보를 추정하는 방법을 설명하기 위한 도면,
도 7은 도 2와 같은 감시영상 프레임에 본 발명을 적용하여 특정 지점까지의 거리를 산출한 일 예를 나타낸 도면, 그리고,
도 8은 본 발명에 따른 감시카메라의 객체 정보 추적방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.

Claims (17)

  1. 사전에 설정된 감시영역을 촬영하기 위해 설치된 감시카메라에 의해 상기 감시영역을 촬영하여 생성한 감시영상 프레임을 입력받는 영상 입력부;
    상기 감시영상 프레임을 화면에 출력하여 사용자에게 제공하는 사용자 인터페이스부;
    상기 감시영상 프레임 상에 면적을 가지는 도형 형상의 참조영역이 상기 사용자 인터페이스부를 통해 설정되면 상기 참조영역을 대표하는 지점인 대표점을 결정하는 대표점 결정부; 및
    상기 사용자 인터페이스부를 통해 입력받은 상기 감시카메라의 설치 정보 데이터, 상기 감시영역 내에서 상기 참조영역을 포함하는 최소 크기의 사각형에 해당하는 영역의 실제 너비와 높이 정보 데이터 및 상기 감시영상 프레임 상에서 상기 대표점의 좌표 정보를 기초로 상기 감시영역 내에서 상기 감시카메라로부터 상기 대표점에 대응하는 지점까지의 실제 거리를 산출하고, 상기 산출된 실제 거리를 기초로 상기 감시영역에 진입한 객체까지의 거리 정보를 추정하는 거리 정보 산출부;를 포함하는 것을 특징으로 하는 감시카메라의 객체 정보 추정장치.
  2. 제 1항에 있어서,
    상기 감시카메라의 설치 정보는 수평면으로부터 상기 감시카메라의 설치지점까지의 거리인 설치높이 및 수직면과 상기 감시카메라가 이루는 설치각도이며,
    상기 거리 정보 산출부는 상기 감시카메라의 설치지점을 밑변에 대향하는 꼭 지점으로 하고 상기 설치각도를 빗변과 높이 사이의 각도로 하는 직각삼각형의 밑변의 길이를 산출하여 기준거리로 결정하는 것을 특징으로 하는 감시카메라의 객체 정보 추정장치.
  3. 제 2항에 있어서,
    상기 감시영상 프레임의 중심을 수평으로 지나는 기준직선의 상단에 위치하는 제1참조영역 및 상기 기준직선의 하단에 위치하는 제2참조영역이 각각 설정되며,
    상기 거리 정보 산출부는,
    상기 감시영상 프레임 상에서 상기 제1참조영역 및 상기 제2참조영역의 세로길이에 해당하는 화소수에 대한 입력받은 실제 높이의 비에 의해 상기 제1참조영역 및 상기 제2참조영역에 대한 화소당 실제높이인 제1단위길이 및 제2단위길이를 각각 산출하는 단위길이 산출부; 및
    상기 기준직선으로부터 상기 제1참조영역에 대해 결정된 대표점인 제1대표점까지의 거리에 해당하는 화소수에 상기 제1단위길이를 곱한 값을 상기 기준거리에 더하여 상기 감시영역에서 상기 감시카메라로부터 상기 제1대표점에 대응하는 지점까지의 실제 거리를 산출하고, 상기 기준직선으로부터 상기 제2참조영역에 대해 결정된 대표점인 제2대표점까지의 거리에 해당하는 화소수에 상기 제2단위길이를 곱한 값을 상기 기준거리로부터 차감하여 상기 감시영역에서 상기 감시카메라로부터 상기 제2대표점에 대응하는 지점까지의 실제 거리를 산출하는 실제거리 산출부;를 포함하는 것을 특징으로 하는 감시카메라의 객체 정보 추정장치.
  4. 제 3항에 있어서,
    상기 제1참조영역 및 상기 제2참조영역은 상기 감시영역에 진입한 객체까지의 거리정보 및 상기 객체의 크기 정보를 추정하기 위하여 상기 감시영역 내에 놓여진 기준객체가 상기 감시영역 내에서 상기 감시카메라로부터 상이한 거리에 해당하는 두 지점에 각각 위치하였을 때 차지하는 직사각형 형태의 영역인 것을 특징으로 하는 감시카메라의 객체 정보 추정장치.
  5. 제 3항에 있어서,
    상기 실제거리 산출부는 상기 감시영상 프레임 상에 상기 제1대표점 및 상기 제2대표점을 제외한 특정 지점이 상기 감시영역에 진입한 객체가 위치하는 지점으로서 선택된 경우, 상기 특정 지점이 상기 기준직선의 상단에 위치하면 상기 기준직선으로부터 상기 특정 지점까지의 거리에 해당하는 화소수에 상기 제1단위길이를 곱한 값을 상기 기준거리에 더하여 상기 감시영역에서 상기 특정 지점에 대응하는 지점까지의 실제 거리로 결정하고, 상기 특정 지점이 상기 기준직선의 하단에 위치하면 상기 기준직선으로부터 상기 특정 지점까지의 거리에 해당하는 화소수에 상기 제2단위길이를 곱한 값을 상기 기준거리로부터 차감하여 상기 감시영역에서 상기 감시카메라로부터 상기 특정 지점에 대응하는 지점까지의 실제 거리로 결정하는 것을 특징으로 하는 감시카메라의 객체 정보 추정장치.
  6. 제 3항 내지 제 5항 중 어느 한 항에 있어서,
    상기 감시영상 프레임 상에서 직사각형 형태의 상기 제1참조영역 및 상기 제2참조영역을 제외한 영역에 직사각형 형태의 객체영역이 상기 감시영역에 진입한 객체에 대응하는 영역으로서 설정되면, 상기 감시영상 프레임 상에서 상기 제1참조영역으로부터 상기 제2참조영역에 이르기까지의 세로길이 변화율 및 가로길이 변화율을 측정하고, 상기 객체영역에 대해 결정된 대표점인 제3대표점의 좌표 정보, 상기 세로길이 변화율 및 가로길이 변화율을 기초로 상기 감시영역에서 상기 객체영역에 대응하는 영역의 너비 및 높이를 산출하는 크기 정보 산출부를 더 포함하는 것을 특징으로 하는 감시카메라의 객체 정보 추정장치.
  7. 제 6항에 있어서,
    상기 세로길이 변화율 및 상기 가로길이 변화율은 하기 수학식 A 및 수학식 B에 의해 각각 산출되며, 상기 감시영상 프레임 상에서 상기 객체영역의 세로길이 및 가로길이는 상기 세로길이 변화율 및 상기 가로길이 변화율을 기초로 산출되는 것을 특징으로 하는 감시카메라의 객체 정보 추정장치:
    [수학식 A]
    Figure 112009053499687-pat00008
    [수학식 B]
    Figure 112009053499687-pat00009
    여기서, H_Ratio는 상기 세로길이 변화율, W_Ratio는 상기 가로길이 변화율, H1 및 H2는 각각 상기 제1참조영역 및 상기 제2참조영역의 세로길이, W1 및 W2는 각각 상기 제1참조영역 및 상기 제2참조영역의 가로길이, 그리고 d는 상기 제1대표 점과 상기 제2대표점 사이의 유클리디안 거리이다.
  8. 제 7항에 있어서,
    상기 단위길이 산출부는 상기 감시영상 프레임 상에서 상기 제1참조영역 및 상기 제2참조영역의 가로길이에 해당하는 화소수에 대한 입력받은 실제 너비의 비에 의해 상기 제1참조영역 및 상기 제2참조영역에 대한 화소당 실제 너비인 제3단위길이 및 제4단위길이를 산출하고,
    상기 크기 정보 산출부는 상기 제3대표점이 상기 기준직선의 상단에 위치하는 경우에는 상기 제1단위길이 및 상기 제3단위길이를 기초로 상기 감시영역에서 상기 객체영역에 대응하는 영역의 실제 너비 및 높이를 산출하고, 상기 제3대표점이 상기 기준직선의 하단에 위치하는 경우에는 상기 제2단위길이 및 상기 제4단위길이를 기초로 감시영역에서 상기 객체영역에 대응하는 영역의 실제 너비 및 높이를 산출하는 것을 특징으로 하는 감시 카메라의 객체 정보 추정장치.
  9. 사전에 설정된 감시영역을 촬영하기 위해 설치된 감시카메라에 의해 상기 감시영역을 촬영하여 생성한 감시영상 프레임을 입력받는 영상 입력단계;
    상기 감시영상 프레임을 화면에 출력하여 사용자에게 제공하는 제공단계;
    상기 감시영상 프레임 상에 면적을 가지는 도형 형상의 참조영역이 상기 사용자에 의해 설정되면 상기 참조영역을 대표하는 지점인 대표점을 결정하는 대표점 결정단계; 및
    상기 사용자로부터 입력받은 상기 감시카메라의 설치 정보 데이터, 상기 감시영역 내에서 상기 참조영역을 포함하는 최소 크기의 사각형에 해당하는 영역의 실제 너비와 높이 정보 데이터 및 상기 감시영상 프레임 상에서 상기 대표점의 좌표 정보를 기초로 상기 감시영역 내에서 상기 감시카메라로부터 상기 대표점에 대응하는 지점까지의 실제 거리를 산출하고, 상기 산출된 실제 거리를 기초로 상기 감시영역에 진입한 객체까지의 거리 정보를 추정하는 거리 정보 산출단계;를 포함하는 것을 특징으로 하는 감시카메라의 객체 정보 추정방법.
  10. 제 9항에 있어서,
    상기 감시카메라의 설치 정보는 수평면으로부터 상기 감시카메라의 설치지점까지의 거리인 설치높이 및 수직면과 상기 감시카메라가 이루는 설치각도이며,
    상기 거리 정보 산출단계에서, 상기 감시카메라의 설치지점을 밑변에 대향하는 꼭지점으로 하고 상기 설치각도를 빗변과 높이 사이의 각도로 하는 직각삼각형의 밑변의 길이를 산출하여 기준거리로 결정하는 것을 특징으로 하는 감시카메라의 객체 정보 추정방법.
  11. 제 10항에 있어서,
    상기 감시영상 프레임의 중심을 수평으로 지나는 기준직선의 상단에 위치하는 제1참조영역 및 상기 기준직선의 하단에 위치하는 제2참조영역이 각각 설정되며,
    상기 거리 정보 산출단계는,
    상기 감시영상 프레임 상에서 상기 제1참조영역 및 상기 제2참조영역의 세로길이에 해당하는 화소수에 대한 입력받은 실제 높이의 비에 의해 상기 제1참조영역 및 상기 제2참조영역에 대한 화소당 실제높이인 제1단위길이 및 제2단위길이를 각각 산출하는 단위길이 산출단계; 및
    상기 기준직선으로부터 상기 제1참조영역에 대해 결정된 대표점인 제1대표점까지의 거리에 해당하는 화소수에 상기 제1단위길이를 곱한 값을 상기 기준거리에 더하여 상기 감시영역에서 상기 감시카메라로부터 상기 제1대표점에 대응하는 지점까지의 실제 거리를 산출하고, 상기 기준직선으로부터 상기 제2참조영역에 대해 결정된 대표점인 제2대표점까지의 거리에 해당하는 화소수에 상기 제2단위길이를 곱한 값을 상기 기준거리로부터 차감하여 상기 감시영역에서 상기 감시카메라로부터 상기 제2대표점에 대응하는 지점까지의 실제 거리를 산출하는 실제거리 산출단계;를 포함하는 것을 특징으로 하는 감시카메라의 객체 정보 추정방법.
  12. 제 11항에 있어서,
    상기 제1참조영역 및 상기 제2참조영역은 상기 감시영역에 진입한 객체까지의 거리 정보 및 상기 객체의 크기 정보를 추정하기 위하여 상기 감시영역 내에 놓여진 기준객체가 상기 감시영역 내에서 상기 감시카메라로부터 상이한 거리에 해당하는 두 지점에 각각 위치하였을 때 차지하는 직사각형 형태의 영역인 것을 특징으로 하는 감시카메라의 객체 정보 추정방법.
  13. 제 11항에 있어서,
    상기 실제거리 산출단계에서, 상기 감시영상 프레임 상에 상기 제1대표점 및 상기 제2대표점을 제외한 특정 지점이 상기 감시영역에 진입한 객체가 위치하는 지점으로서 선택된 경우, 상기 특정 지점이 상기 기준직선의 상단에 위치하면 상기 기준직선으로부터 상기 특정 지점까지의 거리에 해당하는 화소수에 상기 제1단위길이를 곱한 값을 상기 기준거리에 더하여 상기 감시영역에서 상기 특정 지점에 대응하는 지점까지의 실제 거리로 결정하고, 상기 특정 지점이 상기 기준직선의 하단에 위치하면 상기 기준직선으로부터 상기 특정 지점까지의 거리에 해당하는 화소수에 상기 제2단위길이를 곱한 값을 상기 기준거리로부터 차감하여 상기 감시영역에서 상기 감시카메라로부터 상기 특정 지점에 대응하는 지점까지의 실제 거리로 결정하는 것을 특징으로 하는 감시카메라의 객체 정보 추정방법.
  14. 제 11항 내지 제 13항 중 어느 한 항에 있어서,
    상기 감시영상 프레임 상에서 직사각형 형태의 상기 제1참조영역 및 상기 제2참조영역을 제외한 영역에 직사각형 형태의 객체영역이 상기 감시영역에 진입한 객체에 대응하는 영역으로서 설정되면, 상기 감시영상 프레임 상에서 상기 제1참조영역으로부터 상기 제2참조영역에 이르기까지의 세로길이 변화율 및 가로길이 변화율을 측정하고, 상기 객체영역에 대해 결정된 대표점인 제3대표점의 좌표 정보, 상기 세로길이 변화율 및 가로길이 변화율을 기초로 상기 감시영역에서 상기 객체영역에 대응하는 영역의 너비 및 높이를 산출하는 크기 정보 산출단계를 더 포함하는 것을 특징으로 하는 감시카메라의 객체 정보 추정방법.
  15. 제 14항에 있어서,
    상기 세로길이 변화율 및 상기 가로길이 변화율은 하기 수학식 A 및 수학식 B에 의해 각각 산출되며, 상기 감시영상 프레임 상에서 상기 객체영역의 세로길이 및 가로길이는 상기 세로길이 변화율 및 상기 가로길이 변화율을 기초로 산출되는 것을 특징으로 하는 감시카메라의 객체 정보 추정방법:
    [수학식 A]
    Figure 112009053499687-pat00010
    [수학식 B]
    Figure 112009053499687-pat00011
    여기서, H_Ratio는 상기 세로길이 변화율, W_Ratio는 상기 가로길이 변화율, H1 및 H2는 각각 상기 제1참조영역 및 상기 제2참조영역의 세로길이, W1 및 W2는 각각 상기 제1참조영역 및 상기 제2참조영역의 가로길이, 그리고 d는 상기 제1대표점과 상기 제2대표점 사이의 유클리디안 거리이다.
  16. 제 15항에 있어서,
    상기 단위길이 산출단계에서, 상기 감시영상 프레임 상에서 상기 제1참조영역 및 상기 제2참조영역의 가로길이에 해당하는 화소수에 대한 입력받은 실제 너비의 비에 의해 상기 제1참조영역 및 상기 제2참조영역에 대한 화소당 실제 너비인 제3단위길이 및 제4단위길이를 산출하고,
    상기 크기 정보 산출단계에서, 상기 제3대표점이 상기 기준직선의 상단에 위 치하는 경우에는 상기 제1단위길이 및 상기 제3단위길이를 기초로 상기 감시영역에서 상기 객체영역에 대응하는 영역의 실제 너비 및 높이를 산출하고, 상기 제3대표점이 상기 기준직선의 하단에 위치하는 경우에는 상기 제2단위길이 및 상기 제4단위길이를 기초로 감시영역에서 상기 객체영역에 대응하는 영역의 실제 너비 및 높이를 산출하는 것을 특징으로 하는 감시 카메라의 객체 정보 추정방법.
  17. 제 9항 내지 제 13항 중 어느 한 항에 기재된 감시 카메라의 객체 정보 추정방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020090081369A 2009-08-31 2009-08-31 감시카메라의 객체 정보 추정장치 및 방법 KR101051390B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090081369A KR101051390B1 (ko) 2009-08-31 2009-08-31 감시카메라의 객체 정보 추정장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090081369A KR101051390B1 (ko) 2009-08-31 2009-08-31 감시카메라의 객체 정보 추정장치 및 방법

Publications (2)

Publication Number Publication Date
KR20110023460A KR20110023460A (ko) 2011-03-08
KR101051390B1 true KR101051390B1 (ko) 2011-07-22

Family

ID=43931575

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090081369A KR101051390B1 (ko) 2009-08-31 2009-08-31 감시카메라의 객체 정보 추정장치 및 방법

Country Status (1)

Country Link
KR (1) KR101051390B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016035924A1 (ko) * 2014-09-04 2016-03-10 주식회사 에스원 달리기 감지 방법 및 시스템
EP3923184A3 (en) * 2021-03-25 2022-05-18 Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. Method and system for vehicle parking detection, electronic device and storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101666466B1 (ko) * 2015-03-26 2016-10-14 주식회사 네오카텍 단안 카메라를 이용한 해상 객체 거리측정 시스템을 이용한 해상 위험관리 시스템 및 해상 위험 관리방법
CN112714287B (zh) * 2020-12-23 2024-09-06 广东科凯达智能机器人有限公司 一种云台目标转换控制方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100215453B1 (ko) * 1996-05-31 1999-08-16 윤종용 피사체와의 거리 디스플레이기능을 갖는 캠코더
JPH11275566A (ja) 1998-03-26 1999-10-08 For A Co Ltd 監視カメラ装置
KR20040016230A (ko) * 2002-08-16 2004-02-21 한국항공우주산업 주식회사 원격 감시 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100215453B1 (ko) * 1996-05-31 1999-08-16 윤종용 피사체와의 거리 디스플레이기능을 갖는 캠코더
JPH11275566A (ja) 1998-03-26 1999-10-08 For A Co Ltd 監視カメラ装置
KR20040016230A (ko) * 2002-08-16 2004-02-21 한국항공우주산업 주식회사 원격 감시 시스템

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016035924A1 (ko) * 2014-09-04 2016-03-10 주식회사 에스원 달리기 감지 방법 및 시스템
US10205911B2 (en) 2014-09-04 2019-02-12 S-1 Corporation Method and system for detecting running
EP3923184A3 (en) * 2021-03-25 2022-05-18 Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. Method and system for vehicle parking detection, electronic device and storage medium

Also Published As

Publication number Publication date
KR20110023460A (ko) 2011-03-08

Similar Documents

Publication Publication Date Title
CN105283129B (zh) 信息处理装置、信息处理方法
CN109076198B (zh) 基于视频的对象跟踪遮挡检测系统、方法和设备
KR100519782B1 (ko) 스테레오 카메라를 이용한 사람 검출 방법 및 장치
JP5121508B2 (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2019075156A (ja) 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
TWI520078B (zh) Optical flow tracking method and device
TWI500904B (zh) 立體攝影機及用來測量立體攝影機與基準面之距離的自動測距方法
JP5525495B2 (ja) 映像監視装置、映像監視方法およびプログラム
JP5105972B2 (ja) 座標変換方法及びパラメータ調整方法及び監視システム
JP2020113300A (ja) 行列検出システム、方法及びプログラム
KR101051390B1 (ko) 감시카메라의 객체 정보 추정장치 및 방법
JP4288428B2 (ja) 映像解析システムおよび映像解析方法
KR20130082216A (ko) 손 추적 장치 및 방법
KR101469099B1 (ko) 사람 객체 추적을 통한 자동 카메라 보정 방법
JP5027758B2 (ja) 画像監視装置
JP2012057974A (ja) 撮影対象サイズ推定装置及び撮影対象サイズ推定方法並びにそのプログラム
CN112053397A (zh) 图像处理方法、装置、电子设备及存储介质
KR102468648B1 (ko) 영상에 대한 원격 광용적맥파신호를 이용하여 사람의 심박수를 산출하는 방법
JP2006318064A (ja) 画像センサ
KR100887942B1 (ko) 실시간 이상현상 감지 시스템 및 그 제어방법
CN117078735B (zh) 身高检测方法、系统、电子设备和存储介质
CN111784660B (zh) 一种用于人脸图像的正脸程度的分析方法和系统
US10140509B2 (en) Information processing for detection and distance calculation of a specific object in captured images
JP2004046464A (ja) 移動物体3次元位置推定装置及びその方法、プログラム並びにその記録媒体
CN116071813A (zh) 一种场景检测方法、装置、介质及设备

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140715

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150604

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160707

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170710

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180702

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190709

Year of fee payment: 9