이하에서 첨부된 도면들을 참조하여 본 발명에 따른 감시카메라의 객체 정보 추정장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.
도 1은 본 발명에 따른 감시카메라의 객체 정보 추정장치에 대한 바람직한 실시예의 구성을 도시한 블록도이다.
도 1을 참조하면, 본 발명에 따른 감시카메라의 객체 정보 추정장치(100)는 영상 입력부(110), 사용자 인터페이스부(120), 대표점 결정부(130), 거리 정보 산출부(140) 및 크기 정보 산출부(150)를 구비한다.
영상 입력부(110)는 사전에 설정된 감시영역을 촬영하기 위해 설치된 감시카메라(200)에 의해 감시영역을 촬영하여 생성한 감시영상 프레임을 입력받는다.
무인 감시시스템에 사용되는 감시카메라(200)는 보안이 필요한 영역인 감시영역을 촬영하기 위해 고정된 위치에 설치된다. 감시카메라(200)는 감시영역을 지속적으로 촬영하면서 움직이는 객체가 감시영역에 진입하면 객체의 위치를 검출하고 객체의 이동경로를 추적하거나 경보음을 발생하여 사용자가 객체의 침입을 인지하도록 한다. 이와 같이 감시영역에 진입한 객체의 위치 검출 및 이동경로 추적은 종래의 감시시스템에서 사용되고 있는 방법이다.
본 발명에 따른 감시카메라의 객체 정보 추정장치(100)에서는 진입한 객체가 감시카메라(200)로부터 실제로 얼마나 떨어져 있는지를 나타내는 감시카메라(200)와 객체까지의 거리 정보 및 감시카메라(200)에 의해 촬영된 감시영상 프레임에 포함되어 있는 객체의 실제 크기가 어느 정도 되는지를 나타내는 객체의 크기 정보를 추정하기 위해 감시카메라(200)에 의해 촬영된 감시영역의 영상인 감시영상 프레임이 영상 입력부(110)로 입력된다. 이때 감시카메라(200)는 감시영역을 일정한 촬영 주기에 따라 지속적으로 촬영하므로 복수의 감시영상 프레임이 지속적으로 입력될 수 있다. 또한 감시카메라(200)는 고정된 감시영역을 촬영하도록 설정되는 CCD 카메라이다.
사용자 인터페이스부(120)는 영상 입력부(110)로 입력된 감시영상 프레임을 화면에 출력하여 사용자에게 제공한다.
본 발명에서는 감시카메라(200)로부터 감시영역에 위치하는 객체까지의 실제 거리를 추정하기 위한 초기 모델링 과정에서 필요한 데이터 입력 및 설정이 사용자에 의해 수행된다. 따라서 사용자 인터페이스부(120)는 감시카메라(200)에 의해 촬영된 영상을 화면에 출력하여 사용자가 각종 설정 및 데이터 입력 등을 수행하도록 한다. 이때 감시카메라(200)로부터 복수의 감시영상 프레임이 지속적으로 입력되면 이를 화면에 계속하여 출력한다. 사용자는 복수의 감시영상 프레임 중에서 하나를 선택하여 사용자 인터페이스부(120)를 통한 설정 및 입력 과정을 수행할 수 있다.
대표점 결정부(130)는 감시영상 프레임 상에 면적을 가지는 도형 형상의 참조영역이 사용자 인터페이스부(120)를 통해 설정되면 참조영역을 대표하는 지점인 대표점을 결정한다.
사용자는 화면에 출력된 감시영상 프레임을 확인하고, 카메라의 모델링 과정, 즉 이후 감시영역에 새롭게 진입하는 객체에 대한 거리 정보 및 크기 정보의 산출을 위한 초기 데이터 설정 과정에 필요한 참조영역을 감시영상 프레임 상에 설정한다. 감시영상 프레임이 터치스크린 상에 표시된 경우에는 사용자가 직접 화면 상에서 참조영역을 설정할 수 있고, 보통의 모니터 화면을 통해 표시된 경우에는 마우스 컨트롤이나 타블렛 펜에 의해 참조영역을 설정할 수 있다.
참조영역의 형태는 수식 적용이 용이하도록 직사각형 형태로 설정하는 것이 바람직하며, 사용자는 감시영상 프레임 상의 임의의 영역을 참조영역으로 설정하거나 모델링 과정을 위해 사전에 감시영역에 위치시킨 객체를 둘러싼 영역을 참조영역으로 설정할 수 있다. 참조영역이 복수 개 설정되는 경우에는 복수의 참조영역에 대한 실제 길이가 거의 동일하도록 하면 거리 정보 및 크기 정보 산출의 오차를 줄일 수 있다. 나아가 오차를 최소화하기 위해 크기를 알고 있는 객체, 예를 들면 사람을 감시영역의 서로 상이한 지점에 위치시키고 감시영상 프레임 상에서 객체가 차지하는 직사각형의 영역을 참조영역으로 설정할 수 있다.
사용자에 의해 감시영상 프레임 상에 참조영역이 설정되면 대표점 결정부(130)는 참조영역 상에서 참조영역을 대표하는 지점인 대표점을 결정한다. 참조영역은 복수의 화소로 이루어진 영역이므로 거리 정보 및 크기 정보의 산출을 위해 참조영역을 나타낼 수 있는 하나의 화소를 선택하는 것이 바람직하다. 대표점은 참조영역을 구성하는 복수의 화소 중에서 어느 하나를 선택함으로써 결정될 수 있다. 그러나 감시카메라(200)의 관심 대상인 객체가 주로 사람이고, 객체의 이동경로를 추적할 때 사람의 발끝의 이동경로를 추적하는 것이 일반적이므로 참조영역의 아랫변 상의 한 지점을 대표점으로 결정하는 것이 바람직하다. 또한 감시영상 프레임 상에서 설정된 참조영역의 개수가 복수 개이면 대표점의 개수도 참조영역의 수와 동일하게 결정된다.
도 2는 감시영상 프레임 상에 설정된 직사각형 형태의 참조영역 및 참조영역에 대해 결정된 대표점의 일 예를 나타낸 도면이다. 도 2를 참조하면, 감시영상 프레임(210)은 주차장에 설정된 감시영역을 감시카메라(200)에 의해 촬영하여 생성된 것이고, 굵은 선으로 표시된 직사각형의 영역은 사용자에 의해 설정된 참조영역(220)을 나타낸다. 또한 참조영역의 아랫변에 표시된 검은 점은 참조영역에 대해 결정된 대표점(230)을 나타내는 것이다.
거리 정보 산출부(140)는 사용자 인터페이스부(120)를 통해 입력받은 감시카메라(200)의 설치 정보 데이터, 감시영역 내에서 참조영역에 대응하는 영역의 실제 너비와 높이 정보 데이터 및 감시영상 프레임 상에서 대표점의 좌표 정보를 기초로 감시영역 내에서 감시카메라로부터 대표점에 대응하는 지점까지의 실제 거리를 산출한다.
본 발명에 따른 감시카메라의 객체 정보 추정장치(100)에서는 사용자로부터의 입력 및 설정에 의해 객체의 거리 및 크기 정보 산출을 위한 감시카메라(200)의 모델링 과정이 수행된다. 따라서 사용자는 앞에서 설명한 바와 같이 감시영상 프레임 상에 참조영역을 설정하는 한편, 수식 적용을 위한 각종 데이터를 사용자 인터 페이스부(120)를 통해 입력한다.
사용자 인터페치스부(120)를 통해 입력되는 데이터 중에서 감시카메라(200)의 설치 정보 데이터는 수평면으로부터 감시카메라(200)의 설치지점까지의 설치높이 및 수직면과 감시카메라(200)가 이루는 설치각도를 포함한다. 이러한 감시카메라(200)의 설치 정보 데이터는 감시영역 내에서 객체까지의 실제 거리 추정에 필요한 기준거리를 산출하기 위해 입력된다.
도 3은 감시카메라(200)의 설치 정보 데이터를 설명하기 위한 도면이다. 도 3에서 h는 수평면으로부터 감시카메라(200)의 설치 지점까지의 설치높이이고, θ는 수직면과 감시카메라(200) 사이의 설치각도이다. 이러한 감시카메라(200)의 설치 정보 데이터는 사용자가 감시카메라(200)를 설치할 때 사전에 설정하는 값이므로 사용자가 이미 알고 있는 정보에 해당한다. 도 3에 도시된 바와 같이 감시카메라(200)의 설치지점은 직각삼각형에서 밑변에 대향하는 꼭지점에 해당하고 설치각도는 빗변과 높이 사이의 각도에 해당한다. 뒤에서 설명할 거리 정보 산출부(140)는 직각삼각형에서 변의 길이와 각도 사이의 관계식을 기초로 밑변의 길이를 산출하여 이를 기준거리로 결정한다. 도 3에 도시된 직각삼각형의 밑변의 길이, 즉 L의 값은 다음의 수학식 1에 의해 산출된다.
여기서, L은 기준거리, c는 빗변의 길이, h는 설치높이, 그리고 θ는 설치각 도이다.
도 4는 사용자로부터 데이터를 입력받기 위해 사용자 인터페이스부(120)가 제공하는 입력창의 일 예를 나타낸 도면이다. 도 4를 참조하면, ①로 표시된 부분에는 h의 값, 즉 수평면에서 감시카메라(200)의 설치지점까지의 거리인 설치높이가 입력되며, ②로 표시된 부분에는 θ의 값, 즉 수직면과 감시카메라(200) 사이의 설치각도가 입력된다. 사용자가 ①과 ②에 값을 모두 입력하고 ③으로 표시된 'Apply' 버튼을 클릭하면, ④로 표시된 부분에 수학식 1에 의해 산출된 L의 값이 출력된다. 또한 ⑤로 표시된 부분은 감시영역 내에서 참조영역에 대응하는 영역의 실제 너비 및 높이 정보 데이터를 입력하는 부분이다. 다만, 거리 정보 산출을 위해서는 참조영역에 대한 너비 정보는 필요하지 않기 때문에 도 4에 도시된 바와 같이 사용자가 실제 높이 정보만을 입력하도록 할 수 있다. 사용자는 사용자 인터페이스부(120)를 통해 ①,② 및 ⑤로 표시된 부분에 데이터를 입력하고, ④로 표시된 부분에 출력되는 기준거리를 확인할 수 있다.
또한 도 4에서는 참조영역의 실제 높이를 입력하는 부분이 한 개만 제공된다. 따라서 감시영상 프레임 상에 복수의 참조영역을 설정하는 경우에는 앞에서 설명한 바와 같이 각각의 참조영역에 대응하는 영역의 높이 또는 참조영역에 대응하는 영역에 포함된 객체의 크기(예를 들면, 사람의 키)를 모두 동일하게 하여 오차를 최소화할 수 있다.
다음으로 거리 정보 산출부(140)는 감시영역 내에서 감시카메라(200)로부터 대표점에 대응하는 지점까지의 실제 거리를 산출한다. 이를 위해 거리 정보 산출 부(140)는 단위길이 산출부(142) 및 실제거리 산출부(144)를 구비한다.
앞에서 설명한 바와 같이 사용자로부터 입력받은 감시카메라(200)의 설치 정보 데이터로부터 기준거리가 산출되며, 사용자의 입력에 의해 참조영역에 대응하는 실제 높이 정보가 얻어진다. 또한 감시영상 프레임 상에서 참조영역의 세로길이 및 대표점의 좌표 정보는 입력받은 감시영상 프레임을 분석하여 알 수 있는 정보이다. 거리 정보 산출부(140)는 이러한 정보들을 기초로 하여 먼저 감시영역 내에서 감시카메라(200)로부터 참조영역에 대해 결정된 대표점에 대응하는 지점까지의 실제 거리를 산출하고, 나아가 실제 높이 데이터가 주어지지 않은 새로운 객체가 감시영역에 진입하였을 때 해당 객체까지의 실제 거리까지도 추정할 수 있다. 또한 참조영역에 대해 결정된 대표점이 해당 참조영역을 대표하므로 거리 정보는 감시카메라(200)로부터 대표점에 대응하는 지점까지의 거리를 나타낸다.
도 5는 두 개의 참조영역이 설정된 감시영상 프레임 상에서 거리 정보를 산출하는 과정을 설명하기 위해 도시된 도면이다. 산출된 실제 거리와 실제로 감시영역에서 측정되는 거리 사이의 오차를 줄이기 위해서는 도 5와 같이 감시영상 프레임을 상부 및 하부의 두 개 영역으로 나누고, 각각의 영역 내에서 하나씩의 참조영역을 설정하는 것이 바람직하다. 이하에서는 감시영상 프레임의 중심을 수평으로 지나는 직선을 기준직선(500)이라 하고, 기준직선(500)의 상단에 위치하는 참조영역을 제1참조영역, 기준직선(500)의 하단에 위치하는 참조영역을 제2참조영역이라 한다. 기준직선(500)은 감시카메라(500)로부터 기준거리(L)만큼 떨어진 지점을 이은 직선의 위치를 근사화하여 감시영상 프레임의 중심을 지나도록 그려지는 것이 다. 초기 모델링 과정에서는 감시카메라(200)로부터 일정 거리에 위치하는 지점을 감시영상 프레임 상에 표시할 수 없기 때문이다.
단위길이 산출부(142)는 감시영상 프레임 상에서 제1참조영역 및 제2참조영역의 세로길이(도 5에서 H1 및 H2)에 해당하는 화소수에 대한 입력받은 실제 높이의 비에 의해 제1참조영역 및 제2참조영역에 대한 화소당 실제 높이인 제1단위길이 및 제2단위길이를 각각 산출한다.
앞에서 설명한 바와 같이 감시영상 프레임을 구성하는 각 화소에 대한 실제 길이는 감시영상 프레임 내에서 각 화소의 위치에 따라 달라진다. 감시영역 내에서 각 화소에 대응하는 지점과 감시카메라(200) 사이의 거리가 각각 상이하기 때문이다. 따라서 본 발명에서는 기준직선(500)을 중심으로 하여 상단에 위치하는 화소에 대한 실제 길이와 하단에 위치하는 화소에 대한 실제 길이를 각각 산출하였다.
이와 같이 감시영상 프레임을 기준직선(500)에 의해 두 개의 영역으로 분할하지 않고 더 많은 수의 영역으로 나누어 각각의 영역에 포함되는 화소에 대한 실제 길이를 산출할 수도 있으나, 알고리즘이 지나치게 복잡해진다는 문제가 있다. 따라서 본 발명에서는 거리 정보의 추정 과정을 간소화하기 위해 화소에 대한 실제 길이를 두 가지로 산출함으로써 실제 측정 거리와의 오차는 줄이면서도 간단한 알고리즘에 의해 감시영역에 위치하는 객체까지의 실제 거리를 추정할 수 있도록 하였다.
기준직선(500)의 상단에 위치하는 제1참조영역에 대한 화소당 실제 높이인 제1단위길이는 제1참조영역에 대해 입력받은 실제 높이를 제1참조영역의 세로길이 를 나타내는 화소 수로 나누어 얻어진다. 또한 기준직선(500)의 하단에 위치하는 제1참조영역에 대한 화소당 실제 높이인 제2단위길이는 제2참조영역에 대해 입력받은 실제 높이를 제2참조영역의 세로길이를 나타내는 화소 수로 나누어 얻어진다. 오차를 최소화하기 위해 실제 높이가 동일하도록 제1참조영역과 제2참조영역이 설정된 경우에는 동일한 실제 높이의 값을 서로 다른 화소 수로 나누게 된다. 도 5에서 제2참조영역의 세로길이가 제1참조영역의 세로길이보다 길게 나타나므로 결과적으로 제2단위길이가 제1단위길이보다 작은 값으로 산출된다.
다음으로 실제거리 산출부(144)는 도 5에 나타난 제1참조영역 및 제2참조영역에 대해 각각 결정된 대표점인 제1대표점 및 제2대표점까지의 실제 거리를 산출하되, 제1참조영역은 기준직선(500)의 상단에 위치하고 제2참조영역은 기준직선(500)의 하단에 위치하므로 서로 다른 방법을 적용한다.
즉, 기준직선(500)으로부터 제1참조영역에 대해 설정된 대표점인 제1대표점까지의 거리(도 5에서 α)에 해당하는 화소 수에 제1단위길이를 곱한 값을 기준거리에 더하여 감시영역에서 감시카메라(200)로부터 제1대표점에 대응하는 지점까지의 실제 거리를 산출한다. 또한 기준직선으로부터 제2참조영역에 대해 결정된 대표점인 제2대표점까지의 거리(도 5에서 β)에 해당하는 화소수에 제2단위길이를 곱한 값을 기준거리로부터 차감하여 감시영역에서 감시카메라(200)로부터 제2대표점에 대응하는 지점까지의 실제 거리를 산출한다. 이때 기준직선(500)으로부터 각 대표점까지의 거리는 감시영상 프레임으로부터 얻어지는 각 대표점의 좌표 정보를 기초로 하여 얻을 수 있다.
다시 말하면, 기준직선(500)의 상단에 위치하는 제1참조영역은 감시영역에서 감시카메라(200)로부터 기준거리보다 멀리 떨어진 지점에 위치하고 있는 것과 같다. 또한 기준직선(500)의 하단에 위치하는 제2참조영역은 감시영역에서 감시카메라(200) 쪽으로 기준거리보다 가까운 지점에 위치하고 있는 것과 같다. 따라서 실제거리 산출부(144)는 먼저 기준직선(500)으로부터 각 대표점까지의 부분거리를 산출하고, 대표점의 위치에 따라 부분거리를 기준거리에 더하거나 차감하여 감시영역에서 감시카메라(200)로부터 대표점에 대응하는 지점까지의 실제 거리를 산출한다.
이와 같은 초기 모델링 과정이 완료되면, 감시영상 프레임에서 기준직선(500)의 상단에 위치하는 화소들은 모두 실제 길이가 제1단위길이이고 기준직선(500)의 하단에 위치하는 화소들은 모두 실제 길이가 제2단위길이라고 가정하여 감시영역에 새로 진입한 객체에 대하여도 거리 정보를 추정할 수 있다.
즉, 기존의 감시 시스템에 의해 감시영역에 진입한 객체가 검출된 경우, 객체가 차지하는 영역에 대해 자동으로 참조영역을 설정하고 대표점을 결정할 수 있다. 이를 객체지점이라 하면 감시영역에서 감시카메라(200)로부터 객체지점에 대응하는 지점까지의 거리를 다음과 같이 산출할 수 있다.
실제거리 산출부(144)는 감시영상 프레임 상에서 객체지점이 기준직선(500)의 상단에 위치하면 다음의 수학식 2에 의해 실제 거리를 산출하고, 객체지점이 기준직선(500)의 하단에 위치하면 수학식 3에 의해 실제 거리를 산출한다.
여기서, D1 및 D2는 각각 객체지점이 기준직선(500)의 상단 및 하단에 위치할 때 감시영역 내에서 감시카메라(200)로부터 객체지점에 대응하는 지점까지의 실제 거리, L은 기준거리, A 및 B 는 각각 객체지점이 기준직선(500)의 상단 및 하단에 위치할 때 기준직선(500)으로부터 객체지점까지의 거리에 해당하는 화소수, 그리고 UL1 및 UL2는 각각 제1기준길이 및 제2기준길이이다.
이상에서 설명한 방법에 의해 초기 모델링 과정으로서 참조영역을 설정하고 화소당 실제 길이를 산출해 놓으면 이후 감시영역에 새로 진입하는 객체가 검출되면 해당 객체까지의 실제 거리를 추정할 수 있다. 또한 초기 모델링 과정 이후에는 감시영상 프레임 상에서 기준거리에 해당하는 지점을 지나는 직선을 기준직선으로 할 수 있으므로 실제 거리 추정에 있어서 오차를 줄일 수 있다.
한편, 초기 모델링 과정이 끝난 후 본 발명에 따른 감시카메라의 객체 정보 추정장치(100)에서는 참조영역의 세로길이 및 가로길이 정보와 참조영역에 대한 실제 길이 및 너비 정보를 기초로 하여 감시영역에 새롭게 진입하는 객체의 크기 정보를 추정할 수 있다.
크기 정보 산출부(150)는 감시영상 프레임 상에서 직사각형 형태의 제1참조영역 및 제2참조영역을 제외한 영역에 직사각형 형태의 객체영역이 설정되면, 감시영상 프레임 상에서 제1참조영역으로부터 제2참조영역에 이르기까지의 세로길이 변 화율 및 가로길이 변화율을 측정한다. 측정된 세로길이 변화율 및 가로길이 변화율과 객체영역에 대해 결정된 대표점인 제3대표점의 좌표 정보를 기초로 하여 감시영역에서 객체영역에 대응하는 영역의 너비 및 높이를 산출할 수 있다.
도 6은 객체의 크기 정보를 추정하는 방법을 설명하기 위한 도면이다. 도 6에서 감시영상 프레임의 좌측 상단에 표시된 영역은 제1참조영역, 우측 하단에 표시된 영역은 제2참조영역으로 도 5에 도시된 제1참조영역 및 제2참조영역과 동일한 크기 및 위치를 가진다. 또한 나머지 하나의 직사각형 영역은 감시영역에 진입한 객체에 대해 설정된 객체영역을 나타낸다. 다만 도 5와는 다르게 도 6에서는 각 참조영역의 좌측 상단에 위치한 꼭지점이 대표점으로 결정된다.
먼저 제1참조영역과 제2참조영역 사이의 세로길이 변화율 및 가로길이 변화율은 제1참조영역과 제2참조영역에 대한 실제 높이 및 너비가 동일하다는 것을 전제로 하여 산출되며, 동일한 객체에 대해 설정되는 참조영역의 세로길이와 가로길이가 감시영상 프레임 내에서의 위치 변화에 따라 어느 정도만큼 변화하는지를 나타내는 값이다.
세로길이 변화율 및 가로길이 변화율은 다음의 수학식 4 및 수학식 5에 의해 각각 산출된다.
여기서, H_Ratio는 세로길이 변화율, W_Ratio는 가로길이 변화율, H1 및 H2는 각각 제1참조영역 및 제2참조영역의 세로길이, W1 및 W2는 각각 제1참조영역 및 제2참조영역의 가로길이, 그리고 d는 제1대표점과 제2대표점 사이의 유클리디안 거리이다.
다음으로 객체영역의 세로길이와 가로길이는 다음의 수학식 6 및 수학식 7에 의해 각각 산출된다.
여기서, H3 및 W3은 각각 객체영역의 세로길이와 가로길이, (x3,y3)은 제3대표점의 좌표, (x1,y1)은 제1대표점의 좌표, H1 및 W1은 각각 제1참조영역의 세로길이와 가로길이, H_Ratio는 세로길이 변화율, 그리고 W_Ratio는 가로길이 변화율이다.
한편, 위와 같이 세로길이 변화율과 가로길이 변화율을 이용하지 않고 감시영상 프레임을 분석하여 객체영역의 세로길이와 가로길이를 측정할 수도 있다. 객 체영역의 세로길이와 가로길이가 얻어지면 각각의 길이에 기준길이를 곱하여 감시영역에서 객체영역에 대응하는 영역의 실제 높이 및 너비 정보를 추정할 수 있다.
크기 정보의 추정을 위해 단위길이 산출부(142)는 제1단위길이 및 제2단위길이를 산출할 때와 마찬가지로 제1참조영역 및 제2참조영역의 가로길이에 해당하는 화소 수에 대한 입력받은 실제 너비의 비에 의해 제1참조영역 및 제2참조영역에 대한 화소당 실제 너비인 제3단위길이 및 제4단위길이를 산출한다. 즉, 기준직선(500)의 상단에 위치하는 화소에 대하여는 실제 너비를 구할 때 제3단위길이가 적용되고, 기준직선(500)의 하단에 위치하는 화소에 대하여는 실제 너비를 구할 때 제4단위길이가 적용되는 것이다.
감시영역 내에서의 거리 정보를 추정할 때와 마찬가지로 크기 정보를 추정할 때에도 감시영상 프레임 내에서 제3대표점, 즉 객체영역에 대해 결정된 대표점이 기준직선(500)을 중심으로 어느 방향에 위치하는지 여부에 따라 크기 정보의 산출 과정이 달라진다.
즉, 크기 정보 산출부(150)는 제3대표점이 기준직선(500)의 상단에 위치하면 제1단위길이 및 제3단위길이를 기초로 감시영역에서 객체영역에 대응하는 영역의 실제 높이 및 너비를 산출하고, 제3대표점이 기준직선(500)의 하단에 위치하면 제2단위길이 및 제4단위길이를 기초로 감시영역에서 객체영역에 대응하는 영역의 실제 높이 및 너비를 산출한다.
이와 같이 감시영역에 진입한 객체까지의 거리 정보 및 대략적인 크기 정보를 산출함으로써 감시영역에서 이동하는 객체의 단순한 이동경로 뿐만 아니라 보다 구체적인 정보까지 얻을 수 있어서 감시 시스템의 보안 성능 향상을 가져올 수 있다.
도 7은 도 2와 같은 감시영상 프레임에 본 발명을 적용하여 특정 지점까지의 거리를 산출한 일 예를 나타낸 도면이다. 도 7을 참조하면, 감시카메라(200)로부터 점으로 표시된 지점까지의 거리를 산출한 결과 1329cm, 즉 13.29m라는 값이 얻어졌다. 감시영상 프레임의 세로길이에 대응하는 실제 거리가 31.6m이므로 본 발명의 실시 결과 얻어진 거리 정보는 매우 작은 오차를 가진다는 것을 알 수 있다.
도 8은 본 발명에 따른 감시카메라의 객체 정보 추적방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.
도 8을 참조하면, 영상 입력부(110)는 사전에 설정된 감시영역을 촬영하기 위해 설치된 감시카메라(200)에 의해 감시영역이 촬영되어 생성된 감시영상 프레임을 입력받는다(S810). 다음으로 사용자 인터페이스부(120)는 감시영상 프레임을 화면에 출력하여 사용자에게 제공한다(S820). 사용자는 감시영상 프레임 상에 참조영역을 설정하고(S830), 감시카메라(200)의 설치 정보 데이터 및 참조영역에 대응하는 영역의 실제 너비 및 높이 정보 데이터를 사용자 인터페이스부(120)를 통해 입력한다(S840). 대표점 결정부(130)는 참조영역에 대해 대표점을 결정하고, 거리 정보 산출부(140)는 앞에서 설명한 것과 동일한 과정에 의해 대표점까지의 거리를 산출한다(S850). 이후 감시영역에 새롭게 진입하는 객체에 대하여도 거리 정보를 추정할 수 있다. 또한 크기 정보 산출부(150)는 앞에서 설명한 것과 동일한 과정에 의해 감시영역에 새롭게 진입하는 객체의 실제 높이 및 너비 정보를 산출한 다(S860). 이와 같이 얻어진 거리 정보 및 크기 정보의 값은 사용자 인터페이스부(120)를 통해 출력되어 사용자에게 제공될 수 있다(S870).
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.