KR102154610B1 - 이벤트 발생 위치 계산이 가능한 영상장치 및 그 장치의 구동방법 - Google Patents

이벤트 발생 위치 계산이 가능한 영상장치 및 그 장치의 구동방법 Download PDF

Info

Publication number
KR102154610B1
KR102154610B1 KR1020200043771A KR20200043771A KR102154610B1 KR 102154610 B1 KR102154610 B1 KR 102154610B1 KR 1020200043771 A KR1020200043771 A KR 1020200043771A KR 20200043771 A KR20200043771 A KR 20200043771A KR 102154610 B1 KR102154610 B1 KR 102154610B1
Authority
KR
South Korea
Prior art keywords
location
event
latitude
longitude
camera
Prior art date
Application number
KR1020200043771A
Other languages
English (en)
Inventor
고현준
Original Assignee
주식회사 넥스트케이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥스트케이 filed Critical 주식회사 넥스트케이
Priority to KR1020200043771A priority Critical patent/KR102154610B1/ko
Application granted granted Critical
Publication of KR102154610B1 publication Critical patent/KR102154610B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 이벤트 발생 위치 계산이 가능한 영상장치 및 그 장치의 구동방법에 관한 것으로서, 본 발명의 실시예에 따른 이벤트 발생 위치의 계산이 가능한 영상장치는, 카메라의 촬영 영역에 대한 맵 데이터를 저장하는 저장부, 및 카메라의 촬영 영상을 분석한 결과 촬영 영역에서 이벤트가 발생할 때 이벤트 발생 위치의 위도 및 경도를 계산하여 계산 결과 및 계산 결과에 매칭되는 (기)저장한 맵 데이터를 함께 제공하는 제어부를 포함할 수 있다.

Description

이벤트 발생 위치 계산이 가능한 영상장치 및 그 장치의 구동방법{Image Device Capable of Calculating Location of Event Occurrence and Driving Method Thereof}
본 발명은 이벤트 발생 위치 계산이 가능한 영상장치 및 그 장치의 구동방법에 관한 것으로서, 더 상세하게는 가령 PTZ 카메라 등을 통해 촬영되는 촬영영상의 분석 결과 이벤트 발생시 이벤트 발생 위치의 위치 정보를 계산해 관제 요원 등이 위치를 쉽게 알 수 있도록 제공하는 이벤트 발생 위치 계산이 가능한 영상장치 및 그 장치의 구동방법에 관한 것이다.
기존에는 바다(항구), 산림, 도로, 산업단지 및 철책선 등과 같이 넓은 영역의 전반을 감시하는 카메라의 경우 바다(항구), 산림, 도로 산업단지 전경을 촬영하여 중앙관제서버에 해당 영상을 제공하는 것이 일반적인 방식이었다. 그러나, 최근에는 인공지능(AI)과 영상기술의 발전으로 인해 촬영되는 영상 내에서 발생하는 각종 이벤트 학습 후 감지하는 기능도 수행할 수 있게 되었다.
그런데, 이러한 이벤트가 발생하는 경우 감시 카메라로부터 이벤트가 감지된 위치, 가령 방향이나 거리를 확인하지 못하는 경우가 많아 신속한 대응 등이 어려운 문제가 발생하고 있다.
한국공개특허공보 제10-2009-0024341호(2009.03.09) 한국공개특허공보 제10-2014-0004892호(2014.01.14) 한국등록특허공보 제20-0336893호(2003.12.12)
본 발명의 실시예는 가령 PTZ 카메라 등을 통해 촬영되는 촬영영상의 분석 결과 이벤트 발생시 이벤트 발생 위치의 위치 정보를 계산해 관제 요원 등이 위치를 쉽게 알 수 있도록 제공하는 이벤트 발생 위치 계산이 가능한 영상장치 및 그 장치의 구동방법을 제공함에 그 목적이 있다.
본 발명의 실시예에 따른 이벤트 발생 위치 계산이 가능한 영상장치는, 카메라의 촬영 영역에 대한 맵 데이터를 저장하는 저장부, 및 상기 카메라의 촬영 영상을 분석한 결과 상기 촬영 영역에서 이벤트가 발생할 때 이벤트 발생 위치의 위도 및 경도를 계산하여 계산 결과 및 상기 계산 결과에 매칭되는 상기 저장한 맵 데이터를 함께 제공하는 제어부를 포함한다.
상기 제어부는, 상기 이벤트의 발생 위치를 화면의 중심으로 이동시킬 때 취득되는 상기 카메라의 상태 변경값 또는 상기 촬영 영상의 단위 프레임 영상에서 정중앙 부위와 이벤트 발생 위치의 계산 결과값을 근거로 상기 이벤트의 발생 위치에 대한 위도 및 경도를 계산할 수 있다.
상기 제어부는, 상기 상태 변경값 또는 상기 계산 결과값을 근거로 상기 카메라의 설치 위치와 상기 이벤트 발생 위치의 거리 및 방향을 측정하며, 상기 측정한 거리 및 방향과 상기 설치 위치의 위도 및 경도를 근거로 상기 이벤트 발생 위치의 위도 및 경도를 계산할 수 있다.
상기 제어부는, 상기 카메라의 설치 위치(위도 1, 경도 1) 및 상기 이벤트 발생 위치(위도 2, 경도 2)에 대하여 관계식
Figure 112020037294236-pat00001
Figure 112020037294236-pat00002
를 각각 만족시킬 수 있다.
상기 제어부는, 상기 이벤트 발생 위치의 주변에 위도 및 경도를 기설정한 지형물이 있는 경우, 상기 지형물을 기준으로 상기 이벤트 발생 위치의 위도 및 경도를 계산하여 위치 정보로서 제공할 수 있다.
또한, 본 발명의 실시예에 따른 이벤트 발생 위치 계산이 가능한 영상장치의 구동방법은, 저장부가, 카메라의 촬영 영역에 대한 맵 데이터를 저장하는 단계, 및 제어부가, 상기 카메라의 촬영 영상을 분석한 결과 상기 촬영 영역에서 이벤트가 발생할 때 이벤트 발생 위치의 위도 및 경도를 계산하여 계산 결과 및 상기 계산 결과에 매칭되는 상기 저장한 맵 데이터를 함께 제공하는 단계를 포함한다.
상기 제공하는 단계는, 상기 이벤트의 발생 위치를 화면의 중심으로 이동시킬 때 취득되는 상기 카메라의 상태 변경값 또는 상기 촬영 영상의 단위 프레임 영상에서 정중앙 부위와 이벤트 발생 위치의 계산 결과값을 근거로 상기 이벤트의 발생 위치에 대한 위도 및 경도를 계산하는 단계를 포함할 수 있다.
상기 제공하는 단계는, 상기 상태 변경값 또는 상기 계산 결과값을 근거로 상기 카메라의 설치 위치와 상기 이벤트 발생 위치의 거리 및 방향을 측정하며, 상기 측정한 거리 및 방향과 상기 설치 위치의 위도 및 경도를 근거로 상기 이벤트 발생 위치의 위도 및 경도를 계산하는 단계를 포함할 수 있다.
상기 제공하는 단계는, 상기 카메라의 설치 위치(위도 1, 경도 1) 및 상기 이벤트 발생 위치(위도 2, 경도 2)에 대하여 관계식
Figure 112020037294236-pat00003
Figure 112020037294236-pat00004
를 각각 만족시킬 수 있다.
상기 제공하는 단계는, 상기 이벤트 발생 위치의 주변에 위도 및 경도를 기설정한 지형물이 있는 경우, 상기 지형물을 기준으로 상기 이벤트 발생 위치의 위도 및 경도를 계산하여 위치 정보로서 제공할 수 있다.
본 발명의 실시예에 따르면 가령 바다, 산림, 도로 및 산업단지 등과 같이 넓은 영역의 전반을 감시하는 카메라를 이용하는 경우 이벤트가 감지될 때 감지된 이벤트 위치를 자동으로 계산한 후 맵 데이터 등과 매핑하여 이벤트 위치를 제공함으로써 관제가 더욱 용이해 질 수 있을 것이다. 즉 신속하고 정확한 위치를 제공할 수 있을 것이다.
또한, 본 발명의 실시예에 따르면 관제 요원 등의 관리자가 감시 지역에 익숙하지 않은 경우라 하더라도 이벤트 발생 위치를 빠르게 파악할 수 있게 됨으로써 발생 이벤트에 따른 신속한 대처가 이루어질 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 관제서비스시스템을 나타내는 도면,
도 2는 도 1의 관제서비스장치의 세부 구조를 예시한 블록다이어그램,
도 3 내지 도 5는 본 발명의 실시예에 따른 위경도 계산 과정을 설명하기 위한 도면,
도 6은 본 발명의 실시예에 따른 이벤트 발생 위치 계산이 가능한 영상장치의 구동 과정을 나타내는 흐름도, 그리고
도 7은 도 발명의 다른 실시예에 따른 이벤트 발생 위치 계산이 가능한 영상장치의 구동 과정을 나타내는 흐름도이다.
이하, 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 관제서비스시스템을 나타내는 도면이다.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 관제서비스시스템(90)은 가령 이벤트 발생 위치 계산이 가능한 관제서비스시스템으로서, 촬영장치(100), 통신망(110), 관제서비스장치(120) 및 서드파티장치(130)의 일부 또는 전부를 포함한다.
여기서, "일부 또는 전부를 포함한다"는 것은 서드파티장치(130)와 같은 일부 구성요소가 생략되어 관제서비스시스템(90)이 구성되거나, 관제서비스장치(120)의 일부 또는 전부가 통신망(110)을 구성하는 네트워크장치(예: 무선교환장치 등)에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.
촬영장치(100)는 CCTV(Closed Circuit Television) 등의 카메라나 IP(Internet Protocol) 카메라 등을 포함하며, 고정 카메라나 PTZ(Pan Tilt Zoom) 카메라를 포함한다. 촬영장치(100)는 활용 가능한 영역이 다양하며, 예를 들어 사회 안전(Social Safety), 범죄 예방(Crime Prevention), 리테일(Retail), 스마트 팩토리(Smart Factory), 공공 감시(Public Surveillance), 사회 문제(suicide issue), 공공 감시(Public Surveilance) 및 운전자 감시(Driver statues)를 위하여 다양한 장소에 설치되어 촬영영상을 제공한다. 본 발명의 실시예에서는 촬영장치(100)가 바다(항구), 산림, 도로, 산업단지 및 철책선 등과 같이 넓은 영역의 전반을 감시하는 카메라인 것이 바람직하다.
본 발명의 실시예에 따른 촬영장치(100)는 영상분석을 위하여 별도의 영상장치를 내부에 탑재하거나 외부에 구비하여 연동할 수 있다. 여기서, "영상장치"란 본 발명의 실시예에 따른 동작을 수행하기 위한 영상처리 동작을 수행하는 장치를 의미할 수 있다. 예를 들어, 영상처리 동작으로서 촬영영상을 분석하여 이벤트 발생 여부를 판단하고, 이벤트가 가령 지정된 이벤트가 발생할 때 관련 데이터를 제공하는 것이 대표적일 수 있다. 그 결과 관제서비스장치(120)와 연계하여 처리되는 데이터 양을 상당히 줄일 수 있다. 물론 해당 영상장치는 관제서비스장치(120)와 다양한 형태로 분업하여 데이터를 처리할 수 있으며, 설명의 편의를 위해 본 발명의 실시예에 따른 모든 동작은 관제서비스장치(120)에서 처리하는 것으로 설명한다. 다만, 본 발명의 실시예에 따른 이벤트 발생 위치 계산이 가능한 영상장치는 촬영장치(100), 촬영장치(100)의 주변에서 연동하는 에지장치 및/또는 관제서비스장치(120)가 될 수 있다.
촬영장치(100)는 본 발명의 실시예에 따라 특정 장소에 고정 설치될 때, PTZ 카메라의 경우에는 팬(pan), 틸트(tilt), 롤(roll) 등과 관련한 세팅값이 관제서비스장치(120)에 제공될 수 있다. 이는 카메라를 설치하는 관리자가 이의 데이터를 제공하는 것이 얼마든지 가능하다. 그러나, 이러한 초기 세팅 데이터는 관제서비스장치(120)에서 원격으로 촬영장치(100)의 PTZ, 더 정확하게는 팬 및 틸트를 제어하고, 이를 근거로 세팅값을 취득하는 것도 얼마든지 가능하므로, 본 발명의 실시예에서는 어느 하나의 형태에 특별히 한정하지는 않을 것이다.
통신망(110)은 유무선 통신망을 모두 포함한다. 가령 통신망(110)으로서 유무선 인터넷망이 이용되거나 연동될 수 있다. 여기서 유선망은 케이블망이나 공중 전화망(PSTN)과 같은 인터넷망을 포함하는 것이고, 무선 통신망은 CDMA, WCDMA, GSM, EPC(Evolved Packet Core), LTE(Long Term Evolution), 와이브로(Wibro) 망 등을 포함하는 의미이다. 물론 본 발명의 실시예에 따른 통신망(110)은 이에 한정되는 것이 아니며, 가령 클라우드 컴퓨팅 환경하의 클라우드 컴퓨팅망, 5G망 등에 사용될 수 있다. 가령, 통신망(110)이 유선 통신망인 경우 통신망(110) 내의 액세스포인트는 전화국의 교환국 등에 접속할 수 있지만, 무선 통신망인 경우에는 통신사에서 운용하는 SGSN 또는 GGSN(Gateway GPRS Support Node)에 접속하여 데이터를 처리하거나, BTS(Base Station Transmission), NodeB, e-NodeB 등의 다양한 중계기에 접속하여 데이터를 처리할 수 있다.
통신망(110)은 액세스포인트를 포함할 수 있다. 여기서의 액세스포인트는 건물 내에 많이 설치되는 펨토(femto) 또는 피코(pico) 기지국과 같은 소형 기지국을 포함한다. 펨토 또는 피코 기지국은 소형 기지국의 분류상 촬영장치(100) 등을 최대 몇 대까지 접속할 수 있느냐에 따라 구분된다. 물론 액세스포인트는 촬영장치(100) 등과 지그비 및 와이파이 등의 근거리 통신을 수행하기 위한 근거리 통신모듈을 포함할 수 있다. 액세스포인트는 무선통신을 위하여 TCP/IP 혹은 RTSP(Real-Time Streaming Protocol)를 이용할 수 있다. 여기서, 근거리 통신은 와이파이 이외에 블루투스, 지그비, 적외선, UHF(Ultra High Frequency) 및 VHF(Very High Frequency)와 같은 RF(Radio Frequency) 및 초광대역 통신(UWB) 등의 다양한 규격으로 수행될 수 있다. 이에 따라 액세스포인트는 데이터 패킷의 위치를 추출하고, 추출된 위치에 대한 최상의 통신 경로를 지정하며, 지정된 통신 경로를 따라 데이터 패킷을 다음 장치, 예컨대 관제서비스장치(120) 등으로 전달할 수 있다. 액세스포인트는 일반적인 네트워크 환경에서 여러 회선을 공유할 수 있으며, 예컨대 라우터(router), 리피터(repeater) 및 중계기 등이 포함된다.
관제서비스장치(120)는 촬영장치(100)로부터 제공되는 촬영영상을 분석하여 이벤트 발생 여부를 판단하고, 판단 결과 이벤트가 발생한 것으로 판단될 때 해당 이벤트 발생 위치를 계산하여 위치 정보로서 제공한다. 여기서, 이벤트는 관제 목적에 따라 다양한 사건, 사고가 될 수 있다. 예를 들어, 산업단지나 항구와 같이 넓은 지역을 감시할 때의 다양한 유형의 사건, 사고가 이벤트가 될 수 있다. 가령 산업단지의 침입 위치가 될 수도 있다. 또한 제공되는 위치 정보는 촬영장치(100)가 설치되어 촬영되는 위치를 기준으로 할 수 있지만, 관제가 이루어지는 현재 위치를 기준으로 계산이 이루어질 수 있다. 물론 익숙한 지형지물이 될 수도 있다. 또한, 위치 정보는 위도 및 경도 정보의 형태로 제공될 수 있으며, 맵 데이터에 매칭되어 제공될 수도 있다. 또한, 사용자가 설정한 다양한 형태로 위치 정보가 제공될 수 있다. 예를 들어, 계산된 위경도 정보를 거리나 방향 정보의 형태로 제공하는 경우에는 해당 이벤트 발생 위치의 주변 건물 등에 대한 정보를 함께 제공하는 것이다. 이를 통해 관리자로 하여금 인지를 빠르게 할 수 있다.
상기의 동작을 수행하기 위해 관제서비스장치(120)는 DB(120a) 내에 복수의 촬영장치(100)에 의해 촬영되는 촬영영역에 대한 맵 데이터를 저장할 수 있다. 이외에도 부가적으로 다양한 정보를 더 저장할 수 있다. 가령, 익숙한 지형지물로서 주변 건물 등에 대한 정보를 함께 저장할 수도 있다. 또한, 저장한 맵 데이터를 위도 및 경도를 기준으로 구획을 분할하여 맵 데이터를 저장할 수 있다. 물론, 분할 구획의 각각에 대하여는 위경도 정보를 매칭시켜 저장할 수 있다. 따라서, 각 블록의 위경도 정보를 근거로 현재 위치와 이벤트 발생 위치의 거리나 방향을 계산할 수도 있을 것이다. 이와 같이 사전에 기초 데이터를 구축한 상태가 아니라면, 현재 위치나 촬영장치(100)가 고정된 위치의 위경도 정보를 기준으로 이벤트 발생 위치의 위경도 정보를 연산하여 위치 정보를 제공할 수도 있다. 전자는 맵핑(mapping) 방식으로 입력값이 제공될 때 검색을 통해 위치 정보를 제공하는 것이라면, 후자는 지정 값을 근거로 연산을 바로 수행하여 위치 정보를 제공한다고 볼 수 있다.
관제서비스장치(120)는 기본적으로 위경도 정보를 제공하기 위하여 위경도를 계산하지만, 위경도 정보를 현장에서 사용하는 전문가가 아니라면 일상적인 경우에는 그 위경도 정보를 근거로 거리나 방향을 산출하여 이에 대한 정보를 위치정보로서 제공하는 것이 유익할 수 있다. 물론 거리나 방향에 대한 정보 제공시 해당 위치의 맵 데이터를 함께 제공하는 것이 바람직하다. 예를 들어, 위경도 정보가 입력되면 입력된 해당 정보를 근거로 맵 데이터를 검색하여 산출하는 것이다.
예를 들어, PTZ 카메라를 촬영장치(100)로서 사용하는 경우를 가정해 보자. 이의 경우 PTZ 카메라 즉 촬영장치(100)는 카메라에 의해 촬영되는 촬영영역에서 이벤트가 발생할 때, 가령 촬영영역의 가장자리에서 이벤트가 발생할 때, 해당 이벤트를 화면의 정중앙으로 위치시킨다. 이때, PTZ 카메라의 팬(Pan), 틸트(Tilt), 롤(roll), 줌(Zoom) 등의 값을 계산한다. 물론 본 발명의 실시예에서는 줌은 사용하지 않을 수도 있다. 카메라가 특정 장소에 최초 설치될 때, 초기 기본값들을 세팅해 둔다. 따라서 관제서비스장치(120)는 최초 설치된 촬영장치(100)의 세팅값 즉 설정값을 알고 있기 때문에 촬영장치(100)의 팬, 틸트 등의 상태 변경값 또는 움직임값을 수신하게 되면 이를 근거로, 다시 말해 화면의 정중앙에 이벤트의 위치를 이동시킬 때의 카메라의 움직임을 근거로 해당 위치의 위치를 계산해 낼 수 있다. 카메라의 고정 위치에 대한 위경도값을 알고 있기 때문에 카메라의 움직임 정보를 근거로 거리나 방향과 관련한 값을 산출하고, 이를 근거로 이벤트 발생 위치의 위경도값을 계산해 내면 되는 것이다. 여기서, 움직임 정보는 카메라를 제어할 때 그 제어값을 의미한다고 볼 수 있다. 물론, 촬영장치(100)로서 고정 카메라가 사용되는 경우라 하더라도, 관제서비스장치(120)는 수신된 단위 프레임 영상에서 이벤트 발생 위치를 찾고 해당 위치가 단위 프레임의 가장자리 부위에 위치하고 있을 때, 정중앙 부위로 이동시킬 때의, 또는 그 위치와의 거리와 방향을 측정함으로써 가령 픽셀(pixel) 계산을 통해 계산함으로써 이를 통해 이벤트 발생 위치의 위경도 값을 계산해 내는 것도 얼마든지 가능하므로, 본 발명의 실시예에서는 어느 하나의 방식에 특별히 한정하지는 않을 것이다. 픽셀당 거리가 설정되어 있으면, 총픽셀 수에 단위 픽셀당 거리를 곱하면 거리가 계산될 수 있다. 또한, 단위 프레임상에서 두 지점의 화소 좌표값을 알고 있으므로, 두 지점을 알 때의 거리 구하는 공식을 통해 거리를 계산해 낼 수도 있다.
관제서비스장치(120)는 본 발명의 실시예에 따른 서비스를 제공하기 위하여 다양한 형태로 구현될 수 있지만, 예를 들어 촬영장치(100)를 세팅하고 그에 따라 움직임 정보 즉 제어 값을 생성하기 위한 별도의 프로그램 툴(tool)을 사용할 수도 있다. 가령, EVL 카메라 캘리브레이션 툴을 사용할 수 있다. 가령 EVL 카메라 캘리브레이션 툴은 마커에 기반하는 방식이며, 'ㄷ'자 형태의 정사각 마커를 사용한다. 간략하게 동작을 소개하면, 카메라 시야 내의 바닥에 Dmark를 놓고 영상을 획득한다. 마커의 방향은 가급적 월드좌표계의 좌표축과 수평하게 놓는다. 그리고, 필요한 경우, evl_calibtoolyml에서 마커의 월드좌표를 원하는 값으로 수정한다. 이어, GUI 툴(evl_calibtoolexe)에서 촬영한 마커 영상을 불러온다(녹화 동영상, 저장 이미지, 또는 라이브 카메라 연결 모두 지원). GUI 툴에서 마커를 검출하고 캘리브레이션을 수행한다. 마커를 이용한 카메라 캘리브레이션이 용이하지 않거나 추가적인 정보가 필요할 경우에는 GUI 툴에서 제공되는 다른 부가 기능들을 이용해서, 필요한 캘리브레이션 정보를 획득한다.
부가 기능으로서 해당 툴은 1) 2개의 폴대(삼각대)를 이용한 카메라 캘리브레이션, 2) 1쌍의 바닥 평행선을 이용한 팬, 틸트 측정, 3) 2쌍의 수직 평행선을 이용한 초점거리, 팬, 틸트 추정, 4) 크기를 알고 있는 바닥 물체를 이용한 카메라 높이 추정, 5) 바닥 기준선(차선, 건물 경계선, 연석 등)과의 상대거리 및 상대각도 측정 등의 다양한 동작을 수행할 수 있다. 또한 공통적으로 부가 캘리브레이션 기능을 활용할 때 영상에 왜곡이 있을 경우 왜곡보정 기능을 활용하여 왜곡보정을 진행한 후 기능을 수행하면 영상 왜곡을 반영한 결과를 얻을 수 있으므로 왜곡 보정을 수행한 후 진행하게 된다.
이러한 과정을 통해 관제서비스장치(120)는 촬영장치(100)에 대한 팬, 틸트, 롤(roll) 측정이 가능하며, 팬은 world x축 기준 회전각, 롤은 카메라가 똑바로 서 있을 경우 0으로 보고, 틸트는 카메라가 정면을 바라볼 경우 0이 된다. 이와 같이, 본 발명의 실시예에 따른 관제서비스장치(120)는 시장에 출시되어 있는 다양한 프로그램 툴을 사용하고, 추가적인 프로그램 개발을 통해 본 발명의 실시예에 따른 위치정보 계산 동작을 수행할 수 있다. 다시 말해, 위의 툴을 통해 마커를 기준으로 하는 카메라의 움직임값을 얻고, 이를 근거로 거리를 측정할 수가 있는 것이다. 따라서, 거리가 측정되면, 또 이를 통해 방향에 해당하는 각도가 측정되면 촬영장치(100)가 위치하는 곳의 위경도값, 또는 관제서비스장치(120)가 운영되는 곳의 위경도 값을 기준으로 이벤트 발생 위치의 위경도 값을 계산해 낼 수도 있는 것이다. 관제서비스장치(120)의 구체적인 계산 과정은 이후에 좀더 다루기로 한다.
서드파티장치(130)는 관제 동작을 수행하는 관제 요원 등의 컴퓨터 장치나 본 발명의 실시예에 따른 프로그램을 제공하는 프로그램 제공업체 등의 다양한 장치를 포함할 수 있다. 즉, 프로그램 제공업체의 서버 등을 포함할 수 있다. 관제서비스장치(120)가 온라인상에서 통합 서비스(예: 지자체 통합 서비스 등)를 제공하는 경우에는 서드파티장치(130)가 관리자 장치로서 관제서비스장치(120)에 접속하여 서비스 제공을 위한 다양한 정보 설정 등의 동작을 수행할 수 있다. 대표적인 동작이 서비스 이용시 공지사항 등을 등록하기 위한 동작이 될 수 있다. 본 발명의 실시예에 따른 관제서비스장치(120)는 가령, 촬영장치(100)가 산업단지나 철책선 등에 설치되어 해당 위치에 접근하는 것이 실질적으로 불가능할 때, 정확한 위치를 알 수 있도록 하는 데에 유용할 수 있으므로, 이러한 점에서 서드파티장치(130)는 관리자 장치가 바람직할 수 있다.
도 2는 도 1의 관제서비스장치의 세부 구조를 예시한 블록다이어그램이며, 도 3 내지 도 5는 본 발명의 실시예에 따른 위경도 계산 과정을 설명하기 위한 도면이다.
도 2에 도시된 바와 같이, 본 발명의 실시예에 따른 도 1의 관제서비스장치(120)는 통신 인터페이스부(200), 제어부(210), 이벤트기반 위치계산부(220) 및 저장부(230)의 일부 또는 전부를 포함한다.
여기서, "일부 또는 전부를 포함한다"는 것은 저장부(230)와 같은 일부 구성요소가 생략되어 구성되거나 이벤트기반 위치계산부(220)와 같은 일부 구성요소가 제어부(210)와 같은 다른 구성요소에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것을 설명한다.
통신 인터페이스부(200)는 도 1의 통신망(110)을 경유하여 복수의 촬영장치(100)나 서드파티장치(130)와 각각 통신을 수행한다. 복수의 촬영장치(100)를 통해서는 촬영영상이나 해당 촬영영상의 분석 데이터를 수신할 수 있지만, 서드파티장치(130)로는 이벤트 분석 결과에 따라 이벤트 발생 위치의 위치 정보를 다양한 형태로 제공할 수 있다. 이러한 동작을 수행하는 과정에서 통신 인터페이스부(200)는 변/복조, 먹싱/디먹싱, 인코딩/디코딩, 해상도 변환의 스케일링 등의 다양한 동작을 수행할 수 있으며, 이는 당업자에게 자명하므로 더 이상의 설명은 생략한다.
제어부(210)는 도 2의 관제서비스장치(120)를 구성하는 통신 인터페이스부(200), 이벤트기반 위치계산부(220) 및 저장부(230)의 전반적인 제어 동작을 담당한다. 제어부(210)는 통신 인터페이스부(200)를 통해 촬영영상이나 분석 데이터가 제공되는 경우 저장부(230)에 임시 저장한 후 불러내어 이벤트기반 위치계산부(220)로 제공할 수 있다. 물론, 제어부(210)는 촬영장치(100)에서 이벤트 분석 여부를 판단하여 이벤트가 발생되었다고 판단될 때 제공하는 촬영영상이나 분석 데이터만을 통신 인터페이스부(200)를 통해 수신하여 이벤트기반 위치계산부(220)에 제공할 수도 있다. 나아가, 제어부(210)는 이벤트기반 위치계산부(220)에서 이벤트 발생 위치에 대한 계산값을 제공하는 경우 이를 근거로 도 1의 DB(120a)를 검색하여 해당 위치의 맵 데이터 등 다양한 부가 정보를 제공할 수 있다.
이벤트기반 위치계산부(220)는 촬영영상이 수신되는 경우 이벤트 발생 여부를 판단하여 이벤트 발생 위치의 위치를 계산할 수 있지만, 촬영장치(100)로부터 이벤트 발생이 기판단된 촬영영상이나 분석 데이터가 제공되는 경우에는 위치 계산 동작만을 수행할 수 있다. 물론, 본 발명의 실시예에 따른 관제서비스장치(120)는 시스템 설계자의 의도에 따라 다양한 형태로 설정되어 동작할 수 있으며, 예를 들어 조합되어 동작하는 경우가 대표적이다. 예를 들어, 도 1의 통신망(110)의 상태가 불안정한 경우에는 촬영장치(100)에서 이벤트 발생 여부를 판단하여 제공함으로써 데이터의 연산 처리 부담을 줄여줄 수 있다. 다만, 관제서비스장치(120)는 가령 서버로서 고가의 장치에 해당하고, 따라서 성능이 우수할 개연성이 높다. 그러므로, 통신망(110)의 환경을 근거로 적응적으로 동작할 수도 있을 것이다.
무엇보다 본 발명의 실시예에 따른 이벤트기반 위치계산부(220)는 도 3에서 볼 수 있는 바와 같이, 이벤트 발생 위치를 알기 위해 기준이 되는 위치의 위도와 경도를 이미 알고 있고 있기 때문에 이를 용이하게 계산해 낼 수 있다. 여기서, 기준 위치는 카메라 설치 위치가 될 수 있지만, 관제센터의 위치일 수 있으며, 기준 위치를 설정할 수도 있다. 이벤트 발생 위치 주변의 익숙한 지형지물이 될 수도 있다. 예를 들어, 촬영장치(100)를 통해 촬영되는 촬영영역에 중요 위치에 대한 위치 정보를 위경도 값으로 설정해 두고 이를 근거로 이벤트 발생 지역의 위치를 판단하면 촬영장치(100)의 설정 위치나 관제센터의 위치에서 계산하는 것보다 위치 인식이 더욱 수월할 수 있다. 가령, 출입금지구역에 관리자가 쉽게 인식할 수 있는 고정된 고정물이 있다고 판단해 보자. 물론, 철책선 등의 경우에는 바위 등이 고정물이 될 수도 있다. 따라서, 이벤트 발생이 해당 고정물의 주변에서 발생한 경우에는 해당 고정물을 근거로 거리나 방향 등의 위치 정보를 제공해 주는 경우라면 인식이 신속하게 이루어질 수 있을 것이다.
이벤트기반 위치계산부(220)는 이벤트 발생 위치의 거리 및 방향을 먼저 측정한 후 위경도 값을 계산할 수 있다. 이에 따라 해당 위치의 위경도 값을 출력해 줄 수 있다. 만약 사용자 설정에 따라 위경도값을 거리나 방향 정보로 제공해 줄 것을 요청한 경우에는 이에 대한 정보로 제공하거나 함께 제공할 수 있다. 나아가, 해당 지역의 맵을 함께 제공하도록 설정한 경우에는 맵을 함께 제공할 수도 있다. 도 4 및 도 5에서는 대표적으로 거리나 방향을 직선 형태로 보여주고, 도보나 자전거를 통해 거리를 예측하도록 위치 정보를 제공하고 있다. 도 5는 계산된 위도나 경도값을 표시하고 이를 통해 길찾기 등을 선택하는 경우, 해당 서비스를 이용할 수 있는 것을 보여주고 있다. 또는 실제 위치 정보와 본 발명의 실시예에 따른 관계식에 따라 계산된 계산 결과에 오차가 일부 발생할 수 있는 것을 보여준다.
서비스를 제공하기 위하여 이벤트기반 위치계산부(220)는 도 3에서 볼 수 있는 바와 같이 기준되는 위경도값(위도 1, 경도 1)을 근거로 이벤트 발생 위치(위도 2, 경도 2)의 위경도값을 산출한다. 산출식은 <수학식 1> 및 <수학식 2>와 같이 나타낼 수 있다.
Figure 112020037294236-pat00005
(여기서, θ는 정북 방향을 기준으로 찾고자 하는 (이벤트) 위치의 각(라디안), dist는 현재 위치와 찾고자 하는 위치 사이의 거리(km))
Figure 112020037294236-pat00006
앞서 설명한 바와 같이, 이벤트기반 위치계산부(220)는 카메라의 움직임값을 근거로 거리와 방향 등을 측정하고 이를 통해 각과 거리를 알 수 있다.
<수학식 1> 및 <수학식 2>에서, ±는 θ가 즉 각이 0에서 2π 중 어느 범위에 있는지에 따라 결정될 수 있다. 다시 말해, θ는
Figure 112020037294236-pat00007
의 범위에 있는 경우, 위도 2와 경도 2는 각각 +로 계산이 이루어질 수 있다. 또한,
Figure 112020037294236-pat00008
의 범위에 있는 경우, 위도 2 및 경도 2는 -와 +로 각각 계산이 이루어질 수 있다.
Figure 112020037294236-pat00009
의 범위에 있는 경우에는 위도 2와 경도 2는 -와 +로 각각 계산되며,
Figure 112020037294236-pat00010
의 범위에 있는 경우 +와 -로 각각 계산될 수 있다. 이를 통해 항시 양의 값을 얻을 수 있을 것이다.
도 4 및 도 5는 위의 수식을 사용하여 위도와 경도를 계산하여 얻은 위치 정보를 보여주고 있다. 기준이 되는 위치(400)의 위도 1은 37.405786이며, 경도 1은 127.078088이다. θ는 29.0939*(π/180)이며, dist는 0.069가 된다. 따라서, 이의 값을 위치 수식에 각각 대입해 보면, 계산 결과 이벤트가 발생한 위치(410)의 추정 위치가 각각 37.40631216 및 127.0784566이 된다. 도 5에서 볼 때, 맵 데이터상에서 실제 위치(500)의 위도, 경도로서 37.406331 및 127.078474와 비교해 보면 오차 거리가 2.602m 정도 차이가 있음을 확인할 수 있다. 비교적 일치한다고 볼 수 있다. 물론 부가적으로 이를 보정하기 위한 추가 동작이 이루어질 수도 있을 것이다. 예를 들어, 거리의 경우, 지도의 축적 비율을 반영함으로써 실제 거리를 계산하는 경우 해당 값을 얻는 것은 그리 어렵지 않다.
또한, 이벤트기반 위치계산부(220)는 이벤트 발생 위치에 대한 위경도값이 산출되는 경우, 이에 매칭되어 저장되어 있는 맵데이터나, 도 4의 (c)에서와 같이 다양한 팝업정보(430)를 추가로 제공해 줄 수 있다. 물론 이러한 동작은 제어부(210)로 계산 결과 즉 새로운 이벤트 발생 위치의 위경도값을 제공하고, 이를 근거로 도 1의 DB(120a)에서 해당 지역의 맵데이터를 가져와 이를 근거로 팝업창을 생성할 수 있다. 이러한 형태의 정보 제공은 관제 요원이나, 사용자들에게 다양한 형태로 서비스가 제공될 수 있다. 예를 들어, 내비게이션의 경우에는 현재 차량의 위치를 근거로 목적지까지의 위경도를 계산하되, 주변의 주요 건물을 기준으로 거리 정보를 제공하는 것도 얼마든지 가능하므로, 위경도 측정을 통해 다양한 서비스의 제공이 얼마든지 가능할 수 있을 것이다. 가령, 광고를 제공하는 것, 또는 이벤트 발생 유형에 따른 경고문구나 방송을 제공하는 것도 얼마든지 가능하므로, 이벤트기반 위치계산부(220)는 이벤트 발생 위치의 위경도 측정 이외에 부가 정보를 제공하는 것과 관련해서는 어느 하나의 형태에 특별히 한정하지는 않을 것이다.
저장부(230)는 제어부(210)의 제어하에 처리되는 다양한 정보나 데이터를 임시 저장한 후 출력할 수 있다. 예를 들어, 저장부(230)는 촬영장치(100)가 설치되는 경우, 해당 촬영장치(100)의 촬영영역과 관련되는 맵 데이터를 가져와 저장부(230)에 저장한 후 이를 활용함으로써 위에서와 같은 방식보다 연산 처리 속도를 상당히 진전시킬 수 있을 것이다.
한편, 본 발명의 다른 실시예로서, 도 1의 제어부(210)는 CPU와 메모리를 포함하며, CPU와 메모리는 원칩화하여 구성될 수 있다. 제어부(210)는 제어회로, 연산부(ALU), 명령어해석부, 레지스트리 등을 포함할 수 있으며, 메모리는 램(RAM)을 포함할 수 있다. 제어회로는 제어 동작을, 연산부는 2진 비트정보의 연산처리를, 그리고 명령어해석부는 입력된 2진 비트정보가 어떠한 동작의 수행에 관련되는지를 해석할 수 있다. 여기서, 해석은 룩업테이블(LUT)상의 좌측과 우측에 데이터를 매칭한 후 제어회로가 좌측 데이터를 근거로 우측의 데이터를 찾아 동작을 수행하는 것일 수 있다. 레지스트리는 소프트웨어적인 데이터 저장에 관여한다. 상기의 구성에 따라 CPU는 관제서비스장치(120)의 초기 구동시 이벤트기반 위치계산부(220)의 프로그램을 복사하여 메모리에 로딩한 후 이를 실행시켜 데이터 처리 속도를 빠르게 증가시킬 수 있게 된다.
도 6은 본 발명의 실시예에 따른 이벤트 발생 위치 계산이 가능한 영상장치의 구동 과정을 나타내는 흐름도이다.
설명의 편의상 도 6을 도 1과 함께 참조하면, 본 발명의 실시예에 따른 이벤트 발생 위치 계산이 가능한 영상장치로서 관제서비스장치(120)는 카메라의 촬영 영역에 대한 맵 데이터를 저장한다(S600). 맵 데이터 저장시, 관제서비스장치(120)는 다양한 형태의 부가 정보(예: 거리, 방향 정보 등)를 더 매칭시켜 저장할 수 있다.
또한, 관제서비스장치(120)는 카메라의 촬영 영상을 분석한 결과 촬영 영역에서 이벤트가 발생할 때 이벤트 발생 위치의 위도 및 경도를 계산하여 계산 결과 및 계산 결과에 매칭되는 기저장한 맵 데이터를 함께 제공한다(S610).
예를 들어, 관제서비스장치(120)는 촬영 영역에서 이벤트가 발생할 때 이벤트의 발생 지역을 화면의 중심으로 이동시킬 때 취득되는 카메라의 상태 변경값을 근거로 이벤트 발생 지역의 위도 및 경도를 측정하여 측정 결과값에 매칭되는 기저장한 맵 데이터를 추출하여 발생 지역의 위치 정보와 함께 제공할 수 있다. 물론 여기서의 위치정보는 위경보값일 수 있으며, 거리 및 방향 등의 정보(예: 표식 등)일 수 있으며, 이러한 정보는 팝업창을 통해 제공되거나 증강현실 등의 형태로 제공될 수 있을 것이다.
가령, 맛집 정보 등을 제공하는 증강현실의 경우에는 GPS 추적을 통해 위치 정보를 취득하고 이를 근거로 맛집 정보를 제공하지만, 본 발명의 실시예에서는 철책선과 같이 출입 금지 구역의 경우 CCTV 카메라 등을 촬영할 때 가령 사건, 사고의 발생시 해당 위치의 이벤트 발생을 촬영영상이나 카메라의 움직임을 통해 위경도 정보의 형태로 계산하여 전문가가 이를 볼 수 있도록 하거나, 해당 위경보 정보에 매칭되어 있는 맵데이터나 다양한 부가정보를 제공하려는 것이므로, 기술적으로는 전혀 상이하다고 볼 수 있다.
상기한 내용 이외에도 영상장치로서 도 1의 촬영장치(100), 촬영장치(100)의 주변에 구비되어 촬영장치(100)에 연동하는 에지장치, 또는 관제서비스장치(120)는 다양한 동작을 수행할 수 있으며, 기타 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.
도 7은 본 발명의 다른 실시예에 따른 이벤트 발생 위치 계산이 가능한 영상장치의 구동 과정을 나타내는 흐름도이다.
설명의 편의상 도 7을 도 1과 함께 참조하면, 본 발명의 다른 실시예에 따른 이벤트 발생 위치 계산이 가능한 영상장치로서 도 1의 관제서비스장치(120)는 CCTV 등의 카메라에 대한 세팅 동작을 수행한다(S700). 특정 위치에 설치 후 PTZ 카메라의 경우 팬, 틸트, 롤에 대한 초기값을 설정할 수 있다. 예를 들어, 초기값은 어떠한 팬, 틸트 및 롤의 값으로 설치되느냐에 관련될 수 있다. 다시 말해, 설치되는 위치가 촬영 지역을 통상 내려다볼 수 있는 방향에서 촬영이 이루어지게 되므로, 이와 같이 설치될 때의 세팅값이라 볼 수 있다. 이러한 값들은 설치 후 기저장될 수 있다. 또한, 관제서비스장치(120)는 카메라가 설정된 위치의 위경도값을 취득하여 이를 기저장할 수 있다. 복수의 카메라가 설치되는 경우에는 각 카메라의 위치에 대한 위경도값을 매칭시켜 저장할 수 있다.
또한, 관제서비스장치(120)는 카메라를 통해 취득되는 촬영영상으로부터 이벤트를 감지할 수 있다(S710). 여기서, 이벤트는 룰(rule) 기반이나 인공지능(AI)의 딥러닝을 기반으로 설정 또는 예측되는 사건, 사고를 의미한다. 예를 들어, 화재나 폭발 사고가 될 수도 있다. 산업단지의 경우에는 침입 위치가 될 수도 있다.
관제서비스장치(120)는 촬영영상에서 이벤트가 감지될 때, 이벤트 위치를 계산한다(S720). 위치를 계산하기 위하여, 관제서비스장치(120)는 카메라 화면을 이벤트 발생 중심으로 보정할 수 있다(S740). 다시 말해, 카메라에서 이벤트 발생 위치가 화면의 정중앙 부위로 이동할 때의 카메라 움직임값 즉 팬, 틸트, 롤 등에 대한 제어값을 수신하고 이를 근거로 위치 정보를 계산한다. 이를 통해 가령 카메라가 설치된 위치에서 카메라의 상태 정보를 근거로 거리 및 방향 등의 정보를 계산해 낼 수도 있을 것이다.
이에 따라 관제서비스장치(120)는 기준이 되는 위치, 가령 카메라가 설치된 위치의 위도 및 경도값과 카메라의 움직임을 통해 측정된 거리 및 방향 등의 정보를 근거로 이벤트가 발생된 위치의 위경도값을 산출한다. 이와 관련해서는 앞서 수식을 통해 충분히 설명한 바 있다.
또한, 관제서비스장치(120)는 맵 데이터 또는 영상사진을 로딩하여 이에 이벤트 위치의 계산 결과를 함께 제공한다(S730). 관제서비스장치(120)는 이벤트 발생 위치의 위경도값이 계산되면 계산 결과를 바로 제공할 수 있지만, 맵데이터와 함께 제공하거나 즉 맵핑하여 제공하거나, 위경도값과 함께 거리 및 방향을 인식하기 위한 표식을 함께 제공하거나, 다양한 형태로 이벤트 발생 위치를 인식할 수 있도록 위치 정보를 제공할 수 있다. 가령, 주요 지형지물, 또는 고정물에 대하여 이미 위경도 정보를 알고 있는 경우에는 이를 근거로 이벤트 발생 지역의 위치 정보를 제공함으로써 인식이 빠르게 이루어지도록 할 수 있을 것이다.
상기한 내용 이외에도 관제서비스장치(120)는 다양한 동작을 얼마든지 수행할 수 있으며, 기타 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.
지금까지는 본 발명의 실시예는 고정된 카메라를 이용하는 방식이나 움직이는 카메라에서 이벤트가 감지되는 경우를 모두 포함하여 설명한 바 있으며, 움직이는 카메라의 경우 감지된 이벤트 위치를 카메라 중심부로 이동한 후 최초 카메라의 세팅 위치와 이벤트 중심으로 카메라 위치를 변경한 후 최초 세팅값과 위치 변경한 값을 비교하는 방식으로 위치를 확인할 수 있는 것을 설명하였지만, 이벤트 발생 여부를 판단하여 위치를 파악할 수 있다면 다양한 방식이 얼마든지 가능할 수 있을 것이다.
한편, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 비일시적 저장매체(non-transitory computer readable media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다.
여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐시(cache), 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.
100: 촬영장치 110: 통신망
120: 관제서비스장치 130: 서드파티장치
200: 통신 인터페이스부 210: 제어부
220: 이벤트기반 위치계산부 230: 저장부

Claims (10)

  1. 카메라의 촬영 영역에 대한 맵 데이터를 저장하는 저장부; 및
    상기 카메라의 촬영 영상을 분석한 결과 상기 촬영 영역에서 이벤트가 발생할 때 이벤트 발생 위치의 위도 및 경도를 계산하여 계산 결과 및 상기 계산 결과에 매칭되는 상기 저장한 맵 데이터를 함께 제공하는 제어부;를 포함하되,
    상기 제어부는, 상기 이벤트의 발생 위치를 화면의 중심으로 이동시킬 때 취득되는 상기 카메라의 상태 변경값 또는 상기 촬영 영상의 단위 프레임 영상에서 정중앙 부위와 이벤트 발생 위치의 계산 결과값을 근거로 상기 이벤트의 발생 위치에 대한 위도 및 경도를 계산하는 이벤트 발생 위치 계산이 가능한 영상장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 제어부는, 상기 상태 변경값 또는 상기 계산 결과값을 근거로 상기 카메라의 설치 위치와 상기 이벤트 발생 위치의 거리 및 방향을 측정하며, 상기 측정한 거리 및 방향과 상기 설치 위치의 위도 및 경도를 근거로 상기 이벤트 발생 위치의 위도 및 경도를 계산하는 이벤트 발생 위치 계산이 가능한 영상장치.
  4. 제3항에 있어서,
    상기 제어부는, 상기 카메라의 설치 위치(위도 1, 경도 1) 및 상기 이벤트 발생 위치(위도 2, 경도 2)에 대하여 관계식
    Figure 112020062713713-pat00011
    Figure 112020062713713-pat00012
    (여기서, θ는 정북 방향을 기준으로 찾고자 하는 이벤트 위치의 각(라디안), dist는 현재 위치와 찾고자 하는 위치 사이의 거리(km))를 각각 만족시키는 이벤트 발생 위치 계산이 가능한 영상장치.
  5. 제3항에 있어서,
    상기 제어부는, 상기 이벤트 발생 위치의 주변에 위도 및 경도를 기설정한 지형물이 있는 경우, 상기 지형물을 기준으로 상기 이벤트 발생 위치의 위도 및 경도를 계산하여 위치 정보로서 제공하는 이벤트 발생 위치 계산이 가능한 영상장치.
  6. 저장부가, 카메라의 촬영 영역에 대한 맵 데이터를 저장하는 단계; 및
    제어부가, 상기 카메라의 촬영 영상을 분석한 결과 상기 촬영 영역에서 이벤트가 발생할 때 이벤트 발생 위치의 위도 및 경도를 계산하여 계산 결과 및 상기 계산 결과에 매칭되는 상기 저장한 맵 데이터를 함께 제공하는 단계;를 포함하되,
    상기 제공하는 단계는,
    상기 이벤트의 발생 위치를 화면의 중심으로 이동시킬 때 취득되는 상기 카메라의 상태 변경값 또는 상기 촬영 영상의 단위 프레임 영상에서 정중앙 부위와 이벤트 발생 위치의 계산 결과값을 근거로 상기 이벤트의 발생 위치에 대한 위도 및 경도를 계산하는 단계를 포함하는 이벤트 발생 위치 계산이 가능한 영상장치의 구동방법.
  7. 삭제
  8. 제6항에 있어서,
    상기 제공하는 단계는,
    상기 상태 변경값 또는 상기 계산 결과값을 근거로 상기 카메라의 설치 위치와 상기 이벤트 발생 위치의 거리 및 방향을 측정하며, 상기 측정한 거리 및 방향과 상기 설치 위치의 위도 및 경도를 근거로 상기 이벤트 발생 위치의 위도 및 경도를 계산하는 단계를 포함하는 이벤트 발생 위치 계산이 가능한 영상장치의 구동방법.
  9. 제8항에 있어서,
    상기 제공하는 단계는,
    상기 카메라의 설치 위치(위도 1, 경도 1) 및 상기 이벤트 발생 위치(위도 2, 경도 2)에 대하여 관계식
    Figure 112020062713713-pat00013
    Figure 112020062713713-pat00014
    (여기서, θ는 정북 방향을 기준으로 찾고자 하는 이벤트 위치의 각(라디안), dist는 현재 위치와 찾고자 하는 위치 사이의 거리(km))를 각각 만족시키는 이벤트 발생 위치 계산이 가능한 영상장치의 구동방법.
  10. 제8항에 있어서,
    상기 제공하는 단계는,
    상기 이벤트 발생 위치의 주변에 위도 및 경도를 기설정한 지형물이 있는 경우, 상기 지형물을 기준으로 상기 이벤트 발생 위치의 위도 및 경도를 계산하여 위치 정보로서 제공하는 이벤트 발생 위치 계산이 가능한 영상장치의 구동방법.
KR1020200043771A 2020-04-10 2020-04-10 이벤트 발생 위치 계산이 가능한 영상장치 및 그 장치의 구동방법 KR102154610B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200043771A KR102154610B1 (ko) 2020-04-10 2020-04-10 이벤트 발생 위치 계산이 가능한 영상장치 및 그 장치의 구동방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200043771A KR102154610B1 (ko) 2020-04-10 2020-04-10 이벤트 발생 위치 계산이 가능한 영상장치 및 그 장치의 구동방법

Publications (1)

Publication Number Publication Date
KR102154610B1 true KR102154610B1 (ko) 2020-09-10

Family

ID=72469688

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200043771A KR102154610B1 (ko) 2020-04-10 2020-04-10 이벤트 발생 위치 계산이 가능한 영상장치 및 그 장치의 구동방법

Country Status (1)

Country Link
KR (1) KR102154610B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102336480B1 (ko) 2021-03-04 2021-12-07 주식회사 스누아이랩 자동 세그먼트 분류를 위한 영상처리장치 및 그 장치의 구동방법
KR102396020B1 (ko) * 2021-10-08 2022-05-10 아룸테크 주식회사 Cctv 카메라 팬/틸트를 이용한 이벤트 발생지점의 위치 감지 장치 및 그 방법
KR20230020184A (ko) 2021-08-03 2023-02-10 고현준 고정 카메라 및 이동 카메라를 이용한 영상 분석 장치
KR102572907B1 (ko) * 2022-10-04 2023-08-31 주식회사 엔티에스 회전 카메라 영상 객체 위치정보 제공 시스템 및 방법
KR102605696B1 (ko) * 2022-12-12 2023-11-30 한국도로공사 정밀도로지도기반의 cctv 카메라 자세 및 객체 좌표 추정 방법 및 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200336893Y1 (ko) 2003-05-10 2003-12-24 황기택 Gps실시간 위치 수신정보를 위도 와 경도로 숫자표시하여 실시간으로 자신의 현재 위치를 지도상에서파악할 수 있도록 한 실시간 위도, 경도 표시장치.
KR20090024341A (ko) 2007-09-04 2009-03-09 삼성전자주식회사 이동 단말에서 위치 계산 방법 및 장치
KR101063922B1 (ko) * 2011-03-25 2011-09-08 김인수 목표물 위치 획득 및 감시시스템
KR20140004892A (ko) 2012-07-03 2014-01-14 한국해양과학기술원 한글을 사용한 위도 및 경도 표현 방법
JP2017003866A (ja) * 2015-06-12 2017-01-05 シャープ株式会社 移動体システム及び制御装置
JP2017092808A (ja) * 2015-11-13 2017-05-25 株式会社日立国際電気 画像監視システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200336893Y1 (ko) 2003-05-10 2003-12-24 황기택 Gps실시간 위치 수신정보를 위도 와 경도로 숫자표시하여 실시간으로 자신의 현재 위치를 지도상에서파악할 수 있도록 한 실시간 위도, 경도 표시장치.
KR20090024341A (ko) 2007-09-04 2009-03-09 삼성전자주식회사 이동 단말에서 위치 계산 방법 및 장치
KR101063922B1 (ko) * 2011-03-25 2011-09-08 김인수 목표물 위치 획득 및 감시시스템
KR20140004892A (ko) 2012-07-03 2014-01-14 한국해양과학기술원 한글을 사용한 위도 및 경도 표현 방법
JP2017003866A (ja) * 2015-06-12 2017-01-05 シャープ株式会社 移動体システム及び制御装置
JP2017092808A (ja) * 2015-11-13 2017-05-25 株式会社日立国際電気 画像監視システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102336480B1 (ko) 2021-03-04 2021-12-07 주식회사 스누아이랩 자동 세그먼트 분류를 위한 영상처리장치 및 그 장치의 구동방법
KR20230020184A (ko) 2021-08-03 2023-02-10 고현준 고정 카메라 및 이동 카메라를 이용한 영상 분석 장치
KR102396020B1 (ko) * 2021-10-08 2022-05-10 아룸테크 주식회사 Cctv 카메라 팬/틸트를 이용한 이벤트 발생지점의 위치 감지 장치 및 그 방법
KR102572907B1 (ko) * 2022-10-04 2023-08-31 주식회사 엔티에스 회전 카메라 영상 객체 위치정보 제공 시스템 및 방법
KR102605696B1 (ko) * 2022-12-12 2023-11-30 한국도로공사 정밀도로지도기반의 cctv 카메라 자세 및 객체 좌표 추정 방법 및 시스템

Similar Documents

Publication Publication Date Title
KR102154610B1 (ko) 이벤트 발생 위치 계산이 가능한 영상장치 및 그 장치의 구동방법
US10812941B2 (en) Positioning method and device
KR102327872B1 (ko) 영상기반 추적 객체의 gps 좌표추출장치 및 그 장치의 구동방법
EP3593324B1 (en) Target detection and mapping
KR100663483B1 (ko) 전방향 카메라를 이용한 무인 감시 방법 및 장치
US20070019073A1 (en) Statistical modeling and performance characterization of a real-time dual camera surveillance system
US20160191860A1 (en) Apparatus and method for displaying surveillance area of camera
US10645595B1 (en) System and method for identifying wireless coverage for multi-occupant structures
CN104661300B (zh) 定位方法、装置、系统及移动终端
US20220377285A1 (en) Enhanced video system
JP6917936B2 (ja) 位置検出をグラフィカル表現にマッピングするための方法、装置およびシステム
KR102584708B1 (ko) 과소 및 과밀 환경을 지원하는 군중위험관리시스템 및 방법
CN111277791B (zh) 一种案事件监测方法及系统
KR101639068B1 (ko) 공간 정보 기반 감시카메라의 피보호자 영상 제공 시스템
KR102336480B1 (ko) 자동 세그먼트 분류를 위한 영상처리장치 및 그 장치의 구동방법
KR102293570B1 (ko) 객체의 gps 좌표정보를 이용한 검색 서비스를 제공하는 영상분석장치 및 그 장치의 구동방법
KR102008672B1 (ko) 카메라와 연계해서 증강현실 프리미티브와 이벤트를 연동시키는 시스템 및 그 시스템의 구동방법
KR102367782B1 (ko) 객체추적장치 및 그 장치의 구동방법
KR102579511B1 (ko) 영상감시장치 및 그 장치의 구동방법, 영상감시시스템 및 컴퓨터 판독가능 기록매체
KR102572907B1 (ko) 회전 카메라 영상 객체 위치정보 제공 시스템 및 방법
US20240153276A1 (en) Information processing apparatus, information processing method, information processing system, and computer readable medium
JP2017531878A (ja) モバイル機器とそのユーザ識別の同時決定
KR101634967B1 (ko) 3차원 영상 변환 기반의 앱 호환형 악천후 지역의 모니터링 시스템 및 그 방법
JP2024084136A (ja) 精密道路地図基盤のcctvカメラ姿勢および客体座標推定方法およびシステム
KR20220061536A (ko) 무선통신 카메라에서의 움직임 감지 장치 및 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant