KR102146098B1 - 영상 처리 방법, 영상 처리 장치, 및 감시 시스템 - Google Patents

영상 처리 방법, 영상 처리 장치, 및 감시 시스템 Download PDF

Info

Publication number
KR102146098B1
KR102146098B1 KR1020130099929A KR20130099929A KR102146098B1 KR 102146098 B1 KR102146098 B1 KR 102146098B1 KR 1020130099929 A KR1020130099929 A KR 1020130099929A KR 20130099929 A KR20130099929 A KR 20130099929A KR 102146098 B1 KR102146098 B1 KR 102146098B1
Authority
KR
South Korea
Prior art keywords
event
image
caption
camera
frame
Prior art date
Application number
KR1020130099929A
Other languages
English (en)
Other versions
KR20150022292A (ko
Inventor
송종섭
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020130099929A priority Critical patent/KR102146098B1/ko
Publication of KR20150022292A publication Critical patent/KR20150022292A/ko
Application granted granted Critical
Publication of KR102146098B1 publication Critical patent/KR102146098B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)

Abstract

본 발명의 일 실시예는 카메라로부터 감시 영역을 촬영한 영상을 획득하는 단계; 상기 영상으로부터 이벤트(event)를 검출하는 단계; 및 상기 이벤트가 발생한 시점에 대응하여 상기 이벤트의 정보를 상기 영상과 중첩하여 표시하는 자막을 생성하는 단계;를 포함하는 영상 처리 방법을 개시한다.

Description

영상 처리 방법, 영상 처리 장치, 및 감시 시스템{Method and apparatus of processing image, and surveillance system}
본 발명의 실시예들은 영상 처리 방법, 영상 처리 장치, 및 감시 시스템에 관한 것이다.
감시 시스템은 촬영 영역에 대한 정보를 서버 또는 특정 수신자를 대상으로 전송하여 공유하는 시스템이다. 감시 시스템에서는 네트워크 카메라들과 서버가 통신 네트워크를 통하여 연결된다. 감시 시스템은 상황에 따라 이벤트를 발생시킨다. 예를 들어, 침입자가 발생하였거나, 네트워크에 이상이 발생한 경우 이벤트를 발생시킨다. 다만 사용자가 표시 장치 등을 이용하여 영상을 볼 때, 사용자는 이벤트를 확인하기 위해 전체 영상을 모두 확인하여야 하는 불편함이 있다.
본 발명의 실시예들은 영상 처리 방법, 영상 처리 장치, 및 감시 시스템을 제공한다.
본 발명의 일 실시예는 카메라로부터 감시 영역을 촬영한 영상을 획득하는 단계; 상기 영상으로부터 이벤트(event)를 검출하는 단계; 및 상기 이벤트가 발생한 시점에 대응하여 상기 이벤트의 정보를 상기 영상과 중첩하여 표시하는 자막을 생성하는 단계;를 포함하는 영상 처리 방법을 개시한다.
본 실시예에 있어서 상기 카메라는 네트워크 카메라이고, 상기 자막은 상기 카메라의 상태 정보를 더 표시하고,
상기 상태 정보는 상기 카메라의 맥(Mac) 주소, 아이피(IP) 주소, 시리얼 넘버, 상기 영상의 프레임 레이트, 해상도, 및 상기 카메라에 접속한 사용자의 정보 중 적어도 하나를 포함할 수 있다.
본 실시예에 있어서 상기 이벤트는 객체의 움직임 인식, 화면 가림, 카메라 위치 변경, 얼굴 인식, 임계치를 초과하는 음향 인식, 및 네트워크 연결 인식 중 적어도 하나를 포함하고,
상기 자막은 상기 영상을 획득하는 과정에서 프레임 누락이 발생한 시점에 대응하여 상기 프레임 누락 정보를 더 표시할 수 있다.
본 실시예에 있어서, 상기 영상 및 상기 자막을 별도의 파일로 저장하는 단계를 더 포함할 수 있다.
본 발명의 다른 실시예는 카메라로부터 감시 영역을 촬영한 영상을 획득하는 영상 획득부; 상기 영상으로부터 이벤트를 검출하는 이벤트 검출부; 및 상기 이벤트가 발생한 시점에 대응하여 상기 이벤트의 정보를 상기 영상과 중첩하여 표시하는 자막을 생성하는 자막 생성부;를 포함하는 영상 획득 장치를 개시한다.
본 발명의 또 다른 실시예는 감시 영역을 촬영하는 카메라; 및 서버;를 포함하고, 상기 서버는 상기 카메라로부터 상기 감시 영역을 촬영한 영상을 획득하는 영상 획득부; 상기 영상으로부터 이벤트를 검출하는 이벤트 검출부; 및 상기 이벤트가 발생한 시점에 대응하여 상기 이벤트의 정보를 상기 영상과 중첩하여 표시하는 자막을 생성하는 자막 생성부;를 포함하는 감시 시스템을 개시한다.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.
이러한 일반적이고 구체적인 측면이 시스템, 방법, 컴퓨터 프로그램, 또는 어떠한 시스템, 방법, 컴퓨터 프로그램의 조합을 사용하여 실시될 수 있다.
본 발명의 실시예들에 관한 영상 처리 방법, 영상 처리 장치, 및 감시 시스템에 따르면, 영상의 이벤트 정보를 표시하는 자막이 생성되므로, 사용자는 영상을 보면서 영상과 함께 중첩되어 표시되는 자막을 통해 영상의 이벤트 정보를 쉽게 파악할 수 있다.
도 1은 본 발명의 일 실시예에 따른 감시 시스템을 도시한 것이다.
도 2는 도 1의 서버(20)를 개략적으로 나타낸 구성도이다.
도 3은 도 1의 서버(20)의 영상 처리 과정을 설명하기 위한 흐름도이다.
도 4는 도 3의 단계 33에서 생성된 자막이 영상과 중첩되어 표시된 일 예를 설명하기 위한 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
도 1은 본 발명의 일 실시예에 따른 감시 시스템을 도시한 것이다. 도 1을 참조하면, 감시 시스템(1)은 카메라(10), 서버(20) 및 저장 장치(30)를 포함한다.
카메라(10)는 감시영역을 촬영한다. 카메라(10)는 촬영한 영상을 서버(20)에 전송한다. 서버(20)는 카메라(10)로부터 획득한 영상으로부터 이벤트(event)를 검출하고, 검출된 이벤트 정보를 표시하는 자막 파일을 생성한다. 서버(20)는 영상 및 자막을 저장 장치(30)에 저장한다.
카메라(10)는 인터넷과 같은 네트워크를 사용하는 네트워크 카메라일 수 있다. 도 1에 상세히 도시하지 않았으나, 카메라(10)는 렌즈, 이미지 처리부, 엔코더, 스트림 전송부, 네트워크 어댑터, 마이크, 이벤트 발생부, 파일 전송부 등의 구성을 포함할 수 있다. 예를 들어, 카메라(10)는 렌즈를 통해 입사되는 광을 영상 신호로 변환하여 출력하고, 엔코더는 영상 신호로부터 영상 데이터를 생성하고, 스트림 전송부는 네트워크 어댑터를 통해 영상 데이터를 서버(20)로 전송할 수 있다. 카메라(10)는 마이크를 이용해 음향신호를 획득할 수 있으며, 영상 데이터는 음향 신호를 포함할 수 있다.
서버(20)는 카메라(10)로부터 획득한 영상으로부터 이벤트를 검출하고, 검출된 이벤트 정보로부터 자막을 생성한다. 서버(20)는 자막을 별도의 파일로 생성하여 저장 장치(30)에 저장한다. 자막 파일은 다양한 포맷으로 제공될 수 있는데, 예를 들어 aqt, jss, sub, ttxt, sub, pjs, psb, rt, smi, ssf, srt, ssa, ass, usf, idx 중 어느 하나의 확장자를 가질 수 있다.
저장 장치(30)는 서버(20)로부터 전송받은 데이터를 저장할 수 있다. 데이터는 영상 데이터, 및 자막 데이터일 수 있다. 서버(20)는 저장 장치(30)에 저장된 데이터를 불러올 수 있다. 서버(20)는 저장 장치(30)로부터 불러온 데이터를 서버(20)에 접속한 클라이언트에게 전송할 수 있다.
도 1에서는 서버(20)에 한 대의 카메라(10)가 연결된 것으로 도시되었으나, 이는 설명의 편의를 위한 것일 뿐 본 실시예가 이에 한정되지 않는다. 예를 들어, 일 실시예에 따른 감시 시스템(1)은 복수의 카메라를 포함할 수 있고, 복수의 카메라는 네트워크를 통해 서버(20)에 연결되어 서버(20)로 영상을 전송할 수 있다.
서버(20)의 구체적인 데이터 처리 방법에 관하여 도 2 내지 도 3을 참조하여 후술한다.
도 2는 도 1의 서버(20)를 개략적으로 나타낸 구성도이다. 도 2를 참조하면, 서버(20)는 영상 획득부(21), 이벤트 검출부(22), 및 자막 생성부(23)를 포함한다.
영상 획득부(21)는 카메라로부터 감시 영역을 촬영한 영상을 획득한다. 영상 획득부(21)는 획득한 영상을 이벤트 검출부(22)로 출력한다. 영상 획득부(21)는 획득한 영상을 저장 장치(30)로 출력하여 저장할 수 있다.
이벤트 검출부(22)는 영상 획득부(21)에 의해 획득된 영상으로부터 이벤트 정보를 검출한다. 이벤트(event)는 영상 내에서 발생하는 여러가지 사건을 포함할 수 있다. 예를 들어, 영상 내에서 사용자가 미리 설정한 조건이 만족되었을 때, 이벤트가 발생한 것으로 검출할 수 있다. 이벤트는 예를 들어, 객체의 움직임 인식, 화면 가림, 카메라 위치 변경, 얼굴 인식, 임계치를 초과하는 음향 인식, 및 네트워크 연결 인식 중 적어도 하나를 포함하는 것일 수 있다.
자막 생성부(23)는 이벤트 검출부(22)에 의해 검출된 이벤트가 발생한 시점에 대응하여, 이벤트의 정보를 표시하는 자막을 생성한다.
이벤트가 발생한 시점에 대응하여 이벤트의 정보를 표시한다는 것은, 이벤트가 발생한 프레임이 표시될 때 동시에 이벤트의 정보를 중첩하여 표시한다는 의미이다. 자막은 이벤트가 발생된 프레임이 표시되는 시점으로부터 소정 시간동안 표시되거나, 이벤트가 발생한 프레임이 표시되는 시점의 전후로 소정 시간동안 표시될 수 있다. 이와 같은 상세한 설정은 본 실시예가 실시되는 상황의 요구에 따라 다양하게 조절 가능하다.
자막 생성부(23)에 의해 생성된 자막은 영상과 중첩하여 표시될 수 있다. 자막 생성부(23)에 의해 생성된 자막은 별도의 파일로써 저장 가능하며, 자막 파일의 형식은 영상 플레이어에 따라 다양하게 제공될 수 있다.
자막에 의해 표시되는 이벤트 정보는, 이벤트의 특징을 간략하게 나타내는 것일 수 있다. 예를 들어, 객체의 움직임 인식 이벤트가 검출된 경우, 자막은 이벤트가 검출된 시점에 대응하여 ‘MOTION DETECTED’의 문구를 표시할 수 있다. 그 외에도 다양한 이벤트에 대응하여, 다양한 문구가 자막으로 표시될 수 있다.
다음의 표 1은 이벤트 검출부(22)에 의해 영상으로부터 검출된 이벤트의 종류 및 각 이벤트에 따라 자막으로 표시되는 이벤트 정보의 문구의 예를 나타낸 것이다.
이벤트 종류 자막
영상 내에서 움직이는 물체가 감지된 경우 MOTION DETECTED
화면이 가려지거나 카메라의 위치가 변경된 경우 TEMPERING DETECTED
지정한 영역에서 사람의 얼굴이 감지된 경우 FACE DETECTED
설정한 임계치 이상의 음향이 감지된 경우 AUDIO DETECTED
민감도, 크기, 또는 영역 조건 하에서, 이벤트 규칙 조건을 만족하는 움직임이 감지된 경우 VIDEO ANALYSIS
알람이 발생된 경우 ALARM INPUT
이벤트가 발생하지 않은 경우 NORMAL RECORDING
상기 표 1을 참조하면, 이벤트 검출부(22)는 영상으로부터 다양한 이벤트를 검출하고, 검출된 이벤트에 대응되는 문구를 자막으로 표시하도록 이벤트 정보를 자막 생성부(23)에 전송할 수 있다. 상기 표 1에 기재된 이벤트는 영상 획득부(21)에 의해 획득된 영상 및 상기 영상에 포함된 음향으로부터 검출되는 이벤트를 포함한다.
상기 표 1에 표시된 자막의 문구는 하나의 예시일 뿐이며, 각 이벤트의 종류에 대응하는 다양한 문구가 사용될 수 있음은 물론이다. 예를 들어, 이벤트가 발생하지 않은 경우 ‘NORMAL RECORDING’이라는 문구 대신, ‘TIME SCHEDULE’ 또는 ‘TIME SCHEDULE(NORMAL RECORDING)’과 같은 문구를 사용할 수 있다.
상기 표 1에서, 알람이 발생되는 경우는, 특정 이벤트가 발생하였을 때 카메라에 접속된 사용자에게 알람 메시지를 전송하거나, 서버(20)에 알람 메시지를 전송하는 경우를 의미하는 것일 수 있다.
다음의 표 2는 카메라(10)로부터 서버(20)로 영상이 전송되는 과정에서 발생되는 이벤트의 종류 및 각 이벤트에 따라 자막으로 표시되는 이벤트 정보의 문구의 예를 나타낸 것이다.
이벤트 종류 자막
네트워크 연결이 끊긴 경우 NETWORK DISCONNECTED
네트워크 연결이 재개된 경우 NETWORK RE-CONNECTED
프레임 누락이 발생한 경우 FRAME DROPPED
상기 표 2에서, 프레임 누락은 카메라(10)에서 서버(20)로 영상이 전송되는 과정에서, 네트워크 전송 속도 등의 문제로 일부 프레임이 누락된 경우를 의미하는 것일 수 있다. 예를 들어, 카메라(10)에서 영상이 60fps(frame per second)로 촬영되었으나, 카메라(10)에서 서버(20)로의 데이터 전송 속도의 한계로 1초에 60개의 프레임이 전송되지 못한 경우에, 일부 프레임을 누락시킴으로써 전체적인 영상의 전송이 지연되는 것을 방지할 수 있다. 이렇게 전송된 영상을 나중에 재생하게 되면 1초에 60개 미만의 프레임이 재생된다. 사용자는 이와 같은 프레임의 누락을 영상의 오류로 인식하거나 데이터 처리 과정에서 버그가 발생한 것으로 인식할 우려가 있다. 따라서, 서버(20)가 영상을 획득하는 과정에서 프레임 누락이 발생한 경우, 이를 이벤트로써 검출하고, ‘FRAME DROPPED’라는 문구를 자막으로 표시함으로써, 사용자에게 프레임 누락 사실을 알릴 수 있다.
상기 표 2에 표시된 자막의 문구 역시 하나의 예시일 뿐이며, 각 이벤트의 종류에 대응하는 다양한 문구가 사용될 수 있음은 물론이다.
상기 표 2에 표시된 이벤트들은 네트워크의 상태 변화를 감지하는 상태 정보 획득부(25) 및 프레임 누락을 감지하는 프레임 누락 검출부(24)에 의해 검출될 수 있다.
이를 위하여 본 발명의 일 실시예에 따른 서버(20)는 프레임 누락 검출부(24)를 더 포함할 수 있다. 프레임 누락 검출부(24)는 영상 획득부(21)가 카메라(10)로부터 영상을 획득하는 과정에서 누락된 프레임이 있는가의 여부를 검출한다. 영상 획득부(21)는 카메라(10)로부터 영상을 획득하는 과정에서 프레임 누락이 발생된 경우 프레임 누락 검출부(24)에 프레임 누락이 발생되었음을 알리는 신호를 출력한다.
프레임 누락 검출부(24)는 프레임 누락 발생 정보를 이벤트 검출부(22)로 출력한다. 이벤트 검출부(22)는 프레임 누락을 이벤트로써 검출한다. 이벤트 검출부(22)는 프레임 누락 이벤트의 정보를 자막 생성부(23)에 출력한다. 자막 생성부(23)는 이벤트 검출부(22)로부터 획득한 프레임 누락 이벤트의 정보를 자막에 반영할 수 있다. 이에 따라, 자막 생성부(23)에 의해 생성된 자막은 프레임 누락 정보를 더 표시할 수 있다.
프레임 누락 정보는 영상에서 프레임 누락이 발생한 시점에 대응하여 표시될 수 있다. 예를 들어, 프레임 누락 정보는 프레임 누락이 발생한 시점으로부터 소정 시간동안 표시될 수 있다.
본 발명의 일 실시예에 따른 서버(20)는 상태정보 획득부(25)를 더 포함할 수 있다. 상태정보 획득부(25)는 카메라(10)로부터 카메라의 상태에 관련된 정보를 획득한다. 예를 들어, 상태정보 획득부(25)는 카메라의 성능, 네트워크 상태, 및 영상의 품질에 관련된 정보를 획득한다. 예를 들어, 상태정보 획득부(25)는 네트워크 카메라의 맥(Mac) 주소, 아이피(IP) 주소, 시리얼 넘버(serial number), 카메라로부터 전송되는 영상의 프레임 레이트, 비트레이트, 코덱, 해상도, 및 카메라(10)에 접속된 사용자의 정보(예를 들어, 사용자의 아이디) 중 적어도 하나의 정보를 획득한다.
상태 정보 획득부(25)는 획득한 상태 정보를 자막 생성부(23)에 출력한다. 자막 생성부(23)는 상태정보 획득부(25)로부터 획득한 상태 정보를 자막에 반영할 수 있다. 이에 따라, 자막 생성부(23)에 의해 생성된 자막은 카메라의 상태 정보를 더 표시할 수 있다.
상태 정보 획득부(25)는 카메라(10)와 서버(20) 간의 네트워크에 대한 상태 정보를 더 획득할 수 있다. 상태 정보 획득부(25)는 획득한 네트워크 상태 정보를 자막 생성부(23)에 출력한다. 자막 생성부(23)는 네트워크에 관련된 특정 상황이 발생한 시점에 대응하여 네트워크의 상태 정보에 대한 자막이 표시되도록 자막을 생성한다.
예를 들어, 카메라(10)와 서버(20) 간의 네트워크 연결이 끊어진 경우, 상태 정보 획득부(25)는 이벤트를 검출하고 이벤트 정보를 자막 생성부(23)에 출력할 수 있다. 이에 따라 자막 생성부(23)는 네트워크 연결이 끊겼음을 알리는 문구(예를 들어, ‘NETWORK DISCONNECTED’)를 자막에 반영한다.
카메라(10)와 서버(20) 간의 네트워크 연결이 다시 재개된 경우, 상태 정보 획득부(25)는 이벤트를 검출하고 이벤트 정보를 자막 생성부(23)에 출력할 수 있다. 이에 따라 자막 생성부(23)는 네트워크 연결이 재개되었음을 알리는 문구(예를 들어, ‘NETWORK RE-CONNECTED’)를 자막에 반영한다.
자막에 표시되는 상태 정보는, 사용자의 설정에 따라 표시 여부가 제어될 수 있다. 자막에 너무 많은 정보가 표시되어 영상의 시인성이 떨어진다고 판단되면, 사용자는 상태 정보를 표시하지 않도록 설정할 수 있다. 또는, 사용자는 복수의 상태 정보 중, 일부의 상태 정보만을 표시하도록 설정할 수 있다. 사용자는 각각의 상태 정보의 표시 여부를 독립적으로 설정할 수 있다.
사용자는 상태 정보가 변경되었을 때에만 소정 시간동안 상태 정보를 표시하도록 설정할 수도 있다. 예를 들어, 영상의 n번째 프레임 이후부터 해상도가 변경된 경우, n번째 프레임부터 소정 시간동안만 해상도 정보를 자막으로 표시할 수 있다.
서버(20)는 영상 획득부(21)에 의해 획득된 영상 및, 자막 생성부(23)에 의해 생성된 자막을 저장 장치(30)에 저장한다. 영상과 자막은 별도의 파일로 저장될 수 있다. 영상과 자막은 별도의 파일로 저장되고, 별도의 파일로써 표시 장치에 제공되더라도, 표시 장치에 표시되는 단계에서 서로 동기화되어 중첩되어 표시될 수 있다. 그러나 저장 장치의 용량의 한계와 같은 특별한 사정이 있는 경우, 영상과 자막은 중첩되어 하나의 영상 파일로 저장될 수도 있다.
도 3은 도 1의 서버(20)의 영상 처리 과정을 설명하기 위한 흐름도이다. 도 3을 참조하면, 단계 31에서 영상 획득부(21)는 카메라로부터 감시 영역을 촬영한 영상을 획득한다. 카메라는 네트워크 카메라일 수 있다.
다음으로, 단계 32에서 이벤트 검출부(22)는 단계 31에서 획득된 영상으로부터 이벤트를 검출한다. 이벤트는 이벤트는 객체의 움직임 인식, 화면 가림, 카메라 위치 변경, 얼굴 인식, 임계치를 초과하는 음향 인식, 및 네트워크 연결 인식 중 적어도 하나를 포함한다.
본 발명의 일 실시예에 따라, 단계 32에서 프레임 누락 검출부(24)는 프레임 누락 정보를 검출하고, 상태 정보 획득부(25)는 카메라의 상태 정보 또는 카메라와 서버 간의 네트워크의 상태 정보를 획득할 수 있다.
상태 정보는 카메라의 맥(Mac) 주소, 아이피(IP) 주소, 시리얼 넘버, 상기 영상의 프레임 레이트, 해상도, 및 상기 카메라에 접속한 사용자의 정보 중 적어도 하나를 포함한다.
다음으로, 단계 33에서 자막 생성부(23)는 단계 32에서 검출된 이벤트가 발생한 시점에 대응하여 이벤트의 정보를 영상과 중첩하여 표시하는 자막을 생성한다. 본 발명의 일 실시예에 따라, 단계 33에서 자막 생성부(23)는 단계 32에서 검출된 프레임 누락 정보 및 상태 정보를 더 표시하도록 자막을 생성한다. 각 이벤트는 이벤트가 발생한 시점에 대응하여 표시된다. 예를 들어, 프레임 누락 정보는 프레임 누락이 발생한 시점에 대응하여 표시된다.
도 3에 도시된 흐름도는, 도 1에 도시된 감시 시스템(1) 및 도 2에 도시된 서버(20)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 전술된 도 3의 설명과 관련하여 생략된 내용이라 하더라도, 도 1 및 도 2에서 도시된 구성들에 관하여 이상에서 기술된 내용은 도 3에 도시된 흐름도에도 적용됨을 알 수 있다.
한편, 도 3에 도시된 본 발명의 일 실시예에 따른 영상 검색 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
도 4는 도 3의 단계 33에서 생성된 자막이 영상과 중첩되어 표시된 일 예를 설명하기 위한 도면이다.
도 4의 (a)는 영상 내에서 움직임이 감지되어 이벤트가 발생한 경우를 도시한 것이다. 도 4의 (b)는 영상 내에서 아무런 이벤트가 발생하지 않았을 때 정상적으로 촬영되고 있는 경우를 도시한 것이다. 도 4의 (c)는 영상이 전송되는 과정에서 일부 프레임이 누락된 경우를 도시한 것이다.
도 4에 도시된 바와 같이, 사용자는 영상을 보면서 자막을 통해 이벤트 정보를 동시에 확인할 수 있다.
도 4에서는 자막이 영상의 하단에 표시된 예를 도시하였으나, 자막의 위치는 본 예시에 한정되지 않으며, 다양한 위치에 표시될 수 있다. 또한 본 예시의 변형예에 따라, 자막은 깜빡거리면서 표시되거나, 왼쪽 또는 오른쪽으로 슬라이드되면서 표시될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있으며, 균등한 다른 실시 예가 가능함을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
1: 감시 시스템
10: 카메라
20: 서버
30: 저장 장치
21: 영상 획득부
22: 이벤트 검출부
23: 자막 생성부
24: 프레임 누락 검출부
25: 상태정보 획득부

Claims (6)

  1. 카메라로부터 감시 영역을 촬영한 영상을 획득하는 단계;
    상기 영상으로부터 미리 설정된 조건을 만족하는 이벤트(event)의 발생을 검출하는 단계;
    상기 이벤트의 특징을 내용으로 하는 자막을, 상기 영상의 상기 이벤트가 발생된 시점에 대한 자막으로 생성하는 단계; 및
    상기 이벤트가 발생한 프레임이 표시될 때 상기 이벤트의 특징에 대한 내용이 상기 프레임과 함께 표시되도록 상기 영상 및 상기 자막을 표시 장치에 제공하는 단계;를 포함하는
    영상 처리 방법.
  2. 제1 항에 있어서,
    상기 카메라는 네트워크 카메라이고,
    상기 자막은 상기 카메라의 상태 정보를 더 표시하고,
    상기 상태 정보는 상기 카메라의 맥(Mac) 주소, 아이피(IP) 주소, 시리얼 넘버, 상기 영상의 프레임 레이트, 해상도, 및 상기 카메라에 접속한 사용자의 정보 중 적어도 하나를 포함하는
    영상 처리 방법.
  3. 제1 항에 있어서,
    상기 이벤트는 객체의 움직임 인식, 화면 가림, 카메라 위치 변경, 얼굴 인식, 임계치를 초과하는 음향 인식, 및 네트워크 연결 인식 중 적어도 하나를 포함하고,
    상기 자막은 상기 영상을 획득하는 과정에서 프레임 누락이 발생한 시점에 대응하여 상기 프레임 누락 정보를 더 표시하는
    영상 처리 방법.
  4. 카메라로부터 감시 영역을 촬영한 영상을 획득하는 영상 획득부;
    상기 영상으로부터 미리 설정된 조건을 만족하는 이벤트(event)의 발생을 검출하는 이벤트 검출부; 및
    상기 이벤트의 특징을 내용으로 하는 자막을, 상기 영상의 상기 이벤트가 발생된 시점에 대한 자막으로 생성하는 자막 생성부;를 포함하고,
    상기 이벤트가 발생한 프레임이 표시될 때 상기 이벤트의 특징에 대한 내용이 상기 프레임과 함께 표시되도록 상기 영상 및 상기 자막을 표시 장치에 제공하는, 영상 획득 장치.
  5. 감시 영역을 촬영하는 카메라;
    상기 카메라로부터 획득한 영상으로부터 미리 설정된 조건을 만족하는 이벤트의 발생을 검출하고, 상기 이벤트의 특징을 내용으로 하는 자막을 생성하는 서버; 및
    상기 서버로부터 상기 영상 및 상기 자막을 수신하여 표시하는 표시 장치;를 포함하고,
    상기 서버는
    상기 카메라로부터 상기 영상을 획득하는 영상 획득부;
    상기 영상으로부터 상기 이벤트를 검출하는 이벤트 검출부; 및
    상기 자막을 상기 영상의 상기 이벤트가 발생된 시점에 대한 자막으로 생성하는 자막 생성부;를 포함하고,
    상기 이벤트가 발생한 프레임이 표시될 때 상기 이벤트의 특징에 대한 내용이 상기 프레임과 함께 표시되도록 상기 영상 및 상기 자막을 상기 표시 장치에 제공하는, 감시 시스템.
  6. 삭제
KR1020130099929A 2013-08-22 2013-08-22 영상 처리 방법, 영상 처리 장치, 및 감시 시스템 KR102146098B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130099929A KR102146098B1 (ko) 2013-08-22 2013-08-22 영상 처리 방법, 영상 처리 장치, 및 감시 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130099929A KR102146098B1 (ko) 2013-08-22 2013-08-22 영상 처리 방법, 영상 처리 장치, 및 감시 시스템

Publications (2)

Publication Number Publication Date
KR20150022292A KR20150022292A (ko) 2015-03-04
KR102146098B1 true KR102146098B1 (ko) 2020-08-19

Family

ID=53020318

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130099929A KR102146098B1 (ko) 2013-08-22 2013-08-22 영상 처리 방법, 영상 처리 장치, 및 감시 시스템

Country Status (1)

Country Link
KR (1) KR102146098B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102231795B1 (ko) * 2020-12-18 2021-03-25 (주)지비유 데이터링크스 대용량 cctv 영상 제공 및 저장 서버와 이를 포함하는 cctv 영상 제공 및 저장 시스템
KR102580900B1 (ko) * 2021-10-14 2023-09-20 주식회사 아틴스 이벤트 검출 기반 영상 저장 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101033238B1 (ko) * 2010-08-26 2011-05-06 주식회사 대덕지에스 영상 감시 장치와 영상 감시 프로그램이 기록된 기록매체

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101830656B1 (ko) * 2011-12-02 2018-02-21 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR200470259Y1 (ko) * 2012-01-04 2013-12-11 (주) 하나텍시스템 Cctv카메라 제어기

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101033238B1 (ko) * 2010-08-26 2011-05-06 주식회사 대덕지에스 영상 감시 장치와 영상 감시 프로그램이 기록된 기록매체

Also Published As

Publication number Publication date
KR20150022292A (ko) 2015-03-04

Similar Documents

Publication Publication Date Title
KR102146042B1 (ko) 녹화된 비디오를 재생하기 위한 방법 및 시스템
TWI433057B (zh) 改良的警報前視訊緩衝器
US10412345B2 (en) Video surveillance method, apparatus and system
US8224027B2 (en) Method and apparatus for managing video data
KR101218360B1 (ko) 감시시스템 및 그 제어방법
US10043079B2 (en) Method and apparatus for providing multi-video summary
JP2009542124A (ja) マルチメディアを取り込むための組み込み機器
US9411690B2 (en) Security surveillance apparatus with networking and video recording functions and failure detecting and repairing method for storage device thereof
JP2007243699A (ja) 映像記録再生方法及び映像記録再生装置
JP4912184B2 (ja) 映像監視システムおよび映像監視方法
JP2008035095A (ja) 監視装置、監視システム、監視方法及びプログラム
US20080255840A1 (en) Video Nametags
KR20070060612A (ko) 디지털 비디오 레코더에서의 감시영상 출력방법
KR100741721B1 (ko) 정지영상을 함께 출력하는 보안감시시스템
KR102146098B1 (ko) 영상 처리 방법, 영상 처리 장치, 및 감시 시스템
JP4611042B2 (ja) 映像出力システムおよび映像を出力するための制御プログラム
US20230125724A1 (en) Computer-implemented method and non-transitory computer-readable medium for generating a thumbnail from a video stream or file, and video surveillance system
US20120134534A1 (en) Control computer and security monitoring method using the same
KR101264667B1 (ko) 비디오 파일의 썸네일 이미지 생성 방법 및 그 방법이 기록된 기록매체
JP7099687B2 (ja) 映像監視システム及びその方法と処理装置
US11172159B2 (en) Monitoring camera system and reproduction method
JP5646716B2 (ja) 映像表示装置及び映像表示方法
JP6576119B2 (ja) 出力装置、映像監視システム、情報処理方法及びプログラム
KR101529612B1 (ko) 무선 보안 시스템 및 방법
KR101335647B1 (ko) 저장장치 일체형 방범용 카메라 시스템 및 그를 이용한 감시방법

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant