KR20180134114A - Real Time Video Surveillance System and Method - Google Patents

Real Time Video Surveillance System and Method Download PDF

Info

Publication number
KR20180134114A
KR20180134114A KR1020170071593A KR20170071593A KR20180134114A KR 20180134114 A KR20180134114 A KR 20180134114A KR 1020170071593 A KR1020170071593 A KR 1020170071593A KR 20170071593 A KR20170071593 A KR 20170071593A KR 20180134114 A KR20180134114 A KR 20180134114A
Authority
KR
South Korea
Prior art keywords
image
unit
camera
processing unit
image processing
Prior art date
Application number
KR1020170071593A
Other languages
Korean (ko)
Inventor
조성현
Original Assignee
주식회사 월드씨엔에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 월드씨엔에스 filed Critical 주식회사 월드씨엔에스
Priority to KR1020170071593A priority Critical patent/KR20180134114A/en
Publication of KR20180134114A publication Critical patent/KR20180134114A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • H04N5/2258
    • H04N5/23296
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

The present invention relates to a real time image monitoring system and, more specifically, to a closed circuit television (CCTV)-type monitoring system based on a wide-angle photographing camera. The real time image monitoring system of the present invention comprises: a remote control device; a plurality of master cameras which are connected to the remote control device, and each of which acquires a wide area image of a monitoring area which is at least a part of a monitoring object area, detects a motion object in the monitoring area, transmits motion object detection information to the remote control device, and stores the wide area image and a concentrated monitoring image; and a plurality of slave cameras, each of which is connected to any one of the master cameras and acquires the concentrated monitoring image for a part of the monitoring area.

Description

실시간 영상 감시 시스템{Real Time Video Surveillance System and Method}Real Time Video Surveillance System and Method

본 발명은 실시간 영상감시 시스템에 관한 것으로서, 보다 상세하게는, 광범위한 광각 촬영 카메라를 이용한 폐쇄회로 텔레비전(CCTV) 방식의 감시 시스템에 관한 것이다. The present invention relates to a real-time video surveillance system, and more particularly, to a surveillance system of a closed-circuit television (CCTV) system using a wide-angle camera.

일반적으로 CCTV 감시 시스템은 감시대상 지역을 촬영하기 위한 카메라와, 상기 카메라에 접속되는 원격 감시 유닛을 포함한다. 통상적으로, 카메라는 원격 감시 유닛에 의해 동작이 제어되고, 상기 카메라에 의해 촬영된 영상은 원격 감시 유닛에 전송되어, 원격 감시 유닛의 모니터에 표시됨과 아울러 저장장치에 저장된다.Generally, the CCTV surveillance system includes a camera for photographing a surveillance target area and a remote surveillance unit connected to the camera. Typically, the camera is controlled by a remote monitoring unit, and an image photographed by the camera is transmitted to a remote monitoring unit, displayed on a monitor of the remote monitoring unit, and stored in a storage device.

다양한 종류의 감시 카메라가 사용되고 있지만, 본 출원이 행해지는 시점에서 가장 널리 사용되는 카메라 중 하나는 초점거리가 일정하게 고정되어 있는 고정식 카메라이다. 그런데 고정식 카메라는 시야각이 좁고 촬영가능 범위가 운용자가 최초 설정한 감시 방향에 따라 극히 좁은 지역에 제한되는 문제점이 있다.While various types of surveillance cameras are used, one of the most widely used cameras at the time of this application is a fixed camera with a fixed focal length. However, the fixed camera has a problem that the view angle is narrow and the photographable range is limited to an extremely narrow area according to the monitoring direction initially set by the operator.

최근 강력 범죄의 잦은 발생으로 사회적 불안감이 증가됨에 따라 개인이나 공공 안전에 대한 관심이 증가되고 있다. Recently, due to the frequent occurrence of violent crime, social anxiety has increased and interest in individuals and public safety has increased.

이러한 이유로 범죄의 사전 예방과 사후분석 및 신속한 해결을 위한 영상 감시 시스템의 개발 및 활용에 대한 중요성이 증대되고 있다. For this reason, the importance of the development and application of video surveillance system for prevention, post-analysis and quick resolution of crime is increasing.

영상 감시 시스템에서 화질개선, 영상전송 및 저장 기술은 과거 시스템에 비해 많이 발전되었다.In image surveillance system, image quality improvement, image transmission and storage technology have developed much more than in past systems.

또한, 인터넷과 연결되는 네트워크 카메라를 개발하여 원격으로 영상 감시를 수행할 수 있게 되었다. Also, by developing a network camera connected to the Internet, it is possible to perform video surveillance remotely.

이러한 시스템은 주변기술과 접목하여 응용범위가 광범위하게 넓어지고 있으며, 가격이 비교적 저렴해짐에 따라 효율적인 영상 감시 시스템의 폭넓은 보급이 가능해졌다.These systems are widely applied to the peripheral technology, and as the price is relatively low, it is possible to widely distribute the effective video surveillance system.

CCTV(Closed Circuit Television)은 광역 카메라를 이용하여 공공장소나 우범지역, 출입통제구역과 같이 보안을 요구하는 장소에 설치하고, 화면 영상을 감시 인력이 직접 모니터링 하거나 저장 장치에 녹화 후 사후영상분석을 통해 대처하는 방식의 감시를 수행하게 된다.CCTV (Closed Circuit Television) is installed in a place requiring security such as a public place, a hunting area, and an access control area using a wide-area camera, and the screen image is directly monitored by the monitoring personnel or recorded in a storage device, And the like.

하지만, 종래의 CCTV 감시 시스템은 고정반경의 지역 감시만을 수행하므로 광범위한 지역 감시를 위해서는 다수의 카메라를 설치해야 하며, 감시 지역의 환경에 따라 사각지역이 발생되는 문제점이 있었다.However, since the conventional CCTV surveillance system only performs local area surveillance for a fixed radius, a large number of cameras must be installed for a wide area surveillance, and a rectangular area is generated depending on the environment of the surveillance area.

또한 복수개의 CCTV 카메라가 설치되더라도, CCTV 카메라들간의 연동과 동작 스케줄에 대한 연산량이 증가하여 카메라가 객체를 추적하는 동작이 지연되는 문제점이 있었다.In addition, even if a plurality of CCTV cameras are installed, there is a problem that the operation amount of the CCTV cameras is interlocked and the operation schedule is increased, so that the operation of tracking the object by the camera is delayed.

그리고, 기존의 CCTV 카메라의 경우에 현장에서 발생한 상황 알람 정보에 따라 각각에 맞는 자동 경고 방송을 송출시키는 기능이 없어, 범죄행위를 사전에 예방시킬 수 없는 문제점이 있었다.In addition, in the case of a conventional CCTV camera, there is a problem that it is impossible to prevent a criminal act in advance because there is no function of transmitting an automatic warning broadcast according to situation alarm information generated in the field.

수평회전(즉, 패닝) 및 수직회전(즉, 틸팅)과 줌인/줌아웃이 가능한 팬틸트줌(Pan-Tilt-Zoom, 이하 'PTZ'라 함) 카메라도 널리 사용되고 있다. PTZ 카메라는 수평회전과 수직회전 및 줌인/줌아웃이 원격제어될 수 있기 때문에, 원격 감시 유닛의 지시에 따라 감시 영역을 변경하거나 특정 대상만을 추적하면서 집중감시할 수도 있다. 그런데, PTZ 카메라조차도 렌즈의 사각(寫角)이 제한적이어서 현재 카메라의 바라보고 있는 방향에 공간적으로 달라지기는 하지만 촬영이 불가능한 사각(死角)지대가 존재한다. 특히, 렌즈를 줌인하고 패닝 및 틸팅 메커니즘을 구동하여 특정 대상을 추적하는 경우에는, 피추적 객체의 주위를 제외한 여타 지역에 대해서는 감시가 불가능해져 사각(死角)지대가 더욱 넓어진다.Pan-tilt-zoom (PTZ) cameras capable of horizontal rotation (i.e., panning) and vertical rotation (i.e., tilting) and zooming in / zooming out are also widely used. Since the PTZ camera can remotely control the horizontal rotation, the vertical rotation, and the zoom in / out, it is possible to change the surveillance area according to the instructions of the remote surveillance unit, or intensively monitor only the specific target. However, even a PTZ camera has a limited angular range of the lens, and thus there is a dead angle zone that can not be photographed although it varies spatially in the direction of the current camera. Particularly, in the case of tracking a specific object by zooming in the lens and driving the panning and tilting mechanism, it becomes impossible to observe other areas except the object to be traced, thereby widening the blind spot.

감시 범위를 넓히기 위한 방안으로서, 어안렌즈와 같은 광각 렌즈를 채용하는 파노라마 카메라(광각 카메라 또는 전방향 카메라로 칭해지기도 함)를 사용하는 방안도 제시된 바 있다. 대한민국 특허 제663483호(발명의 명칭: 전방향 카메라를 이용한 무인 감시 방법 및 장치)와 대한민국 공개특허 2009-15311호(발명의 명칭: 영상 감시시스템)가 그 예이다. 그런데, 어안렌즈 카메라는 촬영되는 영상이 원형으로서 전체적으로 왜곡이 심할 뿐만 아니라 특히 영상 가장자리에서는 사물의 식별이 곤란하다. 나아가, 커비리니어(curvilinear)한 영상 속성으로 말미암아, 움직임 객체의 추적 감시는 더욱 어렵다. 따라서 어안렌즈 카메라는 전체적인 정황을 살피는 데에는 유용하지만, 움직임 객체의 집중 감시에는 적합하지가 않다.As a means for widening the range of surveillance, a method of using a panoramic camera (also referred to as a wide-angle camera or an omnidirectional camera) employing a wide-angle lens such as a fish-eye lens has been proposed. Korean Patent No. 663483 entitled "Unmanned monitoring method and apparatus using an omnidirectional camera" and Korean Patent Publication No. 2009-15311 (title of the invention: video surveillance system) are examples. However, in the fisheye lens camera, the image to be photographed is a circular shape, and not only the distortion of the entire image is severe, but it is particularly difficult to identify the object at the edge of the image. Furthermore, due to curvilinear image properties, tracking of motion objects is more difficult. Therefore, a fisheye lens camera is useful for exploring the whole context, but it is not suitable for intensive monitoring of motion objects.

이에 따라, 최근에는 광역감시 카메라와 집중감시 카메라를 결합한 감시 시스템이 확산되는 추세에 있다. 예컨대, 공개특허 2005-0103597호(발명의 명칭: 실시간 파노라마 비디오 영상을 이용한 감시 시스템 및 그 시스템의 제어방법)에는 다수의 컴포넌트 카메라에 의해 획득된 파노라마 영상으로부터 영상의 특정부분을 선택하고 선택된 부분을 PTZ카메라가 촬영하도록 제어하는 시스템이 기재되어 있다. 이와 같은 시스템에 따르면, 파노라마 카메라에 의해 전방향 감시할 수 있고, 움직임이 포착되면 PTZ 카메라에 의해 움직임 객체를 추적 감시할 수 있게 된다.Accordingly, in recent years, a surveillance system combining a wide area surveillance camera and a concentrated surveillance camera has been spreading. For example, in Japanese Unexamined Patent Application Publication No. 2005-0103597 (entitled " Surveillance system using real-time panoramic video image and control method thereof "), a specific part of an image is selected from a panoramic image acquired by a plurality of component cameras, A system for controlling the PTZ camera to shoot is disclosed. According to such a system, it is possible to monitor the forward direction by the panoramic camera, and when the motion is captured, the motion object can be tracked and monitored by the PTZ camera.

본 발명은 이와 같은 문제점을 해결하기 위한 것으로서, 광범위한 감시대상 지역을 감시할 수 있으면서, 원격 감시 유닛의 컴퓨팅 부담을 줄일 수 있고, 다수의 카메라로부터 원격 감시 유닛으로의 신호전송을 위한 선로의 대역폭과 이에 따른 선로 포설 비용과 유지관리 비용을 감소시킬 수 있으며, 필요에 따라 감시대상 지역에 출몰한 움직임 객체의 경로와 집중 감시 영상을 재현할 수 있는 감시 시스템을 제공하는 것을 그 기술적 과제로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems and it is an object of the present invention to provide a video surveillance system and a video surveillance system capable of monitoring a wide range of surveillance target areas, And to provide a surveillance system capable of reducing the cost of line installation and maintenance costs, and capable of reproducing a motion object path and an intensive monitoring image appearing in a monitored area as needed.

상기 기술적 과제를 달성하기 위한 본 발명의 감시 시스템은 전방향 카메라와, 집중감시 카메라와, 감시제어 장치를 구비한다.According to an aspect of the present invention, there is provided a surveillance system including an omnidirectional camera, a centralized surveillance camera, and a surveillance controller.

상기 기술적 과제를 달성하기 위한 본 발명의 감시 시스템은 원격 통제 장치; 상기 원격 통제 장치에 접속되며, 각각이 감시대상 지역 중 적어도 일부인 감시 영역에 대한 광역영상을 획득하며, 상기 감시 영역 내의 움직임 객체를 검출하고, 움직임 객체 검출 정보를 상기 원격 통제 장치에 전송하며, 상기 광역영상과 집중감시영상을 저장하는 복수의 마스터 카메라들; 및 각각이 상기 복수의 마스터 카메라들 중 어느 하나에 접속되고 상기 감시 영역 중 일부에 대한 상기 집중감시영상을 획득하는 복수의 슬레이브 카메라들;를 구비한다.According to an aspect of the present invention, there is provided a surveillance system comprising: a remote control device; Acquiring a wide area image of a surveillance area each of which is at least a part of a surveillance target area, detecting a motion object in the surveillance area, transmitting motion object detection information to the remote control device, A plurality of master cameras for storing a wide area image and a concentrated monitoring image; And a plurality of slave cameras each connected to any one of the plurality of master cameras and acquiring the centralized monitoring image for a part of the surveillance area.

한편, 상기 다른 기술적 과제를 달성하기 위한 본 발명의 감시 방법에 따르면, 먼저, 외측을 향하면서 서로 대칭이 되게 배치되는 복수의 광각 렌즈와, 각각이 상기 복수의 광각 렌즈 각각에 대응하여 마련되는 복수의 이미지 센서를 구비하여, 전 방위각 및 전 고도각을 화각으로 가지는 전방향 카메라를 사용하여 전방향 영상을 획득한다. 이어서, 상기 전방향 카메라를 수평회전시켜 상기 전방향 영상을 다시 획득하여 상기 전방향 영상의 왜곡을 보완하면서, 상기 전방향 영상 내에서 움직임객체 징후를 검출한다. 그 다음, 움직임객체 징후가 검출된 검출된 영역의 위치정보에 상응하는 제어신호를 수평회전 및 수직회전 집중감시 카메라에 제공하여, 상기 집중감시 카메라가 상기 움직임객체 징후가 검출된 영역에 대한 집중감시 영상을 획득하도록 한다. 그 다음, 상기 집중감시 영상으로부터 움직임객체를 검출하고, 상기 집중감시 카메라로 하여금 상기 움직임객체를 추적감시하도록 제어하게 된다.According to another aspect of the present invention, there is provided a surveillance method comprising: a plurality of wide-angle lenses arranged outwardly symmetrically with respect to each other; a plurality of And an omnidirectional camera having an omnidirectional angle and a total altitude angle of view angle is used to acquire an omnidirectional image. Then, the omnidirectional camera is horizontally rotated to acquire the omnidirectional image again to compensate for the distortion of the omnidirectional image, and detects a motion object symptom in the omnidirectional image. Then, a control signal corresponding to the positional information of the detected area in which the motion object indication is detected is provided to the horizontal rotation and vertical rotation central monitoring camera, and the centralized monitoring camera performs centralized monitoring for the area in which the motion object indication is detected Thereby acquiring an image. Then, a motion object is detected from the centralized monitoring image, and the centralized monitoring camera is controlled to track and monitor the moving object.

본 발명의 일 실시예에 따르면, 상기 (b)단계에서는 먼저 상기 전방향 영상 내에서 움직임객체 징후를 검출한다. 그리고, 상기 움직임 객체가 상기 전방향 영상 내에서 사전에 정해진 측방향 주변부 내에 위치하는 경우, 사전에 정해진 크기의 고정된 회전각만큼 상기 전방향 카메라를 수평회전한 후에 상기 전방향 영상을 다시 획득한다. 그 다음, 재획득된 전방향 영상을 사용하여 상기 움직임객체 징후를 다시 검출하게 된다.According to an embodiment of the present invention, in step (b), a motion object indication is first detected in the omnidirectional image. If the motion object is positioned within a predetermined lateral margin in the forward direction image, the forward direction camera is horizontally rotated by a fixed rotation angle of a predetermined size, and then the forward direction image is acquired again . Then, the motion object sign is detected again using the re-acquired omnidirectional image.

본 발명의 다른 실시예에 따르면, 전방향 영상을 일단 획득한 후에는, 상기 전방향 카메라를 소정 각도 수평회전시킨 후 추가적인 전방향 영상을 획득하도록 한다. 그리고, 최초의 전방향 영상 중 일부를 추가적인 전방향 영상의 대응 부분으로 대체하고, 부분대체가 완료된 영상으로 상기 움직임객체 징후를 검출하게 된다.According to another embodiment of the present invention, once the omnidirectional image is acquired, the omnidirectional camera is horizontally rotated by a predetermined angle, and then an additional omnidirectional image is acquired. Then, a part of the first omnidirectional image is replaced with a corresponding part of the additional omnidirectional image, and the motion object symptom is detected by the partially replaced image.

본 발명에 따르면, 광역감시 카메라의 화각이 전 방위각(full zenith angle)과 전 고도각(full azimuth angle)을 커버한다. 이에 따라 수직 화각에 제한이 없게 되고, 광역감시 카메라의 하방은 물론 상방에 대해서도 감시 기능을 충분히 수행할 수 있게 된다는 효과가 있다.According to the present invention, the angle of view of the wide area surveillance camera covers the full azimuth angle and the full azimuth angle. Accordingly, there is no limitation in the vertical angle of view, and the monitoring function can be sufficiently performed not only downward but also upwards of the wide area surveillance camera.

나아가, 본 발명에 따르면 전방향 카메라에 의하여 광각영상을 획득하는 과정에서 영상 내에서의 움직임객체의 위치에 따라 전방향 카메라를 수평회전(panning)시켜서 추가적인 광각영상을 획득하여 광각영상을 보충하게 되며, 이를 통해 감시 효율과 신뢰성을 크게 향상시킬 수 있게 된다.Further, according to the present invention, in the process of acquiring the wide angle image by the omnidirectional camera, the omnidirectional camera is panned according to the position of the motion object in the image to acquire an additional wide angle image to supplement the wide angle image , Which can greatly improve monitoring efficiency and reliability.

한편, 광역감시 카메라가 매우 콤팩트하게 구성되고, 기구적으로 복잡하지 않다는 장점도 있다.On the other hand, there is also an advantage that the wide area surveillance camera is very compact and not mechanically complicated.

하나의 장소에 복수개의 CCTV가 설치되는 것을 대신하여 하나의 카메라로 객체를 360도의 도넛형 전방위 이미지로 생성시켜 실시간 감시할 수 있어, 감시영역범위를 기존에 비해 70% 향상시킬 수 있고, 설치비용 또한 기존에 비해 80% 감소시킬 수 있다.Instead of having a plurality of CCTVs installed in one place, the object can be generated as a 360 degree donut type omnidirectional image with one camera, real-time monitoring can be performed, and the surveillance range can be improved by 70% It can also be reduced by 80% compared to the existing one.

이미지왜곡보정부를 통해 직사각형 파노라마 이미지변환부의 왜곡된 이미지를 보정하고, 화질을 개선시킬 수 있어, 양질의 이미지를 제공할 수 있다.It is possible to correct the distorted image of the rectangular panorama image conversion unit through the image distortion correction unit and improve the image quality, thereby providing a high-quality image.

특정객체를 탐지한 후, 특정객체의 이동궤적패턴을 기준으로 이상객체의 위치를 추적시키고, 현장에서 발생한 특정객체의 이벤트 상황에 따라 자동 경고 방송을 송출시키도록 제어할 수 있어, 기존에 비해 범죄사고율을 70% 감소시킬 수 있다.After detecting a specific object, it is possible to track the position of the ideal object based on the movement trajectory pattern of the specific object, and to control the automatic warning broadcast according to the event situation of the specific object generated in the field, The accident rate can be reduced by 70%.

기존 시스템에 추가적으로 프로그램만 연동시킬 수 있어, 호환성이 우수하다.Compatibility is excellent because the program can be linked to the existing system additionally.

특정객체의 이동궤적패턴을 실시간 누적시켜 이미지 컬러맵과 통계 그래프 중 어느 하나를 선택하여 통계분석보고서를 장소별, 시간대별로 표출시킬 수 있어, 기존에 비해 지능형 영상분석 기술기반의 전방위 보안효과를 80% 향상시킬 수 있다. It is possible to display the statistical analysis reports by place and time zone by selecting one of the image color map and the statistical graph by accumulating the moving trajectory pattern of a specific object in real time so that the omnidirectional security effect based on the intelligent image analysis technology can be displayed %.

도 1은 본 발명의 일 실시예에 따른 개념도이다.
도 2는 본 발명의 일 실시예에 따른 감시 카메라 장치의 렌즈부 구성도이다.
도 3은 본 발명의 일 실시에에 따른 감시카메라 장치의 구조 블럭도이다.
도 4은 본 발명의 일 실시에에 따른 감시카메라 장치의 구조 블럭도이다.
도 5 및 도 6은 본 발명의 일 실시에에 따른 감시카메라 장치의 화각 개념도이다.
1 is a conceptual diagram according to an embodiment of the present invention.
2 is a lens configuration diagram of a surveillance camera device according to an embodiment of the present invention.
3 is a structural block diagram of a surveillance camera device according to an embodiment of the present invention.
4 is a structural block diagram of a surveillance camera device according to an embodiment of the present invention.
5 and 6 are conceptual views of the angle of view of the surveillance camera device according to one embodiment of the present invention.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명하면 다음과 같다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In the following description of the embodiments of the present invention, descriptions of techniques which are well known in the technical field of the present invention and are not directly related to the present invention will be omitted. This is for the sake of clarity of the present invention without omitting the unnecessary explanation.

마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.For the same reason, some of the components in the drawings are exaggerated, omitted, or schematically illustrated. Also, the size of each component does not entirely reflect the actual size. In the drawings, the same or corresponding components are denoted by the same reference numerals.

이하, 본 발명의 실시예들에 의하여 감시카메라용 자동 다중 추적 영상처리방법을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다.Hereinafter, the present invention will be described with reference to the accompanying drawings for explaining an automatic multiple tracking image processing method for a surveillance camera according to embodiments of the present invention.

도 1은 본 발명에 실시예에 따른 감시카메라용 자동 다중 추적 영상처리방법의 순서도이고, 도 2는 본 발명의 실시예에 따른 감시카메라용 자동 다중 추적 영상처리방법을 수행하기 위한 시스템의 제1 구성도이다.FIG. 1 is a flowchart of an automatic multiple tracking image processing method for a surveillance camera according to an embodiment of the present invention. FIG. 2 is a flowchart illustrating a method for processing an automatic multiple tracking image for a surveillance camera according to an exemplary embodiment of the present invention. FIG.

도 1 및 도 2를 참고하면, 본 발명의 실시예에 따른 감시카메라용 자동 다중 추적 영상처리방법은 감시대상지역을 촬영하는 촬영전송단계(S10), 영상추적전송단계(S21), 영상분할전송단계(S22), 영상처리전송단계(S30), 및 영상출력단계(S40)를 포함한다.Referring to FIGS. 1 and 2, an automatic multiple tracking image processing method for a surveillance camera according to an embodiment of the present invention includes a photographing transmission step S10 for photographing a surveillance target area, a image tracking transmission step S21, A step S22, an image processing transmission step S30, and a video output step S40.

촬영전송단계(S10)는 촬영카메라(11)를 구비한 카메라부(10)가 촬영대상지역을 촬영하고, 촬영카메라(11)에서 촬영된 영상을 영상추적부(30)와 영상분할부(40)로 각각 전송하는 단계이다.The photographing transmission step S10 is a step in which the camera section 10 having the photographing camera 11 photographs an area to be photographed and the image photographed by the photographing camera 11 is transmitted to the image tracking section 30 and the image dividing section 40 Respectively.

촬영전송단계(S10)는 감시를 실시하기 위해 촬영되는 촬영대상지역을 카메라부(10)로 촬영을 실시하고, 상기 촬영된 영상을 관찰대상물을 추적하는 영상추적부(30)와 팬, 틸트, 및 줌 기능을 화상에서 구현하여 영상을 분할하는 영상분할부(40)로 전송한다. 여기서, 카메라부(10)는 통상적인 화상을 촬영하는 촬영카메라(11)를 사용하는 것으로, 감시대상지역이 이미 설치된 카메라를 연결하여 사용할 수 있다.The photographing transmission step S10 includes a video image tracking unit 30 for photographing the photographed area to be photographed with the camera unit 10 to track the photographed image and a pan, And a zoom function in an image and transmits the image to the image dividing unit 40 for dividing the image. Here, the camera section 10 uses a photographing camera 11 for photographing a normal image, and can use a camera in which a region to be monitored is already connected.

영상점검부(20)는 카메라부(10)에 전기적으로 연결되어 촬영된 영상을 전송받아 영상신호가 존재하는 여부를 점검하여 영상신호가 존재하지 않으면 카메라부(10)에 리셋신호를 전송하여 카메라부(10)가 재시동되도록 작동시킬 수 있다. The image checking unit 20 is electrically connected to the camera unit 10 and receives a photographed image to check whether a video signal is present. If there is no video signal, the video checking unit 20 transmits a reset signal to the camera unit 10, The part 10 can be operated to be restarted.

영상추적전송단계(S21)는 영상추적부(30)에서 전송된 영상에서 이동하는 관찰대상물을 인식하고 관찰대상물의 이동에 따른 좌표정보를 생성하여 영상처리부(50)로 전송하는 단계이다.The image tracking transmission step S21 is a step of recognizing a moving object to be observed in the image transmitted from the image tracking unit 30 and generating coordinate information according to the movement of the object to be observed and transmitting the coordinate information to the image processing unit 50. [

즉, 영상추적부(30)는 카메라부(10)로부터 촬영된 영상을 전송받으면, 전송된 촬영영상 중 지정된 배경을 제외하고, 이동되는 대상을 관찰대상물로 지정하여 좌표를 추출한다. 추출된 관찰대상물이 이동하게 되면 이동되는 궤적을 따라서 지속적으로 이동 좌표를 추출하여 자동으로 추출되는 좌표 정보를 영상처리부(50)로 전송하는 단계이다.That is, the image tracking unit 30 extracts coordinates by designating an object to be moved as an observation object, except a designated background, when the image taken from the camera unit 10 is received. When the extracted observation object moves, it continuously extracts the movement coordinates along the trajectory to be moved and transmits the coordinate information automatically extracted to the image processing unit 50.

영상추적부(30)는 촬영된 영상에서 프레임별로 지정된 배경에서 이동되는 관찰대상물의 좌표를 추출하고, 관찰대상물이 이동시의 좌표를 추적하여 해당 좌표정보를 영상처리부(50)로 전송할 수 있다. The image tracking unit 30 extracts the coordinates of the observation object moving in the background specified by the frame in the photographed image, tracks the coordinates of the moving object when the observation object moves, and transmits the coordinate information to the image processing unit 50.

따라서, 영상추적부(30)는 이동되는 관찰대상물의 좌표를 특정한 후에 이동되는 궤적의 좌표를 지속적으로 추출하여 이후 영상 처리에 의해 관찰대상물이 식별되도록 소정의 도형 형태로 사각형으로 표시하도록 좌표를 추출함에 따라 관찰자가 사각형의 이동으로 특정된 관찰대상물의 궤적으로 자동 추적할 수 있다.Accordingly, the image tracking unit 30 continuously extracts the coordinates of the trajectory to be moved after specifying the coordinates of the moving object to be observed, and then extracts the coordinates so as to display the object in a predetermined shape so as to be identified by the image processing The observer can automatically follow the trajectory of the observed object specified by the movement of the rectangle.

여기서, 사각형은 관찰대상물을 표시하기 위한 하나의 예에 불과한 것으로, 관찰대상물의 바깥둘레를 감싸고 있는 모든 형태의 도형이 사용될 수 있다. Here, the quadrangle is only one example for displaying the observation object, and all types of figures surrounding the outer periphery of the observation object can be used.

그리고, 영상추적부(30)에서 관찰대상물의 도형 형태의 좌표 추출 시 복수의 관찰대상물이 표시되면, 복수의 관찰대상물을 하나의 도형 형태로 각각으로 복수의 좌표를 동시에 특정하고, 복수의 관찰대상물이 개별적으로 이동되는 궤적을 자동으로 추적하도록 다중의 좌표로 추출하여 영상처리부(50)로 전송할 수 있다. When a plurality of objects to be observed are displayed at the time of extracting the coordinates of the figure shape of the object to be observed by the image tracking unit 30, a plurality of coordinates are simultaneously specified for each of the plurality of objects in a single graphic form, Can be extracted to multiple coordinates so as to automatically track the individually moved locus and transmitted to the image processing unit 50.

즉, 영상추적부(30)는 복수의 관찰대상물이 표시될 경우에는 각각의 관찰대상물의 위치를 좌표로 사각형으로 특정한 후 복수의 관찰대상물의 이동에 따라 영상 내에서 복수의 관찰대상물의 외곽에 각각 사각형상으로 표시하고, 표시된 사각형상이 복수의 관찰대상물에 이동에 따라 동시에 다중 위치에서 각각 자동으로 추적하면서 이동하는 궤적을 사각형상으로 표시하도록 각각의 이동 좌표를 영상처리부(50)로 전송한다. 따라서, 영상추적부(30)는 관찰대상물이 수량과 상관 없이 사각형상으로 이동되는 궤적으로 자동으로 추적할 수 있어 감시 효율을 향상시킬 수 있다. That is, when a plurality of objects to be observed are displayed, the image tracking unit 30 specifies the positions of the objects to be observed as rectangles in the form of a rectangle, and then, in accordance with the movement of the plurality of objects to be observed, And transmits each of the moving coordinates to the image processing unit 50 so as to display the trajectory moving in a rectangular shape while the plurality of objects to be observed are automatically traced at multiple positions simultaneously in accordance with the movement. Therefore, the image tracking unit 30 can automatically track the object to be traced in a rectangular shape without regard to the quantity, thereby improving the monitoring efficiency.

영상분할전송단계(S22)는 카메라부(10)로 촬영된 영상을 전송받은 영상분할부(40)에서 영상을 복수의 구획으로 분할하고, 분할된 영상을 영상처리부(50)로 전송하는 단계이다.The image segmentation transmission step S22 is a step of dividing the image into a plurality of segments in the image segmentation unit 40 having received the image shot by the camera unit 10 and transmitting the segmented image to the image processing unit 50 .

영상처리전송단계(S30)는 영상처리부(50)에서 영상분할부(40)로부터 전송받은 분할된 복수의 영상 중 적어도 하나의 영상을 배치하고 영상의 이동 또는 대체, 영상에 대한 확대 및 축소를 처리하여 가상의 팬-틸트, 줌인-줌아웃 기능 적용하여 영상을 처리하는 단계이다.The image processing transmission step S30 arranges at least one image among the plurality of divided images transmitted from the image division unit 40 in the image processing unit 50 and processes the image movement or substitution, A virtual pan-tilt, and a zoom-in-zoom-out function.

이런, 영상처리부(50)는 좌표정보에 기초하여 배치된 적어도 하나의 영상의 배치위치를 변경하여 가상의 팬-틸트 기능을 처리할 수 있다.In this way, the image processing unit 50 can process the virtual pan-tilt function by changing the arrangement position of at least one image arranged based on the coordinate information.

또한, 영상처리부(50)는 좌표정보에 기초하여 배치된 적어도 하나의 영상을 다른 영상으로 대체하여 가상의 팬-틸트 기능을 처리할 수 있다.Also, the image processing unit 50 may process the virtual pan-tilt function by replacing at least one image arranged based on the coordinate information with another image.

그리고, 영상처리부(50)는 사용자 인터페이스부(80)를 통해 입력된 입력값을 기초로 상기 배치된 적어도 하나의 영상의 배치위치를 변경하여 가상의 팬-틸트 기능을 처리할 수 있다. 이런, 인터페이스부(80)는 사용자가 조작에 의해 영상 내에 팬, 틸트, 및 줌 기능을 수행할 수 있고, 영상추적부(30)에서 추출된 좌표에 의해 관찰대상물을 따라서 자동으로 이동을 추적하도록 입력값을 설정할 수 있다.The image processing unit 50 may process the virtual pan-tilt function by changing the arrangement position of the at least one image based on the input value input through the user interface unit 80. [ In this way, the interface unit 80 can perform a pan, tilt, and zoom function in the image by the user's operation, and can automatically track the movement along the observation object according to the coordinates extracted by the image tracking unit 30 The input value can be set.

아울러, 영상처리부(50)는 사용자 인터페이스부(80)를 통해 입력된 입력값을 기초로 상기 배치된 적어도 하나의 영상을 다른 영상으로 대체하여 가상의 팬-틸트 기능을 처리할 수 있다.In addition, the image processing unit 50 may process the virtual pan-tilt function by replacing the at least one image with another image based on the input value input through the user interface unit 80. [

또한, 영상처리부(50)에서 좌표정보에 기초하여 관찰대상물의 이동을 표시하여 영상을 처리할 수 있다.In addition, the image processing unit 50 can display the movement of the observation object based on the coordinate information, and process the image.

그리고, 관찰대상물의 이동의 표시는, 관찰대상물에 소정의 식별표시를 부여할 수 있다.The display of the movement of the observation object can give a predetermined identification mark to the observation object.

상술된, 소정의 식별표시는 관찰대상물에 소정의 도형이 표시되도록 구성할 수 있다.The predetermined identification display described above can be configured so that a predetermined figure is displayed on the observation object.

즉, 식별표시는 영상추적부(30)에서 추적된 사각형의 좌표에 따라 관찰대상물이 영상에서 이동되는 위치를 나타내도록 처리할 수 있다.That is, the identification mark can be processed so as to indicate the position where the observation object is moved in the image according to the coordinates of the quadrangle tracked by the image tracking unit 30. [

또한, 영상처리전송단계(S30)에서 영상처리부(50)에서 분할되는 영상의 분할 위치 정보, 촬영된 날짜 정보, 및 촬영되는 위치 정보 중 적어도 하나를 디스플레이부(70)로 출력되도록 전송할 수 있다. 이런 각종 정보는 자막처리부(60)에서 자막형태로 생성하여 디스플레이부(70)로 출력되도록 자막정보를 전송할 수 있다. In addition, in the image processing transmission step S30, at least one of the divided position information, the photographed date information, and the photographed position information of the image divided by the image processing unit 50 may be transmitted to the display unit 70. [ Such various types of information may be generated in the caption processing unit 60 in the form of a caption and transmitted to the display unit 70.

즉, 자막처리부(60)는 영상처리부(50)의 일측에 연결되어 영상처리되는 영상의 분할되는 위치, 카메라부(10)에서 촬영된 날짜, 및 촬영되는 위치와 같은 정보를 사용자가 원하는 위치와 글자의 크기, 폰트에 따라 영상에 자막 형태로 표시하도록 설치된다. 이런, 자막처리부(60)는 감시되는 영상의 위치와 날짜 등의 정보를 감시자가 감시영상에 표시되는 자막에 의해 인지할 수 있어 감시 효율이 향상될 수 있다. That is, the caption processing unit 60 is connected to one side of the image processing unit 50 and transmits information such as a position at which the video image is divided, a date taken at the camera unit 10, And is displayed in the form of a caption on the image according to the font size and font. In this way, the caption processing unit 60 can recognize the position and the date of the monitored image by the caption displayed on the surveillance image by the surveillant, so that the surveillance efficiency can be improved.

영상출력단계(S40)는 디스플레이부(70)에서 영상처리부(50)로부터 전송받은 영상을 출력하는 단계이다. 영상출력단계(S40)는 사용자의 인터페이스부(80)의 제어신호에 따라 영상처리부(50)에서 처리된 영상을 디스플레이부(70)에서 감시자가 관찰할 수 있도록 출력하는 단계이다. 여기서, 디스플레이부(70)는 통상적인 영상을 출력할 수 있는 모든 수단이 포함될 수 있는 것으로, 영상을 출력하는 모니터가 사용될 수 있다.The image output step S40 is a step of outputting the image transmitted from the image processing unit 50 in the display unit 70. [ The video output step S40 is a step of outputting an image processed by the image processing unit 50 according to a control signal of the user interface unit 80 so that the surveillant can observe the image on the display unit 70. [ Here, the display unit 70 may include any means capable of outputting a normal image, and a monitor for outputting an image may be used.

상술된, 디스플레이부(70)는 중앙에 촬영된 영상을 나타내고, 촬영된 영상의 바깥 둘레에 영상분할부(40)로 복수로 분할된 분할 영상이 각각 위치하여 각각 분할된 위치에서 영상처리부(50)에서 팬, 틸트, 및 줌의 기능을 수행하도록 처리한 영상을 각각 출력할 수 있다. 예를 들어, 촬영된 영상을 영상분할부(40)에서 8개의 영상으로 분할하게 되면 디스플레이부(70)의 중앙으로 전체 영상을 출력하고, 바깥 둘레를 따라 분할된 위치의 외곽 부분으로 분할된 영상을 각각 출력할 수 있다.The display unit 70 displays the images photographed in the center. The divided images divided into a plurality of images by the image dividing unit 40 are positioned on the outer circumference of the photographed image, ), It is possible to output images processed to perform the functions of pan, tilt, and zoom respectively. For example, if the photographed image is divided into eight images by the image dividing unit 40, the entire image is output to the center of the display unit 70, and the divided images are divided into the outer portions of the divided positions along the outer circumference Respectively.

즉, 디스플레이부(70)는 전체 영상과 분할된 영상을 각각 출력할 수 있는 것으로, 하나의 디스플레이부(70)에서 전체 영상과 분할 영상을 함께 출력할 수도 있고, 복수의 디스플레이부(70)에서 각각 전체 영상과 분할 영상을 출력할 수도 있다.That is, the display unit 70 can output the entire image and the divided image, and can output the entire image and the divided image together on one display unit 70, And output the entire image and the divided image, respectively.

이렇게, 분할된 위치에 각각의 분할된 영상이 출력되는 상태에서 영상처리부(50)가 분할되는 영상을 이동하도록 영상처리부(50)에서 영상을 처리하면 각각의 이동 위치에 따라 팬 및 틸트 되는 영상을 출력할 수 있다. 또한, 분할된 영상에 위치와 전체 영상에 각각 자막처리부(60)에서 생성된 자막을 표시할 수 있다. 그리고, 각각의 분할된 영상을 영상처리부(50)에서 확대 또는 축소하는 줌 기능을 수행할 수 있다. When the image processing unit 50 processes the divided images so that the divided images are output, the image processing unit 50 processes the images to be divided, Can be output. In addition, the subtitles generated by the subtitle processor 60 can be displayed on the divided video and on the entire video, respectively. The image processing unit 50 may perform a zoom function to enlarge or reduce the respective divided images.

따라서, 카메라부(10)는 이동이나 여타 팬, 틸트, 및 줌 기능을 가지는 장치 없이 촬영된 영상에서 영상처리부(50)를 통해서 가상으로 팬, 틸트, 및 줌 기능을 수행할 수 있음에 따라 기존의 카메라의 영상으로도 팬, 틸트, 및 줌 기능을 수행할 수 있다.Accordingly, since the camera unit 10 can perform a panning, tilting, and zooming function virtually through the image processing unit 50 in the photographed image without moving or other devices having a panning, tilting, and zooming function, The camera can also perform a pan, tilt, and zoom function.

특히, 영상 내에서 이동되는 관찰대상물의 좌표를 영상추적부(30)에서 추출하여 영상처리부(50)에 전송하고, 영상처리부(50)는 좌표에 따라 관찰대상물의 바깥 둘레에 사각 형태의 표식을 생성하여 관찰대상물을 지속적으로 추적하는 영상을 디스플레이부(70)로 출력하여 감시를 실시할 수 있다. 또한, 관찰대상물이 이동되는 좌표에 따라 사각형상으로 추적 시에 팬, 틸트, 및 줌 기능을 이용하여 분할영상과 전체 영상이 출력되는 디스플레이부(70)에 자동으로 추적하는 영상을 제공함으로써, 자동 추적 기능을 실시할 수 있다.Particularly, the coordinates of the observation object moved in the image are extracted by the image tracking unit 30 and transmitted to the image processing unit 50, and the image processing unit 50 displays a square shaped marking on the outer circumference of the observation object And outputs an image to the display unit 70 to continuously monitor the object to be monitored. In addition, by providing images to be automatically tracked to the display unit 70 that outputs the divided images and the entire images using the pan, tilt, and zoom functions at the time of tracking in a rectangular shape according to the coordinates on which the observed object is moved, Tracking function can be performed.

도 3 내지 도 6을 참고하면, 본 발명의 실시예에 따른 감시카메라용 자동 다중 추적 영상처리방법은 감시대상지역을 어안카메라(12)로 촬영하는 촬영전송단계(S10), 영상추적전송단계(S21), 영상분할전송단계(S22), 영상처리전송단계(S30), 및 영상출력단계(S40)를 포함한다. 여기서, 본 발명의 실시예에 따른 감시카메라용 자동 다중 추적 영상처리방법은 도 1 및 도 2에서 나타낸 감시카메라용 자동 다중 추적 영상처리방법과 어안카메라(12)를 이용한 점을 제외하고 나머지 방법은 동일함에 따라 차이가 있는 방법에 대해서만 설명하도록 한다. 3 to 6, an automatic multiple tracking image processing method for a surveillance camera according to an exemplary embodiment of the present invention includes a photographing transmission step S10 for photographing a surveillance target area with a fisheye camera 12, S21, an image division transmission step S22, an image processing transmission step S30, and a video output step S40. Here, the automatic multi-tracking image processing method for a surveillance camera according to an embodiment of the present invention is similar to the automatic multi-tracking image processing method for surveillance cameras shown in FIGS. 1 and 2 except that the fisheye camera 12 is used. Explain only the differences in how they are the same.

촬영전송단계(S10)는 어안렌즈가 설치된 어안카메라(12)를 구비한 카메라부(10)가 촬영대상지역을 촬영하고, 카메라부(10)에서 촬영된 어안영상을 영상추적부(30)와 영상분할부(40)로 각각 전송하는 단계이다. 여기서, 어안카메라(12)는 촬영되는 영역의 180도의 방위각과 고도각으로 확대되도록 물고기 눈 형태의 어안 렌즈를 통해서 촬영을 실시하여 촬영되지 않는 사각 지역을 최소화함에 따라 감시 효율이 향상될 수 있다.The photographing transmission step S10 is a step of photographing a region to be photographed by the camera section 10 having a fisheye lens 12 equipped with a fisheye lens and sending a fisheye image photographed by the camera section 10 to the image tracking section 30 To the image division unit 40, respectively. Here, the fisheye camera 12 may be photographed through a fisheye fish-shaped fisheye lens so as to be enlarged to an azimuth angle and an altitude angle of 180 degrees of the photographed area, thereby minimizing a rectangular area that is not photographed, thereby improving monitoring efficiency.

어안카메라(12)를 이용하여 촬영된 어안영상을 촬영전송단계(S10)에서 영상추적부(30)와 영상분할부(40)로 전송한다. The fisheye image photographed using the fisheye camera 12 is transmitted to the image tracking unit 30 and the image segmentation unit 40 in the image transmission step S10.

영상추적전송단계(S21)에서 영상추적부(30)로 전송된 어안영상 내에 이동되는 관찰대상물의 좌표를 추적하면서 추출하여 영상처리부(50)로 전송한다. 이때, 관찰대상물의 바깥 둘레를 사각형상으로 표시하는 좌표를 생성하고, 표시된 사각형상이 관찰대상물과 함께 추적 이동되면서 감시자가 용이하게 식별하도록 사각형상의 좌표를 영상처리부(50)로 전송한다. 또한, 어안영상에서 복수의 관찰대상물이 나타나면 이에 따라 다중으로 이동되는 좌표를 추적하면서 추출하여 영상처리부(50)로 전송한다. Extracts the coordinates of the observation object moved in the fish-eye image transmitted to the image-tracking unit 30 in the image-tracking transmission step S21, and transmits the extracted coordinates to the image-processing unit 50. [ At this time, coordinates for displaying the outer circumference of the observation object in a rectangular shape are generated, and coordinates of a rectangular shape are transmitted to the image processing unit 50 so that the monitor can easily identify the displayed rectangular image while being traced with the observation object. In addition, when a plurality of observation objects appear in the fish-eye image, the multi-moving coordinates are extracted and transmitted to the image processing unit 50.

영상분할전송단계(S22)에서 영상분할부(40)로 전송된 어안영상을 복수의 구획으로 분할하여 분할된 어안영상을 영상처리부(50)로 전송한다. In the image segmentation and transmission step S22, the fisheye image transmitted to the image segmentation unit 40 is divided into a plurality of segments, and the segmented fisheye image is transmitted to the image processing unit 50. [

영상처리전송단계(S30)는 영상처리부(50)에서 영상분할부(40)로부터 전송받은 분할된 복수의 어안영상 중 적어도 하나의 어안영상을 배치하고 어안영상의 이동 또는 대체, 영상에 대한 확대 및 축소를 처리하여 가상의 팬-틸트, 줌인-줌아웃 기능 적용하여 어안영상을 처리하는 단계이다.The image processing transmission step S30 is a step of arranging at least one fisheye image among the plurality of divided fisheye images transmitted from the image division unit 40 in the image processing unit 50 and moving or replacing the fisheye image, And processing a fisheye image by applying a virtual pan-tilt and zoom-in-zoom-out function.

이런, 영상처리부(50)는 좌표정보에 기초하여 배치된 적어도 하나의 어안영상의 배치위치를 변경하여 가상의 팬-틸트 기능을 처리할 수 있다.In this way, the image processing unit 50 can process the virtual pan-tilt function by changing the arrangement position of at least one fisheye image disposed based on the coordinate information.

또한, 영상처리부(50)는 좌표정보에 기초하여 배치된 적어도 하나의 어안영상을 다른 영상으로 대체하여 가상의 팬-틸트 기능을 처리할 수 있다.Also, the image processing unit 50 can process the virtual pan-tilt function by replacing at least one fisheye image disposed on the basis of the coordinate information with another image.

그리고, 영상처리부(50)는 사용자 인터페이스부(80)를 통해 입력된 입력값을 기초로 상기 배치된 적어도 하나의 어안영상의 배치위치를 변경하여 가상의 팬-틸트 기능을 처리할 수 있다. 이런, 인터페이스부(80)는 사용자가 조작에 의해 어안영상 내에 팬, 틸트, 및 줌 기능을 수행할 수 있고, 영상추적부(30)에서 추출된 좌표에 의해 관찰대상물을 따라서 자동으로 이동을 추적하도록 입력값을 설정할 수 있다.The image processing unit 50 may process the virtual pan-tilt function by changing the arrangement position of the at least one fisheye image based on the input value input through the user interface unit 80. [ The interface unit 80 can perform pan, tilt, and zoom functions in a fisheye image by operation of the user, and automatically tracks the movement along the object to be observed based on the coordinates extracted by the image tracking unit 30. [ The input value can be set.

아울러, 영상처리부(50)는 사용자 인터페이스부(80)를 통해 입력된 입력값을 기초로 배치된 적어도 하나의 어안영상을 다른 어안영상으로 대체하여 가상의 팬-틸트 기능을 처리할 수 있다.In addition, the image processing unit 50 may process a virtual pan-tilt function by replacing at least one fisheye image disposed on the basis of the input value input through the user interface unit 80 with another fisheye image.

또한, 영상처리부(50)에서 좌표정보에 기초하여 관찰대상물의 이동을 표시하여 어안영상을 처리할 수 있다.Further, the image processing unit 50 can display the movement of the observation target based on the coordinate information, and process the fish-eye image.

그리고, 관찰대상물의 이동의 표시는, 관찰대상물에 소정의 식별표시를 부여할 수 있다.The display of the movement of the observation object can give a predetermined identification mark to the observation object.

상술된, 소정의 식별표시는 관찰대상물에 소정의 도형이 표시되도록 구성할 수 있다.The predetermined identification display described above can be configured so that a predetermined figure is displayed on the observation object.

즉, 식별표시는 영상추적부(30)에서 추적된 사각형의 좌표에 따라 관찰대상물이 영상에서 이동되는 위치를 나타내도록 처리할 수 있다.That is, the identification mark can be processed so as to indicate the position where the observation object is moved in the image according to the coordinates of the quadrangle tracked by the image tracking unit 30. [

여기서, 영상처리부(50)에서 영상 처리 시에 영상에 대한 정보를 자막처리부(60)에 의해 자막형태로 생성하여 출력 시 영상에 자막이 표시되도록 디스플레이부(70)로 함께 전송할 수 있다.Here, the image processing unit 50 may generate information on the image during the image processing by the caption processing unit 60 in a caption format, and transmit the caption to the display unit 70 so that the caption is displayed on the image upon output.

영상출력단계(S40)에서 디스플레이부(70)에서 어안영상을 처리한 영상처리부(50)로부터 전송받은 영상을 출력한다.In the video output step S40, the display unit 70 outputs the image transmitted from the image processing unit 50 that processed the fisheye image.

여기서, 본 발명의 실시예에 따른 감시카메라용 자동 다중 추적 영상처리방법은 도 1 및 도 2에서 나타낸 감시카메라용 자동 다중 추적 영상처리방법과 열감지카메라(13)를 이용한 점을 제외하고 나머지 방법은 동일함에 따라 차이가 있는 방법에 대해서만 설명하도록 한다. Here, the automatic multi-tracking image processing method for a surveillance camera according to an exemplary embodiment of the present invention is similar to the automatic multi-tracking image processing method for a surveillance camera shown in FIGS. 1 and 2 except that a thermal sensing camera 13 is used. Only the difference method will be described as the same.

촬영전송단계(S10)는 열변화를 감지하는 열감지카메라(13)를 구비한 카메라부(10)가 촬영대상지역을 촬영하고, 카메라부(10)에서 촬영된 열감지영상을 영상추적부(30)와 영상분할부(40)로 각각 전송하는 단계이다. 여기서, 열감지카메라(13)는 촬영되는 영역의 촬영 시에 촬영되는 영상에 열 분포를 명도 또는 채도 차이로 표시하여 열을 변화시키는 대상물의 접근이나 화재 발생과 같이 열이 급격하게 변화하는 상황을 영상에서 나타냄에 따라 침입자의 접근이나 화재 발생을 감시자가 명확하게 판단할 수 있어 감시 효율이 향상될 수 있다.In the shooting transmission step S10, the camera unit 10 having the thermal sensing camera 13 for sensing a thermal change photographs an area to be photographed, and the thermal sensed image photographed by the camera unit 10 is transmitted to a video tracking unit 30 and the image divider 40, respectively. Here, the thermal sensing camera 13 displays the thermal distribution in the image photographed at the time of photographing of the photographed area in terms of lightness or saturation difference, and a situation in which heat is suddenly changed, for example, As a result, the surveillance efficiency can be improved because the surveillance person can clearly determine the intruder approach or fire occurrence.

이런, 열감지카메라(13)를 이용하여 촬영된 열감지영상을 촬영전송단계(S10)에서 영상추적부(30)와 영상분할부(40)로 전송한다. The thermal sensed image photographed using the thermal sensing camera 13 is transmitted to the image tracking unit 30 and the image dividing unit 40 in the image capturing transmission step S10.

영상추적전송단계(S21)에서 영상추적부(30)로 전송된 열감지영상 내에 이동되는 관찰대상물의 좌표를 추적하면서 추출하여 영상처리부(50)로 전송한다. 이때, 관찰대상물의 바깥 둘레를 사각형상으로 표시하는 좌표를 생성하고, 표시된 사각형상이 관찰대상물과 함께 추적 이동되면서 감시자가 용이하게 식별하도록 사각형상의 좌표를 영상처리부(50)로 전송한다. 또한, 열감지영상에서 복수의 관찰대상물이 나타나면 이에 따라 다중으로 이동되는 좌표를 추적하면서 추출하여 영상처리부(50)로 전송한다. In the image tracking transmission step S21, coordinates of the moving object to be moved in the heat sensing image transmitted to the image tracking unit 30 are tracked while being extracted and transmitted to the image processing unit 50. At this time, coordinates for displaying the outer circumference of the observation object in a rectangular shape are generated, and coordinates of the rectangular shape are transmitted to the image processing unit 50 so that the monitor can easily identify the displayed rectangular image while being traced with the observation object. When a plurality of objects to be observed are displayed in the thermal sensed image, they are extracted while tracking the coordinates that are moved in multiple, and are transmitted to the image processor 50.

영상분할전송단계(S22)에서 영상분할부(40)로 전송된 열감지영상을 복수의 구획으로 분할하여 분할된 열감지영상을 영상처리부(50)로 전송한다. In the image segmentation and transmission step S22, the thermal sensed image transmitted to the image segmentation unit 40 is divided into a plurality of segments and the divided thermal sensed images are transmitted to the image processing unit 50. [

영상처리전송단계(S30)는 영상처리부(50)에서 영상분할부(40)로부터 전송받은 분할된 복수의 열감지영상 중 적어도 하나의 열감지영상을 배치하고 열감지영상의 이동 또는 대체, 열감지영상에 대한 확대 및 축소를 처리하여 가상의 팬-틸트, 줌인-줌아웃 기능 적용하여 영상을 처리하는 단계이다.In the image processing transmission step S30, at least one thermal sensing image among the plurality of divided thermal sensing images transmitted from the image dividing unit 40 is arranged in the image processing unit 50, and movement or replacement of the thermal sensing image, Zooming in and out of the image, and processing the image by applying a virtual pan-tilt and zoom-in-zoom-out function.

이런, 영상처리부(50)는 좌표정보에 기초하여 배치된 적어도 하나의 열감지영상의 배치위치를 변경하여 가상의 팬-틸트 기능을 처리할 수 있다.In this way, the image processing unit 50 can process the virtual pan-tilt function by changing the arrangement position of at least one thermal sensed image arranged based on the coordinate information.

또한, 영상처리부(50)는 좌표정보에 기초하여 배치된 적어도 하나의 열감지영상을 다른 열감지영상으로 대체하여 가상의 팬-틸트 기능을 처리할 수 있다.In addition, the image processing unit 50 may process the virtual pan-tilt function by replacing at least one thermal sensed image disposed on the basis of the coordinate information with another thermal sensed image.

그리고, 영상처리부(50)는 사용자 인터페이스부(80)를 통해 입력된 입력값을 기초로 상기 배치된 적어도 하나의 열감지영상의 배치위치를 변경하여 가상의 팬-틸트 기능을 처리할 수 있다. 이런, 인터페이스부(80)는 사용자가 조작에 의해 열감지영상 내에 팬, 틸트, 및 줌 기능을 수행할 수 있고, 영상추적부(30)에서 추출된 좌표에 의해 관찰대상물을 따라서 자동으로 이동을 추적하도록 입력값을 설정할 수 있다.The image processing unit 50 may process the virtual pan-tilt function by changing the arrangement position of the at least one thermal sensed image based on the input value input through the user interface unit 80. [ The interface unit 80 can perform a pan, tilt, and zoom function in the heat sensed image by the user's operation, and automatically moves according to the coordinates extracted by the image tracking unit 30 You can set the input value to trace.

아울러, 영상처리부(50)는 사용자 인터페이스부(80)를 통해 입력된 입력값을 기초로 배치된 적어도 하나의 열감지영상을 다른 열감지영상으로 대체하여 가상의 팬-틸트 기능을 처리할 수 있다.In addition, the image processing unit 50 may process a virtual pan-tilt function by replacing at least one thermal sensed image disposed on the basis of an input value input through the user interface unit 80 with another thermal sensed image .

또한, 영상처리부(50)에서 좌표정보에 기초하여 관찰대상물의 이동을 표시하여 열감지영상을 처리할 수 있다.In addition, the image processing unit 50 can display the movement of the observation object based on the coordinate information to process the thermal sensed image.

그리고, 관찰대상물의 이동의 표시는, 관찰대상물에 소정의 식별표시를 부여할 수 있다.The display of the movement of the observation object can give a predetermined identification mark to the observation object.

상술된, 소정의 식별표시는 관찰대상물에 소정의 도형이 표시되도록 구성할 수 있다.The predetermined identification display described above can be configured so that a predetermined figure is displayed on the observation object.

즉, 식별표시는 영상추적부(30)에서 추적된 사각형의 좌표에 따라 관찰대상물이 영상에서 이동되는 위치를 나타내도록 처리할 수 있다.That is, the identification mark can be processed so as to indicate the position where the observation object is moved in the image according to the coordinates of the quadrangle tracked by the image tracking unit 30. [

여기서, 영상처리부(50)에서 영상 처리 시 영상에 대한 정보를 자막처리부(60)에 의해 자막형태로 생성하여 영상에 자막이 표시되도록 디스플레이부(70)로 함께 전송할 수 있다.Here, the image processing unit 50 may generate information on the image in the caption processing by the caption processing unit 60, and transmit the caption to the display unit 70 so that the caption is displayed on the image.

영상출력단계(S40)에서 디스플레이부(70)에서 열감지영상을 처리한 영상처리부(50)로부터 전송받은 영상을 출력한다.In the video output step S40, the display unit 70 outputs the image received from the image processing unit 50 that processes the thermal sensed image.

Claims (3)

실시간 영상 감시 시스템으로서, 화각을 갖는 렌즈를 구비한 카메라부에서 촬영된 촬영대상지역의 영상을 영상추적부와 영상분할부로 각각 전송하는 단계;
상기 영상추적부에서 전송된 상기 영상에서 이동하는 관찰대상물을 인식하고 상기 관찰대상물의 이동에 따른 좌표정보를 생성하여 영상처리부로 전송하는 단계;
상기 영상분할부에서 상기 영상을 복수의 영역으로 분할하고, 각각의 분할된 영역의 영상을 상기 영상처리부로 전송하는 단계;
상기 영상처리부에서 상기 영상분할부로부터 전송받은 복수의 분할된 영역의 영상 중 적어도 하나의 영상을 이동 또는 대체, 확대 및 축소 처리하는 단계; 및
상기 카메라부에서 촬영된 촬영대상지역의 영상 및 상기 영상처리부에서 처리된 복수의 분할된 영역의 영상을 함께 디스플레이부를 통해 출력하는 단계를 포함하고,
상기 영상추적부는, 상기 영상에 이동하는 관찰대상물이 2 이상 표시되면 상기 2 이상의 관찰대상물을 동시에 인식하고, 상기 2 이상의 관찰대상물의 좌표정보를 생성하여 상기 영상처리부로 전송하고,
상기 출력하는 단계에서는, 상기 촬영대상지역의 영상을 상기 디스플레이부의 중앙에 배치하고, 상기 복수의 분할된 영역의 영상을 상기 디스플레이부의 중앙 둘레의 분할된 위치에 배치하여, 상기 촬영대상지역의 전체 영상과 상기 전체 영상에서 분할된 영역에 대한 복수의 영상을 하나의 디스플레이부 내에 동시에 표시하며,
상기 처리하는 단계에서는, 상기 영상처리부에서 각각의 분할된 영역의 영상을 확대 또는 축소함으로써 가상의 팬, 틸트 또는 줌 기능을 실현하고,
상기 영상처리부에서 확대 또는 축소 처리된 영상은 상기 복수의 분할된 영역 중 해당 영역 내에서 디스플레이되는 것인,
실시간 영상 감시 시스템.
A real-time video surveillance system, comprising: transmitting an image of a region to be photographed, which is photographed by a camera unit having a lens having an angle of view, to a video tracker and a video segmenter, respectively;
Recognizing an observation object moving in the image transmitted from the image tracking unit, generating coordinate information according to movement of the observation object, and transmitting the coordinate information to the image processing unit;
Dividing the image into a plurality of regions in the image division unit, and transmitting the images of the divided regions to the image processing unit;
Moving, replacing, enlarging and reducing at least one image of the plurality of divided regions received from the image dividing unit in the image processing unit; And
And outputting an image of a region to be photographed photographed by the camera section and an image of a plurality of divided regions processed by the image processing section together through a display section,
Wherein the image tracking unit simultaneously recognizes the two or more observation objects when two or more observation objects to be moved on the image are displayed, generates coordinate information of the two or more observation objects, and transmits the coordinate information to the image processing unit,
Wherein the image of the region to be photographed is arranged at the center of the display section and the image of the plurality of divided regions is arranged at a divided position around the center of the display section, And simultaneously displaying a plurality of images of the divided regions in the entire image in one display unit,
Wherein the image processing unit realizes a virtual pan, tilt, or zoom function by enlarging or reducing an image of each of the divided regions,
Wherein the image enlarged or reduced by the image processing unit is displayed in a corresponding one of the plurality of divided areas.
Real - time video surveillance system.
청구항 1에 있어서,
상기 전방향 카메라가 상기 감시제어 장치의 명령에 응답하여 소정 각도 회전한 후 추가적인 전방향 영상을 획득할 수 있고,
상기 감시제어 장치는 상기 전방향 영상 중 일부를 상기 추가적인 전방향 영상의 대응 부분으로 대체한 후, 부분대체가 완료된 영상으로 상기 움직임객체 징후를 검출하는 실시간 영상 감시 시스템
The method according to claim 1,
The omnidirectional camera may acquire an additional omni-directional image after rotating a predetermined angle in response to an instruction of the monitoring control device,
The surveillance control device replaces a part of the omnidirectional image with a corresponding part of the additional omnidirectional image and then detects a motion object symptom with the partially replaced image.
청구항 1에 있어서,
상기 광각 렌즈 및 상기 이미지 센서가 각각 두 개씩 설치되고,
상기 두 개의 이미지 센서가 상기 하우징 내에서 수직방향으로 연장된 양면 기판상에 전후 대칭되게 설치되는 실시간 영상 감시 시스템
The method according to claim 1,
Each of the wide-angle lens and the image sensor is provided,
Wherein the two image sensors are mounted symmetrically on a double-sided substrate extending in a vertical direction in the housing,
KR1020170071593A 2017-06-08 2017-06-08 Real Time Video Surveillance System and Method KR20180134114A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170071593A KR20180134114A (en) 2017-06-08 2017-06-08 Real Time Video Surveillance System and Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170071593A KR20180134114A (en) 2017-06-08 2017-06-08 Real Time Video Surveillance System and Method

Publications (1)

Publication Number Publication Date
KR20180134114A true KR20180134114A (en) 2018-12-18

Family

ID=64952517

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170071593A KR20180134114A (en) 2017-06-08 2017-06-08 Real Time Video Surveillance System and Method

Country Status (1)

Country Link
KR (1) KR20180134114A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109842785A (en) * 2018-12-25 2019-06-04 江苏恒澄交科信息科技股份有限公司 Full visual field unmanned ship tele-control system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109842785A (en) * 2018-12-25 2019-06-04 江苏恒澄交科信息科技股份有限公司 Full visual field unmanned ship tele-control system
CN109842785B (en) * 2018-12-25 2021-03-02 江苏恒澄交科信息科技股份有限公司 Full-view unmanned ship remote control system

Similar Documents

Publication Publication Date Title
EP1765014B1 (en) Surveillance camera apparatus and surveillance camera system
US9041800B2 (en) Confined motion detection for pan-tilt cameras employing motion detection and autonomous motion tracking
EP2710801B1 (en) Surveillance system
US8427538B2 (en) Multiple view and multiple object processing in wide-angle video camera
US20100002070A1 (en) Method and System of Simultaneously Displaying Multiple Views for Video Surveillance
KR101120131B1 (en) Intelligent Panorama Camera, Circuit and Method for Controlling thereof, and Video Monitoring System
JP2007158860A (en) Photographing system, photographing device, image switching device, and data storage device
KR20010085692A (en) Intruding object monitoring method and intruding object monitoring system
WO2009066988A2 (en) Device and method for a surveillance system
KR101778744B1 (en) Monitoring system through synthesis of multiple camera inputs
KR101502448B1 (en) Video Surveillance System and Method Having Field of Views of 360 Degrees Horizontally and Vertically
KR101982751B1 (en) Video surveillance device with motion path tracking technology using multi camera
KR101096157B1 (en) watching apparatus using dual camera
KR20130130544A (en) Method and system for presenting security image
KR101977635B1 (en) Multi-camera based aerial-view 360-degree video stitching and object detection method and device
US20150296142A1 (en) Imaging system and process
KR101452342B1 (en) Surveillance Camera Unit And Method of Operating The Same
JP2011109630A (en) Universal head for camera apparatus
CN109785562B (en) Vertical photoelectric ground threat alert system and suspicious target identification method
KR101619953B1 (en) Method for image processing of surveilance camera by using auto multi-tracing
KR101619956B1 (en) Apparatus for image processing of surveilance camera by using auto multi-tracing
KR101410985B1 (en) monitoring system and monitoring apparatus using security camera and monitoring method thereof
KR20180134114A (en) Real Time Video Surveillance System and Method
KR101738514B1 (en) Monitoring system employing fish-eye thermal imaging camera and monitoring method using the same
JP2008219452A (en) Camera surveillance device