KR100744668B1 - Multiple person surveillance system using networked cameras - Google Patents

Multiple person surveillance system using networked cameras Download PDF

Info

Publication number
KR100744668B1
KR100744668B1 KR1020060008669A KR20060008669A KR100744668B1 KR 100744668 B1 KR100744668 B1 KR 100744668B1 KR 1020060008669 A KR1020060008669 A KR 1020060008669A KR 20060008669 A KR20060008669 A KR 20060008669A KR 100744668 B1 KR100744668 B1 KR 100744668B1
Authority
KR
South Korea
Prior art keywords
person
information
camera
server
cameras
Prior art date
Application number
KR1020060008669A
Other languages
Korean (ko)
Other versions
KR20070078451A (en
Inventor
이경미
이윤미
Original Assignee
덕성여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 덕성여자대학교 산학협력단 filed Critical 덕성여자대학교 산학협력단
Priority to KR1020060008669A priority Critical patent/KR100744668B1/en
Publication of KR20070078451A publication Critical patent/KR20070078451A/en
Application granted granted Critical
Publication of KR100744668B1 publication Critical patent/KR100744668B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22DCASTING OF METALS; CASTING OF OTHER SUBSTANCES BY THE SAME PROCESSES OR DEVICES
    • B22D11/00Continuous casting of metals, i.e. casting in indefinite lengths
    • B22D11/16Controlling or regulating processes or operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22DCASTING OF METALS; CASTING OF OTHER SUBSTANCES BY THE SAME PROCESSES OR DEVICES
    • B22D11/00Continuous casting of metals, i.e. casting in indefinite lengths
    • B22D11/12Accessories for subsequent treating or working cast stock in situ
    • B22D11/124Accessories for subsequent treating or working cast stock in situ for cooling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B22CASTING; POWDER METALLURGY
    • B22DCASTING OF METALS; CASTING OF OTHER SUBSTANCES BY THE SAME PROCESSES OR DEVICES
    • B22D11/00Continuous casting of metals, i.e. casting in indefinite lengths
    • B22D11/12Accessories for subsequent treating or working cast stock in situ
    • B22D11/128Accessories for subsequent treating or working cast stock in situ for removing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C23/00Cranes comprising essentially a beam, boom, or triangular structure acting as a cantilever and mounted for translatory of swinging movements in vertical or horizontal planes or a combination of such movements, e.g. jib-cranes, derricks, tower cranes
    • B66C23/18Cranes comprising essentially a beam, boom, or triangular structure acting as a cantilever and mounted for translatory of swinging movements in vertical or horizontal planes or a combination of such movements, e.g. jib-cranes, derricks, tower cranes specially adapted for use in particular purposes
    • B66C23/20Cranes comprising essentially a beam, boom, or triangular structure acting as a cantilever and mounted for translatory of swinging movements in vertical or horizontal planes or a combination of such movements, e.g. jib-cranes, derricks, tower cranes specially adapted for use in particular purposes with supporting couples provided by walls of buildings or like structures
    • B66C23/201Cranes comprising essentially a beam, boom, or triangular structure acting as a cantilever and mounted for translatory of swinging movements in vertical or horizontal planes or a combination of such movements, e.g. jib-cranes, derricks, tower cranes specially adapted for use in particular purposes with supporting couples provided by walls of buildings or like structures with supporting couples provided from above, e.g. by ceilings of buildings

Abstract

기존의 CCTV 방식의 감시 시스템은 장소와 거리의 제한, 다수의 카메라 사이에서의 정보전달에 많은 제약이 있어서, 대부분 모니터링 감시만으로 제한되어 사용되어왔다. 본 발명에서는 CCTV방식의 감시 시스템과 사람 추적기술을 결합한 사람추적 감시시스템을 제안한다. 제안된 시스템은 고정된 다수의 비겹침 카메라를 서버에 네트워크로 연결하고 각 카메라에서 추적된 정보를 서버와 다른 카메라가 연결된 클라이언트에 전달하여 광범위한 지역에서 카메라들을 통해 사람을 추적한다. 사람은 추적되는 동안 6단계의 상태인 등장, 움직임, 겹침, 대기, 재등장, 퇴장 상태를 가질 수 있다. 제안된 시스템은 다양한 실내 동영상에 대해 실험되었으며, 91.2%의 평균추적율과 96%의 평균 상태율을 획득하였다.Conventional CCTV surveillance system has been limited to place and distance, there are many restrictions on the transfer of information between multiple cameras, most of them have been limited to monitoring monitoring. The present invention proposes a person tracking surveillance system combining CCTV surveillance system and person tracking technology. The proposed system tracks people through cameras in a wide area by connecting a number of fixed non-overlapping cameras to the network and passing the information tracked from each camera to the client connected to the server and other cameras. While being tracked, a person may have six states: emerge, move, overlap, wait, reappear, and leave. The proposed system was tested for various indoor videos, and the average tracking rate of 91.2% and the average state rate of 96% were obtained.

감시 시스템, 카메라, 네트워크, 서버, 사람, 추적 Surveillance system, camera, network, server, people, tracking

Description

네트워크 카메라를 이용한 다중 사람추적 시스템{MULTIPLE PERSON SURVEILLANCE SYSTEM USING NETWORKED CAMERAS}Multi-person tracking system using network camera {MULTIPLE PERSON SURVEILLANCE SYSTEM USING NETWORKED CAMERAS}

도 1은 본 발명의 실시예에 따른 네트워크 카메라를 이용한 다중 사람추적 시스템의 개략적인 구성도.1 is a schematic configuration diagram of a multi-person tracking system using a network camera according to an embodiment of the present invention.

도 2는 도 1의 서버와 클라이언트 간의 정보전달 흐름도.2 is a flow diagram of information transfer between a server and a client of FIG.

도 3은 도 2의 정보전달에 사용된 프로토콜.3 is a protocol used for conveying information in FIG. 2;

도 4는 도 1의 네트워크 카메라의 내부 구성도.4 is a diagram illustrating an internal configuration of the network camera of FIG. 1.

도 5a 내지 도 5c는 도 1의 다중 사람추적 시스템에 채용된 계층적 사람모델을 설명하기 위한 도면.5A to 5C are diagrams for explaining a hierarchical person model employed in the multiple person tracking system of FIG.

도 6은 본 발명의 실시예에 따른 네트워크 카메라를 이용한 다중 사람추적 시스템에 채용된 추적대상의 상태정보 변화 과정을 나타내는 도면.6 is a view showing a process of changing the state information of the tracking target employed in a multi-person tracking system using a network camera according to an embodiment of the present invention.

도 7a 및 도 7b는 본 발명의 실시예에 따른 네트워크 카메라를 이용한 다중 사람추적 시스템의 실험환경과 사람이동 FOV-Line을 나타내는 도면.7A and 7B are diagrams illustrating an experimental environment and a mobile FOV-Line of a multi-person tracking system using a network camera according to an embodiment of the present invention.

도 8은 도 7a 및 도 7b의 실험에 사용된 세 대의 카메라에서의 사람추적에 대한 평균 ROC를 나타내는 그래프.8 is a graph showing the average ROC for human tracking in three cameras used in the experiments of FIGS. 7A and 7B.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

10 : 클라이언트10: client

12, 14, 16 : 네트워크 카메라12, 14, 16: network camera

20 : 서버20: server

본 발명은 네트워크 카메라를 이용한 감시 시스템에 관한 것으로, 특히 네트워크 카메라를 이용하여 넓은 지역에서 다수의 사람을 추적할 수 있는 다중 사람추적 시스템에 관한 것이다.The present invention relates to a surveillance system using a network camera, and more particularly to a multi-person tracking system that can track a large number of people in a large area using a network camera.

어떤 특정 행위나 사건이 일어나는 것을 감지하는 감시시스템은 사람추적을 이용한 연구 분야 중에서도 가장 중요하게 인식되고 있다. 그 이유는 사회가 발전할수록 공공장소뿐 아니라 개인공간에서도 개인 및 시설물의 안전에 대한 중요성이 높이 인식되고 있기 때문이다. 특히, 현대사회가 정보화, 무인화, 자동화, 전산화의 성격이 증가함에 따라 자신과 사업장의 안전과 재산에 대한 안전성과 보안성의 문제점에 대한 경고가 지속적으로 대두하고 있다. 따라서 자신과 사업장의 재산과 안전을 보호, 관리하기 위한 노력이 계속되고 있으며, 주요 시설물 및 관공서, 학교, 기업, 가정에 이르기까지 보안의 중요성과 범위가 넓어져 가고 있어 감시 시스템의 중요성과 개발의 필요성이 요구되고 있다.Surveillance systems that detect the occurrence of a particular action or event are the most important of all research-based research. The reason is that as society develops, the importance of the safety of individuals and facilities in public places as well as in private spaces is highly recognized. In particular, as the modern society becomes more information, unmanned, automated, and computerized, warnings about the safety and security of the property and the safety of its own workplace and workplaces continue to emerge. As a result, efforts are being made to protect and manage the property and safety of themselves and the workplace, and the importance and scope of security is expanding to major facilities, government offices, schools, businesses, and homes. Necessity is demanded.

감시 시스템은 CCTV 카메라나 PC 카메라를 이용한 영상 감시 시스템, 네트워 크 카메라를 이용해 컴퓨터로 영상을 실시간으로 신속하게 전송하여 핸드폰, PDA, PC 등에서 손쉽게 감시할 수 있는 네트워크 감시 시스템, 그 외에 야간 감시에 적합한 적외선 감시 시스템 등으로 나눌 수 있다. 그 중에서도 CCTV나 PC 카메라 등을 이용한 영상 감시 시스템은 침입이나 파괴 행위가 일어난 후의 대책 수단으로서의 다른 감시 시스템과 달리 능동적으로 침입자를 구분할 수 있으며 침입이나 위법 행위를 사전에 찾아낼 수 있고 녹화가 가능하여 중요한 정보를 제공, 저장하는 가장 효과적인 감시 수단이다.Surveillance system is suitable for video surveillance system using CCTV cameras or PC cameras, network surveillance system that can be easily monitored from mobile phones, PDAs, PCs, etc. by transmitting images to computers quickly and in real time using network cameras. Infrared surveillance system, etc. In particular, video surveillance systems using CCTVs or PC cameras, unlike other surveillance systems as a countermeasure after intrusion or destruction, can actively identify intruders, detect intrusions or offenses in advance, and record them. It is the most effective means of monitoring and providing important information.

영상 감시 시스템은 한 대 혹은 다수의 카메라를 이용할 수 있다. 한 대의 카메라만을 이용할 경우에는 비용이 저렴하지만 여러 위험 지역에 대한 감시를 동시에 수행하기가 쉽지 않다. 따라서 영상 감시 시스템은 두 대 이상의 감시 카메라를 이용하여 한정된 시야를 넓힘으로써 여러 지역에 산재되어 있는 위험 요소를 감시하고 원하는 대상을 보호할 수 있다. 이와 같은 다수의 카메라를 이용하여 사람을 추적하는 감시 시스템은 각 카메라가 추적 지역의 일정 범위를 공유하느냐, 공유하지 않느냐에 따라 겹침(overlapping) 배치와 비겹침(non-overlapping) 배치로 나눌 수 있다. 카메라의 시야가 겹치는 배치는 여전히 시각적 범위가 한정되어 있으므로, 더 넓은 시야의 확보가 용이한 비겹침 배치를 이용하여 더욱 넓은 범위에서의 사람의 움직임의 방향, 경로나 움직임의 패턴을 추적할 수 있다. Omar Javed et. al이 'the IEEE International Conference Computer Vision, pp. 952-957, 2003'에 게재한 논문 "Tracking in Multiple Cameras wit Disjoint Views"에서는 세 대의 비겹침 배치 카메라 사이에서의 사람을 추적하기 위해 10여 분간의 객체의 반복적인 움직임을 이용하여 추적대상이 각 카메라에 들어오고 나가는 시간, 거리, 움직임의 방향을 학습시켜 계산하였다. Dimitrios Makris et. al이 'the IEEE Computer Society Conference on Computer Vision and Pattern Recognition CVPR 2004, Washington DC, USA, June 2004'에 게재한 논문 "Bridging the Gaps between Cameras"에서는 카메라 여섯 대를 네트워크로 연결하여 실외에서 사람들의 입·출입의 링크 구조를 자동적으로 형성하였다. 또한 추적대상이 보이지 않은 지역으로 들어갔을 경우 추적대상이 어느 쪽 카메라에 나오는지에 대한 확률을 계산하기 위하여, 여섯 대의 카메라 사이의 입·출구 지역을 설정하여 각 지역에 대한 사람의 입·출입 통계를 구하였다.Video surveillance systems can use one or multiple cameras. Using only one camera is inexpensive, but it is not easy to simultaneously monitor several hazardous areas. As a result, video surveillance systems use two or more surveillance cameras to broaden their limited field of view, allowing them to monitor risks scattered across multiple areas and protect their targets. Surveillance systems that track people using multiple cameras can be divided into overlapping and non-overlapping arrangements, depending on whether each camera shares a range of tracking areas or not. . The overlapping field of view of the camera is still limited in its visual range, so a non-overlapping arrangement, which allows for a wider field of view, can be tracked in a wider range of directions, paths or patterns of movement. . Omar Javed et. al 'the IEEE International Conference Computer Vision, pp. In the article "Tracking in Multiple Cameras wit Disjoint Views," published in 952-957, 2003, the subjects were tracked using 10 minutes of repetitive movement of the object to track the person between three nonoverlapping batch cameras. We calculated by learning the time, distance and direction of movement to and from the camera. Dimitrios Makris et. In his article "Bridging the Gaps between Cameras," al, published in the IEEE Computer Society Conference on Computer Vision and Pattern Recognition CVPR 2004, Washington DC, USA, June 2004, six cameras are networked to connect people's mouths outdoors. The link structure of the entrance and exit was automatically formed. In order to calculate the probability of which camera the tracking target is in when the target is not visible, the entrance and exit statistics between the six cameras are set to calculate the entry and exit statistics of each person. Obtained.

그러나, 카메라에서 획득된 영상은 시간의 경과, 빛과 조명 등에 의해 끊임없이 변화되므로 추적 대상의 정보가 왜곡되거나 손실되기 쉽다. 또한 다수의 네트워크 카메라를 사용할 경우 각 카메라에 들어오는 잡음과 조명의 정도가 달라서 왜곡되는 정도의 차이가 심하므로, 추적에 실패하기가 쉽다. 이처럼, 종래의 네트워크 카메라를 이용하는 감시 시스템은 사람을 추적 감시하는데 적절히 이용할 수 없다는 한계가 있다.However, since the image acquired by the camera is constantly changed by the passage of time, light and lighting, the information of the tracking target is easily distorted or lost. In addition, when using multiple network cameras, the amount of noise and light coming into each camera is different so that there is a significant difference in the amount of distortion, so it is easy to fail tracking. As such, there is a limitation that a conventional surveillance system using a network camera cannot be properly used for tracking and monitoring a person.

따라서, 본 발명에서는 다수의 비겹침 카메라 간의 네트워크를 형성하고 카메라 간의 정보전달 양식을 규정하며 규정된 정보를 동기화하여 공유함으로써 다중적으로 사람을 추적할 수 있는 다중 사람추적 시스템을 제공하고자 한다.Accordingly, the present invention is to provide a multi-person tracking system that can form a network between a plurality of non-overlapping cameras, define the information transfer form between the cameras, and track the person multiple by synchronizing and sharing the prescribed information.

본 발명의 주된 목적은 은행, 도서관, 공항, 주요 관공서, 건물 밖 등과 같은 넓은 지역에서 다수의 사람들의 움직임을 다수의 카메라가 순차적으로 인식하여 감시하고, 그 움직임을 끝까지 추적할 수 있는 다중 사람추적 시스템을 제공하는 데 있다.The main object of the present invention is a multi-person tracking that can be monitored by a plurality of cameras in order to sequentially monitor the movement of a large number of people in a large area, such as banks, libraries, airports, major government offices, outside the building, etc. To provide a system.

상술한 목적을 달성하기 위하여 본 발명의 바람직한 측면에 의하면, 네트워크로 서로 연결되며, 획득한 영상으로부터 추적대상인 사람모델의 특징정보를 추출하고, 추출된 특징정보를 기 저장된 사람리스트 특징정보와 비교하며, 개개의 감시영역 상의 사람을 순차적으로 추적하는 복수의 카메라; 및 특징정보를 복수의 카메라로부터 각각 받아 저장하며, 저장된 사람리스트 특징정보를 복수의 카메라에 각각 제공하고, 복수의 카메라의 동기화를 수행하는 서버를 포함하는 다중 사람추적 시스템이 제공된다.According to a preferred aspect of the present invention in order to achieve the above object, it is connected to each other via a network, extracting feature information of the person model to be tracked from the acquired image, and compares the extracted feature information with the pre-stored person list feature information A plurality of cameras to sequentially track the person on the individual surveillance area; And a server receiving and storing feature information from each of the plurality of cameras, providing the stored person list feature information to each of the plurality of cameras, and synchronizing the plurality of cameras.

바람직하게, 상기 특징정보는 추적대상의 인체를 머리, 상체 및 하체로 구분하고, 상기 추적대상의 위치, 색상, 움직이는 방향, 중심점 및 인체를 구성하는 경계영역 중 적어도 하나의 정보를 포함하는 계층적 사람모델 정보이다.Preferably, the feature information classifies the human body of the tracking object into a head, upper body and lower body, and includes hierarchical information including at least one of a location, color, a moving direction, a center point, and a boundary region constituting the human body. Human model information.

상기 계층적 사람모델 정보는 조명 보정된 입력영상에서 분리된 전경영상에 대한 정보를 포함하며, 상기 전경영상에 대한 정보는 각 화소와 인접 화소 간의 밝기 유사도를 계산하여 여러 개의 색으로 구별된 색상의 집합인 블랍 정보를 포함한다.The hierarchical person model information includes information on the foreground image separated from the light-corrected input image, and the information on the foreground image is obtained by calculating a color similarity between each pixel and an adjacent pixel to determine the color of the color. Contains blob information that is a set.

상기 카메라의 제어부는 t번째 프레임에서 나타난 새로운 블랍과 이전 프레임에서 얻은 사람모델 사이의 최소거리가 미리 정해진 임계치보다 적으면, 상기 새로운 블랍을 새로운 사람모델 정보로써 상기 서버에 전달하고, 상기 서버는 상기 사람리스트를 저장되는 사람모델 정보를 상기 새로운 블랍의 중심과 불확실성을 다시 계산한 통계정보(평균과 표준편차)에 의해 갱신한다.The controller of the camera transmits the new blob as new human model information to the server when the minimum distance between the new blob indicated in the t-th frame and the person model obtained in the previous frame is less than a predetermined threshold, and the server The person model information stored in the person list is updated by statistical information (mean and standard deviation) of recalculating the center and uncertainty of the new blob.

상기 카메라 및 상기 서버는 상기 사람모델에 대하여 등장, 움직임, 겹침, 대기, 재등장 및 퇴장의 상태정보를 갖는다.The camera and the server have status information of appearance, movement, overlapping, waiting, reappearing, and exiting with respect to the human model.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세하게 설명하기로 한다. 이하의 실시예는 본 기술 분야에서 통상적인 지식을 가진 자에게 본 발명을 충분히 이해하도록 하기 위한 것이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. The following examples are provided to fully understand the present invention for those skilled in the art.

도 1은 본 발명의 실시예에 따른 네트워크 카메라를 이용한 다중 사람추적 시스템의 개략적인 구성도이다. 도 1은 서버와 네트워크 카메라 간의 정보전달 및 사람추적 과정을 보여준다.1 is a schematic configuration diagram of a multi-person tracking system using a network camera according to an embodiment of the present invention. 1 shows a process of transferring information and tracking a person between a server and a network camera.

도 1을 참조하면, 한 카메라에서 인식된 사람의 특징 정보는 서버(20)를 통해 네트워크 상의 다른 카메라에 전달된다. 서버(20)는 각 카메라(12, 14, 16)의 클라이언트로부터 들어오는 카메라의 정보를 전달받아 처리한다. 또한 서버(20)는 추적된 사람(P1, P2)의 정보를 연결된 여러 대의 카메라(12, 14, 16)에 일치된 정보가 전달되도록 각 카메라 간의 동기화를 확인한다.Referring to FIG. 1, characteristic information of a person recognized by one camera is transmitted to another camera on a network through the server 20. The server 20 receives and processes information of a camera coming from a client of each of the cameras 12, 14, and 16. In addition, the server 20 confirms the synchronization between each camera so that the information matched to the plurality of cameras (12, 14, 16) connected to the tracked person (P1, P2) information.

예를 들면, 제1 카메라(12)에서 추출되어 사람모델로 모델링된 사람1(P1)은 서버(20)의 사람 리스트(22)에 저장된다. 그 후 사람1이 제1 카메라(12)에서 나가 제2 카메라(14)에 다시 들어오면 서버(20)는 인식된 사람의 정보가 사람 리스트(22)에 등록이 되어 있는가를 살펴본다. 만약 인식된 사람이 사람 리스트(22)에 등록되어 있다면, 같은 사람(P1)이라 판단하여 계속 추적한다. 만약 인식된 사람이 사람 리스트(22)에 등록되어 있지 않은 사람이라면, 제2 카메라(14)에서는 새로이 인식된 사람을 새로운 사람(P2 또는 P3)라 판단하고 서버(20)의 사람 리스트(22)에 등록시킨다.For example, person 1 P1 extracted from the first camera 12 and modeled as a person model is stored in the person list 22 of the server 20. After that, when the person 1 exits the first camera 12 and reenters the second camera 14, the server 20 checks whether the recognized person's information is registered in the person list 22. If the recognized person is registered in the person list 22, it is determined that the same person (P1) and continues to track. If the recognized person is not registered in the person list 22, the second camera 14 determines that the newly recognized person is a new person (P2 or P3) and the person list 22 of the server 20. Register at

이와 같은 방법으로 각 카메라에서는 카메라에 들어오는 사람이 기존에 등록되어 있는 사람인가, 새로운 사람이 감시 영역의 비디오 프레임 안으로 들어오는가, 또 이전에 비디오 프레임에서 나갔던 사람이 다시 들어오는가를 계속해서 확인하여 추적할 수 있다.In this way, each camera can continue to check and track whether a person entering the camera is a registered person, a new person coming into the surveillance frame's video frame, or a person leaving the video frame coming back. have.

이처럼, 본 발명에서는 다수의 비겹침 카메라(12, 14, 16)와 서버 컴퓨터(20)와의 네트워크 연결을 통하여, 넓은 지역에 걸쳐 사람의 추적정보를 전달하며 공유하는 방법을 제안한다. 이를 위하여 서버(20)는 서버에 연결된 여러 대의 카메라(12, 14, 16) 간에 실시간으로 정보를 전달하고 인식할 수 있도록 네트워크를 형성시키고, 각 클라이언트들은 연결된 카메라로부터 획득된 추적대상의 정보와 움직임을 인식하여 인식된 추적대상의 특징정보를 서버(20)로 넘겨준다. 한 카메라에서 인식된 추적대상의 정보는 서버(20)에 연결된 다른 카메라에 전달되고, 정보를 전달받은 카메라에서는 전달받은 정보를 이용하여 이전에 추적된 사람을 추적할 수 있다.As such, the present invention proposes a method of transmitting and sharing tracking information of a person over a large area through a network connection between a plurality of non-overlapping cameras 12, 14, 16 and a server computer 20. To this end, the server 20 forms a network to transmit and recognize information between several cameras 12, 14, and 16 connected to the server in real time, and each client has information and movement of the tracking object obtained from the connected camera. Recognizes and passes the characteristic information of the recognized tracking target to the server 20. The information of the tracking object recognized by one camera is transmitted to another camera connected to the server 20, and the camera which has received the information can track the previously tracked person by using the received information.

한편, 추적 대상의 정보를 전달하고, 전달받기 위해서 인식된 추적대상의 특징 정보를 모델링 하는 것이 매우 중요하다. 따라서, 본 발명에서는 추적 대상의 정보를 전달하고 다수의 사람을 추적하기 위하여 세 인체 부위(머리, 상체, 하체)로 구성되어 있는 계층적 사람모델을 이용하여 추적 대상의 정보를 전달한다. 사람추적은 추적되는 사람이 카메라에 처음 나타나기 시작할 때 사람모델을 초기화하는 것으로 시작된다. 계층적 사람모델은 인식된 사람의 위치, 색상, 움직이는 방향, 중심점, 인체를 구성하는 경계영역 등의 정보를 가지고 있다. 이렇게 생성된 사람모델의 정보는 각 카메라들(12, 14, 16)과 서버(20)와의 정보전달을 위하여 서버(20)의 인식된 사람의 정보를 저장하는 사람 리스트(22)에 등록된다. 사람리스트(22)에 저장된 사람모델의 정보는 매 프레임마다 사람의 움직임에 의해 변화되므로, 매 프레임마다 사람모델을 갱신시켜 추적대상의 정보변화의 손실을 최소화시킴으로써 정확한 추적을 할 수 있도록 하였다. 계층적 사람모델은 아래에서 상세히 설명될 것이다.On the other hand, it is very important to model the feature information of the recognized tracking target in order to deliver the tracking information and receive. Therefore, in the present invention, information to be tracked is transmitted using a hierarchical human model composed of three human body parts (head, upper body, and lower body) in order to transmit information of tracking objects and to track a plurality of people. Tracking people begins by initializing the person model when the person being tracked first appears on the camera. The hierarchical human model has information such as the recognized human position, color, direction of movement, center point, and boundary areas that make up the human body. The information of the person model generated in this way is registered in the person list 22 which stores the information of the recognized person of the server 20 for the information transfer between the cameras 12, 14, 16 and the server 20. Since the information of the person model stored in the person list 22 is changed by the movement of the person every frame, the person model is updated every frame to minimize the loss of the information change of the tracking object so that accurate tracking can be performed. The hierarchical person model will be described in detail below.

도 2는 도 1의 서버와 클라이언트간의 정보전달 흐름도이다.FIG. 2 is a flowchart of information transfer between a server and a client of FIG. 1.

도 2를 참조하면, 서버(20)가 구동이 되면 서버(20)는 서버 소켓을 생성하여 클라이언트(10)의 연결을 기다린다. 각 클라이언트(10)는 서버(20)와의 연결을 위해 서버에 연결요청을 보낸다. 서버(20)는 각 클라이언트(10)가 연결되는 순서대로 해당 카메라 간의 동기화를 위해 카메라 번호를 부여하고, 클라이언트(10)의 소켓과 스트림을 분산하여 처리하기 위한 커넥션 객체(20a)를 생성하고 클라이언트(10) 의 입장을 허가한다. 또한, 서버(20)는 각 클라이언트(10)의 상태를 항상 확인하고 제어하기 위하여 연결된 클라이언트(10)마다 Thread를 생성하여 데이터 스트림을 동기화시킨다. Thread를 사용하면 하나의 서버에 여러 개의 클라이언트가 각각 독립적으로 접속할 수 있고, CPU 점유율을 줄일 수 있다. Thread는 ThreadList에 저장되어 연결된 클라이언트와의 정보를 주고받는데 이용된다. 그리고 서버(20)가 클라이언트(10)의 정보전달을 허가하는 프로토콜을 클라이언트(10)에 전달하면 클라이언트(10)는 사람을 추적하기 위한 미디어데이터를 읽어 들여 이미지 처리를 시작한다. 만약 클라이언트(10)가 예기치 않게 해제될 경우 서버(20)는 클라이언트(10)의 변화 상태를 감지하여 연결이 해제되었다는 알림 메시지를 보내고, Thread를 중단시키고 각 클라이언트(10)는 서버(20)와의 통신을 각각의 커넥션 객체(20a)를 통해 접속하게 되며, 생성된 커넥션들은 접속된 클라이언트(10)들의 정보를 받아 커넥션리스트에 저장한다. 즉, 각 클라이언트(10)는 메시지 프로토콜을 사용하여 전송하고자하는 메세지를 커넥션 객체(20a)를 이용하여 서버(20)로 전송하고, 서버(20)는 이러한 클라이언트(10)의 요청을 프로토콜을 통해서 확인할 수 있으며, 각 카메라(12, 14, 16)에서 추적된 사람에 대한 정보는 매 프레임마다 갱신되고, 갱신된 정보는 커넥션 객체(20a)를 통하여 서버(20)에 지속적으로 전달된다.2, when the server 20 is driven, the server 20 creates a server socket and waits for a connection of the client 10. Each client 10 sends a connection request to the server for connection with the server 20. The server 20 assigns a camera number for synchronization between corresponding cameras in the order in which each client 10 is connected, generates a connection object 20a for distributing and processing sockets and streams of the client 10, and the client Permit entry to (10). In addition, the server 20 synchronizes the data stream by creating a thread for each connected client 10 in order to always check and control the state of each client 10. By using threads, multiple clients can connect to one server independently and reduce CPU usage. Threads are stored in ThreadLists and used to exchange information with connected clients. When the server 20 transmits a protocol for allowing the client 10 to transmit the information to the client 10, the client 10 reads media data for tracking a person and starts image processing. If the client 10 is unexpectedly released, the server 20 detects a change state of the client 10 and sends a notification message indicating that the connection is released. The server 10 stops the thread and each client 10 communicates with the server 20. Communication is connected through each connection object 20a, and the generated connections receive information of the connected clients 10 and store them in the connection list. That is, each client 10 transmits a message to be transmitted using the message protocol to the server 20 using the connection object 20a, and the server 20 transmits the request of the client 10 through the protocol. The information about the person tracked by each of the cameras 12, 14, and 16 is updated every frame, and the updated information is continuously transmitted to the server 20 through the connection object 20a.

커넥션 객체(20a)가 클라이언트(10)로부터 전달받은 메시지를 서버(20)에 보내면 서버(20)는 커넥션 객체(20a)로부터 넘겨받은 메시지와 프로토콜을 서버(20)의 Thread에 보내고 서버(20)는 생성된 ThreadList를 이용하여 ThreadList에 저장되어 있는 모든 클라이언트에게 데이터를 전송하게 된다. 전송하는 방법은 Thread 가 서버(20)에서 보내온 메세지를 해당 커넥션 객체(20a)에 넘겨주고, 커넥션 객체(20a)는 그 메세지를 클라이언트(10)에게 전달하게 된다. 이런 방법으로 서버(20)와 클라이언트(10)들은 연결된 Thread와 커넥션 객체(20a)를 이용하여 메시지 프로토콜과 함께 메시지를 전송하거나, 메시지를 어느 클라이언트로부터 전달받는지를 확인할 수 있다. 서버(20)와 클라이언트(10) 사이에서의 정보전달에 사용된 프로토콜은 도 3에 표로써 요약 정리하여 나타내었다.When the connection object 20a sends a message received from the client 10 to the server 20, the server 20 sends a message and a protocol received from the connection object 20a to a thread of the server 20, and the server 20 Will use the created ThreadList to send data to all clients stored in the ThreadList. In the transmission method, a thread passes a message sent from the server 20 to the connection object 20a, and the connection object 20a delivers the message to the client 10. In this way, the server 20 and the client 10 may transmit a message along with the message protocol or check which client receives the message by using the connected thread and the connection object 20a. The protocol used for the transfer of information between the server 20 and the client 10 is summarized in a table in FIG. 3.

앞서 설명한 바와 같이, 본 발명에서 제안된 네트워크 기반의 사람추적 시스템은 다수의 카메라로부터 인식된 추적대상의 정보를 효율적으로 전달하고, 전달받기 위한 네트워크 설계를 위하여 JMF(Java Media Framework) 기반의 RTP(Real-time Transfer Protocol) 기술을 이용한다. JMF는 Sun사에서 개발한 자바기반 멀티프로그래밍 기술로써 비디오 및 오디오의 캡쳐, 저장, 전송, 스트리밍 기술을 목적으로 개발된 멀티미디어 제어관련 API이다. JMF는 네트워크 환경에서 멀티미디어스트림 데이터를 효율적으로 처리하고 플랫폼의 독립성을 보장하기 때문에 화상회의나, 화상 의료 시스템과 같은 멀티미디어 시스템 개발에 적합하며, 현재 JMF에서는 MPEG, AVI, MOV등의 비디오 기술과 H.261, H.263등의 영상회의 코덱 표준과 G.721, G.723 등의 오디오 코덱도 제공하고 있다.As described above, the network-based person tracking system proposed in the present invention efficiently transfers information of a tracking target recognized from a plurality of cameras, and uses JTP (Java Media Framework) -based RTP (network media) for network design. Real-time Transfer Protocol technology is used. JMF is a Java-based multiprogramming technology developed by Sun Corporation. It is a multimedia control API developed for capturing, storing, transmitting, and streaming video and audio. JMF is suitable for the development of multimedia system such as video conferencing and video medical system because it efficiently processes the multimedia stream data in the network environment and guarantees platform independence. Currently, JMF supports video technology such as MPEG, AVI, MOV and H. It also provides video conferencing codec standards such as .261 and H.263 and audio codecs such as G.721 and G.723.

JMF에서의 실시간 미디어 전송 또는 비디오 스트림 참조를 인터넷이나 인트라넷에서 수행하기 위해 지원되는 RTP는 네트워크 상에서 영상 데이터를 전송을 지원하는 API이다.RTP, which is supported to perform real-time media transmission or video stream reference in JMF on the Internet or intranet, is an API that supports transmission of video data over a network.

RTP는 미디어 스트림에 대한 전송을 목적으로 설계되었기 때문에 기존의 TCP/IP 기반의 HTTP, FTP가 가지고 있던 처리 오버헤드, 네트워크 전송 지연, 멀티미디어 기능 부족 등과 같은 문제점을 어느 정도 해결할 수 있어 실시간이 요구되는 멀티미디어 데이터를 전송하기에 적합하다. 또한 RTP는 스트림내의 임의의 위치에서 다양한 미디어 타입이 서로 공존할 수 있어 각각의 데이터를 구분하기 위한 식별자를 이용하기 때문에 단일(유니) 캐스트와 다중(멀티) 캐스트 양측에 모두 사용가능하다. 이러한 RTP 기능을 이용하여 전송된 데이터의 구별과 패킷의 순서에 대한 결정, 다중 미디어에 대한 동기화 기능을 수행한다.Since RTP is designed for the transmission of media streams, it is possible to solve some problems such as TCP / IP based HTTP, processing overhead of FTP, network transmission delay, lack of multimedia functions, etc. Suitable for transmitting multimedia data. In addition, RTP can be used for both single (uni) cast and multi (multi) cast because various media types can coexist with each other at any position in the stream and use an identifier to distinguish each data. This RTP function is used to distinguish transmitted data, determine packet order, and synchronize multiple media.

본 시스템에서는 서버(20)와 클라이언트(10) 간의 보다 빠른 미디어스트림처리를 위하여 음성데이터 전송은 고려하지 않는다.In this system, voice data transmission is not considered for faster media stream processing between the server 20 and the client 10.

또한, 본 시스템에서는 클라이언트(10)에 연결된 각 카메라(12; 14, 16)로부터 영상데이터를 얻기 위하여 JMF의 영상전송기능을 이용한다. 영상데이터를 순차적으로 획득하고 처리하기 위해서는 다수의 카메라들 사이에서 동기화가 이루어져야 하므로 서버에 연결된 카메라 순서대로 카메라 번호가 부여된다. 예를 들면, 미디어 스트림 전송을 위한 RTP 세션을 생성하기 위해 SyncVideo 객체는 해당 카메라 주소를 읽어 MediaLocator 객체를 생성한다. 클라이언트들은 SyncVideo 객체로부터 연결된 카메라의 DataSource 클래스를 넘겨받아, DataSource 클래스로부터 얻은 미디어스트림의 DataFormat 클래스의 정보를 카메라 주소와 포트번호, IP, 디바이스 정보와 함께 서버에 넘겨준다. 서버는 넘겨받은 DataFormat 클래스의 정보가 정당한지를 확인하며, 만약 정당하지 않은 DataFormat 클래스의 정보일 경우에는 서버는 클라이언트의 접근을 차단하고 에러메세지를 보낸다. 정당한 정보이면 서버는 클라이언트의 접근을 허가한다. 또한 서버는 클라이언트가 한꺼번에 많이 연결된 경우 발생되는 오버헤드를 제어하기 위하여 클라이언트가 연결되는 순서대로 커넥션 객체를 생성하여 각 클라이언트의 소켓과 스트림을 분산처리한다. 클라이언트가 모두 연결되면 서버는 동일한 TimeBase 객체를 이용하여 각 클라이언트들을 동기화 시킨 후 클라이언트로부터 들어온 순서대로 정보를 입력받아 처리한다. 서버와 연결된 클라이언트들은 자신과 연결된 카메라에서 추적된 사람의 특징 정보를 매 프레임마다 갱신하여 갱신된 정보를 서버를 통해 다른 클라이언트들에게 지속적으로 전달한다.In addition, the present system uses the JMF image transmission function to obtain image data from each camera 12 (14, 16) connected to the client 10. In order to acquire and process image data sequentially, synchronization must be performed between a plurality of cameras, so that camera numbers are assigned in the order of cameras connected to the server. For example, to create an RTP session for media stream transmission, the SyncVideo object reads the camera address and creates a MediaLocator object. Clients take the connected Camera's DataSource class from the SyncVideo object and pass the DataFormat class's DataFormat class information from the DataSource class to the server along with the camera address, port number, IP, and device information. The server checks whether the information in the DataFormat class is justified. If the information is not in the DataFormat class, the server blocks the client's access and sends an error message. If the information is legitimate, the server grants the client access. In addition, the server distributes sockets and streams of each client by creating connection objects in the order in which the clients are connected to control the overhead incurred when many clients are connected at once. When all the clients are connected, the server synchronizes each client using the same TimeBase object and receives and processes the information in the order from the client. Clients connected to the server update the feature information of the person tracked by the camera connected to it every frame and continuously transmit the updated information to other clients through the server.

도 4는 도 1의 한 네트워크 카메라의 내부 구성도이다.4 is an internal configuration diagram of one network camera of FIG. 1.

도 4를 참조하면, 촬상소자(31)는 CCD나 CMOS 등의 수광소자로 구현되며 렌즈를 통해 확대되어 투과된 피사체의 광원을 전기적 신호로 변환한다. 노이즈 제거부(32)는 촬상 소자(31)를 통해 변환된 전기적 신호의 노이즈를 제거한다. 디지털 신호 처리부(DSP)(33)는 노이즈 제거부(32)에 의해 노이즈가 제거된 신호를 화상 데이터로 처리한다. 제어부(37)는 디지털 신호 처리부(33)의 출력 신호를 연산하며, 시스템 전체의 정보를 저장하는 메모리(38)의 정보를 이용하여 시스템을 제어한다. 디코더 및 선택부(34)는 제어부(37)의 제어에 따라 디지털 신호 처리부(33)로부터의 영상 신호와 카메라(12)로부터의 외부 영상 신호를 입력하고 원하는 영상 신호를 선택하여 출력한다. 이때, 제어부(37)는 추적대상의 정보와 움직임을 인식하게 되며, 인식된 추적대상의 특징정보를 계층적 사람 모델링 방식으로 추출한다. 그리고 제어부(37)는 추출된 계층적 사람 모델과 서버로부터 전달받은 사람리스트 정보를 비교하여 추출된 사람모델이 기존에 등록되어 있는 추적대상인가 아니면 새로운 추적대상인가를 판단한 후, 그 판단 결과를 서버에 전달한다. 효율적인 정보전달을 위하여, 영상 신호 압축부(35)는 제어부(37)의 제어에 따라 디코더 및 선택부(34)로부터 출력된 영상 신호를 압축한다. 송수신부(36)는 외부로부터의 제어 신호, 예를 들어 서버의 제어 신호가 일반 전화선이나 통신선(미도시)을 통해 카메라(12) 또는 카메라의 제어부(37)로 전송되도록 하고, 영상 신호 압축부(35)에 의해 압축된 영상 신호가 일반 전화선이나 통신선을 통해 외부, 예를 들어 서버로 전송되도록 한다. 전원공급부(39)는 어댑터(미도시)를 통해 입력된 전압을 카메라(12) 내부에서 사용되는 여러 레벨의 전압으로 변환하여 공급한다.Referring to FIG. 4, the imaging device 31 is implemented as a light receiving device such as a CCD or a CMOS and converts a light source of a subject transmitted through a lens into an electrical signal. The noise removing unit 32 removes noise of the electrical signal converted through the imaging device 31. The digital signal processing unit (DSP) 33 processes the signal from which the noise is removed by the noise removing unit 32 into image data. The control unit 37 calculates the output signal of the digital signal processing unit 33 and controls the system using the information of the memory 38 that stores the information of the entire system. The decoder and selector 34 inputs an image signal from the digital signal processor 33 and an external image signal from the camera 12 under the control of the controller 37, and selects and outputs a desired image signal. At this time, the control unit 37 recognizes the information and the movement of the tracking target, and extracts the recognized tracking feature information by hierarchical person modeling. The controller 37 compares the hierarchical person model extracted with the person list information received from the server, determines whether the extracted person model is a previously registered tracking object or a new tracking object, and then determines the server. To pass on. In order to efficiently transmit information, the video signal compressor 35 compresses the video signal output from the decoder and the selector 34 under the control of the controller 37. The transmission / reception unit 36 transmits a control signal from the outside, for example, a control signal of a server, to the camera 12 or the control unit 37 of the camera through a general telephone line or a communication line (not shown), and the image signal compression unit. The video signal compressed by 35 is transmitted to the outside, for example, a server via a normal telephone line or a communication line. The power supply 39 converts a voltage input through an adapter (not shown) into voltages of various levels used in the camera 12 and supplies them.

도 5a 내지 도 5c는 도 1의 다중 사람추적 시스템에 채용된 계층적 사람 모델을 설명하기 위한 도면이다. 본 시스템에서는 블랍(BLOB)을 위치정보와 색상정보를 이용하여 세 인체 부위에 정합시켜 설계한 계층적 사람모델이 이용한다. 도 5a 내지 도 5c는 계층적 사람 모델링을 위한 입력영상(a), 전경영상(b) 및 결과영상(c)을 각각 나타낸다.5A through 5C are diagrams for describing a hierarchical person model employed in the multi-person tracking system of FIG. 1. In this system, the blob is used by hierarchical human model designed by matching the three body parts using location information and color information. 5A to 5C illustrate an input image (a), a foreground image (b), and a result image (c) for hierarchical person modeling, respectively.

먼저, 카메라에서 획득된 영상은 시간의 경과, 빛과 조명 등에 의해 끊임없이 변화되므로 추적대상의 정보가 왜곡되거나 손실되기 쉽다. 또한 다수의 카메라를 사용할 경우 각 카메라에 들어오는 잡음과 조명의 정도가 달라서 왜곡되는 정도의 차이가 심하므로, 추적에 실패하기가 쉽다. 이렇게 서로 다른 조명 환경에서 사 람을 추적하는 것은 매우 어려우므로 각 카메라의 정보를 하나의 균일한 공간으로 매핑시켜 환경을 균일하게 만들기 위하여 적응적 조명 모델링 방법을 이용한다.First, since the image acquired from the camera is constantly changed by the passage of time, light and lighting, the information of the tracking target is easily distorted or lost. In addition, when multiple cameras are used, the amount of noise and light coming into each camera is different so that the distortion is severe. Since it is very difficult to track people in different lighting environments, the adaptive lighting modeling method is used to make the environment uniform by mapping each camera's information into one uniform space.

적응적 조명 모델링은 하나의 본래영상을 이용하여 예측가능한 조명을 모델링하고 예측된 조명을 영상에서 제거하는 방법이다. 현재영상의 조명은 이전 프레임에서 생성되었던 조명의 위치로부터 현재영상 내의 조명의 위치를 예측할 수 있으므로, 다음 프레임에서 나타날 조명과 음영을 현재의 프레임에서 예측하고, 예측된 조명을 제거할 수 있다. 적응적 조명 모델링의 초기 단계로 빛에 가장 영향을 받지 않은 영상을 본래 영상으로 정의하였다. 현재영상은 이전 프레임에서부터 예측 가능하며, 따라서 이전 프레임에서 존재하는 조명은 현재영상에서 존재 가능한 위치를 예상할 수 있으므로, 두 번째 프레임부터는 이전 프레임에서 계산된 조명의 값으로 현재영상을 보정한다.Adaptive lighting modeling is a method of modeling predictable lighting using one original image and removing the predicted lighting from the image. Since the illumination of the current image may predict the position of the illumination in the current image from the position of the illumination generated in the previous frame, the illumination and the shadow to appear in the next frame may be predicted in the current frame, and the predicted illumination may be removed. As the initial stage of adaptive lighting modeling, the image that was least affected by light was defined as the original image. Since the current image can be predicted from the previous frame, the illumination existing in the previous frame can be predicted in the position where the existing image can exist. Therefore, from the second frame, the current image is corrected by the value of the illumination calculated in the previous frame.

본래 영상을 이용하여 조명 보정된 영상에서 배경영상을 분리하기 위해서 배경의 표준편차와 평균값을 계산하였다. 각 프레임들은 YCbCr공간의 각 Y,Cb,Cr 색상공간에서 소정 시간(t) 동안의 배경과 현재 영상과의 차이를 이차 판별함수인 마할라노비스 거리(Mahalanobis distance)를 이용하여 구한다. 새로운 프레임이 들어올 때마다, 배경과 전경으로 분리되고, 분리된 배경은 배경모델(평균과 표준편차)을 이용하여 갱신된다.The standard deviation and mean value of the background were calculated to separate the background image from the light-calibrated image using the original image. Each frame is obtained by using a Mahalanobis distance, which is a second discrimination function, for the difference between the background and the current image for a predetermined time t in each Y, Cb, Cr color space of the YCbCr space. Each time a new frame is entered, the background and foreground are separated and the separated background is updated using the background model (mean and standard deviation).

도 5a 내지 도 5c를 참조하면, 계층적 사람모델 및 모델기반 추적을 위하여 조명 보정된 입력영상(a)에서 분리된 전경영상(b)은 각 화소와 인접 화소 간의 밝기 유사도를 계산하는 연결요소 알고리즘을 사용하여 여러 개의 색으로 구별된 색 상의 집합인 블랍(BLOB)으로 분리한다. 각 블랍은 색상, 크기, 중심점, 위치, 인체를 구성하는 경계 등의 정보를 포함한다. 사람은 인체 부위에 대응되는 블랍의 부분집합으로 정의될 수 있으므로, 프레임 내의 블랍들은 다수의 사람들을 추적하기 위해 대응되는 인체에 할당되어야 한다. 분리된 블랍은 결과영상(c)에서와 같이 사람모델(P1)에서의 상대적인 위치에 따라 위치정보와 색상정보를 이용하여 각 사람의 인체를 머리, 몸통, 다리의 세 인체 부위로 나누었으며, 생성된 각 블랍은 세 인체 부위의 한 부분으로 할당된다.5A to 5C, the foreground image (b) separated from the light-corrected input image (a) for hierarchical human model and model-based tracking is a connected element algorithm for calculating brightness similarity between each pixel and adjacent pixels. To separate into a blob, a set of colors separated by multiple colors. Each blob contains information such as color, size, center point, location, and boundaries that make up the body. Since a person can be defined as a subset of blobs corresponding to human parts, the blobs in the frame must be assigned to the corresponding human body to track a large number of people. The separated blobs were divided into three human body parts, head, torso and leg, using location and color information according to their relative position in the human model (P1), as shown in the resulting image (c). Each blob is assigned to one part of the three body parts.

이와 같이 본 시스템에서는 사람을 추적하기 위하여 신체 색상정보를 포함하는 계층적 사람모델을 이용하여 추적하였다. 설계된 사람모델을 이용하여 사람을 추적하기 위해, 사람모델의 정보는 다수의 사람을 추적하기 위해 저장된다. 한편, 사람의 모든 동작이 프레임마다 상대적으로 작기 때문에, 색상기반 모델에서의 큰 변화는 추적을 쉽게 실패하게 만드는 원인이 된다. 따라서, 본 시스템에서는 전술한 색상 모델이 가진 추적의 민감성을 해결하기 위해서, 프레임의 블랍들을 참조모델과 비교하여, 사람모델을 갱신한다. 사람모델의 정보는 소정 시간(t-1)까지 계산된 통계정보(평균과 표준편차)에 의해 표현된다. t번째 프레임에서 나타난 새로운 블랍과 사람모델 사이의 최소거리가 미리 정해진 임계치보다 적으면, 블랍을 사람모델에 추가하고 그들의 중심과 불확실성을 다시 계산하여 사람모델을 갱신함으로써 거의 정확하게 사람을 추적한다.As such, this system uses a hierarchical person model including body color information to track a person. To track a person using a designed person model, the information of the person model is stored to track a number of people. On the other hand, because all human motion is relatively small from frame to frame, large changes in color-based models cause tracking to fail easily. Therefore, in order to solve the sensitivity of the tracking of the color model described above, the system updates the human model by comparing the blobs of the frame with the reference model. The information of the human model is represented by statistical information (mean and standard deviation) calculated up to a predetermined time t-1. If the minimum distance between the new blob and the human model shown in the t frame is less than the predetermined threshold, the person is almost accurately tracked by adding the blobs to the human model and recalculating their center and uncertainty to update the human model.

도 6은 본 발명의 실시예에 따른 네트워크 카메라를 이용한 다중 사람추적 시스템에 채용된 추적대상의 상태정보 변화 과정을 나타내는 도면이다.FIG. 6 is a diagram illustrating a process of changing state information of a tracking target employed in a multi-person tracking system using a network camera according to an exemplary embodiment of the present invention.

도 6을 참조하면, 본 발명의 사람추적 시스템은 다수의 카메라를 이용하여 추적된 사람의 움직임을 카메라와 서버 간에 추적 대상의 정보전달을 통해 끝까지 추적한다. 따라서, 사람모델은 카메라에 들어오는 순간부터 완전히 사라질 때까지 다음과 같은 6단계의 상태정보를 가진다. 추적대상의 상태정보는 등장(Entering), 움직임(Moving), 겹침(Occluding), 대기 (Hiding), 재등장(Re-entering), 퇴장(Exiting)이다.Referring to FIG. 6, the person tracking system of the present invention tracks the movement of a person tracked using a plurality of cameras to the end through information transfer of a tracking target between the camera and the server. Therefore, the human model has the following six levels of status information from the moment it enters the camera until it disappears completely. The status information of the tracking target is Entering, Moving, Occluding, Hiding, Re-entering, and Exiting.

등장(Entering) : 새로운 블랍이 생성되고, 생성된 블랍으로부터 기존의 사람리스트에 새로운 사람모델이 생성된 경우.Entering: When a new blob is created and a new human model is created on the existing person list from the generated blob.

움직임(Moving) : 생성된 사람모델이 카메라의 이전 프레임으로부터 일정 범위 안에서 지속적으로 매칭되고, 사람모델의 중심점이 일정 간격으로 지속적인 이동이 있는 경우.Moving: When the generated human model is consistently matched within a certain range from the previous frame of the camera, and the center point of the human model has continuous movement at regular intervals.

겹침(Occluding) : 한 카메라 내에서 인식된 2개 이상의 사람모델이 이동이 있는 동안 일부의 사람모델이 잠시 사라졌다가 다시 나타났을 경우.Occluding: Some people's models disappear for a while and then reappear while two or more people's models recognized within a camera are moving.

대기(Hiding) : 추적된 대상이 카메라 범위에서 벗어나 일정시간 동안 카메라간의 비겹침 지역(hide-zone)에 있는 경우.Hiding: The tracked subject is in the hide-zone between the cameras for a period of time, out of camera range.

재등장(Re-entering) : 대기 상태에서의 추적 대상이 다시 나타난 경우.Re-entering: Re-appearance of tracked objects in standby.

퇴장(Exiting) : 사람모델이 카메라로부터 일정시간 이상 벗어났으나 사람리스트에서 완전히 제거된 경우.Exiting: A person model has been removed from the camera for more than a certain time but has been removed from the person list.

도 7a 및 도 7b는 본 발명의 실시예에 따른 네트워크 카메라를 이용한 다중 사람추적 시스템의 실험환경과 사람이동 FOV-Line을 나타내는 도면이다.7A and 7B are diagrams illustrating an experimental environment and a mobile FOV-Line of a multi-person tracking system using a network camera according to an exemplary embodiment of the present invention.

본 발명의 사람추적 시스템은 Pentium-IV 1.8GHz인 CPU와 512 MB 메모리 사양의 window2000 XP상에서 JAVA(JMF)를 이용하여 구현되었다. 연결된 UNIMO CCN-541 보안 카메라 세 대에서 획득된 영상(200×180)으로 6가지 시나리오를 가지고 실험하였으며, 초당 프레임은 9~15프레임이다. 제안된 사람추적 시스템은 고정된 다수의 비겹침 카메라와 컴퓨터를 통한 네트워크 기술을 이용하여 각 카메라의 화상데이터 정보전달과 상호 정보전달이 가능하다.The human tracking system of the present invention was implemented using JAVA (JMF) on a Pentium-IV 1.8GHz CPU and window2000 XP with a 512 MB memory specification. Experiments were conducted with six scenarios using images (200 × 180) from three connected UNIMO CCN-541 security cameras, with frames ranging from 9 to 15 frames per second. The proposed human tracking system is capable of transmitting image data information and mutual information of each camera by using fixed non-overlapping cameras and computer network technology.

세 대의 비겹침 배치 카메라는 각 카메라의 시야가 겹치치 않는 배치구조의 특성상 카메라가 겹치치 않은 지역(hide-zone)이 존재한다. 도 7a는 실험환경에서의 FOV(Field of View)와 각 카메라(Camera1, Camera2, Camera3) 사이에 존재하는 비겹침 지역(hide-zone: h1,h2,h3,h4)을 보여주며, 도 7b는 실험공간에서 추적대상(Person1(P1), Person2(P2), Person3(P3))이 이동하는 FOV-Line을 보여준다.The three non-overlapping batch cameras have a hide-zone where the cameras do not overlap due to the nature of the layout structure where the views of each camera do not overlap. FIG. 7A illustrates a non-overlap zone (h1, h2, h3, h4) existing between a field of view (FOV) and each camera (Camera1, Camera2, Camera3) in an experimental environment. It shows FOV-Line in which the tracking subject (Person1 (P1), Person2 (P2), Person3 (P3)) moves in the experiment space.

도 7b를 참조하면, 3명의 추적대상(P1, P2, P3)은 FOV-Line을 따라 상태 (1),(2),(3),(4),(5),(6)과 같이 각 카메라에서 순차적으로 새로 등장(Entering), 움직이고(Moving), 겹치고(Occluding), 카메라에서 벗어나고(hiding), 재등장(Re-Enter)하고, 완전히 퇴장하는(Exiting) 시나리오를 따른다. 추적 대상들은 서로 다른 각 카메라에서 각각 나타날 수도 있고, 카메라 범위 내에서 이동하며, 다수의 사람이 한 카메라 내에 들어왔을 경우 겹침에 의해 일부의 사람이 잠시 사라질 수 있다.Referring to FIG. 7B, the three tracking targets P1, P2, and P3 each follow the FOV-Line as shown in states (1), (2), (3), (4), (5), and (6). Follow the scenario of entering, moving, occluding, leaving, re-entering, and exiting the camera sequentially. The tracked objects may appear in each of the different cameras individually, move within the camera range, and some people may temporarily disappear by overlapping when multiple people enter the camera.

또한 한 카메라에서 추적되어 나간 사람이 카메라 범위 내에서 벗어났을 경우, 연결된 다른 카메라 혹은 이전 카메라에서 재등장하거나 완전히 퇴장할 수 있다. 시나리오가 진행되는 동안 추적대상은 도 7b의 6단계 상태정보 중 하나를 항상 따르게 되며 각 카메라에서는 카메라에 들어오는 사람이 새로운 사람인가, 기존의 사람리스트에 등록되어 있는 사람인가, 이전에 비디오 프레임에서 나갔던 사람이 다시 들어오는가, 또는 완전히 제거됐는가를 계속해서 확인하여 추적한다.In addition, if a person tracked out of one camera is out of range, it can re-appear or exit completely from another connected camera or the previous camera. During the scenario, the tracking target will always follow one of the six levels of status information in FIG. 7B. For each camera, the person entering the camera is a new person, is a person registered in the existing person list, or previously exited from the video frame. Keep track of whether a person is coming back or if it has been completely removed.

예를 들면, 19프레임에서 제1 카메라(Camera1)에 사람1(Person1)이 처음 등장하고(새로운 사람 생성(Entering)), 72프레임에서 제1 카메라로부터 벗어난 사람1이 제2 카메라(Camera2)에 재등장하고(재등장(Re-entering)), 제3 카메라(Camera3)에 사람2(Person2)와 사람3(Person3)이 움직이고 있는 결과를 보여준다(움직임(Moving)). 그리고 88프레임일 때, 제3 카메라로부터 벗어났던 사람2가 제2 카메라에 재등장하여 사람1과 겹치게 된다(겹침(Occluding)). 그리고 116프레임에서 제2 카메라에서 퇴장한 사람1이 제3 카메라에 재등장하고, 사람2는 제2 카메라에서 퇴장한 결과를 보여준다(퇴장(Exiting)).For example, person 1 (Person1) first appears in the first camera Camera1 at frame 19 (creating a new person (Entering)), and person 1 who deviates from the first camera at frame 72 is connected to the second camera (Camera2). It reappears (Re-entering) and shows the result of the movement of Person 2 and Person 3 on the third camera Camera 3 (Moving). In the case of 88 frames, the person 2 who has escaped from the third camera reappears in the second camera and overlaps with the person 1 (Occluding). In frame 116, person 1 who has exited the second camera reappears in the third camera and person 2 shows the result of exiting from the second camera (Exiting).

도 8은 도 7a 및 도 7b의 실험에 사용된 세 대의 카메라에서의 사람추적에 대한 평균 ROC(Receiver Operating Characteristic) 결과를 나타내는 그래프이다.FIG. 8 is a graph showing an average receiver operating characteristic (ROC) result for human tracking in three cameras used in the experiments of FIGS. 7A and 7B.

본 발명의 시스템에서는 ROC 그래프를 이용하여 추적된 사람에 대한 추적 정확도를 측정하였다. 추적 정확도는 각 추적 단계에서 사람으로 추적된 모델의 수를 세고 실제로 나타난 전체 사람 수에 대한 비율을 계산하였다.In the system of the present invention, the tracking accuracy for the tracked person was measured using the ROC graph. Tracking accuracy counted the number of models tracked by people in each tracking step and calculated the percentage of the total number of people actually displayed.

도 8을 참조하면 평균 1~40프레임 구간에서 추적정확도의 기복이 심함을 볼 수 있다. 이는 초기의 사람모델 설계과정에서 들어오는 사람의 모델이 체계화되지 않았기 때문에 순간적으로 사람 추적률이 떨어졌음을 의미한다. 그러나 하락된 곡선이 바로 상승되어 안정된 그래프가 생성됨을 보여주므로 세 대의 카메라에서 추적된 사람모델이 안정되어 있음을 알 수 있다. ROC 그래프에서 나타난 추적정확도는 사람이 처음 들어와서 카메라에서 인식되어 퇴장하기까지 평균 481프레임에 대하여 91.2%의 평균 추적률을 보였다.Referring to FIG. 8, it can be seen that the ups and downs of tracking accuracy are severe in an average 1 to 40 frame interval. This means that in the initial human model design process, the human tracking rate dropped momentarily because the model of the incoming person was not organized. However, the declined curve immediately rises to show a stable graph, indicating that the human model tracked by the three cameras is stable. The tracking accuracy shown in the ROC graph showed an average tracking rate of 91.2% for an average of 481 frames from when a person first enters and is recognized by the camera.

시스템에서 측정된 상태정보   Status information measured by the system 퇴장Exit 1818 재등장Reappear 22 6666 대기Waiting 278278 59545954 겹침clash 4747 움직임movement 35653565 1212 등장appear 1616 7878 3131 등장appear 움직임movement 겹침clash 대기Waiting 재등장Reappear 퇴장Exit 실제 사람의 상태정보Real state information

표 1은 본 발명의 실시예에 따라 구현한 시스템에서 인식된 사람모델의 6단계 상태정보를 추적한 결과이다. 표 1의 가로축은 6개의 시나리오에서의 각 카메라에 나타난 사람의 실제 6단계 상태정보이고, 세로축은 시스템에서 측정된 사람모델의 6단계 상태정보이다. 표 1의 결과에서 제안된 시스템에서 옳게 추적된 사람에 대한 상태 추적정확도는 96.01% 이다. 옳게 추적된 사람모델의 상태정확도는 새로운 사람(Entering) 상태에서 88.8%, 카메라 내에서 사람모델의 움직임(Moving) 상태에서 89.1%, 사람 모델간의 겹침(Occluding) 상태에서 79.6%이었으며, 카메라에서 나간 사람모델이 다시 재등장(Re-entering) 상태에서 68%, 카메라 범위에서 사람모델이 벗어나 비겹침 지역에 들어간 대기(Hiding) 상태와 사람모델의 완전히 퇴장(Exiting)상태에서 100%의 상태정확도를 보여주었다.Table 1 is a result of tracking the six-step state information of the person model recognized in the system implemented according to an embodiment of the present invention. The horizontal axis of Table 1 is the actual six-stage status information of the person shown in each camera in six scenarios, and the vertical axis is the six-stage status information of the human model measured in the system. In the results of Table 1, the state tracking accuracy for the correctly tracked person in the proposed system is 96.01%. The state accuracy of the correctly tracked human model was 88.8% in the new entering state, 89.1% in the moving state of the human model in the camera, and 79.6% in the occluding state between the human models. 68% in the re-entering state of the human model, 100% state accuracy in the waiting state where the human model has fallen out of the camera range and entered the non-overlapping area and the fully exiting state of the human model. Showed.

이상에서 설명한 본 발명은 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경 가능하다는 것은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.The present invention described above is not limited to the above-described embodiments and the accompanying drawings, and it is common in the art that various substitutions, modifications, and changes can be made without departing from the technical spirit of the present invention. It will be evident to those who have knowledge of.

상술한 바와 같이, 본 발명에서는 다수의 카메라로부터 인식된 추적대상의 정보를 효율적으로 전달하고, 전달받기 위한 네트워크 기반의 사람추적 시스템을 제안하였다. 본 시스템에서는 JAVA로 다수의 미디어 데이터를 효율적으로 전송하고 처리하기 위해 JMF API와 RTP를 사용하여 카메라간의 네트워크 연결을 통해 추적대상의 정보전달이 가능하게 하였다. 본 발명에 의하면,카메라 내에서 사람을 추적하고 다른 카메라에 추적된 사람의 정보를 전달하기 위하여 계층적 사람모델을 이용하였으며, 모델링된 사람의 특징정보는 실시간으로 서버에 넘겨주고, 서버는 전달받은 정보를 연결된 각 클라이언트에 전달함으로써, 각 클라이언트들은 전달된 특징정보를 이용하여 추적대상을 검출, 인식하여 계속 추적할 수 있었다. 본 발명에 따른 사람추적 시스템은 앞으로 실내뿐 아니라 실외와 같은 다양한 환경에서 다수의 사람을 추적하고 추적된 사람들의 움직임의 궤도를 구하기 위한 가상공간으로의 구현에 용이하게 적용될 수 있다.As described above, the present invention has proposed a network-based person tracking system for efficiently delivering and receiving information of a tracking target recognized from a plurality of cameras. In this system, the JMF API and RTP are used to efficiently transmit and process a large number of media data to JAVA, enabling information to be tracked through the network connection between cameras. According to the present invention, a hierarchical person model is used to track a person in a camera and deliver the person's information to another camera, and the feature information of the modeled person is transferred to a server in real time, and the server receives By delivering the information to each connected client, each client could use the delivered feature to detect, recognize, and track the tracking target. The person tracking system according to the present invention can be easily applied to the implementation of a virtual space for tracking a plurality of people and obtaining a track of the movement of the tracked people in various environments such as indoors as well as outdoors.

아울러, 기존의 모니터링 방식에서 벗어나 능동적으로 사람을 추적할 수 있 는 본 시스템은 앞으로 기존의 감시시스템에서 하기 힘들었던 넓고 복잡한 공간과 다수의 많은 사람들의 움직임을 추적할 수 있어 범인 및 특정 인사 위치추적, 보안시스템 등에 널리 이용할 수 있다.In addition, this system, which can actively track people away from the existing monitoring methods, can track the movements of a large number of people and large and complex spaces that were difficult to do in the existing surveillance system. It can be widely used for security system.

Claims (5)

네트워크로 서로 연결되며, 획득한 영상으로부터 추적대상인 사람모델의 특징정보를 추출하고, 상기 추출된 특징정보를 기 저장된 사람리스트 특징정보와 비교하며, 개개의 감시영역 상의 사람을 순차적으로 추적하는 복수의 카메라; 및A plurality of features connected to each other through a network, extracting feature information of a person model to be tracked from the acquired images, comparing the extracted feature information with previously stored person list feature information, and sequentially tracking a person on an individual surveillance area; camera; And 상기 특징정보를 상기 복수의 카메라로부터 각각 받아 저장하며, 저장된 상기 사람리스트 특징정보를 상기 복수의 카메라에 각각 제공하고, 상기 복수의 카메라의 동기화를 수행하는 서버A server configured to receive and store the feature information from the plurality of cameras, provide the stored person list feature information to the plurality of cameras, and synchronize the plurality of cameras. 를 포함하고, Including, 상기 특징정보는 추적대상의 인체를 머리, 상체 및 하체로 구분하고, 상기 추적대상의 위치, 색상, 움직이는 방향, 중심점 및 인체를 구성하는 경계영역 중 적어도 하나의 정보를 포함하는 계층적 사람모델 정보이고,The characteristic information classifies the human body of the tracking object into a head, upper body and lower body, and includes hierarchical human model information including at least one of a location, a color, a moving direction, a center point, and boundary regions constituting the human body. ego, 상기 계층적 사람모델 정보는 조명 보정된 입력영상에서 분리된 전경영상에 대한 정보를 포함하며, 상기 전경영상에 대한 정보는 각 화소와 인접 화소 간의 밝기 유사도를 계산하여 여러 개의 색으로 구별된 색상의 집합인 블랍 정보를 포함하는 다중 사람추적 시스템.The hierarchical person model information includes information on the foreground image separated from the light-corrected input image, and the information on the foreground image is obtained by calculating a color similarity between each pixel and an adjacent pixel to determine the color of the color. Multi-person tracking system that includes blob information that is a set. 삭제delete 삭제delete 제 1 항에 있어서,The method of claim 1, 상기 카메라의 제어부는 t번째 프레임에서 나타난 새로운 블랍과 이전 프레임에서 얻은 사람모델 사이의 최소거리가 미리 정해진 임계치보다 적으면, 상기 새로운 블랍을 새로운 사람모델 정보로써 상기 서버에 전달하고, 상기 서버는 상기 사람리스트를 저장되는 사람모델 정보를 상기 새로운 블랍의 중심과 불확실성을 다시 계산한 통계정보에 의해 갱신하는 다중 사람추적 시스템.The controller of the camera transmits the new blob as new human model information to the server when the minimum distance between the new blob indicated in the t-th frame and the person model obtained in the previous frame is less than a predetermined threshold, and the server A multi-person tracking system for updating a person model information stored in a person list by statistical information re-calculated the center and uncertainty of the new blob. 제 1 항에 있어서,The method of claim 1, 상기 카메라 및 상기 서버는 상기 사람모델에 대하여 등장, 움직임, 겹침, 대기, 재등장 및 퇴장의 상태정보를 갖는 다중 사람추적 시스템.The camera and the server has a multi-person tracking system having the status information of appearance, movement, overlap, waiting, re-appearance and exit for the human model.
KR1020060008669A 2006-01-27 2006-01-27 Multiple person surveillance system using networked cameras KR100744668B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060008669A KR100744668B1 (en) 2006-01-27 2006-01-27 Multiple person surveillance system using networked cameras

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060008669A KR100744668B1 (en) 2006-01-27 2006-01-27 Multiple person surveillance system using networked cameras

Publications (2)

Publication Number Publication Date
KR20070078451A KR20070078451A (en) 2007-08-01
KR100744668B1 true KR100744668B1 (en) 2007-08-02

Family

ID=38599427

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060008669A KR100744668B1 (en) 2006-01-27 2006-01-27 Multiple person surveillance system using networked cameras

Country Status (1)

Country Link
KR (1) KR100744668B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101155184B1 (en) 2010-04-01 2012-06-13 대덕대학산학협력단 Visual tracking system using collaboration of double shapshot means and tracking method thereof
KR101224017B1 (en) * 2011-04-21 2013-01-21 강원대학교산학협력단 System for monitoring intelligently image
KR101440620B1 (en) * 2008-02-01 2014-09-17 삼성전자주식회사 Method and apparatus for estimation of object boundaries in moving picture
KR101472077B1 (en) * 2014-04-01 2014-12-16 주식회사 베스트디지탈 Surveillance system and method based on accumulated feature of object
US9866744B2 (en) 2015-07-23 2018-01-09 Hanwha Techwin Co., Ltd. Apparatus and method for controlling network camera

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2007102021A (en) * 2007-01-19 2008-07-27 Корпораци "Самсунг Электроникс Ко., Лтд." (KR) METHOD AND SYSTEM OF IDENTITY RECOGNITION
KR100904846B1 (en) * 2007-08-27 2009-06-25 아주대학교산학협력단 Apparatus and method for inferencing topology of multiple cameras network by tracking movement
KR100911121B1 (en) * 2007-09-19 2009-08-11 한국과학기술원 Image-based human blob tracking method
KR100962529B1 (en) 2008-07-22 2010-06-14 한국전자통신연구원 Method for tracking object
KR101320350B1 (en) 2009-12-14 2013-10-23 한국전자통신연구원 Secure management server and video data managing method of secure management server
KR101136366B1 (en) * 2010-02-26 2012-04-18 주식회사 비츠로시스 Auto object tracking system
KR101158729B1 (en) * 2010-03-31 2012-06-22 한국과학기술원 system and method for tracking multiple objects in real time
KR20150027532A (en) * 2013-09-04 2015-03-12 주식회사 모브릭 Method and apparatus for syncronizing video from a plurality of action cam
KR102025294B1 (en) * 2017-12-29 2019-09-25 정영규 Apparatus and method for detecting target tracking failure on wide view using target tracking trajectory on local view
KR102081517B1 (en) * 2018-11-02 2020-02-25 주식회사 블루아이 Intelligent integration control system and intelligent integration control method for linkage tracing of goal target

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077887A (en) 2000-09-04 2002-03-15 Mitsubishi Electric Corp Automatic monitoring method and device thereof
JP2003324720A (en) 2002-05-07 2003-11-14 Matsushita Electric Ind Co Ltd Supervisory system and supervisory camera
JP2004266404A (en) 2003-02-28 2004-09-24 Hitachi Ltd Tracking type cooperative monitoring system
KR20040084222A (en) * 2003-03-27 2004-10-06 주식회사 케이티 System and Method for Tracking and Monitering a Moving Object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077887A (en) 2000-09-04 2002-03-15 Mitsubishi Electric Corp Automatic monitoring method and device thereof
JP2003324720A (en) 2002-05-07 2003-11-14 Matsushita Electric Ind Co Ltd Supervisory system and supervisory camera
JP2004266404A (en) 2003-02-28 2004-09-24 Hitachi Ltd Tracking type cooperative monitoring system
KR20040084222A (en) * 2003-03-27 2004-10-06 주식회사 케이티 System and Method for Tracking and Monitering a Moving Object

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101440620B1 (en) * 2008-02-01 2014-09-17 삼성전자주식회사 Method and apparatus for estimation of object boundaries in moving picture
KR101155184B1 (en) 2010-04-01 2012-06-13 대덕대학산학협력단 Visual tracking system using collaboration of double shapshot means and tracking method thereof
KR101224017B1 (en) * 2011-04-21 2013-01-21 강원대학교산학협력단 System for monitoring intelligently image
KR101472077B1 (en) * 2014-04-01 2014-12-16 주식회사 베스트디지탈 Surveillance system and method based on accumulated feature of object
US9477891B2 (en) 2014-04-01 2016-10-25 Best Digital.Co., Ltd. Surveillance system and method based on accumulated feature of object
US9866744B2 (en) 2015-07-23 2018-01-09 Hanwha Techwin Co., Ltd. Apparatus and method for controlling network camera

Also Published As

Publication number Publication date
KR20070078451A (en) 2007-08-01

Similar Documents

Publication Publication Date Title
KR100744668B1 (en) Multiple person surveillance system using networked cameras
JP6963467B2 (en) Motion recognition in video sequences
US7583815B2 (en) Wide-area site-based video surveillance system
US10904485B1 (en) Context based target framing in a teleconferencing environment
US7366359B1 (en) Image processing of regions in a wide angle video camera
JP4673849B2 (en) Computerized method and apparatus for determining a visual field relationship between a plurality of image sensors
US20150244991A1 (en) Monitoring camera system and control method of monitoring camera system
JP3999561B2 (en) Surveillance system and surveillance camera
WO2015198767A1 (en) Abnormality detection device and abnormality detection method
US20160247039A1 (en) Article delivery system
US20080036860A1 (en) PTZ presets control analytiucs configuration
JP2007158860A (en) Photographing system, photographing device, image switching device, and data storage device
US20160132722A1 (en) Self-Configuring and Self-Adjusting Distributed Surveillance System
US9035995B2 (en) Method and apparatus for widening viewing angle in video conferencing system
CN110557603B (en) Method and device for monitoring moving target and readable storage medium
US20110255590A1 (en) Data transmission apparatus and method, network data transmission system and method using the same
KR100953029B1 (en) Security System and Security Method
US20160044282A1 (en) Desk-side surveillance
US8803941B2 (en) Method and apparatus for hands-free control of a far end camera
JP7136710B2 (en) Information processing device and matching method
TWM551285U (en) Surveillance system with face recognition
WO2006017402A3 (en) Surveillance system and method
US20060001741A1 (en) Realtime video display method of mixed signals
US10805527B2 (en) Image processing device and method
JP2009060261A (en) Video monitoring system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20120718

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20130821

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140813

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee