WO2015174578A1 - 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템 및 그 운영방법 - Google Patents

피사체 이동 추적 기능을 이용한 씨씨티브이 시스템 및 그 운영방법 Download PDF

Info

Publication number
WO2015174578A1
WO2015174578A1 PCT/KR2014/006687 KR2014006687W WO2015174578A1 WO 2015174578 A1 WO2015174578 A1 WO 2015174578A1 KR 2014006687 W KR2014006687 W KR 2014006687W WO 2015174578 A1 WO2015174578 A1 WO 2015174578A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
image
motion vector
detected
subject image
Prior art date
Application number
PCT/KR2014/006687
Other languages
English (en)
French (fr)
Inventor
권구락
김정묵
김지인
Original Assignee
조선대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 조선대학교산학협력단 filed Critical 조선대학교산학협력단
Publication of WO2015174578A1 publication Critical patent/WO2015174578A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Definitions

  • the present invention relates to a system and a method of operating the Citizen using the subject movement tracking function, in particular Citizen using a subject movement tracking function to shoot the subject in motion, and to track the movement path of the subject using the captured image It relates to a system and a method of operating the same.
  • Moving objects vary mainly in humans, cars and animals, but most of them are researches for detecting and tracking people, vehicles and faces.
  • the tracking still fails if the subject being tracked is partially removed or the entire region is covered by other background elements. And even if the subject appears again from the above state, there is a problem that it is not possible to determine whether or not the subject being tracked.
  • the present invention aims to provide a system and an operation method of a Citizen using a subject movement tracking function that photographs a subject in motion and tracks a movement path of the subject using a captured image. do.
  • an object of the present invention is to provide a system and a method of operation thereof using a subject movement tracking function to learn the characteristics of the subject to generate, detect and track the classifier.
  • a CSI system using a subject movement tracking function is installed at a predetermined interval in a predetermined region, and a plurality of image input apparatuses for photographing a moving subject in a corresponding region and outputting a captured image signal.
  • An image digital recording device which receives a captured image signal from image input apparatuses, stores an image result tracked along a moving path for a subject moving in a certain region, and supports retrieval of the stored image result;
  • a backup device that receives, stores, and manages image results generated by the image digital recording apparatus, and supports retrieval of stored image results.
  • an image digital recording apparatus includes an input interface for receiving a subject image photographed by the image input apparatus, an encoder for encoding a subject image input through the input interface, and an encoded subject image.
  • a video / image processing unit for extracting shape information of a subject and a central control unit for outputting or storing shape information processed by the video / image processing unit on a screen and storing the same.
  • the central controller detects a subject image from an image input from a video / image processing unit, sets an image region for the detected subject image, and normalizes the image to generate a motion vector in the subject image region. After the accumulation, the subject can be tracked using the accumulated motion vector.
  • the central controller sets the subject movement prediction region in the direction of the accumulated motion vector, and predicts it. It is determined whether or not the subject imager is detected within the defined range so that the subject can be tracked if detected.
  • the central controller detects a feature of a subject image from a camera image using a HOG, and generates a directional feature vector of tilt in an image of a whole body region of the subject image.
  • the central control unit may classify only a corresponding subject through learning and track an image of the subject by using position information of the detected subject image.
  • the central controller may acquire a motion vector by using a block matching algorithm around the subject when tracking the subject image.
  • the central controller when the subject imager is detected, discards the cumulative motion vector, and allows the central controller to recalculate from the point of time when the subject image is detected.
  • the shape information is at least one of face information when the subject is a person, a car image when the subject is a vehicle, color information of the subject, and characteristic information of the subject, and the motion vector is a direction in which the subject moves.
  • the current movement speed may be represented, and the cumulative motion vector may represent an average movement direction and speed of the subject image.
  • a method of operating a Citizen system using a subject movement tracking function may include: receiving an image through an image input unit by a central controller; Detecting a subject image from an input image by the central controller; Determining, by the central controller, whether the subject image is detected; A central controller configured to set a subject image area and normalize the image when the subject image is detected; Generating and accumulating a motion vector in the subject image area; And a central controller tracking a subject by using the accumulated motion vector.
  • the central controller may include determining whether a detected subject image disappears or is not detected while generating and accumulating a motion vector in a subject image region; Setting, by the central controller, a subject motion prediction region in the direction of the cumulative motion vector when the subject image disappears or is not detected; And determining whether or not the subject imager is detected within the predicted range by repeating the step of tracking the subject if detected.
  • the central controller may further include detecting a feature of a subject image in a camera image using a HOG, and generating a directional feature vector of a tilt in an image of the whole body region of the subject image.
  • the central control unit may classify only a corresponding subject through learning and track an image of the subject by using position information of the detected subject image.
  • the central controller may acquire a motion vector by using a block matching algorithm around the subject when tracking the subject image.
  • the central control unit classifies only the subject and uses the Adaboost algorithm to detect the subject image, and the Adaboost algorithm sets the weak classifier at the beginning of the subject classification to detect the overall image of the subject image. Learning is performed and a strong classifier is generated based on the learning result to detect the subject image.
  • the central control unit accumulates the acquired motion vector values for each frame to obtain an average motion vector so that the subject image to track the region of interest appears even when the subject image is overlapped with another object. Move to to display.
  • the central controller when the subject imager is detected, discards the cumulative motion vector, and allows the central controller to recalculate from the point of time when the subject image is detected.
  • the motion vector may indicate the moving direction and the current moving speed of the subject
  • the cumulative motion vector may indicate the average moving direction and the speed of the subject image
  • the present invention has the effect of minimizing duplicate recognition data by photographing a subject in motion and tracking a moving path of the subject by using the photographed image.
  • the present invention is to learn the characteristics of the subject to create a classifier, to detect and track, so that when the subject image overlaps with other objects, the subject image is predicted to track the subject image without missing the subject image. It is effective to make it possible
  • FIG. 1 is a block diagram schematically showing the configuration of a Citizen system using a subject movement tracking function according to the present invention.
  • FIG. 2 is a flowchart illustrating a method of predicting a subject motion in the overlapping phenomenon using a cumulative motion vector according to the present invention.
  • FIG 3 is a view showing an arbitrary image (data A, B) assuming the overlap phenomenon according to the present invention.
  • FIG. 4 is a diagram illustrating a subject detection and tracking result in a data A image according to the present invention.
  • FIG. 5 is a diagram illustrating a subject detection and tracking result in a data B image according to the present invention.
  • FIG. 6 is a view showing a comparison of the color and position of the subject clothes of the original image and the detection image according to the present invention.
  • FIG. 1 is a block diagram schematically illustrating the configuration of a Citizen system using a subject movement tracking function according to the present invention.
  • the CSI system using a subject movement tracking function is installed at a predetermined interval in a predetermined area, and captures a moving subject in the corresponding area, and outputs a captured image signal.
  • 100 and the image input from the image input apparatus 100 to store the image result tracked along the moving path for a subject moving a certain area, and to support the search for the stored image result
  • the digital recording apparatus 200 and the backup apparatus 300 are provided to store and manage the image output generated by the image digital recording apparatus 200, and support the search for the stored image output.
  • the image digital recording apparatus 200 includes an input interface 210 for receiving a subject image photographed by the image input apparatuses 100, an encoder 220 for encoding a subject image input through the input interface 210, and The video / image processor 230 extracts the shape information of the subject from the encoded subject image, and the central controller 240 outputs or stores the shape information processed by the video / image processor 230 on the screen. )
  • the video / image processing unit 230 includes a face detector 231 for detecting a face when the subject is a person, a car image detector 232 for detecting a vehicle image when the subject is a vehicle, and a color recognizer for recognizing the color of the subject. 233 and a feature recognizing unit 234 for recognizing the feature of the subject.
  • the video / image processing unit 230 receives the subject image input through the encoder 220 and performs gray conversion, and then checks the resolution. As a result of the check, when the resolution of the subject image in which the gray conversion is performed is a high resolution, the video / image processing unit 230 performs filtering through a Gaussian filter and then performs erosion and top-hat operations sequentially. . The video / image processing unit 230 binarizes the processed subject image, extracts a blob and a region to be labeled from the image, and performs region labeling on the extracted region, and performs template matching on the candidate region. And, the generated result is output to the central control unit 240.
  • the central control unit 240 may include a viewer module 241 for checking a subject image result processed by the video / image processor 230 and a subject image result input from the video / image processor 230.
  • a recognition module 242 for recognizing according to a preset condition, a search module 243 for supporting a subject image result recognized by the recognition module 242 under a predetermined condition, and the recognition module 242.
  • the management module 244 stores and manages the result of the recognized object image and transmits it to the backup device 300 for storage.
  • the central controller 240 detects a subject image from an image input from the video / image processor, sets an image region for the detected subject image, normalizes the image, generates and accumulates a motion vector in the subject image region, and then The subject is tracked using the accumulated motion vector.
  • the central controller 240 sets the subject movement prediction region in the direction of the accumulated motion vector when the detected subject image disappears or is not detected while generating and accumulating the motion vector in the subject image region, and sets the subject within the predicted range. It is determined whether an imager is detected, and if detected, the subject is tracked.
  • the central controller 240 detects the feature of the subject image from the camera image using the HOG, and generates a directional feature vector of the tilt in the image of the whole body region of the subject image.
  • the central controller 240 classifies only the corresponding subject through learning and tracks the image of the subject using the detected position information of the subject image.
  • the central controller 240 acquires a motion vector by using a block matching algorithm around the subject when tracking the subject image.
  • the central controller 240 discards the cumulative motion vector and recalculates the image from the time when the subject image is detected.
  • the shape information is at least one of face information when the subject is a person, car image when the subject is a vehicle, color information of the subject, and characteristic information of the subject, and the motion vector indicates a moving direction and a current moving speed of the subject.
  • the cumulative motion vector represents the average moving direction and speed of the subject image.
  • CSI using the object movement tracking function configured as described above describes a method of predicting the object movement in the overlapping phenomenon using the cumulative motion vector in the system.
  • FIG. 2 is a flowchart illustrating a method of predicting a subject motion in the overlapping phenomenon using a cumulative motion vector according to the present invention.
  • the central controller 240 receives a subject image result through the video / image processor 230 (S110), detects a subject image from the input subject image result (S120), and then uses the central controller ( In operation S130, it is determined whether a subject image is detected.
  • the central controller 240 detects a feature of the subject image from the subject image result input through the video / image processor 230 made of a camera using a HOG, and the directional characteristic of the tilt in the image of the whole body region of the subject image. Create a vector.
  • step S130 When the subject image is detected as a result of the determination in step S130, the central controller 240 sets the subject image region and normalizes the image (S140), and the central controller 240 generates and accumulates a motion vector in the subject image region (S150). ) If the determination result of step S130 does not detect the subject image is repeated from step S120.
  • the central controller 240 determines whether the detected subject image disappears or is not detected by disappearing or not detected while generating and accumulating a motion vector in the subject image region (S160).
  • the central controller 240 tracks the subject using the motion vector generated and accumulated in step S150 (S190).
  • step S160 If the subject image disappears or is not detected as a result of step S160, the central controller 240 sets the subject motion prediction region in the cumulative motion vector direction (S170), and whether the subject imager is detected within the predicted range. Determine (S180).
  • the central controller 240 tracks the subject (S190), and repeats from step S170 when the subject image is not detected within the predicted range.
  • 3 is a view showing an arbitrary image (data A, B) assuming the overlap phenomenon according to the present invention.
  • 4 is a diagram illustrating a subject detection and tracking result in a data A image according to the present invention.
  • 5 is a diagram illustrating a subject detection and tracking result in a data B image according to the present invention.
  • 6 is a view showing a comparison of the color and position of the subject clothes of the original image and the detection image according to the present invention.
  • the MIT pedestrian database and the INRIA person dataset which are published subject data ( Each subject data consists of 924 MITs and 1132 INRIAs.
  • the image is displayed in the order of (a) to (j) and displayed in units of 13 frames, and the prediction movement direction is obtained according to the accumulated motion vector obtained by adding the motion vectors based on the 13 frames.
  • a block matching algorithm is obtained by comparing the previous frame with the detected subject area. If a part of the subject is lost or hidden, the region of interest is moved in the predicted movement direction, and if the subject reappears, the subject is redetected.
  • the yellow square area represents the object detection by the conventional method and the green square area represents the object detection by the object detection method according to the present invention.
  • the predicted moving area using the cumulative motion vector is indicated by a red square box.
  • Subject detection and tracking results using the subject tracking and detection method according to the present invention may be arranged by frame as shown in FIGS. 4 and 5.
  • the prediction range designated by the cumulative motion vector is moved in the up, down, left, right and diagonal directions based on the x and y axes.
  • the cumulative motion vector is obtained by summing the motion vectors obtained by the interframe block matching algorithm and calculating the average.
  • the cumulative motion vector is discarded and is calculated again from the point of time when the subject is detected.
  • the motion vector of the subject represents the moving direction and the current moving speed of the subject
  • the cumulative motion vector represents the average moving direction and the speed of the subject.
  • the prediction region moves based on the section in which the object detection fails. As can be seen from Table 1, it can be said that the subject of data A moves by -5 on the x-axis and 0 on the y-axis on average. 4, it can be seen that the subject moves to the left side.
  • the subjects in the prediction region exist at similar positions, and the subject previously tracked on the basis of the moving speed of the prediction range using the clothes color and the motion vector of the subject in the frame where the previous subject is detected. Can be determined.

Abstract

본 발명은 이동중에 있는 피사체를 촬영하고, 촬영 영상을 이용하여 해당 피사체의 이동경로를 추적하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템 및 그 운영방법에 관한 것으로, 일정한 영역에 일정 간격으로 설치되어 있으며, 해당 영역 내에서 이동중인 피사체를 촬영하여, 촬영 영상신호를 출력하는 복수의 영상 입력장치들; 영상 입력장치들로부터 촬영 영상신호를 입력받아 일정 지역을 이동하는 피사체에 대해 이동 경로를 따라 추적한 영상 결과물을 저장하고, 저장된 영상 결과물을 검색할 수 있도록 지원하는 영상 디지털 기록 장치; 및 영상 디지털 기록장치에 의해 생성된 영상 결과물을 제공받아 저장, 관리하고 있으며, 저장되어 있는 영상 결과물을 검색할 수 있도록 지원하는 백업장치를 포함한다. 이에 따라 중복인식데이터를 최소화할 수 있도록 하는 효과가 있다.

Description

피사체 이동 추적 기능을 이용한 씨씨티브이 시스템 및 그 운영방법
본 발명은 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템 및 그 운영방법에 관한 것으로, 특히 이동중에 있는 피사체를 촬영하고, 촬영 영상을 이용하여 해당 피사체의 이동경로를 추적하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템 및 그 운영방법에 관한 것이다.
카메라로부터 얻어진 영상을 이용해 움직이는 객체를 검출하고 추적하기 위한 연구는 활발히 진행중이다. 움직이는 객체는 주로 사람, 자동차, 동물 등 다양하나 대부분 사람, 차량, 얼굴 등을 검출하고 추적하는 연구가 주로 진행된다.
현재 CCTV 시스템은 지능형 감시 시스템(Intelligent Surveillance System)으로 변화하고 있다. 지능형 감시 시스템은 동적 이동체의 검출, 분류, 인식, 추적을 위한 강인하고 신속하며 신뢰성 있는 알고리즘을 요구한다.
그러나 아무리 좋은 성능의 특징 추출과 분류기를 통해서 피사체를 검출한다 해도, 추적하고 있는 피사체가 다른 배경요소에 의해서 일부분이 사라지거나 전체 영역이 가려질 경우에는 여전히 추적에 실패하는 문제점 있다. 그리고 위와 같은 상태에서 벗어나 다시 피사체가 나타난다 해도 기존에 추적하고 있는 피사체인지 아닌지는 판단할 수 없다는 문제점이 있다.
이와 같은 필요성을 충족시키기 위해 본 발명은 이동중에 있는 피사체를 촬영하고, 촬영 영상을 이용하여 해당 피사체의 이동경로를 추적하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템 및 그 운영방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 피사체의 특징을 학습하여 분류기를 생성하고 검출한 후 추적할 수 있도록 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템 및 그 운영방법을 제공하는 것을 목적으로 한다.
본 발명의 실시예에 따른 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템은 일정한 영역에 일정 간격으로 설치되어 있으며, 해당 영역 내에서 이동중인 피사체를 촬영하여, 촬영 영상신호를 출력하는 복수의 영상 입력장치들; 영상 입력장치들로부터 촬영 영상신호를 입력받아 일정 지역을 이동하는 피사체에 대해 이동 경로를 따라 추적한 영상 결과물을 저장하고, 저장된 영상 결과물을 검색할 수 있도록 지원하는 영상 디지털 기록 장치; 및 영상 디지털 기록장치에 의해 생성된 영상 결과물을 제공받아 저장, 관리하고 있으며, 저장되어 있는 영상 결과물을 검색할 수 있도록 지원하는 백업장치를 포함할 수 있다.
본 발명과 관련된 실시예로서, 영상 디지털 기록장치는 상기 영상 입력장치들에 의해 촬영된 피사체 영상을 입력받는 입력 인터페이스와, 입력 인터페이스를 통해 입력된 피사체 영상을 인코딩하는 인코더와, 인코딩된 피사체 영상으로부터 피사체의 형상정보를 추출하는 비디오/이미지 처리부와, 비디오/이미지 처리부에 의해 처리된 형상 정보를 화면상으로 출력하거나 저장하여 보관되도록 하는 중앙제어부로 이루어질 수 있다.
본 발명과 관련된 실시예로서, 중앙제어부는 비디오/이미지 처리부로부터 입력된 영상으로부터 피사체 이미지를 검출하고, 검출된 피사체 이미지에 대해 이미지 영역을 설정하고 영상을 정규화시켜 피사체 이미지 영역 내에서 움직임 벡터를 생성하고 누적시킨 후 상기 누적된 움직임 벡터를 이용하여 피사체를 추적할 수 있도록 한다.
본 발명과 관련된 실시예로서, 중앙제어부는 피사체 이미지 영역 내 움직임 벡터를 생성하고 누적하는 중 검출된 피사체 이미지가 사라졌거나, 또는 감지되지 않는 경우 누적 움직임 벡터 방향으로 피사체 이동 예측 영역을 설정하고, 예측된 범위 내에서 피사체 이미자가 검출되었는지의 여부를 판단하여 검출된 경우 피사체를 추적할 수 있도록 한다.
본 발명과 관련된 실시예로서, 중앙제어부는 카메라 영상에서 피사체 이미지의 특징을 HOG를 이용하여 검출하며, 피사체 이미지의 전신 영역의 영상에서 기울기의 방향성 특징 벡터를 생성할 수 있도록 한다.
본 발명과 관련된 실시예로서, 중앙제어부는 학습을 통해 해당 피사체만을 분류하고 검출된 피사체 이미지의 위치정보를 이용하여 피사체의 영상을 추적할 수 있도록 한다.
본 발명과 관련된 실시예로서, 중앙제어부는 피사체 영상 추적시 피사체를 중심으로 블록정합 알고리즘을 이용하여 움직임 벡터를 획득할 수 있도록 한다.
본 발명과 관련된 실시예로서, 중앙제어부는 피사체 이미자가 검출된 경우 누적 움직임 벡터를 폐기시키고, 피사체 이미지가 검출되는 시점부터 재산출할 수 있도록 한다.
본 발명과 관련된 실시예로서, 형상정보는 피사체가 사람인 경우 얼굴정보, 피사체가 차량인 경우 차이미지, 피사체의 색상정보, 피사체의 특징정보 중 적어도 하나 이상이며, 움직임 벡터는 피사체의 이동하는 방향 및 현재 이동속도를 나타내고, 누적 움직임 벡터는 피사체 이미지의 평균적인 이동방향과 속도를 나타낼 수 있다.
본 발명의 실시예에 따른 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템의 운영방법은 중앙제어부는 영상입력부를 통해 영상을 입력받는 단계; 중앙제어부는 입력된 영상으로부터 피사체 이미지를 검출하는 단계; 중앙제어부는 피사체 이미지가 검출되었는지의 여부를 판단하는 단계; 중앙제어부는 피사체 이미지가 검출된 경우 피사체 이미지 영역을 설정하고 영상을 정규화시키는 단계; 중앙제어부는 피사체 이미지 영역 내에서 움직임 벡터를 생성하고 누적시키는 단계; 및 중앙제어부는 상기 누적된 움직임 벡터를 이용하여 피사체를 추적하는 단계를 포함할 수 있다.
본 발명과 관련된 실시예로서, 중앙제어부는 피사체 이미지 영역 내 움직임 벡터를 생성하고 누적하는 중 검출된 피사체 이미지가 사라졌거나, 또는 감지되지 않는지의 여부를 판단하는 단계; 중앙제어부는 피사체 이미자가 사라졌거나, 또는 감지되지 않는 경우 누적 움직임 벡터 방향으로의 피사체 움직임 예측 영역을 설정하는 단계; 및 중앙제어부는 예측된 범위 내에서 피사체 이미자가 검출되었는지의 여부를 판단하여 검출된 경우 피사체를 추적하는 단계를 반복 수행하는 단계를 더 포함할 수 있다.
본 발명과 관련된 실시예로서, 중앙제어부는 카메라 영상에서 피사체 이미지의 특징을 HOG를 이용하여 검출하며, 피사체 이미지의 전신 영역의 영상에서 기울기의 방향성 특징 벡터를 생성하는 단계를 더 포함할 수 있다.
본 발명과 관련된 실시예로서, 중앙제어부는 학습을 통해 해당 피사체만을 분류하고 검출된 피사체 이미지의 위치정보를 이용하여 피사체의 영상을 추적할 수 있도록 한다.
본 발명과 관련된 실시예로서, 중앙제어부는 피사체 영상 추적시 피사체를 중심으로 블록정합 알고리즘을 이용하여 움직임 벡터를 획득할 수 있도록 한다.
본 발명과 관련된 실시예로서, 중앙제어부에서 피사체만을 분류하고 피사체 이미지를 검출하기 위해 Adaboost 알고리즘을 이용하며, Adaboost 알고리즘은 피사체 분류 초기에 약한 분류기를 설정하여 피사체 이미지를 검출하기 위한 피사체 이미지의 전체 특징에 대해서 학습이 이루어지도록 하고, 학습 결과를 기반으로 하여 강한 분류기를 생성시켜 피사체 이미지를 검출할 수 있도록 한다.
본 발명과 관련된 실시예로서, 중앙제어부는 획득한 움직임 벡터값을 프레임별로 누적시켜 평균 움직임 벡터를 획득하여 피사체 영상과 다른 객체와의 겹침이 발생하여도 관심 영역을 추적하려는 피사체 영상이 나타나는 예상지점으로 이동시켜 표시할 수 있도록 한다.
본 발명과 관련된 실시예로서, 중앙제어부는 피사체 이미자가 검출된 경우 누적 움직임 벡터를 폐기시키고, 피사체 이미지가 검출되는 시점부터 재산출할 수 있도록 한다.
본 발명과 관련된 실시예로서, 움직임 벡터는 피사체의 이동하는 방향 및 현재 이동속도를 나타내고, 누적 움직임 벡터는 피사체 이미지의 평균적인 이동방향과 속도를 나타낼 수 있다.
본 발명은 이동중에 있는 피사체를 촬영하고, 촬영 영상을 이용하여 해당 피사체의 이동경로를 추적함으로써, 중복인식데이터를 최소화할 수 있도록 하는 효과가 있다.
또한, 본 발명은 피사체의 특징을 학습하여 분류기를 생성하고 검출한 후 추적할 수 있도록 함으로써, 피사체 이미지가 다른 물체 등과 겹침 현상이 발생하는 경우 피사체 이미지의 움직임을 예측하여 피사체 이미지를 놓치지 않고 추적할 수 있도록 하는 효과가 있다.
도 1은 본 발명에 따른 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템 의 구성을 개략적으로 도시한 블록도이다.
도 2는 본 발명에 따른 누적 움직임 벡터를 이용한 겹침현상에서의 피사체 움직임 예측 방법을 설명하기 위한 동작흐름도이다.
도 3은 본 발명에 따른 겹침현상을 가정한 임의의 영상(데이터 A, B)를 나타낸 도면이다.
도 4는 본 발명에 따른 데이터 A 영상에서의 피사체 검출 및 추적 결과를 나타낸 도면이다.
도 5는 본 발명에 따른 데이터 B 영상에서의 피사체 검출 및 추적 결과를 나타낸 도면이다.
도 6은 본 발명에 따른 원본 영상과 검출영상의 피사체 의상 색상 및 위치 비교를 나타낸 도면이다.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
도 1은 본 발명에 따른 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템의 구성을 개략적으로 도시한 블록도이다.
도 1에 도시된 바와 같이 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템은 일정한 영역에 일정 간격으로 설치되어 있으며, 해당 영역 내에서 이동중인 피사체를 촬영하여, 촬영 영상신호를 출력하는 복수의 영상 입력장치(100)들과, 영상 입력장치(100)들로부터 촬영 영상신호를 입력받아 일정 지역을 이동하는 피사체에 대해 이동 경로를 따라 추적한 영상 결과물을 저장하고, 저장된 영상 결과물을 검색할 수 있도록 지원하는 영상 디지털 기록 장치(200)와, 영상 디지털 기록장치(200)에 의해 생성된 영상 결과물을 제공받아 저장, 관리하고 있으며, 저장되어 있는 영상 결과물을 검색할 수 있도록 지원하는 백업장치(300)로 이루어진다.
영상 디지털 기록장치(200)는 영상 입력장치(100)들에 의해 촬영된 피사체 영상을 입력받는 입력 인터페이스(210)와, 입력 인터페이스(210)를 통해 입력된 피사체 영상을 인코딩하는 인코더(220)와, 인코딩된 피사체 영상으로부터 피사체의 형상정보를 추출하는 비디오/이미지 처리부(230)와, 비디오/이미지 처리부(230)에 의해 처리된 형상 정보를 화면상으로 출력하거나 저장하여 보관되도록 하는 중앙제어부(240)로 이루어진다.
비디오/이미지 처리부(230)는 피사체가 사람인 경우 얼굴을 검출하는 얼굴검출부(231)와, 피사체가 차량인 경우 차량 이미지를 검출하는 차이미지 검출부(232)와, 피사체의 색상을 인식하는 색상 인식부(233)와, 피사체의 특징을 인식하는 특징인식부(234)로 이루어진다.
비디오/이미지 처리부(230)는 인코더(220)를 통해 입력된 피사체 영상을 입력받아 그레이(gray) 변환이 이루어지도록 한 후 해상도를 체크한다. 체크 결과 그레이 변환이 이루어진 피사체 영상의 해상도가 고해상도인 경우 비디오/이미지 처리부(230)는 가우시안 필터를 통해 필터링이 이루어지도록 한 후 침식 연산 및 톱-햇(Top-Hat) 연산이 순차적으로 이루어지도록 한다. 그리고 비디오/이미지 처리부(230)는 연산처리된 피사체 영상을 이진화시키고, 영상에서 레이블링하고자 하는 블럽 및 영역을 추출한 후 추출된 영역에 대해서 영역 레이블링이 이루어지도록 하고, 후보영역에 대해서 템플릿 매칭이 이루지도록 하며, 이렇게 생성된 결과물을 중앙제어부(240)로 출력한다.
중앙제어부(240)는 비디오/이미지 처리부(230)에 의해 처리된 피사체 영상 결과물을 화면상으로 확인할 수 있도록 지원하는 뷰어모듈(241)과, 비디오/이미지 처리부(230)로부터 입력되는 피사체 영상 결과물을 미리 설정된 조건에 따라 인식하는 인식모듈(242)과, 인식모듈(242)에 의해 인식된 피사체 영상 결과물을 소정의 조건으로 검색할 수 있도록 지원하는 검색모듈(243)과, 상기 인식모듈(242)에 인식된 피사체 영상 결과물을 저장 및 관리하며, 백업장치(300)로 전송하여 저장되도록 하는 관리모듈(244)로 이루어진다.
중앙제어부(240)는 비디오/이미지 처리부로부터 입력된 영상으로부터 피사체 이미지를 검출하고, 검출된 피사체 이미지에 대해 이미지 영역을 설정하고 영상을 정규화시켜 피사체 이미지 영역 내에서 움직임 벡터를 생성하고 누적시킨 후 상기 누적된 움직임 벡터를 이용하여 피사체를 추적한다.
중앙제어부(240)는 피사체 이미지 영역 내 움직임 벡터를 생성하고 누적하는 중 검출된 피사체 이미지가 사라졌거나, 또는 감지되지 않는 경우 누적 움직임 벡터 방향으로 피사체 이동 예측 영역을 설정하고, 예측된 범위 내에서 피사체 이미자가 검출되었는지의 여부를 판단하여 검출된 경우 피사체를 추적한다.
중앙제어부(240)는 카메라 영상에서 피사체 이미지의 특징을 HOG를 이용하여 검출하며, 피사체 이미지의 전신 영역의 영상에서 기울기의 방향성 특징 벡터를 생성한다.
중앙제어부(240)는 학습을 통해 해당 피사체만을 분류하고 검출된 피사체 이미지의 위치정보를 이용하여 피사체의 영상을 추적한다.
중앙제어부(240)는 피사체 영상 추적시 피사체를 중심으로 블록정합 알고리즘을 이용하여 움직임 벡터를 획득한다.
중앙제어부(240)는 피사체 이미자가 검출된 경우 누적 움직임 벡터를 폐기시키고, 피사체 이미지가 검출되는 시점부터 재산출한다.
여기서, 형상정보는 피사체가 사람인 경우 얼굴정보, 피사체가 차량인 경우 차이미지, 피사체의 색상정보, 피사체의 특징정보 중 적어도 하나 이상이며, 움직임 벡터는 피사체의 이동하는 방향 및 현재 이동속도를 나타내고, 누적 움직임 벡터는 피사체 이미지의 평균적인 이동방향과 속도를 나타낸다.
상기와 같이 구성된 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템에서의 누적 움직임 벡터를 이용한 겹침현상에서의 피사체 움직임 예측 방법을 설명하면 다음과 같다.
도 2는 본 발명에 따른 누적 움직임 벡터를 이용한 겹침현상에서의 피사체 움직임 예측 방법을 설명하기 위한 동작흐름도이다.
도 2에 도시된 바와 같이 중앙제어부(240)는 비디오/이미지 처리부(230)를 통해 피사체 영상 결과물을 입력(S110)받고, 입력된 피사체 영상 결과물로부터 피사체 이미지를 검출(S120)한 후 중앙제어부(240)는 피사체 이미지가 검출되었는지의 여부를 판단(S130)한다. 여기서, 중앙제어부(240)는 카메라로 이루어진 비디오/이미지 처리부(230)를 통해 입력되는 피사체 영상 결과물에서 피사체 이미지의 특징을 HOG를 이용하여 검출하며, 피사체 이미지의 전신 영역의 영상에서 기울기의 방향성 특징 벡터를 생성한다.
S130단계의 판단 결과 피사체 이미지가 검출된 경우 중앙제어부(240)는 피사체 이미지 영역을 설정하고 영상을 정규화시키고(S140), 중앙제어부(240)는 피사체 이미지 영역 내에서 움직임 벡터를 생성하고 누적(S150)시킨다. S130 단계의 판단 결과 피사체 이미지가 검출되지 않은 경우 S120 단계부터 반복수행한다.
한편 중앙제어부(240)는 피사체 이미지 영역 내 움직임 벡터를 생성하고 누적하는 도중 검출된 피사체 이미지가 사라졌거나, 또는 감지되지 않는지 체크하여 사라졌거나, 감지되지 않는지의 여부를 판단(S160)한다.
S160 단계의 판단 결과 피사체 이미지가 사라지지 않거나 또는 감지되는 경우 중앙제어부(240)는 S150 단계를 통해 생성되고 누적된 움직임 벡터를 이용하여 피사체를 추적(S190)한다.
S160 단계의 판단 결과 피사체 이미지가 사라졌거나, 또는 감지되지 않은 경우 중앙제어부(240)는 누적 움직임 벡터 방향으로 피사체 움직임 예측 영역을 설정(S170)하고, 예측된 범위 내에서 피사체 이미자가 검출되었는지의 여부를 판단(S180)한다.
S180단계의 판단 결과 예측된 범위 내에서 피사체 이미자가 검출된 경우 중앙제어부(240)는 피사체를 추적(S190)하고, 예측된 범위 내에서 피사체 이미지가 검출되지 않은 경우 S170 단계부터 반복수행한다.
도 3은 본 발명에 따른 겹침현상을 가정한 임의의 영상(데이터 A, B)를 나타낸 도면이다. 도 4는 본 발명에 따른 데이터 A 영상에서의 피사체 검출 및 추적 결과를 나타낸 도면이다. 도 5는 본 발명에 따른 데이터 B 영상에서의 피사체 검출 및 추적 결과를 나타낸 도면이다. 도 6은 본 발명에 따른 원본 영상과 검출영상의 피사체 의상 색상 및 위치 비교를 나타낸 도면이다.
상기와 같은 방법으로 이루어지는 누적 움직임 벡터를 이용한 겹침현상에서의 피사체 움직임 예측 방법을 실험한 결과에 대해서 도 3 내지 도 6을 참조하여 설명하면, 공개된 피사체 데이터인 MIT pedestrian 데이터베이스, INRIA person 데이터세트(set)를 이용하였고, 각각의 피사체 데이터는 MIT 924장, INRIA 1132장으로 이루어진다.
그리고 피사체가 포함되지 않는 비피사체 사진 1000장을 사용하였으며, 영상 크기는 제공된 형태의 64x128 크기를 사용한다. 학습 후 얻어진 특징 데이터를 이용해 본 실험실 건물 주변에서 임의로 피사체 동영상을 촬영하여 실험한다. 임의의 동영상은 데이터 A, 데이터 B로 정의한다. 1인에 대한 피사체 검출과 추적을 실행하며 겹침현상이 생기는 상황을 가정하여 도 3에 도시된 바와 같이 촬영되었다.
해당 영상은 (a)~(j)의 순서이며 13프레임 단위로 나누어 표시하였고, 이 13프레임을 기준으로 움직임벡터를 합산한 누적 움직임벡터에 따라 예측 이동 방향을 얻는다. 누적움직임 벡터를 얻기 위해 검출되어 그려진 피사체 영역을 중심으로 이전 프레임과 비교하여 블록 정합 알고리즘을 통해 얻어낸다. 피사체 일부분이 유실되거나 가려지는 경우 예측 이동 방향으로 관심영역을 이동시키며, 피사체가 다시 나타나는 경우 피사체를 재검출한다.
노란색 사각형 영역은 기존의 방법에 대한 피사체 검출을 나타내며 녹색 사각형 영역은 본 발명에 따른 피사체 검출 방법에 의한 피사체 검출을 나타낸다. 누적움직임 벡터를 이용한 예측 이동 영역은 붉은색 사각형 상자로 표시하였다. 본 발명에 의한 피사체 추적 및 검출방법을 이용한 피사체 검출 및 추적결과는 하기의 도 4 및 도 5에 도시된 바와 같이 프레임별로 정리될 수 있다.
첨부 도면 도 4의 (a)~(c)에서는 피사체의 검출 및 추적이 진행된다. 기존의 방법에서는 (d)프레임부터 피사체 검출이 실패하게 되나, 본 발명에 의한 피사체 검출 및 추적방법은 (d)~(i)까지 누적 움직임벡터로 인한 피사체 방향 예측을 통해 기존에 추적하고 있던 피사체를 놓치지 않는다. (i), (j)에서와 같이 실제 피사체 검출 영역과 예측 영역의 중복된 부분을 확인하면 예측 범위가 실제 피사체 검출 범위와 비슷하다는 것을 확인할 수 있다. 데이터 A에서의 피사체 움직임벡터와 누적 움직임벡터 그리고 이동방향은 하기 표와 같다.
표 1
움직임 벡터 누적 움직임 벡터 예측이동방향
(-4,0) (-4,0) 왼쪽
(-6,0) (-5,0) 왼쪽
누적 움직임벡터로 지정한 예측범위는 x, y축을 기준으로 상, 하, 좌, 우 그리고 대각선 방향으로 이동된다. 누적 움직임벡터는 프레임간 블록 정합 알고리즘으로 얻은 움직임벡터를 합산 후 평균을 구해 사용한다. 피사체가 검출된 경우 누적 움직임벡터는 폐기되며 피사체가 검출되는 시점으로부터 다시 계산된다.
피사체의 움직임벡터는 피사체의 이동하는 방향과 현재 이동 속도를, 누적 움직임벡터는 피사체의 평균적인 이동방향과 속도를 나타낸다고 볼 수 있다. 피사체 검출이 실패한 구간을 기준으로 예측 영역은 이동하게 된다. 표1을 통해 알 수 있는 바와 같이, 데이터 A의 피사체는 평균적으로 x축으로 -5, y축으로 0만큼 이동한다고 할 수 있다. 실제 도 4를 통해 피사체가 왼쪽으로 이동하는 것을 확인할 수 있다.
도 5의 (a)~(e)에서는 피사체의 검출 및 추적이 진행된다. (e)의 경우 기존의 방법은 피사체 추적에 실패한 것을 확인할 수 있다. (a)~(e)까지 계산된 누적움직임 벡터에 따라 피사체 검출에 실패하는 경우에 누적 움직임벡터를 통한 예측 영역이 이동하게 되며 (j)에서 찾아낸 피사체 영역과 예측 영역이 비슷한 위치에 존재하는 것을 확인할 수 있다. 데이터 B에서의 피사체 움직임벡터와 누적 움직임벡터 그리고 이동방향은 하기 표와 같다.
표 2
움직임 벡터 누적 움직임 벡터 예측 이동 방향
(-8,0) (-8,0) 왼쪽
(-11,0) (-9.5,0) 왼쪽
(-7,-1) (-8.6,-0.3) 왼쪽
(-4,0) (-7.5,-0.25) 왼쪽
실제로 누적 움직임벡터를 사용할 때 소수점 이하의 데이터는 반올림하여 사용한다. 소수점 이하의 값을 버리고 사용해도 값이 미미하므로 결과에 미치는 영향은 전무하다. 위의 표의 누적 움직임벡터를 통해 데이터 B의 피사체는 평균적으로 x축으로 -7.5, y축으로 -0.25만큼 이동하고 있음을 알 수 있으며, 도 5를 통해서도 피사체가 왼쪽으로 이동하고 있는 것을 확인할 수 있다.
데이터 A와 데이터 B에서 예측영역 내의 피사체는 비슷한 위치에 존재하고, 이전의 피사체가 검출되는 프레임에서의 피사체의 의상 색상과 움직임벡터를 이용한 예측 범위가 의미하는 이동속도를 바탕으로 이전에 추적하던 피사체라는 것을 판단할 수 있다.
도 6에 도시된 바와 같이 원본 영상에서의 피사체의 의상 색과 같은 프레임에서의 피사체 검출 결과를 보면 같은 피사체가 검출되었다는 것을 확인할 수 있다. 그리고 이후 예측영역에서 나타난 피사체 또한 원본 영상의 피사체와 검출 결과의 피사체와 같다는 것을 확인할 수 있다.
이 모든 실험은 도 1의 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템을 기반으로 하여 이루어졌다.
전술한 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (18)

  1. 일정한 영역에 일정 간격으로 설치되어 있으며, 해당 영역 내에서 이동중인 피사체를 촬영하여, 촬영 영상신호를 출력하는 복수의 영상 입력장치들;
    상기 영상 입력장치들로부터 촬영 영상신호를 입력받아 일정 지역을 이동하는 피사체에 대해 이동 경로를 따라 추적한 영상 결과물을 저장하고, 저장된 영상 결과물을 검색할 수 있도록 지원하는 영상 디지털 기록 장치; 및
    상기 영상 디지털 기록장치에 의해 생성된 영상 결과물을 제공받아 저장, 관리하고 있으며, 저장되어 있는 영상 결과물을 검색할 수 있도록 지원하는 백업장치;
    를 포함하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템.
  2. 제 1 항에 있어서,
    상기 영상 디지털 기록장치는
    상기 영상 입력장치들에 의해 촬영된 피사체 영상을 입력받는 입력 인터페이스와,
    상기 입력 인터페이스를 통해 입력된 피사체 영상을 인코딩하는 인코더와,
    상기 인코딩된 피사체 영상으로부터 피사체의 형상정보를 추출하는 비디오/이미지 처리부와,
    상기 비디오/이미지 처리부에 의해 처리된 형상 정보를 화면상으로 출력하거나 저장하여 보관되도록 하는 중앙제어부로 이루어진 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템.
  3. 제 2 항에 있어서,
    상기 중앙제어부는 상기 비디오/이미지 처리부로부터 입력된 영상으로부터 피사체 이미지를 검출하고, 검출된 피사체 이미지에 대해 이미지 영역을 설정하고 영상을 정규화시켜 피사체 이미지 영역 내에서 움직임 벡터를 생성하고 누적시킨 후 상기 누적된 움직임 벡터를 이용하여 피사체를 추적하는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템.
  4. 제 3 항에 있어서,
    상기 중앙제어부는 상기 피사체 이미지 영역 내 움직임 벡터를 생성하고 누적하는 중 검출된 피사체 이미지가 사라졌거나, 또는 감지되지 않는 경우 누적 움직임 벡터 방향으로 피사체 이동 예측 영역을 설정하고, 예측된 범위 내에서 피사체 이미자가 검출되었는지의 여부를 판단하여 검출된 경우 피사체를 추적하는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템.
  5. 제 3 항에 있어서,
    상기 중앙제어부는 카메라 영상에서 피사체 이미지의 특징을 HOG를 이용하여 검출하며, 피사체 이미지의 전신 영역의 영상에서 기울기의 방향성 특징 벡터를 생성하는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템.
  6. 제 3 항에 있어서,
    상기 중앙제어부는 학습을 통해 해당 피사체만을 분류하고 검출된 피사체 이미지의 위치정보를 이용하여 피사체의 영상을 추적하는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템.
  7. 제 3 항에 있어서,
    상기 중앙제어부는 상기 피사체 영상 추적시 피사체를 중심으로 블록정합 알고리즘을 이용하여 움직임 벡터를 획득하는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템.
  8. 제 3 항에 있어서,
    상기 중앙제어부는 피사체 이미자가 검출된 경우 누적 움직임 벡터를 폐기시키고, 피사체 이미지가 검출되는 시점부터 재산출하는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템.
  9. 제 2 항에 있어서,
    상기 형상정보는 피사체가 사람인 경우 얼굴정보, 피사체가 차량인 경우 차이미지, 피사체의 색상정보, 피사체의 특징정보 중 적어도 하나 이상이며,
    상기 움직임 벡터는 피사체의 이동하는 방향 및 현재 이동속도를 나타내고,
    상기 누적 움직임 벡터는 피사체 이미지의 평균적인 이동방향과 속도를 나타내는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템.
  10. 중앙제어부는 영상입력부를 통해 영상을 입력받는 단계;
    상기 중앙제어부는 상기 입력된 영상으로부터 피사체 이미지를 검출하는 단계;
    상기 중앙제어부는 피사체 이미지가 검출되었는지의 여부를 판단하는 단계;
    상기 중앙제어부는 상기 피사체 이미지가 검출된 경우 피사체 이미지 영역을 설정하고 영상을 정규화시키는 단계;
    상기 중앙제어부는 피사체 이미지 영역 내에서 움직임 벡터를 생성하고 누적시키는 단계; 및
    상기 중앙제어부는 상기 누적된 움직임 벡터를 이용하여 피사체를 추적하는 단계를 포함하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템의 운영방법.
  11. 제 10 항에 있어서,
    상기 중앙제어부는 상기 피사체 이미지 영역 내 움직임 벡터를 생성하고 누적하는 중 검출된 피사체 이미지가 사라졌거나, 또는 감지되지 않는지의 여부를 판단하는 단계;
    상기 중앙제어부는 피사체 이미자가 사라졌거나, 또는 감지되지 않는 경우 누적 움직임 벡터 방향으로의 피사체 움직임 예측 영역을 설정하는 단계; 및
    상기 중앙제어부는 예측된 범위 내에서 피사체 이미자가 검출되었는지의 여부를 판단하여 검출된 경우 피사체를 추적하는 단계를 반복 수행하는 단계를 더 포함하는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템의 운영방법.
  12. 제 10 항에 있어서,
    상기 중앙제어부는 카메라 영상에서 피사체 이미지의 특징을 HOG를 이용하여 검출하며, 피사체 이미지의 전신 영역의 영상에서 기울기의 방향성 특징 벡터를 생성하는 단계를 더 포함하는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템의 운영방법.
  13. 제 10 항에 있어서,
    상기 중앙제어부는 학습을 통해 해당 피사체만을 분류하고 검출된 피사체 이미지의 위치정보를 이용하여 피사체의 영상을 추적하는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템의 운영방법.
  14. 제 10 항에 있어서,
    상기 중앙제어부는 상기 피사체 영상 추적시 피사체를 중심으로 블록정합 알고리즘을 이용하여 움직임 벡터를 획득하는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템의 운영방법.
  15. 제 13 항에 있어서,
    상기 중앙제어부에서 피사체만을 분류하고 피사체 이미지를 검출하기 위해 Adaboost 알고리즘을 이용하며,
    상기 Adaboost 알고리즘은 피사체 분류 초기에 약한 분류기를 설정하여 피사체 이미지를 검출하기 위한 피사체 이미지의 전체 특징에 대해서 학습이 이루어지도록 하고, 학습 결과를 기반으로 하여 강한 분류기를 생성시켜 피사체 이미지를 검출하는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템의 운영방법.
  16. 제 14 항에 있어서,
    상기 중앙제어부는 획득한 움직임 벡터값을 프레임별로 누적시켜 평균 움직임 벡터를 획득하여 피사체 영상과 다른 객체와의 겹침이 발생하여도 관심 영역을 추적하려는 피사체 영상이 나타나는 예상지점으로 이동시켜 표시하는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템의 운영방법.
  17. 제 10 항에 있어서,
    상기 중앙제어부는 피사체 이미자가 검출된 경우 누적 움직임 벡터를 폐기시키고, 피사체 이미지가 검출되는 시점부터 재산출하는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템의 운영방법.
  18. 제 10 항에 있어서,
    상기 움직임 벡터는 피사체의 이동하는 방향 및 현재 이동속도를 나타내고,
    상기 누적 움직임 벡터는 피사체 이미지의 평균적인 이동방향과 속도를 나타내는 것을 특징으로 하는 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템의 운영방법.
PCT/KR2014/006687 2014-05-13 2014-07-23 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템 및 그 운영방법 WO2015174578A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0057299 2014-05-13
KR20140057299 2014-05-13

Publications (1)

Publication Number Publication Date
WO2015174578A1 true WO2015174578A1 (ko) 2015-11-19

Family

ID=54480103

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/006687 WO2015174578A1 (ko) 2014-05-13 2014-07-23 피사체 이동 추적 기능을 이용한 씨씨티브이 시스템 및 그 운영방법

Country Status (1)

Country Link
WO (1) WO2015174578A1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030064668A (ko) * 2003-06-07 2003-08-02 나병호 객체식별이 가능한 영상처리 디지탈녹화시스템
US7142600B1 (en) * 2003-01-11 2006-11-28 Neomagic Corp. Occlusion/disocclusion detection using K-means clustering near object boundary with comparison of average motion of clusters to object and background motions
JP2009253505A (ja) * 2008-04-03 2009-10-29 Sony Corp 画像信号処理装置、画像信号処理方法、およびプログラム
JP2011097572A (ja) * 2009-09-29 2011-05-12 Canon Inc 動画像符号化装置
JP2011166426A (ja) * 2010-02-09 2011-08-25 Canon Inc 追尾カメラ雲台装置
KR101344034B1 (ko) * 2013-08-21 2013-12-24 주식회사 넥스파시스템 보행자 인식기반 사고방지 시스템 및 그 제어 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7142600B1 (en) * 2003-01-11 2006-11-28 Neomagic Corp. Occlusion/disocclusion detection using K-means clustering near object boundary with comparison of average motion of clusters to object and background motions
KR20030064668A (ko) * 2003-06-07 2003-08-02 나병호 객체식별이 가능한 영상처리 디지탈녹화시스템
JP2009253505A (ja) * 2008-04-03 2009-10-29 Sony Corp 画像信号処理装置、画像信号処理方法、およびプログラム
JP2011097572A (ja) * 2009-09-29 2011-05-12 Canon Inc 動画像符号化装置
JP2011166426A (ja) * 2010-02-09 2011-08-25 Canon Inc 追尾カメラ雲台装置
KR101344034B1 (ko) * 2013-08-21 2013-12-24 주식회사 넥스파시스템 보행자 인식기반 사고방지 시스템 및 그 제어 방법

Similar Documents

Publication Publication Date Title
WO2017030259A1 (ko) 자동추적 기능을 갖는 무인항공기 및 그 제어방법
WO2020027607A1 (ko) 객체 탐지 장치 및 제어 방법
WO2014058248A1 (ko) 단일객체에 대한 기울기를 추정하는 영상을 감시하는 장치 및 방법
WO2017090892A1 (ko) Osd 정보 생성 카메라, osd 정보 합성 단말기(20) 및 이들로 구성된 osd 정보 공유 시스템
WO2014051337A1 (ko) 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법
JP2009143722A (ja) 人物追跡装置、人物追跡方法及び人物追跡プログラム
WO2012005387A1 (ko) 다중 카메라와 물체 추적 알고리즘을 이용한 광범위한 지역에서의 물체 이동 감시 방법 및 그 시스템
WO2019124635A1 (ko) 압축영상에 대한 신택스 기반의 객체 침입 감지 방법
WO2017115905A1 (ko) 인체 포즈 인지 시스템 및 방법
WO2018135906A1 (ko) 카메라 및 카메라의 영상 처리 방법
WO2021020866A1 (ko) 원격 모니터링을 위한 영상 분석 시스템 및 방법
WO2016072625A1 (ko) 영상방식을 이용한 주차장의 차량 위치 확인 시스템 및 그 제어방법
WO2015182904A1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
WO2021153861A1 (ko) 다중 객체 검출 방법 및 그 장치
WO2020027513A1 (ko) 압축영상에 대한 신택스 기반의 영상분석 시스템과 연동 처리 방법
WO2012137994A1 (ko) 영상인식장치 및 그 영상 감시방법
WO2016099084A1 (ko) 비콘신호를 이용한 안전 서비스 제공 시스템 및 방법
WO2019088651A1 (ko) 소스 비디오 내에서 관심 동영상을 추출하는 장치 및 방법
WO2016024680A1 (ko) 주행차량의 번호판 인식이 실시간으로 가능한 차량용 블랙박스
WO2016064107A1 (ko) 팬틸트줌 카메라 기반의 영상 재생방법 및 장치
WO2021100919A1 (ko) 행동 시퀀스 기반으로 이상행동 여부를 판단하는 방법, 프로그램 및 시스템
WO2018097384A1 (ko) 밀집도 알림 장치 및 방법
KR101371647B1 (ko) 이미지 데이터 기반의 화재 감지 장치 및 그 방법
WO2011043498A1 (ko) 지능형 영상 감시 장치
WO2020027512A1 (ko) 압축영상에 대한 신택스 기반의 ptz 카메라의 객체 추적 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14891826

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14891826

Country of ref document: EP

Kind code of ref document: A1