WO2012050244A1 - 영상 감시 장치 및 그 오브젝트 검색 방법 - Google Patents

영상 감시 장치 및 그 오브젝트 검색 방법 Download PDF

Info

Publication number
WO2012050244A1
WO2012050244A1 PCT/KR2010/006929 KR2010006929W WO2012050244A1 WO 2012050244 A1 WO2012050244 A1 WO 2012050244A1 KR 2010006929 W KR2010006929 W KR 2010006929W WO 2012050244 A1 WO2012050244 A1 WO 2012050244A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
displaying
image
characteristic value
detection frequency
Prior art date
Application number
PCT/KR2010/006929
Other languages
English (en)
French (fr)
Inventor
윤형화
박영경
유재신
김성진
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to EP10858431.9A priority Critical patent/EP2629516B1/en
Priority to PCT/KR2010/006929 priority patent/WO2012050244A1/ko
Priority to CN201080069558.5A priority patent/CN103155550B/zh
Priority to US13/878,554 priority patent/US20130201333A1/en
Publication of WO2012050244A1 publication Critical patent/WO2012050244A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Definitions

  • the method for searching an object of the video surveillance apparatus further includes inputting a characteristic value of an object to be searched in the surveillance image prior to displaying in the first area,
  • the displaying step is characterized by separately displaying the detection frequency of the object having the input characteristic value in the first area.
  • the object searching method of the video surveillance apparatus further includes a step of inputting time information to be searched from the surveillance image prior to the step of displaying in the first area, Is characterized in that it is characterized in that the detection frequency of the object having the input characteristic value is separately displayed on the basis of the input time information in the first area.
  • the object searching method of the video surveillance apparatus further includes inputting area information to be searched in the surveillance image before displaying in the first area, Is a step of separately displaying the detection frequency of the object having the input characteristic value based on the input area information in the first area.
  • the input characteristic value includes a first characteristic value and a second characteristic value of an object to be searched in the supervisory image
  • the step of displaying in the first region includes: And displaying the detected frequency of the object having the value between the first characteristic value and the second characteristic value separately.
  • the method for searching an object of the video surveillance apparatus may further include the steps of: determining a detection frequency of an object having the characteristic value in the surveillance image before displaying the object in the first area; And generating the detection frequency by normalizing the determined detection frequency.
  • the characteristic value includes at least one of a size, a speed, and a hue of an object detected from the monitored image.
  • the step of displaying in the first area is a step of graphically displaying the characteristic value and the detection frequency in the first area.
  • the step of displaying the second area may include displaying the selected frame in the searched frame.
  • the frame displayed in the second area is a thumbnail image.
  • the object searching method of the video surveillance apparatus further includes displaying an image related to a thumbnail image selected from the thumbnail images.
  • a user can efficiently perform characteristic filtering of an object to be searched based on statistical data on characteristics of an object detected in a supervised image. Accordingly, the accuracy of the search for the object of interest is improved, so that the user can easily perform the search, and the installation environment of the surveillance camera can be provided that is robust against the characteristic change.
  • FIG. 1 is a block diagram illustrating a video surveillance system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a video surveillance apparatus according to an embodiment of the present invention.
  • 3 (a) and 3 (b) are views showing the structure of image data and metadata according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a structure of a characteristic information table according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating an object search process according to an exemplary embodiment of the present invention.
  • FIG. 6 is a diagram illustrating an object search screen according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating an object search process according to an embodiment of the present invention.
  • FIG 8 and 9 are flowcharts showing an object search screen according to an embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating an object search process according to an embodiment of the present invention.
  • FIG. 11 is a view showing an object search screen according to an embodiment of the present invention.
  • FIG. 12 is a flowchart illustrating an object search process according to an embodiment of the present invention.
  • FIG. 13 is a flowchart illustrating an object search screen according to an embodiment of the present invention.
  • " object " described in the present specification means a person or object to be monitored in the surveillance image.
  • a person or object judged to move may be an object.
  • event refers to events or facts that can occur in a surveillance image.
  • &quot monitoring event " refers to an event that allows the user to effectively achieve the monitoring purpose.
  • the video surveillance system 10 acquires a surveillance image through the at least one image acquisition apparatus 200, processes and analyzes the obtained surveillance image, and outputs processing and analysis results to the output apparatus 300 ) To the user.
  • the video surveillance system 10 includes an image surveillance apparatus 100, an image acquisition apparatus 200, and an output apparatus 300.
  • the output device 300 can output information related to processing and analysis of the monitoring image received from the video monitoring apparatus 100 and generation of the monitoring event sensed in the monitoring image.
  • Output device 300 may be a terminal, a network computer, a wireless device (e.g., a PDA), a wireless telephone, an information appliance, a workstation, a minicomputer, a mainframe computer, Device or the like.
  • the user may be remotely provided with processing / analysis results of the supervised image by an output device 300 having text, messaging and imaging capabilities.
  • the user can be provided with the warning message generated by the video surveillance apparatus 100 by the output apparatus 300.
  • the alert message may include an image.
  • the image processing unit 110 analyzes the image obtained from the image capturing apparatus 200, and generates compressed image data and metadata.
  • the image processing unit 110 stores the generated image data in the storage unit 130 and outputs the metadata to the monitoring control unit 120.
  • the storage unit 130 stores the image acquired through the image acquisition apparatus 200.
  • the storage unit 130 may be a VCR (Video Cassette Recorder), a DVR (Digital Video Recorder), a RAID (Redundant Array of Independent Disks) array, a USB (Universal Serial Bus) hard drive, an optical disk recorder, , A multipurpose computer, a high-dimensional imaging device, a de-interlacer, a processing and storage element for storing and / or processing a scaler and / or image.
  • the user input unit 140 accepts an input command that the user inputs for controlling the operation of the video surveillance apparatus 100 and transmits the received command to the monitoring control unit 120 so that the monitoring control unit 120 operates according to the command do.
  • the user input unit 140 may include a key pad, a dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like.
  • the monitoring control unit 120 detects an object on a frame basis in a supervised image acquired from the image acquisition apparatus 200. Further, the monitoring control unit 120 calculates the characteristic value of the detected object, and records the identification information of the frame in which the object is detected in the meta data so as to correspond to the calculated characteristic value. Also, the monitoring control unit 120 accumulates and records the number of object detection times of the characteristic values calculated in the meta data.
  • the metadata recorded in this manner includes the number of times of detection of an object having each characteristic value in the supervisory image up to now and identification information of the frame in which an object having each characteristic value is detected.
  • the monitoring control unit 120 stores the meta data in the storage unit 130.
  • the monitoring control unit 120 displays a characteristic value of an object detected in the supervisory image stored in the storage unit 130 and a detection frequency of the object having the characteristic value in the first area through the display unit.
  • the monitoring control unit 120 reads the number of times of detection of the object having each characteristic value from the metadata stored in the storage unit 130. [
  • the detection frequency of the readout is normalized or regularized to generate a detection frequency of an object having each characteristic value.
  • the monitoring control unit 120 displays the generated detection frequency for each characteristic value through the display unit. In this case, each property value and the detection frequency of the object having each property value can be displayed in a graph.
  • the detection frequency is a relative value of the detection frequency as a value obtained by normalizing the detection frequency. For example, when the object having the first characteristic value is detected 50 times and the object having the second characteristic value is detected 100 times in the supervised image, the detection frequency of the object having the first characteristic value is obtained by dividing the detection frequency by 50 And the detection frequency of the object having the second characteristic value may be 2, which is obtained by dividing the detection frequency by 10.
  • the monitoring control unit 120 may display the searched frame in the second area through the display unit.
  • the monitoring control unit 120 extracts a frame corresponding to the identification information of the frame read from the metadata from the video data stored in the storage unit 130. [
  • the monitoring control unit 120 may display the extracted frame in the second area through the display unit.
  • the frame displayed in the second area may be a thumbnail image representative of a series of images from the surveillance image until the object is once out of the surveillance image after the object is once detected. Also, when one or more thumbnail images are selected from the thumbnail images displayed in the second area, a series of images represented by the selected thumbnail images may be displayed.
  • 3 (a) and 3 (b) are views showing the structure of image data and metadata according to an embodiment of the present invention.
  • the video data and the metadata include link information and a data body.
  • the data body is the data of the supervised video.
  • the data body includes information indicating the object to be monitored and attribute information defining a descriptive method of information indicating the object to be monitored.
  • the link information includes related information indicating the relation between the video data and the meta data, and attribute information defining a description method of the contents of the related information.
  • the related information for example, a time stamp or a sequence number for specifying the video data is used.
  • the time stamp means information (time information) indicating the generation time of the video data.
  • the sequence number means information (sequence information) indicating the generation order of the content data.
  • the related information may include information (e.g., a manufacturer name, model name, manufacturing number, etc.) for specifying the image acquisition apparatus.
  • a markup language defined as a method of describing information exchanged on the Web may be used. As described above, when the markup language is used, exchange of information through the network becomes easy. In addition, when XML used for exchange of a markup language, for example, a document or electronic data, is used, exchange of image data and meta data is facilitated. When XML is used, for example, XMLSchema is used as attribute information.
  • the data body of the metadata includes object detection information for storing the image acquisition environment information including the position, angle, and the like of the image acquisition device, the ID and characteristic of the detected object, Whether or not a monitoring event is generated, and the like.
  • FIG. 4 is a diagram illustrating a structure of a characteristic information table according to an embodiment of the present invention.
  • the characteristic information table 400 includes a characteristic value field 410, a detection frequency field 420, a frame number field 430 and an identification information field 440 of frames.
  • the property value field 410 stores the property value of the object.
  • a 1 is determined by the following equation (1).
  • a 2 is determined by the following equation (2).
  • a 3 are determined by the following equation (3).
  • c is an RGB value of an object, and m is a natural number
  • m is a factor for the precision of object retrieval. As m is smaller, the user can precisely retrieve the object detected by the property value, and when m is larger, the user can search the object detected by property value .
  • the detection count field 420 stores the number of times the object having the property value is detected. When a plurality of objects are detected in one frame, each of the plurality of objects can be stored as the number of times the object is detected.
  • the frame number field 430 indicates the number of frames in which an object having the property value is detected. When a plurality of objects are detected in one frame, only one frame can be stored as the number of detected frames.
  • the identification information field 440 of frames denotes identification information of frames in which an object having the property value is detected.
  • the identification information for the first frame, the identification information for the second frame, ..., the n-th frame and n is a natural number).
  • the monitoring control unit 120 can determine the characteristic value of the object detected in the supervisory image and the detection frequency of the object having the characteristic value. For example, the monitoring control unit 120 can determine the detection frequency of the characteristic value by referring to the detection frequency field 420 in the characteristic information table 400. [ Also, the monitoring control unit 120 can search the monitored image for the frame in which the object having the selected characteristic value is detected. For example, the monitoring control unit 120 may refer to the identification information field 440 of frames in the characteristic information table 400 to search for a frame in which an object having a selected characteristic value is detected.
  • FIG. 5 is a flowchart illustrating an object search process according to an exemplary embodiment of the present invention.
  • step S300 the monitoring control unit 120 searches for a frame in which an object having a property value selected from the characteristic values displayed in the first area is detected in the supervisory image stored in the storage unit 130.
  • FIG. The monitoring control unit 120 receives an input from the user through the user input unit 140 to select one or more characteristic values among the characteristic values displayed in the first region.
  • the monitoring control unit 120 reads identification information of a frame in which an object having a property value selected from the metadata stored in the storage unit 130 is detected.
  • the monitoring control unit 120 displays the searched frame in the second area through the display unit (S400).
  • the monitoring control unit 120 extracts a frame corresponding to the identification information of the frame read from the metadata from the video data stored in the storage unit 130. [
  • the monitoring control unit 120 may display the extracted frame in the second area through the display unit.
  • FIG. 6 is a diagram illustrating an object search screen according to an embodiment of the present invention.
  • the object search screen 500 includes a detection frequency display area 510 and a frame display area 520.
  • a detection frequency display area 510 a characteristic value of an object detected in the supervisory image and a detection frequency of the object having the characteristic value are displayed.
  • the frame display area 520 a frame in which an object having a property value selected from among the property values displayed in the detection frequency display area 510 is detected is displayed.
  • a specific characteristic value item 512 is selected from among the characteristic value items displayed in the detection frequency display region 510, a frame having the characteristic value corresponding to the selected item 512 in the frame display region 520 is detected, Is displayed.
  • a specific frame 522 is selected from the frames displayed in the frame display area 520, an image related to the selected frame is displayed in an area where the selected frame is displayed.
  • the monitoring control unit 120 displays a characteristic value for an object detected in the supervisory image and a detection frequency of the object having the characteristic value through the display unit.
  • the monitoring control unit 120 separately displays the detection frequency of the object having the input characteristic value (S114).
  • the monitoring control unit 120 can display the detection frequency of the object having the characteristic value corresponding to the plurality of characteristic values separately have.
  • FIG 8 and 9 are flowcharts showing an object search screen according to an embodiment of the present invention.
  • the object search screen 600 includes a characteristic value input area 610 and a detection frequency display area 620.
  • the property value input area 610 is provided with an interface for inputting a property value of an object to be searched.
  • the monitoring image can be displayed in the characteristic value input area 610.
  • the detection frequency display area 620 the characteristic values of the object detected in the supervisory image and the detection frequency of the object having the characteristic value are displayed. In this case, the detection frequency corresponding to the characteristic value input in the characteristic value input area 610 is displayed separately in the detection frequency display area 620.
  • the detection frequency item 622 corresponding to the characteristic value 614 of the selected object in the detection frequency display region 620 is selected in the detection frequency display region 620.
  • the detection frequency item 622 may be distinguished from other detection frequency items by shape or color.
  • a user can input a plurality of characteristic values directly by referring to an object 612 displayed in a supervised image in a characteristic value input area 610.
  • the user may refer to the object 612 to generate an item 616 representing the first characteristic value of the object and an item 618 representing the second characteristic value.
  • a detection frequency item 624 corresponding to the characteristic value between the first characteristic value and the second characteristic value is displayed in the detection frequency display region 620 so as to be distinguished from other detection frequency items.
  • FIG. 10 is a flowchart illustrating an object search process according to an embodiment of the present invention.
  • the monitoring control unit 120 receives characteristic values of an object to be searched in the supervisory image and time information to be searched (S122). For example, the monitoring control unit 120 may receive the property value of the object to be searched in the supervisory image and the time information to be searched through the user input unit 140.
  • the monitoring control unit 120 displays the property value of the object detected in the supervisory image and the detection frequency of the object having the property value through the output unit 150 based on the input time information.
  • the monitoring control unit 120 separately displays the detection frequency of the object having the input characteristic value (S124).
  • FIG. 11 is a view showing an object search screen according to an embodiment of the present invention.
  • the feature value input area 710 further includes an item 716 for entering time information.
  • the time information may include a start time and an end time.
  • the detection frequency display area 720 a property value of the object detected in the supervised image and an input start time and an end time of the object having the property value Is displayed.
  • the detection frequency item 722 corresponding to the characteristic value 714 of the object selected in the detection frequency display area 720 is differently detected It is displayed separately from the frequency item.
  • FIG. 12 is a flowchart illustrating an object search process according to an embodiment of the present invention.
  • FIG. 13 is a flowchart illustrating an object search screen according to an embodiment of the present invention.
  • the object search screen 800 includes a characteristic value input area 810 and a detection frequency display area 820.
  • An attribute value input area 810 provides an interface for inputting a property value of an object to be searched.
  • the monitoring image can be displayed in the characteristic value input area 810.
  • the detection frequency display area 820 a property value of an object detected in the supervisory image and a detection frequency of the object having the property value are displayed. In this case, the detection frequency corresponding to the characteristic value input in the characteristic value input area 810 is displayed separately in the detection frequency display area 820.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

본 명세서는 감시 영상에서 검출되는 오브젝트의 특성에 대한 통계적 모델에 기반하여 오브젝트를 검색할 수 있게 해줌으로써, 감시 환경에 따른 객체 특성의 변화(variation)에 강인한 오브젝트 검색 기능을 제공하는 영상 감시 장치 및 그 오브젝트 검색 방법에 관한 것이다. 이를 위해 본 발명의 일실시예에 따른 영상 감시 장치의 오브젝트 검색 방법은, 감시 영상에서 검출되는 오브젝트에 대한 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도를 제 1 영역에 표시하는 단계; 상기 제 1 영역에 표시된 특성 값 중에서 선택된 특성 값을 갖는 오브젝트가 검출된 프레임을 상기 감시 영상에서 검색하는 단계; 및 상기 검색된 프레임을 제 2 영역에 표시하는 단계를 포함하는 것을 특징으로 한다.

Description

영상 감시 장치 및 그 오브젝트 검색 방법
본 명세서는 영상 감시 장치 및 영상 감시 장치의 오브젝트 검색 방법에 관한 것으로서, 더욱 상세하게는 감시 영상에서 검출되는 오브젝트를 검색하는 영상 감시 장치와 이와 같은 장치에서의 오브젝트 검색 방법에 관한 것이다
일반적으로 보안 등을 위하여, 다양한 감시 방법 및 다양한 감시 장치들이 사용되고 있다. 이와 같은 감시 장치들 중 하나가 감시 카메라를 통하여 획득되는 감시 영상을 감시/분석하는 감시 시스템이다. 감시 시스템은 감시를 하고자 하는 감시 영역의 부근에 감시 카메라를 설치하고, 상기 감시 카메라를 통하여 획득되는 영상을 사용자에게 제공하여 줌으로써 사용자가 감시 영상에서 특정 오브젝트가 검출되는지 여부 등을 쉽게 알 수 있게 해준다.
본 명세서는 감시 영상에서 검출되는 오브젝트의 특성에 대한 통계적 모델에 기반하여 오브젝트를 검색할 수 있게 해줌으로써, 감시 환경에 따른 객체 특성의 변화(variation)에 강인한 오브젝트 검색 기능을 제공하는 영상 감시 장치 및 그 오브젝트 검색 방법을 제공하는 것을 기술적 과제로 한다.
상기 기술적 과제를 해결하기 위한 영상 감시 장치의 오브젝트 검색 방법은, 감시 영상에서 검출되는 오브젝트에 대한 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도를 제 1 영역에 표시하는 단계; 상기 제 1 영역에 표시된 특성 값 중에서 선택된 특성 값을 갖는 오브젝트가 검출된 프레임을 상기 감시 영상에서 검색하는 단계; 및 상기 검색된 프레임을 제 2 영역에 표시하는 단계를 포함하는 것을 특징으로 한다.
일 실시예에 있어서 상기 영상 감시 장치의 오브젝트 검색 방법은, 상기 제 1 영역에 표시하는 단계 이전에, 상기 감시 영상에서 검색할 오브젝트의 특성 값이 입력되는 단계를 더 포함하고, 상기 제 1 영역에 표시하는 단계는, 상기 제 1 영역에서 상기 입력된 특성 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시하는 단계인 것을 특징으로 한다.
또한 일 실시예에 있어서 상기 영상 감시 장치의 오브젝트 검색 방법은, 상기 제 1 영역에 표시하는 단계 이전에, 상기 감시 영상에서 검색할 시간 정보가 입력되는 단계를 더 포함하고, 상기 제 1 영역에 표시하는 단계는, 상기 제 1 영역에서 상기 입력된 시간 정보에 근거하여 상기 입력된 특성 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시하는 단계인 것을 특징으로 한다.
또한 일 실시예에 있어서 상기 영상 감시 장치의 오브젝트 검색 방법은, 상기 제 1 영역에 표시하는 단계 이전에, 상기 감시 영상에서 검색할 영역 정보가 입력되는 단계를 더 포함하고, 상기 제 1 영역에 표시하는 단계는, 상기 제 1 영역에서 상기 입력된 영역 정보에 근거하여 상기 입력된 특성 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시하는 단계인 것을 특징으로 한다.
또한 일 실시예에 있어서 상기 입력된 특성 값은, 상기 감시 영상에서 검색할 오브젝트의 제 1 특성 값 및 제 2 특성 값을 포함하고, 상기 제 1 영역에 표시하는 단계는, 상기 제 1 영역에서 상기 제 1 특성 값 및 제 2 특성 값 사이의 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시하는 단계인 것을 특징으로 한다.
또한 일 실시예에 있어서 상기 영상 감시 장치의 오브젝트 검색 방법은, 상기 입력되는 단계 이전에, 상기 감시 영상을 제 3 영역에 표시하는 단계를 더 포함하고, 상기 입력되는 단계는, 상기 제 3 영역에서 검출되는 오브젝트 중에서 선택된 오브젝트의 특성 값을 계산하는 단계를 포함하는 것을 특징으로 한다.
또한 일 실시예에 있어서 상기 영상 감시 장치의 오브젝트 검색 방법은, 상기 제 1 영역에 표시하는 단계 이전에, 상기 감시 영상에서 검출되는 오브젝트의 특성 값에 대한 검출 빈도를 저장하는 단계를 더 포함하는 것을 특징으로 한다.
또한 일 실시예에 있어서 상기 영상 감시 장치의 오브젝트 검색 방법은, 상기 제 1 영역에 표시하는 단계 이전에, 상기 감시 영상에서 상기 특성 값을 갖는 오브젝트의 검출 횟수를 판단하는 단계; 및 상기 판단된 검출 횟수를 정규화하여 상기 검출 빈도를 생성하는 단계를 더 포함하는 것을 특징으로 한다.
또한 일 실시예에 있어서 상기 특성 값은, 상기 감시 영상에서 검출되는 오브젝트의 크기, 속도 및 색상 중 적어도 하나를 포함하는 것을 특징으로 한다.
또한 일 실시예에 있어서 상기 제 1 영역에 표시하는 단계는, 상기 특성 값 및 상기 검출 빈도를 제 1 영역에 그래프로 표시하는 단계인 것을 특징으로 한다.
또한 일 실시예에 있어서 상기 제 2 영역에 표시하는 단계는, 상기 검색된 프레임에서 선택된 프레임을 표시하는 단계인 것을 특징으로 한다.
또한 일 실시예에 있어서 상기 제 2 영역에 표시되는 프레임은, 썸네일 이미지인 것을 특징으로 한다.
또한 일 실시예에 있어서 상기 영상 감시 장치의 오브젝트 검색 방법은, 상기 썸네일 이미지 중에서 선택된 썸네일 이미지와 관련된 영상을 표시하는 단계를 더 포함하는 것을 특징으로 한다.
한편, 상기 기술적 과제를 해결하기 위한 영상 감시 장치는, 감시 영상에서 검출되는 오브젝트에 대한 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도를 제 1 영역에 표시하는 출력부; 및 상기 제 1 영역에 표시된 특성 값 중에서 선택된 특성 값을 갖는 오브젝트가 검출된 프레임을 상기 감시 영상에서 검색하는 제어부를 포함하고, 상기 출력부는 상기 검색된 프레임을 제 2 영역에 표시하는 것을 특징으로 한다.
일 실시예에 있어서 상기 영상 감시 장치는 상기 감시 영상에서 검색할 오브젝트의 특성 값을 입력받는 입력부를 더 포함하고, 상기 출력부는, 상기 제 1 영역에서 상기 입력된 특성 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시하는 것을 특징으로 한다.
본 발명의 일실시예에 따르면, 사용자가 감시 영상에서 검출되는 오브젝트의 특성에 대한 통계적 데이터에 근거하여 검색하고자 하는 오브젝트의 특성 필터링을 효율적으로 수행할 수 있다. 이에 따라, 관심 오브젝트에 대한 검색의 정확도가 향상되어 사용자가 검색을 용이하게 수행할 수 있을 뿐만 아니라, 특성 변화에 강인한 감시 카메라의 설치 환경을 제공받을 수 있다.
도 1은 본 발명의 일실시예에 따른 영상 감시 시스템을 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 영상 감시 장치의 블록도이다.
도 3(a) 및 도 3(b)는 본 발명의 일 실시예에 따른 영상 데이터 및 메타 데이터의 구조를 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 특성 정보 테이블의 구조를 나타내는 도면이다.
도 5는 본 발명의 일실시예에 따른 오브젝트의 검색 과정을 나타내는 흐름도이다.
도 6은 본 발명의 일실시예에 따른 오브젝트 검색 화면을 나타내는 도면이다.
도 7은 본 발명의 일실시예에 따른 오브젝트 검색 과정을 나타내는 흐름도이다.
도 8 및 도 9는 본 발명의 일실시예에 따른 오브젝트 검색 화면을 나타내는 흐름도이다.
도 10은 본 발명의 일실시예에 따른 오브젝트 검색 과정을 나타내는 흐름도이다.
도 11은 본 발명의 일실시예에 따른 오브젝트 검색 화면을 나타내는 도면이다.
도 12는 본 발명의 일실시예에 따른 오브젝트 검색 과정을 나타내는 흐름도이다.
도 13은 본 발명의 일실시예에 따른 오브젝트 검색 화면을 나타내는 흐름도이다.
이하에서는, 본 발명의 일실시예에 따른 영상 감시 장치 및 그 오브젝트 검색 방법의 바람직한 실시예들을 도 1 내지 도 13을 참조하여 상세히 설명한다.
정의
본 명세서에서 설명되는 오브젝트라는 용어는 감시 영상에서 감시의 대상이 되는 사람 또는 사물 등을 의미하며, 일예로 움직이는 것으로 판단되는 사람 또는 사물은 오브젝트가 될 수 있다.
또한, 본 명세서에서 설명되는 이벤트라는 용어는 감시 영상에서 일어날 수 있는 사건 또는 사실들을 의미한다. 또한, 감시 이벤트라는 용어는 사용자가 감시 목적을 효과적으로 달성할 수 있도록 설정하는 이벤트를 의미한다.
영상 감시 시스템에 대한 설명
도 1은 본 발명의 일실시예에 따른 영상 감시 시스템을 나타내는 도면이다. 본 발명의 일실시예에 따른 영상 감시 시스템(10)은 하나 이상의 영상 획득 장치(200)를 통해 감시 영상을 획득하고, 획득된 감시 영상을 처리 및 분석하여, 처리 및 분석 결과를 출력 장치(300)를 통해 사용자에게 제공한다. 영상 감시 시스템(10)은 영상 감시 장치(100), 영상 획득 장치(200) 및 출력 장치(300)를 포함한다.
영상 감시 장치(100)는 영상 획득 장치(200)를 통해 획득되는 영상을 분석하여, 압축된 영상 및 메타 데이터를 생성한다. 또한, 영상 감시 장치(100)는 감시 영상에 설정된 감시 이벤트의 발생을 감지하기 위해 메타 데이터를 검색하고, 감시 이벤트의 발생이 감지되면 출력 장치(300)에 감지된 감시 이벤트의 발생과 관련된 정보를 출력한다.
일실시예에서, 감지된 감시 이벤트의 발생과 관련된 정보는 경고 메시지를 포함할 수 있다. 또한, 메타 데이터는 오브젝트의 아이디, 오브젝트의 타입(예를 들어, 사람, 물건 등), 타임 스탬프, 영상 획득 장치(200)의 현재 위치, 영상 획득 장치(200)의 이전 위치, 방향 데이터 등을 포함할 수 있다.
감지된 감시 이벤트의 발생과 관련된 정보는 경고 메시지를 포함할 수 있다. 또한, 메타 데이터는 오브젝트의 아이디, 오브젝트의 타입(예를 들어, 사람, 물건 등), 타임 스탬프, 영상 획득 장치(200)의 현재 위치, 영상 획득 장치(200)의 이전 위치, 방향 데이터 등을 포함할 수 있다.
영상 획득 장치(200)는 감시되는 환경에서 감시 영상을 획득한다. 영상 획득 장치(200)는 카메라(예를 들어, 광학 센서, 스틸 카메라, 아날로그 영상 카메라, 디지털 영상 카메라 등)를 포함할 수 있다.
출력 장치(300)는 영상 감시 장치(100)로부터 수신되는 감시 영상의 처리 및 분석 결과와 감시 영상에서 감지된 감시 이벤트의 발생과 관련된 정보를 출력할 수 있다. 출력 장치(300)는 단말기, 네트워크 컴퓨터, 무선 장치(예를 들어, PDA), 무선 전화기, 정보 가전, 워크스테이션, 미니 컴퓨터, 메인프레임 컴퓨터, 또는 다용도 컴퓨터나 영상 감시 시스템(10) 전용의 하드웨어 장치 등이 될 수 있다.
일실시예에서, 사용자는 원격으로 텍스트, 메시징 및 영상 기능을 구비한 출력 장치(300)에 의해 감시 영상의 처리/분석 결과를 제공받을 수 있다. 또한, 사용자는 출력 장치(300)에 의해 영상 감시 장치(100)에 의해 생성된 경고 메시지를 제공받을 수 있다. 일실시예에서, 경고 메시지에는 영상이 포함될 수 있다.
또한, 출력 장치(300)는 경고 메시지에 근거하여 경보를 울릴 수 있다. 또는 출력 장치(300)는 경고 메시지에 근거하여 미리 등록되어 있는 전화번호를 이용하여 문자 메시지를 보내거나, 상기 전화번호에 다이얼링을 하여, 미리 저장되어 있는 음성을 출력하거나 미리 저장되어 있는 텍스트를 음성으로 변환 및 출력하여 주어, 사용자에게 감시 이벤트가 발생되었음을 알릴 수도 있다. 상기 텍스트를 음성으로 변환하여 주는 것은 TTS(Text-To-Speech) 기술을 이용하여 수행될 수 있다. 또는, 상기 감시 이벤트가 발생한 영역에 대응되는 감시 항목이 깜빡거리도록 함으로써, 어떤 지역에서 감시 이벤트가 발생하였는지 여부를 손쉽게 알려줄 수도 있다.
이와 같이, 영상 감시 시스템(10)은 감시 이벤트를 설정하고 감시 이벤트가 발생하게 되면 사용자에게 그 사실을 알려줌으로써, 감시 영역이 넓어져도 사용자는 손쉽게 감시 활동을 할 수 있게 된다. 또한, 영상 감시 시스템(10)은 모든 감시 영상을 저장하는 것이 아니라, 설정된 감시 이벤트가 발생한 경우에 감시 영상을 저장하도록 할 수 있다. 그러나, 감시 이벤트를 설정하는 경우에도, 영상 감시 시스템(10)은 감시 영상 모든 부분, 즉, 감시 이벤트가 발생하지 않은 경우의 감시 영상도 저장할 수 있다.
영상 감시 장치에 대한 설명
도 2는 본 발명의 일실시예에 따른 영상 감시 장치의 블록도이다. 본 발명의 일실시예에 따른 영상 감시 장치(100)는 통신부(105), 영상 처리부(110), 감시 제어부(120) 및 저장부(130)를 포함한다.
통신부(105)는 영상 감시 장치(100)가 영상 획득 장치(200) 및/또는 출력 장치(300)와 통신을 할 수 있도록, 영상 획득 장치(200) 및/또는 출력 장치(300)와 송수신하는 신호의 변/복조 및 부호화/복호화 작업을 수행한다. 통신부(105)는 영상 획득 장치(200) 및/또는 출력 장치(300)와 LAN(Local Area Network), WAN(Wide Area Network, 예를 들어, T1, T3, 56 kb, X.25), 광역망(ISDN, 프레임 릴레이(Frame-Relay), ATM), 무선망(802.11, 블루투스 등), USB(Universal Serial Bus), IEEE 1394(FireWire), 블루투스(Bluetooth)와 같은 다양한 통신 경로를 통해 영상 신호 또는 데이터를 송수신한다.
영상 처리부(110)는 영상 획득 장치(200)로부터 획득된 영상을 분석하고, 압축된 영상 데이터 및 메타 데이터를 생성한다. 영상 처리부(110)는 생성된 영상 데이터를 저장부(130)에 저장하고, 메타 데이터를 감시 제어부(120)에 출력한다.
감시 제어부(120)는 감시 영상에 설정된 감시 이벤트의 발생을 감지하기 위해 영상 처리부(110)로부터 수신된 메타 데이터를 검색하고, 감시 이벤트의 발생이 감지되면 출력 장치(300)에 감지된 감시 이벤트의 발생과 관련된 정보를 출력한다. 또한, 감시 제어부(120)는 메타 데이터 및 감지된 감시 이벤트의 발생과 관련된 정보를 저장부(130)에 저장한다.
저장부(130)는 영상 획득 장치(200)를 통해 획득된 영상을 저장한다. 저장부(130)는 VCR(Video Cassette Recorder), DVR(Digital Video Recorder), RAID(Redundant Array of Independent Disks) 어레이, USB(Universal Serial Bus) 하드 드라이브, 광학 디스크 레코더, 플래시 저장 장치, 이미지 분석 장치, 다용도 컴퓨터, 고차원 영상 장치, 디-인터레이서(De-Interlacer), 스케일러 및/또는 영상을 저장 및/또는 처리하기 위한 처리 및 저장 요소를 포함한다.
감시 영상은 다양한 아날로그 및/또는 디지털 포맷으로 획득될 수 있는데, 예를 들면 NTSC(Nation Television System Commitee), PAL(Phase Alternating Line), SECAM(Sequential Color with Memory), DVI(Digital Video/visual Interactive) 또는 HDMI(High-Definition Multimedia Interface) 연결을 이용한 비압축 디지털 신호 및/또는 코덱 포맷(예를 들어, MPEG, MPEG2, MPEG4, 또는 H.264)에 근거하여 압축된 디지털 신호를 포함할 수 있다.
또한, 저장부(130)는 감시 제어부(120)를 통해 메타 데이터 및 감지된 감시 이벤트의 발생과 관련된 정보를 저장한다.
한편, 영상 감시 장치(100)는 사용자 입력부(140) 및 출력부(150)를 더 포함할 수 있다.
사용자 입력부(140)는 사용자가 영상 감시 장치(100)의 동작 제어를 위해 인가하는 입력 명령을 받아들이고, 받아들인 명령을 감시 제어부(120)에 전달하여 감시 제어부(120)가 이 명령에 따라 동작하도록 한다. 사용자 입력부(140)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
출력부(150)는 영상 신호 또는 알람(alarm) 신호의 출력을 위한 것으로서, 영상 감시 장치(100)에서 감시 영상의 처리 및 분석결과와 감지된 감시 이벤트의 발생과 관련된 정보를 출력하는 디스플레이부(미도시)와 음향출력모듈(미도시), 그리고 감시 제어부(120)에서 생성된 경고 메시지에 근거하여 경보를 울리는 알람부(미도시)를 포함할 수 있다.
본 발명의 일실시예에 따르면, 감시 제어부(120)는 영상 획득 장치(200)로부터 획득되는 감시 영상에서 프레임별로 오브젝트를 검출한다. 또한, 감시 제어부(120)는 검출된 오브젝트의 특성 값을 계산하고, 오브젝트가 검출된 프레임의 식별 정보를 계산된 특성 값에 대응하도록 메타 데이터에 기록한다. 또한, 감시 제어부(120)는 메타 데이터에서 계산된 특성 값의 오브젝트 검출 횟수를 누산하여 기록한다. 이와 같은 방식으로 기록된 메타 데이터에는 현재까지 감시 영상에서 각 특성 값을 갖는 오브젝트의 검출 횟수 및 각 특성 값을 갖는 오브젝트가 검출된 프레임의 식별 정보가 포함된다. 감시 제어부(120)는 메타 데이터를 저장부(130)에 저장한다.
감시 제어부(120)는 저장부(130)에 저장된 감시 영상에서 검출되는 오브젝트에 대한 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도를 디스플레이부를 통해 제 1 영역에 표시한다. 감시 제어부(120)는 저장부(130)에 저장된 메타 데이터로부터 각 특성 값을 갖는 오브젝트의 검출 횟수를 판독한다. 또한, 판독된 검출 횟수를 정규화(normalization 또는 regularization)하여 각 특성 값을 갖는 오브젝트의 검출 빈도를 생성한다. 감시 제어부(120)는 생성된 검출 빈도를 각 특성 값 별로 디스플레이부를 통해 표시한다. 이 경우에 각 특성 값 및 각 특성 값을 갖는 오브젝트의 검출 빈도가 그래프로 표시될 수 있다.
여기에서, 검출 빈도는 검출 횟수를 정규화한 값으로서 검출 횟수의 상대적인 개념이다. 예를 들어 감시 영상에서 제 1 특성 값을 갖는 오브젝트가 50번 검출되고, 제 2 특성 값을 갖는 오브젝트가 100번 검출된 경우에 제 1 특성 값을 갖는 오브젝트의 검출 빈도는 검출 횟수를 50으로 나눈 값인 1이 되고 제 2 특성 값을 갖는 오브젝트의 검출 빈도는 검출 횟수를 10으로 나눈 2가 될 수 있다.
감시 제어부(120)는 저장부(130)에 저장된 감시 영상에서 제 1 영역에 표시된 특성 값 중에서 선택된 특성 값을 갖는 오브젝트가 검출된 프레임을 검색할 수 있다. 감시 제어부(120)는 사용자 입력부(140)를 통해 사용자로부터 제 1 영역에 표시된 특성 값 중에서 하나 이상의 특성 값을 선택하는 입력을 수신한다. 감시 제어부(120)는 저장부(130)에 저장된 메타 데이터로부터 선택된 특성 값을 갖는 오브젝트가 검출된 프레임의 식별 정보를 판독한다.
감시 제어부(120)는 검색된 프레임을 디스플레이부를 통해 제 2 영역에 표시할 수 있다. 감시 제어부(120)는 저장부(130)에 저장된 영상 데이터에서 메타 데이터로부터 판독된 프레임의 식별 정보에 대응하는 프레임을 추출한다. 감시 제어부(120)는 추출된 프레임을 디스플레이부를 통해 제 2 영역에 표시할 수 있다.
여기에서, 제 2 영역에 표시되는 프레임은 감시 영상에서 오브젝트가 일단 검출된 후에 오브젝트가 감시 영상을 벗어날 때까지의 일련의 영상을 대표하는 썸네일 이미지가 될 수 있다. 또한, 제 2 영역에 표시되는 썸네일 이미지 중에서 하나 이상의 썸네일 이미지가 선택되면, 선택된 썸네일 이미지가 대표하는 일련의 영상이 표시될 수 있다.
또한, 제 2 영역에 표시되는 프레임은 상기 검색된 프레임 중에서 선택된 프레임이 될 수 있다. 검색된 프레임이 시간적으로 연속하는 복수 개의 프레임인 경우에, 복수 개의 프레임 중에서 오브젝트의 특징을 가장 뚜렷하게 나타내는 프레임이 제 2 영역에 표시되는 프레임으로 선택될 수 있다. 오브젝트의 특징을 가장 뚜렷하게 나타내는 프레임은, 오브젝트에 대한 선명도가 가장 높은 프레임이 될 수 있다.
영상 데이터 및 메타 데이터의 구조
도 3(a) 및 도 3(b)는 본 발명의 일 실시예에 따른 영상 데이터 및 메타 데이터의 구조를 나타내는 도면이다.
영상 데이터와 메타 데이터는 링크 정보와 데이터 본체를 포함한다. 영상 데이터에서 데이터 본체는 감시 영상의 데이터이다. 또한, 메타 데이터에서 데이터 본체는 감시 대상을 나타내는 정보 및 감시 대상을 나타내는 정보에 대한 기술 방식을 정의한 속정 정보를 포함한다. 링크 정보는, 영상 데이터와 메타 데이터와의 관련성을 나타내는 관련 정보와 관련 정보의 내용에 대한 기술 방식을 정의한 속성 정보 등을 포함한다.
관련 정보는, 예를 들면 영상 데이터를 특정하기 위한 타임 스탬프나 순서 번호를 사용한다. 타임 스탬프는 영상 데이터의 생성 시각을 나타내는 정보(시각 정보)를 의미한다. 또한, 순서 번호는, 컨텐츠 데이터의 생성 순서를 나타내는 정보(순서 정보)를 의미하며, 타임 스탬프가 동일한 감시 영상이 복수 존재하는 경우, 타임 스탬프가 동일한 영상 데이터의 생성 순서를 식별할 수 있다. 또, 관련 정보에는, 영상 획득 장치를 특정하기 위한 정보(예를 들면 제조 회사명이나 기종명, 제조 번호 등)가 포함될 수 있다.
링크 정보 및/또는 메타 데이터 본체의 기술에는 Web상에서 교환되는 정보를 기술하는 방법으로서 정의된 마크업 언어가 이용될 수 있다. 이와 같이, 마크업 언어가 이용되면, 네트워크를 통한 정보의 교환이 용이해진다. 게다가, 마크업 언어, 예를 들면 문서나 전자 데이터의 교환에 이용되는 XML이 이용되면, 영상 데이터와 메타 데이터의 교환도 용이해진다. XML이 이용되는 경우, 속성 정보는, 예를 들면 XMLSchema가 이용된다.
본 발명의 일실시예에 따르면, 메타 데이터의 데이터 본체는 영상 획득 장치의 위치, 각도 등을 포함하는 영상 획득 환경 정보, 검출된 오브젝트의 아이디, 특성 등을 저장하는 오브젝트 검출 정보 및 감시 영상에 설정된 감시 이벤트의 발생 여부 등을 저장하는 이벤트 감지 정보 등을 포함할 수 있다.
특성 정보 테이블의 구조
도 4는 본 발명의 일실시예에 따른 특성 정보 테이블의 구조를 나타내는 도면이다.
특성 정보 테이블(400)은 특성 값 필드(410), 검출 횟수 필드(420), 프레임 수 필드(430) 및 프레임들의 식별 정보 필드(440)를 포함한다. 특성 값 필드(410)는 오브젝트의 특성 값을 저장한다.
예를 들어, 오브젝트의 특성 값이 크기인 경우 특성 값은 a1이 될 수 있고, a1은 다음 수학식 1에 의해 결정된다.
수학식 1
Figure PCTKR2010006929-appb-M000001
(p는 감시 영상에서 오브젝트가 차지하는 픽셀 수, m은 자연수)
또한, 특성 값이 속도인 경우 특성 값은 a2가 될 수 있고, a2는 다음 수학식 2에 의해 결정된다.
수학식 2
Figure PCTKR2010006929-appb-M000002
(v는 오브젝트의 속도, m은 자연수)
또한, 특성 값이 색상인 경우 특성 값은 a3가 될 수 있고, a3는 다음 수학식 3에 의해 결정된다.
수학식 3
Figure PCTKR2010006929-appb-M000003
(예를 들어, c는 오브젝트의 RGB 값, m은 자연수)
여기에서, m은 오브젝트 검색의 정밀도에 대한 팩터로서, m이 작을수록 사용자는 특성 값 별로 검출되는 오브젝트를 정밀하게 검색할 수 있고, m이 클수록 사용자는 특성 값 별로 검출되는 오브젝트를 간략하게 검색할 수 있다.
검출 횟수 필드(420)는 해당 특성 값을 갖는 오브젝트가 검출된 횟수를 저장한다. 하나의 프레임에서 여러 개의 오브젝트가 검출된 경우에 여러 개의 오브젝트 각각이 오브젝트가 검출된 횟수로 저장될 수 있다.
프레임 수 필드(430)는 해당 특성 값을 갖는 오브젝트가 검출된 프레임의 수를 의미한다. 하나의 프레임에서 여러 개의 오브젝트가 검출된 경우에 하나의 프레임만이 오브젝트가 검출된 프레임의 수로 저장될 수 있다.
프레임들의 식별 정보 필드(440)는 해당 특성 값을 갖는 오브젝트가 검출된 프레임들의 식별 정보를 의미하는데, 제 1 프레임에 대한 식별 정보, 제 2 프레임에 대한 식별 정보, ..., 제 n 프레임(n은 자연수)에 대한 식별 정보를 포함할 수 있다.
일실시예에서 상기와 같이 특성 정보 테이블(400)을 유지함으로써, 감시 제어부(120)는 감시 영상에서 검출되는 오브젝트에 대한 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도를 판단할 수 있다. 예를 들어, 감시 제어부(120)는 특성 정보 테이블(400)에서 검출 횟수 필드(420)를 참조하여 특성 값의 검출 빈도를 판단할 수 있다. 또한, 감시 제어부(120)는 선택된 특성 값을 갖는 오브젝트가 검출된 프레임을 감시 영상에서 검색할 수 있다. 예를 들어, 감시 제어부(120)는 특성 정보 테이블(400)에서 프레임들의 식별 정보 필드(440)를 참조하여 선택된 특성 값을 갖는 오브젝트가 검출된 프레임을 검색할 수 있다.
오브젝트 검색 과정에 대한 설명
도 5는 본 발명의 일실시예에 따른 오브젝트의 검색 과정을 나타내는 흐름도이다.
감시 제어부(120)는 저장부(130)에 저장된 감시 영상에서 검출되는 오브젝트에 대한 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도를 디스플레이부를 통해 제 1 영역에 표시한다(S200). 감시 제어부(120)는 저장부(130)에 저장된 메타 데이터로부터 각 특성 값을 갖는 오브젝트의 검출 횟수를 판독한다. 또한, 감시 제어부(120)는 판독된 검출 횟수를 정규화(normalization 또는 regularization)하여 각 특성 값을 갖는 오브젝트의 검출 빈도를 생성한다. 감시 제어부(120)는 생성된 검출 빈도를 각 특성 값 별로 디스플레이부를 통해 표시한다. 이 경우에 각 특성 값 및 각 특성 값을 갖는 오브젝트의 검출 빈도가 그래프로 표시될 수 있다.
또한, 감시 제어부(120)는 저장부(130)에 저장된 감시 영상에서 제 1 영역에 표시된 특성 값 중에서 선택된 특성 값을 갖는 오브젝트가 검출된 프레임을 검색한다(S300). 감시 제어부(120)는 사용자 입력부(140)를 통해 사용자로부터 제 1 영역에 표시된 특성 값 중에서 하나 이상의 특성 값을 선택하는 입력을 수신한다. 감시 제어부(120)는 저장부(130)에 저장된 메타 데이터로부터 선택된 특성 값을 갖는 오브젝트가 검출된 프레임의 식별 정보를 판독한다.
또한, 감시 제어부(120)는 검색된 프레임을 디스플레이부를 통해 제 2 영역에 표시한다(S400). 감시 제어부(120)는 저장부(130)에 저장된 영상 데이터에서 메타 데이터로부터 판독된 프레임의 식별 정보에 대응하는 프레임을 추출한다. 감시 제어부(120)는 추출된 프레임을 디스플레이부를 통해 제 2 영역에 표시할 수 있다.
도 6은 본 발명의 일실시예에 따른 오브젝트 검색 화면을 나타내는 도면이다.
오브젝트 검색 화면(500)은 검출 빈도 표시 영역(510) 및 프레임 표시 영역(520)을 포함한다. 검출 빈도 표시 영역(510)에는 감시 영상에서 검출되는 오브젝트의 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도가 표시된다. 프레임 표시 영역(520)에는 검출 빈도 표시 영역(510)에 표시된 특성 값들 중에서 선택된 특성 값을 갖는 오브젝트가 검출된 프레임이 표시된다.
일실시예에서, 검출 빈도 표시 영역(510)에는 특성 값 및 검출 빈도가 그래프로 표시될 수 있다. 그래프에서 x 축은 특성 값을 나타내며, y 축은 해당 특성 값을 갖는 오브젝트의 검출 빈도를 나타낼 수 있다(그 반대의 경우도 성립될 수 있다).
검출 빈도 표시 영역(510)에 표시된 특성 값 항목들 중에서, 특정 특성 값 항목(512)이 선택되면, 프레임 표시 영역(520)에 선택된 항목(512)에 해당하는 특성 값을 갖는 오브젝트가 검출된 프레임이 표시된다. 또한, 프레임 표시 영역(520)에 표시된 프레임들 중에서 특정 프레임(522)이 선택되면, 선택된 프레임이 표시된 영역에, 선택된 프레임과 관련된 영상이 표시된다.
도 7은 본 발명의 일실시예에 따른 오브젝트 검색 과정을 나타내는 흐름도이다.
감시 제어부(120)는 감시 영상에서 검색할 오브젝트의 특성 값을 입력받는다(S112). 예를 들어, 감시 제어부(120)는 사용자 입력부(140)를 통해 감시 영상에서 검색할 오브젝트의 특성 값을 입력받을 수 있다. 한편, 감시 영상에서 검색할 오브젝트의 특성 값은 복수의 특성 값들을 포함할 수 있다.
또한, 감시 제어부(120)는 감시 영상에서 검출되는 오브젝트에 대한 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도를 디스플레이부를 통해 표시한다. 여기에서, 감시 제어부(120)는 입력된 특성 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시한다(S114). 한편, 감시 영상에서 검색할 오브젝트의 특성 값이 복수의 특성 값들을 포함하는 경우에, 감시 제어부(120)는 복수의 특성 값들 사이에 해당하는 특성 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시할 수 있다.
도 8 및 도 9는 본 발명의 일실시예에 따른 오브젝트 검색 화면을 나타내는 흐름도이다.
도 8을 참조하면, 오브젝트 검색 화면(600)은 특성 값 입력 영역(610) 및 검출 빈도 표시 영역(620)을 포함한다. 특성 값 입력 영역(610)에는 검색할 오브젝트의 특성 값을 입력할 수 있는 인터페이스가 제공된다. 또한, 특성 값 입력 영역(610)에는 감시 영상이 표시될 수 있다. 검출 빈도 표시 영역(620)에는 감시 영상에서 검출되는 오브젝트의 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도가 표시된다. 이 경우에, 검출 빈도 표시 영역(620)에는 특성 값 입력 영역(610)에서 입력된 특성 값에 대응하는 검출 빈도가 구분되게 표시된다.
일실시예에서, 특성 값 입력 영역(610)에서 감시 영상에 표시된 오브젝트(612)가 선택되면, 검출 빈도 표시 영역(620)에 선택된 오브젝트의 특성 값(614)에 대응하는 검출 빈도 항목(622)이 다른 검출 빈도 항목과 구분되게 표시된다. 예를 들어, 검출 빈도 항목(622)은 다른 검출 빈도 항목과 모양 또는 색상으로 구분될 수 있다.
도 9를 참조하면, 특성 값 입력 영역(610)에서 감시 영상에 표시된 오브젝트(612)를 참조하여, 사용자가 직접 복수의 특성 값을 입력할 수 있다. 예를 들어, 사용자는 오브젝트(612)를 참조하여 오브젝트의 제 1 특성 값을 나타내는 항목(616) 및 제 2 특성 값을 나타내는 항목(618)을 생성할 수 있다. 이 경우에 검출 빈도 표시 영역(620)에 제 1 특성 값 및 제 2 특성 값 사이의 특성 값에 대응하는 검출 빈도 항목(624)이 다른 검출 빈도 항목과 구분되게 표시된다.
도 10은 본 발명의 일실시예에 따른 오브젝트 검색 과정을 나타내는 흐름도이다.
감시 제어부(120)는 감시 영상에서 검색할 오브젝트의 특성 값 및 검색할 시간 정보를 입력받는다(S122). 예를 들어, 감시 제어부(120)는 사용자 입력부(140)를 통해 감시 영상에서 검색할 오브젝트의 특성 값 및 검색할 시간 정보를 입력받을 수 있다.
또한, 감시 제어부(120)는 입력된 시간 정보에 근거하여 감시 영상에서 검출되는 오브젝트에 대한 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도를 출력부(150)를 통해 표시한다. 여기에서, 감시 제어부(120)는 입력된 특성 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시한다(S124).
도 11은 본 발명의 일실시예에 따른 오브젝트 검색 화면을 나타내는 도면이다.
도 11을 참조하면, 오브젝트 검색 화면(700)은 특성 값 입력 영역(710) 및 검출 빈도 표시 영역(720)을 포함한다. 특성 값 입력 영역(710)에는 검색할 오브젝트의 특성 값을 입력할 수 있는 인터페이스가 제공된다. 또한, 특성 값 입력 영역(710)에는 감시 영상이 표시될 수 있다. 검출 빈도 표시 영역(720)에는 감시 영상에서 검출되는 오브젝트의 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도가 표시된다. 이 경우에, 검출 빈도 표시 영역(720)에는 특성 값 입력 영역(710)에서 입력된 특성 값에 대응하는 검출 빈도가 구분되게 표시된다.
일실시예에서, 특성 값 입력 영역(710)은 시간 정보를 입력하는 항목(716)을 더 포함한다. 예를 들어, 시간 정보는 시작 시간과 종료 시간을 포함할 수 있고, 검출 빈도 표시 영역(720)에는 감시 영상에서 검출되는 오브젝트의 특성 값 및 상기 특성 값을 갖는 오브젝트의 입력된 시작 시간과 종료 시간 사이의 검출 빈도가 표시된다. 또한, 특성 값 입력 영역(710)에서 감시 영상에 표시된 오브젝트(712)가 선택되면, 검출 빈도 표시 영역(720)에 선택된 오브젝트의 특성 값(714)에 대응하는 검출 빈도 항목(722)이 다른 검출 빈도 항목과 구분되게 표시된다.
도 12는 본 발명의 일실시예에 따른 오브젝트 검색 과정을 나타내는 흐름도이다.
감시 제어부(120)는 감시 영상에서 검색할 오브젝트의 특성 값 및 검색할 영역 정보를 입력받는다(S132). 예를 들어, 감시 제어부(120)는 사용자 입력부(140)를 통해 감시 영상에서 검색할 오브젝트의 특성 값 및 검색할 영역 정보를 입력받을 수 있다.
또한, 감시 제어부(120)는 입력된 영역 정보에 근거하여 감시 영상에서 검출되는 오브젝트에 대한 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도를 디스플레이부를 통해 표시한다. 여기에서, 감시 제어부(120)는 입력된 특성 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시한다(S134).
도 13은 본 발명의 일실시예에 따른 오브젝트 검색 화면을 나타내는 흐름도이다.
도 13을 참조하면, 오브젝트 검색 화면(800)은 특성 값 입력 영역(810) 및 검출 빈도 표시 영역(820)을 포함한다. 특성 값 입력 영역(810)에는 검색할 오브젝트의 특성 값을 입력할 수 있는 인터페이스가 제공된다. 또한, 특성 값 입력 영역(810)에는 감시 영상이 표시될 수 있다. 검출 빈도 표시 영역(820)에는 감시 영상에서 검출되는 오브젝트의 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도가 표시된다. 이 경우에, 검출 빈도 표시 영역(820)에는 특성 값 입력 영역(810)에서 입력된 특성 값에 대응하는 검출 빈도가 구분되게 표시된다.
일실시예에서, 특성 값 입력 영역(810)은 영역 정보를 입력하는 인터페이스를 제공한다. 예를 들어, 영역 정보는 다각형을 포함하는 폐곡선이 될 수 있고, 검출 빈도 표시 영역(820)에는 감시 영상에서 검출되는 오브젝트의 특성 값 및 상기 특성 값을 갖는 오브젝트의 입력된 폐곡선 안에서의 검출 빈도가 표시된다. 또한, 특성 값 입력 영역(810)에서 감시 영상에 표시된 오브젝트(812)가 선택되면, 검출 빈도 표시 영역(820)에 선택된 오브젝트의 특성 값(814)에 대응하는 검출 빈도 항목(822)이 다른 검출 빈도 항목과 구분되게 표시된다.
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.

Claims (15)

  1. 감시 영상에서 검출되는 오브젝트에 대한 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도를 제 1 영역에 표시하는 단계;
    상기 제 1 영역에 표시된 특성 값 중에서 선택된 특성 값을 갖는 오브젝트가 검출된 프레임을 상기 감시 영상에서 검색하는 단계; 및
    상기 검색된 프레임을 제 2 영역에 표시하는 단계를 포함하는 것을 특징으로 하는 영상 감시 장치의 오브젝트 검색 방법.
  2. 제 1항에 있어서, 상기 제 1 영역에 표시하는 단계 이전에,
    상기 감시 영상에서 검색할 오브젝트의 특성 값이 입력되는 단계를 더 포함하고,
    상기 제 1 영역에 표시하는 단계는,
    상기 제 1 영역에서 상기 입력된 특성 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시하는 단계인 것을 특징으로 하는 영상 감시 장치의 오브젝트 검색 방법.
  3. 제 2항에 있어서, 상기 제 1 영역에 표시하는 단계 이전에,
    상기 감시 영상에서 검색할 시간 정보가 입력되는 단계를 더 포함하고,
    상기 제 1 영역에 표시하는 단계는,
    상기 제 1 영역에서 상기 입력된 시간 정보에 근거하여 상기 입력된 특성 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시하는 단계인 것을 특징으로 하는 영상 감시 장치의 오브젝트 검색 방법.
  4. 제 2항에 있어서, 상기 제 1 영역에 표시하는 단계 이전에,
    상기 감시 영상에서 검색할 영역 정보가 입력되는 단계를 더 포함하고,
    상기 제 1 영역에 표시하는 단계는,
    상기 제 1 영역에서 상기 입력된 영역 정보에 근거하여 상기 입력된 특성 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시하는 단계인 것을 특징으로 하는 영상 감시 장치의 오브젝트 검색 방법.
  5. 제 2항에 있어서, 상기 입력된 특성 값은,
    상기 감시 영상에서 검색할 오브젝트의 제 1 특성 값 및 제 2 특성 값을 포함하고,
    상기 제 1 영역에 표시하는 단계는,
    상기 제 1 영역에서 상기 제 1 특성 값 및 제 2 특성 값 사이의 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시하는 단계인 것을 특징으로 하는 영상 감시 장치의 오브젝트 검색 방법.
  6. 제 2항에 있어서, 상기 입력되는 단계 이전에,
    상기 감시 영상을 제 3 영역에 표시하는 단계를 더 포함하고,
    상기 입력되는 단계는,
    상기 제 3 영역에서 검출되는 오브젝트 중에서 선택된 오브젝트의 특성 값을 계산하는 단계를 포함하는 것을 특징으로 하는 영상 감시 장치의 오브젝트 검색 방법.
  7. 제 1항에 있어서, 상기 제 1 영역에 표시하는 단계 이전에,
    상기 감시 영상에서 검출되는 오브젝트의 특성 값에 대한 검출 빈도를 저장하는 단계를 더 포함하는 것을 특징으로 하는 영상 감시 장치의 오브젝트 검색 방법.
  8. 제 1항에 있어서, 상기 제 1 영역에 표시하는 단계 이전에,
    상기 감시 영상에서 상기 특성 값을 갖는 오브젝트의 검출 횟수를 판단하는 단계; 및
    상기 판단된 검출 횟수를 정규화하여 상기 검출 빈도를 생성하는 단계를 더 포함하는 것을 특징으로 하는 영상 감시 장치의 오브젝트 검색 방법.
  9. 제 1항에 있어서, 상기 특성 값은,
    상기 감시 영상에서 검출되는 오브젝트의 크기, 속도 및 색상 중 적어도 하나를 포함하는 것을 특징으로 하는 영상 감시 장치의 오브젝트 검색 방법.
  10. 제 1항에 있어서, 상기 제 1 영역에 표시하는 단계는,
    상기 특성 값 및 상기 검출 빈도를 제 1 영역에 그래프로 표시하는 단계인 것을 특징으로 하는 영상 감시 장치의 오브젝트 검색 방법.
  11. 제 1항에 있어서, 상기 제 2 영역에 표시하는 단계는,
    상기 검색된 프레임에서 선택된 프레임을 표시하는 단계인 것을 특징으로 하는 영상 감시 장치의 오브젝트 검색 방법.
  12. 제 1항에 있어서, 상기 제 2 영역에 표시되는 프레임은,
    썸네일 이미지인 것을 특징으로 하는 영상 감시 장치의 오브젝트 검색 방법.
  13. 제 12항에 있어서,
    상기 썸네일 이미지 중에서 선택된 썸네일 이미지와 관련된 영상을 표시하는 단계를 더 포함하는 것을 특징으로 하는 영상 감시 장치의 오브젝트 검색 방법.
  14. 감시 영상에서 검출되는 오브젝트에 대한 특성 값 및 상기 특성 값을 갖는 오브젝트의 검출 빈도를 제 1 영역에 표시하는 출력부; 및
    상기 제 1 영역에 표시된 특성 값 중에서 선택된 특성 값을 갖는 오브젝트가 검출된 프레임을 상기 감시 영상에서 검색하는 제어부를 포함하고,
    상기 출력부는,
    상기 검색된 프레임을 제 2 영역에 표시하는 것을 특징으로 하는 영상 감시 장치.
  15. 제 14항에 있어서,
    상기 감시 영상에서 검색할 오브젝트의 특성 값을 입력받는 입력부를 더 포함하고,
    상기 출력부는,
    상기 제 1 영역에서 상기 입력된 특성 값을 갖는 오브젝트의 검출 빈도를 구분되게 표시하는 것을 특징으로 하는 영상 감시 장치.
PCT/KR2010/006929 2010-10-11 2010-10-11 영상 감시 장치 및 그 오브젝트 검색 방법 WO2012050244A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP10858431.9A EP2629516B1 (en) 2010-10-11 2010-10-11 Image-monitoring device and method for searching for objects therefor
PCT/KR2010/006929 WO2012050244A1 (ko) 2010-10-11 2010-10-11 영상 감시 장치 및 그 오브젝트 검색 방법
CN201080069558.5A CN103155550B (zh) 2010-10-11 2010-10-11 图像监视装置和用于其的搜索对象的方法
US13/878,554 US20130201333A1 (en) 2010-10-11 2010-10-11 Image-monitoring device and method for ssearching for objects therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2010/006929 WO2012050244A1 (ko) 2010-10-11 2010-10-11 영상 감시 장치 및 그 오브젝트 검색 방법

Publications (1)

Publication Number Publication Date
WO2012050244A1 true WO2012050244A1 (ko) 2012-04-19

Family

ID=45938448

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/006929 WO2012050244A1 (ko) 2010-10-11 2010-10-11 영상 감시 장치 및 그 오브젝트 검색 방법

Country Status (4)

Country Link
US (1) US20130201333A1 (ko)
EP (1) EP2629516B1 (ko)
CN (1) CN103155550B (ko)
WO (1) WO2012050244A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018124510A1 (ko) * 2016-12-27 2018-07-05 한화테크윈 주식회사 이벤트 저장 장치, 이벤트 검색 장치, 및 이벤트 알람 장치

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11039108B2 (en) * 2013-03-15 2021-06-15 James Carey Video identification and analytical recognition system
CN108197025B (zh) * 2017-12-29 2021-04-09 大陆汽车车身电子系统(芜湖)有限公司 一种仪表压力测试系统及仪表压力测试方法
CN108540195B (zh) * 2018-03-05 2019-01-08 杭州掌门物联科技有限公司 狭窄空间网络中继系统及方法
CN110324528A (zh) * 2018-03-28 2019-10-11 富泰华工业(深圳)有限公司 摄像装置、影像处理系统及方法
CN111666453B (zh) * 2019-03-07 2024-01-02 杭州海康威视数字技术股份有限公司 一种视频管理、检索方法、装置、电子设备及存储介质
CN114792461B (zh) * 2021-01-25 2024-01-16 广州汽车集团股份有限公司 一种车内求救信号发送的方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070030555A (ko) * 2005-09-13 2007-03-16 엘지전자 주식회사 디지털 비디오 레코더에서의 검색 제어방법
KR20070038227A (ko) * 2005-10-05 2007-04-10 엘지전자 주식회사 디지털 비디오 레코더에서의 오브젝트 검출 연결 녹화제어방법
KR20100033863A (ko) * 2008-09-22 2010-03-31 엘지전자 주식회사 감시 시스템 및 감시 시스템의 동작 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3826598B2 (ja) * 1999-01-29 2006-09-27 株式会社日立製作所 画像監視装置及び記録媒体
WO2002008948A2 (en) * 2000-07-24 2002-01-31 Vivcom, Inc. System and method for indexing, searching, identifying, and editing portions of electronic multimedia files
WO2006118559A1 (en) * 2005-04-29 2006-11-09 Chubb International Holdings Limited Automatic video quality monitoring for surveillance cameras
US8630497B2 (en) * 2007-11-27 2014-01-14 Intelliview Technologies Inc. Analyzing a segment of video
CN101459828A (zh) * 2007-12-10 2009-06-17 张学斌 基于目标检索与识别的图像监视系统
CN101770644A (zh) * 2010-01-19 2010-07-07 浙江林学院 森林火灾远程视频监控烟火识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070030555A (ko) * 2005-09-13 2007-03-16 엘지전자 주식회사 디지털 비디오 레코더에서의 검색 제어방법
KR20070038227A (ko) * 2005-10-05 2007-04-10 엘지전자 주식회사 디지털 비디오 레코더에서의 오브젝트 검출 연결 녹화제어방법
KR20100033863A (ko) * 2008-09-22 2010-03-31 엘지전자 주식회사 감시 시스템 및 감시 시스템의 동작 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2629516A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018124510A1 (ko) * 2016-12-27 2018-07-05 한화테크윈 주식회사 이벤트 저장 장치, 이벤트 검색 장치, 및 이벤트 알람 장치
CN110089104A (zh) * 2016-12-27 2019-08-02 韩华泰科株式会社 事件存储装置、事件搜索装置和事件警报装置
CN110089104B (zh) * 2016-12-27 2022-02-11 韩华泰科株式会社 事件存储装置、事件搜索装置和事件警报装置
US11308777B2 (en) 2016-12-27 2022-04-19 Hanwha Techwin Co., Ltd. Image capturing apparatus with variable event detecting condition

Also Published As

Publication number Publication date
CN103155550B (zh) 2016-10-26
EP2629516A1 (en) 2013-08-21
EP2629516A4 (en) 2014-04-16
US20130201333A1 (en) 2013-08-08
EP2629516B1 (en) 2017-03-22
CN103155550A (zh) 2013-06-12

Similar Documents

Publication Publication Date Title
WO2012046899A1 (ko) 영상 감시 장치 및 그 이벤트 감지 방법
WO2012050244A1 (ko) 영상 감시 장치 및 그 오브젝트 검색 방법
KR100896949B1 (ko) 객체식별이 가능한 영상처리 감시시스템 및 감시방법
JP4847165B2 (ja) 映像記録再生方法及び映像記録再生装置
WO2018124510A1 (ko) 이벤트 저장 장치, 이벤트 검색 장치, 및 이벤트 알람 장치
CN103209316B (zh) 影像监视系统
WO2018066742A1 (ko) 영상 제공 장치 및 방법
WO2014193065A1 (en) Video search apparatus and method
WO2021167374A1 (ko) 영상 검색 장치 및 이를 포함하는 네트워크 감시 카메라 시스템
WO2012137994A1 (ko) 영상인식장치 및 그 영상 감시방법
KR100872878B1 (ko) 감시 카메라의 이벤트 검출 촬영시스템
WO2021172943A1 (ko) 영상 검색 장치 및 이를 포함하는 네트워크 감시 카메라 시스템
WO2018097384A1 (ko) 밀집도 알림 장치 및 방법
JP2002152721A (ja) 録画再生装置の映像表示方法および装置
KR100718521B1 (ko) 영상 출력 시스템 및 영상을 출력하기 위한 제어프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체
JPH11252534A (ja) カメラシステム
JP2001045474A (ja) ディジタル画像記録システム
JP2002133540A (ja) 防犯監視装置
JP2001224011A (ja) 異常監視方法および装置
KR100472546B1 (ko) 보안용 녹화 시스템 및 그 제어 방법
JP2004064438A (ja) 監視システム及び監視方法
KR101498608B1 (ko) 영상데이터 검색장치
US11172159B2 (en) Monitoring camera system and reproduction method
JPH09198577A (ja) マルチメディア防犯システム
JP2001126157A (ja) 動画検索を用いた防犯システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080069558.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10858431

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13878554

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2010858431

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010858431

Country of ref document: EP