KR102058452B1 - IoT Convergence Intelligent Video Analysis Platform System - Google Patents

IoT Convergence Intelligent Video Analysis Platform System Download PDF

Info

Publication number
KR102058452B1
KR102058452B1 KR1020190077928A KR20190077928A KR102058452B1 KR 102058452 B1 KR102058452 B1 KR 102058452B1 KR 1020190077928 A KR1020190077928 A KR 1020190077928A KR 20190077928 A KR20190077928 A KR 20190077928A KR 102058452 B1 KR102058452 B1 KR 102058452B1
Authority
KR
South Korea
Prior art keywords
data
image
alarm
sensing
unit
Prior art date
Application number
KR1020190077928A
Other languages
Korean (ko)
Inventor
조만영
Original Assignee
가온플랫폼 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가온플랫폼 주식회사 filed Critical 가온플랫폼 주식회사
Priority to KR1020190077928A priority Critical patent/KR102058452B1/en
Application granted granted Critical
Publication of KR102058452B1 publication Critical patent/KR102058452B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/05Programmable logic controllers, e.g. simulating logic interconnections of signals according to ladder diagrams or function charts
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/25Pc structure of the system
    • G05B2219/25232DCS, distributed control system, decentralised control unit
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32328Dynamic scheduling, resource allocation, multi agent negotiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Alarm Systems (AREA)

Abstract

The present invention relates to an IoT convergence intelligence type image analysis platform system and, more specifically, to an IoT convergence intelligence type image analysis platform system, capable of improving determination reliability on a warning situation and preventing degradation of work efficiency due to a false alarm of a partial intelligence image system by providing finally verified information to a client terminal after checking whether generation of an alarm is true or false in accordance with a comparison condition between CCTV image data and IoT measurement sensor data. To achieve the purpose of the present invention, the IoT convergence intelligence type image analysis platform system includes: multiple IoT measurement sensors collecting sensing data on a subject by sensing an abnormality of the subject; a CCTV camera collecting image data on the subject to sense the abnormality of the subject; a network video recorder (NVR) server receiving and storing the image data by being connected to the CCTV camera to communicate with the CCTV using data; a data integrating and linking unit connected to the IoT measurement sensors and the NVR server to communicate with the IoT measurement sensors and the NVR server using the data and processing the sensing data and the image data as integrated data by individually receiving the sensing data and the image data; a platform server connected to the data integrating and linking unit to communicate with the data integrating and linking unit by using the data and receiving integrated data, wherein the platform server also analyses the sensing data and the image data in the integrated data and generates situation data and warning data about the abnormality of the subject; and the client terminal connected to the platform server to communicate with the platform server using the data and displaying the situation data and the warning data by receiving the situation data and the warning data from the platform server.

Description

IoT 융합 지능형 영상분석 플랫폼 시스템{IoT Convergence Intelligent Video Analysis Platform System}IoT Convergence Intelligent Video Analysis Platform System

본 발명은 IoT 융합 지능형 영상분석 플랫폼 시스템에 관한 것으로서 더욱 상세하게는 CCTV 영상데이터와 IoT 계측 센서데이터와의 상호 비교조건에 따라 경보 발생 진위여부를 확인 후 최종 검증된 경보를 클라이언트 단말기로 제공하여 일부 지능형 영상 시스템의 오경보로 인한 업무 효율성 저하를 방지할 수 있으며 경보 상황에 대한 판단 신뢰도를 보다 향상시킬 수 있는 IoT 융합 지능형 영상분석 통합감시 플랫폼 시스템에 관한 것이다. The present invention relates to an IoT converged intelligent video analysis platform system, and more specifically, after confirming the authenticity of an alarm according to a mutual comparison condition between CCTV image data and IoT measurement sensor data, a final verified alarm is provided to a client terminal. The present invention relates to an IoT converged intelligent video analytics integrated surveillance platform system that can prevent the degradation of work efficiency due to false alarms of an intelligent video system and can improve the reliability of judgment on an alarm situation.

일반적으로 지능형 영상분석 시스템은 취득되는 이미지 및 영상만을 통해 객체 및 행동을 식별함으로써 기존에 다수의 화면을 종합 상황실 관제사의 경험 및 지속적 운영을 통해서만 관리가 되었던 사전 예방 목적 보다는 사후 원인 분석 블랙박스형 형태의 영상분석 시스템이었다.In general, the intelligent video analysis system identifies objects and actions only through the acquired images and images, so that a number of screens have been analyzed in the post-cause analysis black box type rather than the precautionary purpose that was managed only through the experience and continuous operation of a comprehensive situation room controller. Image analysis system.

이후 신기술이 보급화되면서 지능형 영상분석을 자동화하여 이상행위를 자동 탐지하여, 한정된 인원으로 수많은 화면을 관제하는 영상운영 시스템으로 도입되었다.Since then, as the new technology has become more popular, it has been introduced as an image operation system that automatically detects abnormal behaviors by automating intelligent image analysis and controls a large number of screens with a limited number of people.

하지만, 사용자가 사전에 설정한 규칙을 지속적으로 관리 및 학습이 병행 되지 않거나, 영상의 화질, 조도, 날씨, 진동 등 외부 환경 요인으로 인해 탐지가 안 되거나 오류가 발생하여 시스템 신뢰성의 저하되고 있는 실정이다.However, the system reliability is deteriorated due to the failure to continuously manage and learn the rules set by the user in advance or to detect or error due to external environmental factors such as image quality, illumination, weather, vibration, etc. to be.

도 1은 종래의 설비 모니터링 시스템 및 지능형 영상분석 시스템의 내부구성을 나타내는 블럭도이다. 1 is a block diagram showing the internal configuration of a conventional facility monitoring system and intelligent image analysis system.

도 1을 참조하면, 종래의 계측센서 감시 시스템의 구성은 IoT 계측센서 (10), 통신연계부(20), DB 서버(Data Base Server, 30), 클라이언트 단말기(40)로 구성되며, 영상 감시 시스템의 구성은 CCTV 카메라(50), NVR 서버(Network Video Recorder Server, 60) 구성되어 있다.Referring to FIG. 1, the conventional measurement sensor monitoring system includes an IoT measurement sensor 10, a communication connection unit 20, a DB server (Data Base Server) 30, and a client terminal 40. The configuration of the system is composed of a CCTV camera 50, NVR server (Network Video Recorder Server, 60).

IoT 계측센서(10)는 각 설비별 운전제어 및 상태 값 데이터를 한 곳으로 수집된 분산제어시스템 DCS(Distribution Control System)이나 프로그램 로직컨트롤 PLC(Programmable Logic Controller)에 집약된 장치이다. 이 장치에는 통신연계를 위한 표준 통신 프로토콜을 사용하여 데이터를 다른 시스템에서 가져갈 수 있도록 구성되어 있는 센싱데이터 전송부(11)를 포함한다. 대표적인 설비 장치 프로토콜은 OPC(Object Linking and Embedding for Process Control)이다.The IoT measurement sensor 10 is a device integrated in a distributed control system DCS (Programmable Logic Controller) or a distributed control system (DCS) that collects operation control and state value data of each facility into one place. The apparatus includes a sensing data transmission unit 11 configured to take data from another system using a standard communication protocol for communication linkage. A representative equipment protocol is Object Linking and Embedding for Process Control (OPC).

통신연계부(20)는 표준 통신 프로토콜 통신을 통해 각 디바이스 특성에 맞는 센싱데이터의 품질(Quality) 및 Dead Band 조건에 맞춰 필터링하는 데이터 처리부(21)와 취득한 데이터를 Data Base 구조에 맞게 서버로 보내주는 데이터 전송부(22)로 구성되어 있다.The communication connection unit 20 sends the acquired data to the server in accordance with the data base structure and the data processing unit 21 for filtering according to the quality and quality of the sensing data and dead band conditions for each device through standard communication protocol communication. The state is composed of a data transmission section 22.

DB 서버(30)는 수집된 센싱데이터를 시계열 순으로 저장하는 데이터 저장부(31)와, DB 필드명에 정의된 데이터를 실시간 업데이트 하는 센싱데이터 처리부(32)와, 각 센서로부터 실시간으로 취득 되는 데이터 값과 설정된 경보치를 실시간 분석하는 센싱데이터 분석부(33)와, 경보 치에 도달한 데이터를 저장하고 경보를 처리하는 센싱데이터 경보처리부(33)로 구성된다.DB server 30 is a data storage unit 31 for storing the collected sensing data in chronological order, a sensing data processing unit 32 for real-time updating the data defined in the DB field name, and is obtained in real time from each sensor The sensing data analyzing unit 33 analyzes the data value and the set alarm value in real time, and the sensing data alarm processing unit 33 stores the data reaching the alarm value and processes the alarm.

또한, 최종 사용자가 계측센서로부터 수집된 데이터와 경보데이터를 실시간으로 조회 및 비교를 통해 설비의 운전상태 건전성을 판단할 수 있도록 표시해 주는 데이터 및 경보표시부(41)로 구성된 클라이언트 단말기(40)가 있으며, 이는 Dashbord, Web, Mobile, C/S(Client & Server)등 여러 환경으로 구성 될 수 있다.In addition, there is a client terminal 40 composed of data and alarm display unit 41 for displaying the end user can determine the operational status of the facility through the inquiry and comparison of the data and alarm data collected from the measurement sensor in real time. This can be composed of various environments such as Dashbord, Web, Mobile, C / S (Client & Server).

종래의 영상 감시 시스템은 각 주요 설비 구역에 설치된 CCTV 카메라(50)에는 촬영된 아날로그 영상데이터를 디지털로 변환하여 실시간 영상데이터 저장 서버로 전송하는 영상데이터 전송부(51)가 포함되며, NVR 서버(60)는 수집된 영상데이터를 디지털형식으로 압축저장하는 영상데이터 저장부(61)와, CCTV 제어 및 촬영된 영상 프레임 편집을 수행하는 영상제어부(62)와, 실시간 영상화면을 디스플레이 하거나 녹화재생을 표시하는 영상화면 표시부(63)로 구성된다. The conventional video surveillance system includes a CCTV camera 50 installed in each major facility zone includes a video data transmission unit 51 for converting the photographed analog video data to digital to be transmitted to a real-time video data storage server, NVR server ( 60 is an image data storage unit 61 for compressing and storing the collected image data in a digital format, an image control unit 62 for performing CCTV control and editing of captured image frames, and displaying or recording and reproducing a real-time image screen. It consists of the video screen display part 63 to display.

상기와 같은 종래의 시스템은 계측센서를 통해 감시하는 운전상태 감시시스템과 영상 감시시스템이 별도의 구조로 설계되어 있기 때문에 두 시스템 간의 데이터 연동 및 설비별 정형화된 DB 구조화가 구축되지 않았으며, 이에 의해 영상분석 시스템에서의 경보가 발생하여도, 수동으로 해당 설비의 계측센서의 경보를 확인해야 하는 어려움이 발생한다.In the conventional system as described above, since the operation state monitoring system and the image monitoring system monitored through the measurement sensor are designed in separate structures, data interworking between the two systems and the structured DB structure for each facility have not been established. Even if an alarm occurs in the video analysis system, it is difficult to manually check the alarm of the measuring sensor of the facility.

설비 이상 및 안전사고의 사전 예방을 위해서는 신속하고 정확한 정보를 확인하여 빠른 대처가 필요한 사항이지만 실시간으로 수십만 개의 계측센서데이터와 수백 개의 영상데이터를 한정적인 인력으로 실시간 감시하고 문제발생시 대처하기에는 거의 불가능에 가까운 실정이다.In order to prevent facility abnormalities and safety accidents, it is necessary to check prompt and accurate information and respond quickly, but it is almost impossible to monitor hundreds of thousands of measurement sensor data and hundreds of image data in real time with limited personnel in real time and cope with problems. It's close.

일부 구역에 적용된 알고리즘 내장형 CCTV를 활용한 지능형 영상 분석 시스템이 도입되었지만 지능형 영상 분석시스템의 잦은 오류 및 불필요한 경보발생으로 신뢰성을 보장받을 수 없으며, 알고리즘 내장형 CCTV H/W교체 업무가 필수조건이어서 구축비용 및 설치 기간의 제약이 따른다.Intelligent video analysis system using algorithm-embedded CCTV applied in some areas was introduced, but reliability cannot be guaranteed due to frequent errors and unnecessary alarms of intelligent video analysis system, and it is essential to replace algorithm built-in CCTV H / W. And constraints on the installation period.

한국등록특허 10-1513215호Korean Patent Registration No. 10-1513215

본 발명은 상기의 문제점을 해결하기 위해 안출된 것으로서 CCTV 영상데이터와 IoT 계측 센서데이터와의 상호 비교조건에 따라 경보 발생 진위여부를 확인 후 최종 검증된 경보를 관리자에게 제공하여 기존 영상분석 시스템에서 발생되는 부정확한 경보와 불필요한 객체 인식을 최소화할 수 있으며, IoT 계측센서 데이터의 비정상적인 상황 발생시에도 사용자에게 해당 설비의 영상데이터를 제공함에 따라 경보 발생 진위여부를 확인가능하도록 하며 수 만개의 센싱데이터와 영상데이터의 처리, 저장을 하나의 서버로 구현하여 향후 설비 고장에 대한 원인 분석시 해당 설비의 과거 영상과 해당 데이터를 동시에 사용자에게 제공하여 분석에 소요되는 시간의 현격한 감소 및 분석 신뢰도의 증대를 유도할 수 있는 IoT 융합 지능형 영상분석 플랫폼 시스템을 제공함에 그 목적이 있다. The present invention has been made to solve the above problems, and after confirming the authenticity of the alarm according to the mutual comparison condition between CCTV image data and IoT measurement sensor data, provides a verified alarm to the administrator to generate in the existing video analysis system Inaccurate alarms and unnecessary object recognition can be minimized, and even if abnormal situation of IoT measurement sensor data is provided to the user, the user can check the authenticity of the alarm by providing the video data of the corresponding facility. By processing and storing the data in one server, it provides the user with the past image of the equipment and the corresponding data at the same time when analyzing the cause of the future equipment failure, leading to a drastic reduction in the time required for the analysis and increased analysis reliability. IoT convergence intelligent video analysis platform system The purpose is to provide.

본 발명은 상기의 목적을 달성하기 위해 아래와 같은 특징을 갖는다.The present invention has the following features to achieve the above object.

본 발명은 특정 객체의 이상 유무를 감지하도록 객체의 센싱데이터를 수집하는 복수의 IoT 계측센서들과; 특정 객체의 이상 유무를 감지하도록 객체의 영상데이터를 수집하는 CCTV 카메라와; 상기 CCTV 카메라와 데이터 통신가능하도록 연결되어 상기 영상데이터를 전송받아 저장하는 NVR(Network Video Recorder) 서버와; 상기 IoT 계측센서들 및 NVR 서버와 데이터 통신가능하도록 연결되어 각각 상기 센싱데이터와 상기 영상데이터를 제공받아 통합데이터로 처리하는 데이터 통합연계부와; 상기 데이터 통합연계부와 데이터 통신가능하도록 연결되어 통합데이터를 전달받으며 통합데이터 내 센싱데이터 및 영상데이터를 분석하여 해당 객체의 이상 유무에 대한 상황데이터 및 경보데이터를 생성하는 플랫폼 서버; 및 상기 플랫폼 서버와 데이터 통신가능하도록 연결되어 상기 플랫폼 서버로부터 상황데이터 및 경보데이터를 전달받아 디스플레이하는 클라이언트 단말기;를 포함한다. The present invention provides a plurality of IoT measurement sensors for collecting the sensing data of the object to detect the presence or absence of a specific object; A CCTV camera for collecting image data of the object to detect an abnormality of the specific object; A network video recorder (NVR) server connected to the CCTV camera to perform data communication and receiving and storing the image data; A data integration connection unit connected to the IoT measurement sensors and the NVR server to perform data communication and receiving the sensing data and the image data and processing the integrated data into integrated data; A platform server connected to the data integration linker so as to communicate data, and receiving integrated data, and analyzing sensing data and image data in the integrated data to generate situation data and alarm data on an abnormality of a corresponding object; And a client terminal connected to the platform server to perform data communication and receiving and displaying the situation data and the alert data from the platform server.

여기서 상기 IoT 계측센서는 생성된 상기 센싱데이터를 데이터 통합연계부로 전송하는 센싱데이터 전송부가 포함되며, 상기 CCTV 카메라는 생성된 상기 영상데이터를 상기 NVR 서버로 전송하는 영상데이터 전송부가 포함된다. The IoT measurement sensor includes a sensing data transmission unit for transmitting the generated sensing data to the data integration unit, the CCTV camera includes an image data transmission unit for transmitting the generated image data to the NVR server.

또한 상기 NVR 서버는 상기 CCTV 카메라로부터 영상데이터를 전달받아 디지털 형태의 데이터로 압축, 저장하는 영상데이터 저장부와, 상기 CCTV 카메라의 모니터링, 이벤트 관리 및 제어를 수행하며 상기 영상데이터를 상기 영상데이터 저장부로부터 전달받아 영상 프레임 편집을 수행하는 영상제어부와, 상기 CCTV 카메라로부터 전달받는 영상데이터를 실시간 출력하는 영상화면 표시부와, 상기 영상화면 표시부로부터 실시간 출력하는 영상데이터를 전달받아 이를 데이터 통합연계부로 제공하는 영상데이터 제공부를 포함한다. The NVR server receives image data from the CCTV camera, compresses and stores the image data into digital data, and performs monitoring, event management and control of the CCTV camera, and stores the image data. Image control unit for receiving video from the video frame editing unit, the image screen display unit for outputting the image data received from the CCTV camera in real time, and the image data received in real time output from the image screen display unit receives it and provides it to the data integration connection unit And an image data providing unit.

아울러 상기 데이터 통합연계부는 상기 IoT 계측센서들의 센싱데이터 전송부로부터 상기 센싱데이터를 전달받는 센싱데이터 수신부와, 상기 NVR 서버의 영상데이터 제공부로부터 상기 영상데이터를 제공받는 영상데이터 수신부와, 상기 센싱데이터 수신부 및 상기 영상데이터 수신부로부터 전달받은 센싱데이터와 영상데이터를 객체 장치별로 분류하고, 채널별 프레임 형태로 분리하여 통합 처리하는 통합데이터 처리부와, 상기 통합데이터 처리부로부터 통합데이터를 플랫폼 서버의 데이터 베이스 구조에 맞게 처리하여 플랫폼 서버로 전송하는 통합데이터 전송부를 포함한다. The data integrated connection unit may include a sensing data receiving unit receiving the sensing data from sensing data transmitting units of the IoT measurement sensors, an image data receiving unit receiving the image data from the image data providing unit of the NVR server, and the sensing data. The integrated data processor for classifying the sensing data and the image data received from the receiver and the image data receiver by object device, and separating and processing the data into frame types for each channel, and the integrated data from the integrated data processor. Integrated data transmission unit for processing according to the transmission to the platform server.

또한 상기 플랫폼 서버는 상기 통합데이터 전송부로부터 상기 통합데이터를 전송받아 이를 저장하는 데이터 저장부와, 상기 데이터 저장부로부터 실시간 또는 저장된 통합데이터를 요청하여 센싱데이터를 추출하는 센싱데이터 처리부와, 상기 센싱데이터 처리부로부터 추출된 센싱데이터를 전달받아 해당 객체의 운전정보 데이터의 상태값과 기 설정된 경보데이터를 비교, 분석하여 경보 상황인지 여부를 판단하고 경보 상황이면 센싱경보데이터를 생성하는 운전경보 분석부와, 상기 데이터 저장부로부터 실시간 또는 저장된 통합데이터를 요청하여 영상데이터를 추출하되 해당 영상데이터에서 씬을 분리하고, 대표샷, 객체, 행위 동사, 키프레임 및 시각지식을 생성하며 기 설정된 경보데이터와 비교, 분석하여 경보 상황인지 여부를 판단하고 경보 상황이면 영상경보데이터를 생성하는 영상분석부와, 상기 운전경보 분석부로부터 운전정보 데이터 또는 센싱경보데이터를 전달받으며 상기 영상분석부로부터 시각지식을 전달받아 센싱데이터와 영상데이터를 통합하여 현재 상황이 경보 상황인지 가중치에 따라 경보데이터를 분류하여 생성하는 통합경보 처리부를 포함한다. The platform server may include a data storage unit for receiving the integrated data from the integrated data transmitter and storing the integrated data; a sensing data processor for extracting sensing data by requesting real-time or stored integrated data from the data storage unit; The driving alarm analysis unit which receives the sensing data extracted from the data processing unit and compares and analyzes the state value of the operation information data of the object with the preset alarm data to determine whether it is an alarm situation and generates sensing alarm data in case of an alarm situation. By extracting the image data from the data storage unit in real time or stored integrated data, the scene is separated from the image data, the representative shot, the object, the action verb, the key frame and the visual knowledge are generated, and compared with the preset alarm data. Analyze to determine if an alarm situation If it is yellow, the image analysis unit generates image alarm data, and receives driving information data or sensing alarm data from the driving alarm analysis unit, receives visual knowledge from the image analyzing unit, and integrates the sensing data and image data. It includes an integrated alarm processing unit for classifying the alarm data according to the weight of the alarm situation.

또한 상기 영상분석부는 데이터 저장부로부터 전달받은 통합데이터에서 영상데이터를 추출하여 씬(Scene)을 분리하는 단계와, 상기 분리된 각 씬에서 대표샷(shot)을 추출하는 단계와, 상기 대표샷을 구성하는 프레임에서 객체를 추출하는 단계와, 상기 추출된 객체 간 상호 관계를 기반으로 행위 동사를 추출하는 단계와, 상기 행위 동사를 추출한 근거가 되는 객체와 상호 관계가 가장 잘 표현된 것으로 판단되는 프레임을 키프레임으로 선정하는 단계와, 상기 선정된 키프레임을 기반으로 시각지식을 생성하는 단계를 포함하여 분석이 이루어진다. In addition, the image analyzer extracts the image data from the integrated data received from the data storage unit to separate the scene (Scene), extracting a representative shot (shot) in each of the separated scene, and the representative shot Extracting an object from a constituent frame; extracting an action verb based on the mutual relationship between the extracted objects; and a frame that is determined to best represent the relationship with the object on which the action verb is extracted. Determining the keyframe as a keyframe, and generating a visual knowledge based on the selected keyframe is performed.

아울러 상기 통합경보 처리부는 영상분석부로부터 시각지식을 전송받아 이를 저장하며 클라이언트 단말기로 시각지식을 전송시 클라이언트 단말기의 인터페이스에 따라 시각화하여 전송하는 것이 바람직하다.In addition, the integrated alarm processor receives and stores visual knowledge from the image analyzer, and visualizes and transmits the visual knowledge to the client terminal according to the interface of the client terminal.

본 발명에 따르면 계측센서 데이터의 이상이 감지되는 경우 해당 설비의 영상을 사전에 사용자에게 제공하여 중점관리 대상이라는 인식을 상기시켜 사전 예방을 가능하게 하며, 지능형 영상분석 시스템에서 발생된 객체 및 행동 인식에 대한 경보의 진위 여부를 센서 데이터와 비교하여 진위를 파악하고 조건을 비교분석하여 사용자에게 제공함에 따라 정확한 영상분석 결과를 제공할 수 있는 효과가 있다.According to the present invention, when an abnormality of the measurement sensor data is detected, the image of the corresponding facility is provided to the user in advance to remind the user that it is the central management target, and to prevent the problem, and to recognize the object and behavior generated in the intelligent image analysis system. By comparing the authenticity of the alarm against the sensor data to determine the authenticity and comparing and analyzing the conditions provided to the user has an effect that can provide accurate image analysis results.

도 1은 종래의 설비 모니터링 시스템 및 지능형 영상분석 시스템의 내부구성을 나타내는 블럭도이다.
도 2는 본 발명의 일실시예에 따른 IoT 융합 지능형 영상분석 플랫폼 시스템의 내부 구성을 나타내는 블럭도이다.
도 3은 본 발명의 일실시예에 따른 영상분석부의 분석과정을 나타내는 순서도이다.
도 4는 씬(scene)의 구조를 나타낸 개념도이다.
도 5는 본 발명의 일실시예에 따른 경보데이터 생성과정과 데이터 및 경보표시과정을 나타내는 도면이다.
도 6은 본 발명의 일실시예에 따라 설비의 화재발생과정에서 클라이언트의 인지시점을 나타내는 도면이다.
1 is a block diagram showing the internal configuration of a conventional facility monitoring system and intelligent image analysis system.
2 is a block diagram showing an internal configuration of an IoT converged intelligent video analysis platform system according to an embodiment of the present invention.
3 is a flowchart illustrating an analysis process of an image analyzer according to an exemplary embodiment of the present invention.
4 is a conceptual diagram illustrating the structure of a scene.
5 is a diagram illustrating an alarm data generation process and a data and alarm display process according to an embodiment of the present invention.
6 is a view showing the recognition time of the client in the process of fire of the facility according to an embodiment of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 설명하기 위하여 이하에서는 본 발명의 바람직한 실시예를 예시하고 이를 참조하여 살펴본다.In order to explain the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, the following describes exemplary embodiments of the present invention and looks at it with reference.

먼저, 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 또한 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.First, the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention, and singular forms may include plural forms unless the context clearly indicates otherwise. Also in this application, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, one or more other It is to be understood that the present invention does not exclude the possibility of the presence or the addition of features, numbers, steps, operations, components, parts, or a combination thereof.

본 발명을 설명함에 있어서, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In describing the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

도 2는 본 발명의 일실시예에 따른 IoT 융합 지능형 영상분석 플랫폼 시스템의 내부 구성을 나타내는 블럭도이다.2 is a block diagram showing an internal configuration of an IoT converged intelligent video analysis platform system according to an embodiment of the present invention.

도면을 참조하면 본 발명의 일실시예에 따른 IoT 융합 지능형 영상분석 플랫폼 시스템(100)은 크게 특정 객체의 이상 유무를 감지하도록 객체의 센싱데이터를 수집하는 복수의 IoT 계측센서(110)들과, 특정 객체의 이상 유무를 감지하도록 객체의 영상데이터를 수집하는 CCTV 카메라(120)와, 상기 CCTV 카메라(120)와 데이터 통신가능하도록 연결되어 상기 영상데이터를 전송받아 저장하는 NVR(Network Video Recorder) 서버(130)와, 상기 IoT 계측센서(110)들 및 NVR 서버(130)와 데이터 통신가능하도록 연결되어 각각 상기 센싱데이터와 상기 영상데이터를 제공받아 통합데이터로 처리하는 데이터 통합연계부(140)와, 상기 데이터 통합연계부(140)와 데이터 통신가능하도록 연결되어 센싱데이터 및 영상데이터를 분석하여 처리데이터를 생성하는 플랫폼 서버(150) 및 상기 플랫폼 서버(150)와 데이터 통신가능하도록 연결되어 상기 플랫폼 서버(150)로부터 분석된 상기 처리데이터를 전달받아 디스플레이하는 클라이언트 단말기(160)를 포함하여 구성된다. Referring to the drawings, the IoT convergence intelligent video analysis platform system 100 according to an embodiment of the present invention includes a plurality of IoT measurement sensors 110 for collecting sensing data of an object to largely detect the presence or absence of a specific object; CCTV camera 120 for collecting the video data of the object to detect the abnormality of a specific object, and NVR (Network Video Recorder) server connected to the CCTV camera 120 so as to communicate data to receive and store the video data And a data integration linker 140 connected to the IoT measurement sensors 110 and the NVR server 130 to receive data and processing the received data and the image data as integrated data. Is connected to the data integration connection unit 140, the platform server 150 and the platform for generating the processing data by analyzing the sensing data and image data connected to the platform Member connected 150 and to enable data communication is configured to include a client device 160 for display by receiving the said processed data analysis from the platform server 150.

여기서 상기 IoT 계측센서(110)는 분산제어시스템(DCS; Distribution Control System)이나 프로그램 로직 컨트롤(PLC; Programmable Logic Controller)에 집약된 장치설비로써 통신 연계를 위한 표준 통신 프로토콜을 사용하여 데이터를 후술할 데이터 통신연계부(140)로 전송하도록 하는 센싱데이터 전송부(111)를 포함한다. Here, the IoT measurement sensor 110 is a device facility integrated in a Distributed Control System (DCS) or a Programmable Logic Controller (PLC). The data will be described later using a standard communication protocol for communication linkage. It includes a sensing data transmission unit 111 to transmit to the data communication connection unit 140.

이러한 IoT 계측센서(110)는 사물인터넷 기반의 센서유닛으로 모니터링이 요구되는 산업 플랜트 내 시설물 또는 설비에 유지관리 및 안전사고예방을 위해 복수개가 설치되어 해당 시설물 또는 설비의 이상 유무를 계측한다. The IoT measurement sensor 110 is a IoT-based sensor unit is installed in a plurality of facilities or facilities in the industrial plant to be monitored for monitoring and to prevent safety accidents to measure the abnormality of the facility or facilities.

예를 들면, 상기 IoT 계측센서(110)는 세부적으로 계측센서유닛, 전원공급장치 및 센싱데이터 전송부(111) 등을 포함하여 구성되며, 각각의 IoT 계측센서(110)는 고유식별번호가 부여되어 센싱데이터 전송부(111)를 통해 센싱데이터가 전송될 시에 해당 고유식별번호가 함께 전송되도록 한다. For example, the IoT measurement sensor 110 is configured to include in detail a measurement sensor unit, a power supply and a sensing data transmission unit 111, each IoT measurement sensor 110 is given a unique identification number. When the sensing data is transmitted through the sensing data transmitter 111, the corresponding unique identification number is transmitted together.

또한, 상기 IoT 계측센서(110)는 계측 목적에 따라 독립적으로 변형률계, 변위계, 가속도계, 온도 센서, 습도 센서, 부식 측정계 등의 형태로 다양하게 구성될 수 있고, 다수의 계측센서 조합으로 구비될 수도 있다. In addition, the IoT measurement sensor 110 may be configured in a variety of forms, such as a strain meter, a displacement meter, an accelerometer, a temperature sensor, a humidity sensor, a corrosion measurement system independently according to the measurement purpose, and be provided as a combination of a plurality of measurement sensors It may be.

또한, 상기 IoT 계측센서(110)는 목적하는 시설물 또는 설비 등의 객체에 직접 부착 또는 결합되는 형태로 설치되거나 객체에서 이격 설치되어 해당 객체의 타겟 센싱을 담당하게 되며, 상기 복수개로 구비되는 IoT 계측센서(110)들은 최소 전력만으로도 운영될 수 있도록 상시 전원이 인가되어 지속적으로 계측을 실시하는 계측센서의 수는 최소화하고, 나머지 센서는 최소 대기전력 상태에 있도록 하거나, 또는 상기 IoT 계측센서(110)에 각각 구비된 태양전지패널과 축전지(도시되지 않음)를 사용하여 필요한 전원을 스스로 생산 및 저장하도록 구성할 수 있다. In addition, the IoT measurement sensor 110 is installed in a form that is directly attached to or coupled to an object, such as a target facility or equipment, or installed in a spaced apart from the object is responsible for the target sensing of the object, the plurality of IoT measurement is provided The sensors 110 minimize the number of measurement sensors continuously measured by being constantly powered so that the sensors 110 can be operated with only minimum power, and the remaining sensors are in the minimum standby power state, or the IoT measurement sensor 110 Each solar panel and a storage battery (not shown) provided in the can be configured to produce and store the required power by itself.

이와 같은 상기 IoT 계측센서(110)는 실시간으로 설정에 따른 주기에 따라 객체의 이상 유무를 계속적으로 감지하여 이에 대한 센싱데이터를 생성하여 센싱데이터 전송부(111)를 통해 데이터 통합연계부(140)로 전송하게 된다. The IoT measurement sensor 110 as described above continuously detects the presence or absence of an object according to a cycle according to a setting in real time, generates sensing data for this, and integrates the data integration unit 140 through the sensing data transmission unit 111. Will be sent to.

한편 상기 CCTV 카메라(120)는 전술한 상기 IoT 계측센서(110)와 마찬가지로 특정 시설물이나 설비의 일측에 설치되어 실시간 또는 일정 주기별이나 설정 이벤트 발생시에 해당 시설물이나 설비를 촬영하고 이에 따라 생성된 영상데이터를 디지털 형태로 변환하여 NVR 서버(130)로 전송한다. On the other hand, the CCTV camera 120 is installed on one side of a specific facility or equipment, similar to the IoT measurement sensor 110 described above, the real-time or a predetermined period or when a setting event occurs to shoot the corresponding facilities or facilities and generated images accordingly The data is converted into a digital form and transmitted to the NVR server 130.

이러한 영상데이터의 전송은 CCTV 카메라(120) 내에 포함되는 영상데이터 전송부(121)를 통해 이루어지며, NVR 서버(130)는 실시간으로 전송되는 영상데이터를 제공받아 압축, 저장하고 영상데이터의 영상 프레임을 편집 수행하며 실시간 영상 디스플레이 및 녹화를 수행한다. The transmission of the image data is made through the image data transmission unit 121 included in the CCTV camera 120, the NVR server 130 receives the image data transmitted in real time, compresses and stores the image frame of the image data Edit and perform real time video display and recording.

이와 같은 NVR((Network Video Recorder) 서버(130)는 상기 CCTV 카메라(120)로부터 영상데이터를 전달받아 디지털 형태의 데이터로 압축, 저장하는 영상데이터 저장부(131)와, 상기 CCTV 카메라(120)의 모니터링, 이벤트 관리 및 제어를 수행하며 상기 영상데이터를 상기 영상데이터 저장부(131)로부터 전달받아 영상 프레임 편집을 수행하는 영상제어부(132)와, 상기 CCTV 카메라(120)로부터 전달받는 영상데이터를 실시간 출력하는 영상화면 표시부(133)와, 상기 영상화면 표시부(133)로부터 실시간 출력하는 영상데이터를 전달받아 이를 데이터 통합연계부(140)로 제공하는 영상데이터 제공부(134)로 이루어진다. The NVR (Network Video Recorder) server 130 receives the image data from the CCTV camera 120, the image data storage unit 131 for compressing and storing the digital data, and the CCTV camera 120 The image control unit 132 performs the monitoring, event management and control of the image data received from the image data storage unit 131 and performs image frame editing, and the image data received from the CCTV camera 120. The image screen display unit 133 outputs in real time and the image data providing unit 134 which receives the image data output in real time from the image screen display unit 133 and provides it to the data integration linker 140.

여기서 상기 영상제어부(132)는 CCTV 카메라(120)의 구동 이상 유무 등을 모니터링하고, 다양한 설정 상황에 발생에 따른 이벤트 관리를 설정, 제어하며 영상데이터 저장부(131)의 저장 환경 설정 및 설정 주기에 따른 데이터 삭제 또는 외부로부터 저장된 영상데이터의 요청이 있는 경우 이를 검색하여 해당 데이터의 추출 및 전송 제어를 수행할 수 있다. Here, the image control unit 132 monitors the presence or absence of driving abnormality of the CCTV camera 120, sets and controls event management according to occurrence in various setting situations, and sets the storage environment of the image data storage unit 131 and the setting period. If there is a request for data deletion or image data stored from the outside, it may be searched to perform extraction and transmission control of the corresponding data.

한편 상기 영상데이터 제공부(134)를 통해 실시간 출력되는 영상데이터는 데이터 통합연계부(140)로 전달되는데, 여기서 상기 데이터 통합연계부(140)는 전술한 IoT 계측센서(110)들의 센싱데이터와 CCTV 카메라(120)의 영상데이터를 함께 전송받아 타임별, 객체별로 분류하여 통합데이터를 생성하게 된다. On the other hand, the image data output in real time through the image data providing unit 134 is transmitted to the data integration unit 140, wherein the data integration unit 140 and the sensing data of the above-described IoT measurement sensor 110 and The video data of the CCTV camera 120 is received together with each time and by object to generate the integrated data.

이러한 상기 데이터 통합연계부(140)는 상기 IoT 계측센서(110)들의 센싱데이터 전송부(111)로부터 상기 센싱데이터를 전달받는 센싱데이터 수신부(141)와, 상기 NVR 서버(130)의 영상데이터 제공부(134)로부터 상기 영상데이터를 제공받는 영상데이터 수신부(142)와, 상기 센싱데이터 수신부(141) 및 상기 영상데이터 수신부(142)로부터 전달받은 센싱데이터와 영상데이터를 객체 장치별 및 타임별로 채널별 프레임 형태로 분리하여 통합 처리하는 통합데이터 처리부(143)와, 상기 통합데이터 처리부(143)로부터 통합데이터를 전달받아 플랫폼 서버(150)의 데이터 베이스 구조에 맞게 처리하여 플랫폼 서버(150)로 전송하는 통합데이터 전송부(144)를 포함한다. The data integration linker 140 includes a sensing data receiver 141 which receives the sensing data from the sensing data transmitter 111 of the IoT measurement sensors 110, and the image data of the NVR server 130. The image data receiving unit 142 receiving the image data from the study 134, the sensing data and the image data received from the sensing data receiving unit 141 and the image data receiving unit 142 channel by object device and time Integrated data processing unit 143 for separating and processing in a separate frame form, and receives the integrated data from the integrated data processing unit 143 and processed according to the database structure of the platform server 150 to the platform server 150 An integrated data transmission unit 144 is included.

여기서 상기 센싱데이터 수신부(141)는 데이터 통합연계부(140)를 통해 전달되는 센싱데이터의 퀄러티 및 데드 밴드 조건에 따라 필터링을 수행하며, 영상데이터 수신부(142)는 요청된 채널별 실시간 영상 표준 프로토콜로 스트리밍된 데이터를 기설정된 필터링 조건에 맞게 필터링을 수행한다. Here, the sensing data receiver 141 performs filtering according to the quality and dead band condition of the sensing data transmitted through the data integration linker 140, and the image data receiver 142 is a real-time video standard protocol for each requested channel. Filter the streamed data according to the preset filtering conditions.

아울러 상기 통합데이터 처리부(143)는 상기 센싱데이터 수신부(141) 및 상기 영상데이터 수신부(142)로부터 전달받은 센싱데이터와 영상데이터를 객체 장치별, 타임별로 분류하고 채널별 프레임으로 분리되는 통합데이터를 생성한다. In addition, the integrated data processing unit 143 classifies the sensing data and the image data received from the sensing data receiving unit 141 and the image data receiving unit 142 by object device and time and divides the integrated data separated into frames for each channel. Create

이에 따라 생성된 통합데이터는 상기 통합데이터 전송부(144)에 의해 플랫폼 서버(150)로 전달된다. The integrated data generated according to this is delivered to the platform server 150 by the integrated data transmission unit 144.

상기 플랫폼 서버(150)는 상기 데이터 통합연계부(140)와 데이터 통신가능하도록 연결되어 통합데이터를 전달받으며, 이를 통해 센싱데이터 및 영상데이터를 분석하여 상황데이터 및 경보데이터를 생성하도록 구비되는데, 이러한 플랫폼 서버(150)는 상기 통합데이터 전송부(144)로부터 상기 통합데이터를 전송받아 이를 저장하는 데이터 저장부(151)와, 상기 데이터 저장부(151)로부터 실시간 또는 저장된 통합데이터를 요청하여 센싱데이터를 추출하는 센싱데이터 처리부(152)와, 상기 센싱데이터 처리부(152)로부터 추출된 센싱데이터를 전달받아 해당 객체의 운전정보 데이터의 상태값과 기 설정된 경보데이터를 비교, 분석하여 경보 상황인지 여부를 판단하고 경보 상황이면 센싱경보데이터를 생성하는 운전경보 분석부(153)와, 상기 데이터 저장부(151)로부터 실시간 또는 저장된 통합데이터를 요청하여 영상데이터를 추출하되 해당 영상데이터에서 씬을 분리하고, 대표샷, 객체, 행위 동사, 키프레임 및 시각지식을 생성하며 기 설정된 경보데이터와 비교, 분석하여 경보 상황인지 여부를 판단하고 경보 상황이면 영상경보데이터를 생성하는 영상분석부(154)와, 상기 운전경보 분석부(153)로부터 운전정보 데이터 또는 센싱경보데이터를 전달받으며 상기 영상분석부(154)로부터 시각지식를 전달받아 센싱데이터와 영상데이터를 통합하여 현재 상황이 경보 상황인지 가중치에 따라 경보데이터를 분류하여 생성하는 통합경보 처리부(155)로 이루어진다. The platform server 150 is connected to the data integration linker 140 so as to be capable of data communication, and receives integrated data. The platform server 150 analyzes sensing data and video data to generate situation data and alarm data. The platform server 150 receives the integrated data from the integrated data transmission unit 144 and stores the data in the data storage unit 151 and the integrated data request from the data storage unit 151 for real-time or stored integrated data. The sensing data processor 152 extracts the sensing data and the sensing data extracted from the sensing data processor 152, and compares and analyzes the state value of the operation information data of the object with the preset alarm data to determine whether or not it is an alarm situation. The driving alarm analysis unit 153 and the data storage unit 151 for generating sensing alarm data when it is determined and the alarm situation. It extracts video data by requesting real-time or stored integrated data, separates the scene from the video data, generates representative shots, objects, action verbs, keyframes and visual knowledge, compares and analyzes the preset alarm data to determine whether it is an alarm situation. The image analyzing unit 154 determines whether the alarm is generated and generates image alarm data, and receives driving information data or sensing alarm data from the driving alarm analyzing unit 153 and receives visual knowledge from the image analyzing unit 154. The integrated alarm processing unit 155 is configured to integrate the sensing data and the image data to classify and generate the alarm data according to the weight of whether the current situation is an alarm situation.

여기서 상기 데이터 저장부(151)는 실시간 사전 정의된 RTDB(Real Time Data Base)구조에 맞게 통합데이터 전송부(144)를 통해 수신된 센싱데이터 및 영상데이터를 저장하며, 센싱데이터 처리부(152) 또는 영상분석부(154)의 요청이 있는 경우 해당 저장데이터를 전달하도록 구성된다. The data storage unit 151 stores the sensing data and the image data received through the integrated data transmission unit 144 according to a real time predefined Real Time Data Base (RTDB) structure, and the sensing data processing unit 152 or If there is a request from the image analyzer 154 is configured to deliver the stored data.

아울러 상기 운전경보 분석부(153)는 상기 센싱데이터 처리부(152)로부터 전달받은 실시간 또는 기 저장된 센싱데이터를 기 설정된 경보데이터와 비교하여 설정 임계치를 초과하는 경우 경보데이터와 상황데이터를 생성시키고 설정 임계치를 초과하지 않는 경우 현재 상황에 따른 센싱데이터인 상황데이터만을 생성시킨다. In addition, the driving alarm analysis unit 153 compares the real-time or pre-stored sensing data received from the sensing data processing unit 152 with preset alarm data to generate alarm data and situation data when setting thresholds are exceeded and set thresholds. If not exceeded, only the situation data which is sensing data according to the current situation is generated.

또한 상기 영상분석부(154)는 상기 데이터 저장부(151)로부터 실시간 또는 저장된 통합데이터를 요청하여 영상데이터를 추출하되 해당 영상데이터에서 씬을 분리하고, 대표샷, 객체, 행위 동사, 키프레임 및 시각지식을 생성하도록 구비되는데, 이때 영상분석부(154)는 시각지식을 생성하기 위해 데이터 저장부(151)로부터 전달받은 통합데이터에서 영상데이터를 추출하여 씬(Scene)을 분리하는 단계(S100)와, 상기 분리된 각 씬에서 대표샷(shot)을 추출하는 단계(S110)와, 상기 대표샷을 구성하는 프레임에서 객체를 추출하는 단계(S120)와, 상기 추출된 객체 간 상호 관계를 기반으로 행위 동사를 추출하는 단계(S130)와, 상기 행위 동사를 추출한 근거가 되는 객체와 상호 관계가 가장 잘 표현된 것으로 판단되는 프레임을 키프레임으로 선정하는 단계(S140)와, 상기 선정된 키프레임을 기반으로 시각지식을 생성하는 단계(S150)를 수행한다. In addition, the image analysis unit 154 extracts image data by requesting real-time or stored integrated data from the data storage unit 151, but separates a scene from the image data, representative shots, objects, behavior verbs, key frames and the like. It is provided to generate the visual knowledge, wherein the image analysis unit 154 extracts the image data from the integrated data received from the data storage unit 151 to generate the visual knowledge to separate the scene (Scene) (S100) And extracting a representative shot from each of the separated scenes (S110), extracting an object from a frame constituting the representative shot (S120), and based on a correlation between the extracted objects. Extracting an action verb (S130), selecting a frame that is determined to be best represented by the object on which the action verb is extracted, as a key frame (S140), and the line A visual knowledge is generated based on the determined key frame (S150).

도 3은 본 발명의 일실시예에 따른 영상분석부의 분석과정을 나타내는 순서도이며, 도 4는 씬의 구조를 나타낸 개념도이다.3 is a flowchart illustrating an analysis process of an image analyzer according to an exemplary embodiment of the present invention, and FIG. 4 is a conceptual diagram illustrating a structure of a scene.

우선 도 4를 참조하여 씬(Scene), 샷(Shot), 대표샷, 키 프레임(Key Frame), 시각지식(Primitive Visual Knowledge)의 용어에 대하여 간단히 설명하기로 한다.First, the terms scene, shot, representative shot, key frame, and primitive visual knowledge will be briefly described with reference to FIG. 4.

시각지식을 구축하기 위한 시각지식 제공 장치의 입력은 디지털 이미지 시퀀스(예를 들어, 동영상, 디지털 모션 픽쳐 등)을 대상으로 한다. 디지털 이미지 시퀀스는 디지털 이미지가 단위 시간에 대해 연속적으로 존재하는 것으로, 통상적으로, 초당 몇 프레임(예를 들어, 초당 10프레임, 초당 20프레임)이라는 측도로 디지털 이미지 시퀀스의 밀도가 표현된다.The input of the visual knowledge providing apparatus for constructing the visual knowledge targets a digital image sequence (for example, a moving image, a digital motion picture, etc.). Digital image sequences are those in which digital images exist continuously per unit time. Typically, the density of a digital image sequence is expressed in terms of a few frames per second (eg, 10 frames per second, 20 frames per second).

이해와 설명의 편의를 위하여, 대표적인 디지털 이미지 시퀀스인 영화로 예를 들어 설명한다. 씬(scene)은 영화 시나리오에서의 최소 장면 단위로, 영화에서의 씬은 하나의 장소에서 동일한 시간대에 일어난 연속된 사건을 말하며, 장소나 시간 중 하나라도 바뀌면, 이는 다른 씬이 된다. 씬은 하나 이상의 샷(shot)으로 구성되고, 하나의 샷이 씬이 될 수도 있다. 샷은 장면을 컷으로 나눌 때의 최하의 단위이며, 일반적으로, 샷은 연출가가 "액션"이라고 말할 때 시작해서 "컷"이라고 말할 때 끝나는, 중단되지 않은 촬영 또는 녹화를 뜻한다. For convenience of understanding and explanation, an example is described as a movie, which is a typical digital image sequence. A scene is the smallest scene unit in a movie scenario, where a scene in a movie refers to a series of events that occur at the same time zone in one place, and if any of the places or times change, it becomes a different scene. A scene is composed of one or more shots, and one shot may be a scene. Shot is the lowest unit when dividing a scene into cuts, and generally, shots are uninterrupted shooting or recording that begins when the director says "action" and ends when he says "cut".

이러한 샷이 모여 씬을 이루고, 일련의 씬이 모여 시퀀스(sequence)를 만든다. 달리 말하면, 일반적인 디지털 이미지 시퀀스는 씬 단위로 특정한 이벤트가 나타나고, 특정한 이벤트는 하나 이상의 샷으로 구성된다. 씬을 구성하는 하나 이상의 샷에서 씬을 대표하는 이벤트를 포함하는 샷을 대표 샷이라고 정의하면, 대표샷은 씬을 대표하는 이벤트를 포함하고 있는 프레임으로 구성된다. 좀 더 세분화하여, 이러한 대표샷에서 씬을 대표하는 이벤트를 포함하는 하나의 프레임이 선정되면, 이 프레임이 키 프레임(key frame)이 될 수 있다.These shots combine to form a scene, and a series of scenes combine to create a sequence. In other words, a typical digital image sequence is a scene-specific event, and a particular event consists of one or more shots. When a shot including an event representing a scene is defined as a representative shot in one or more shots constituting the scene, the representative shot includes a frame including an event representing a scene. More specifically, when one frame including an event representing the scene is selected in this representative shot, the frame may be a key frame.

디지털 이미지 시퀀스의 특별한 예로 본 발명에서와 같은 CCTV 영상이 있다. CCTV 영상은 연속적으로 계속 저장되는 영상이라 씬, 샷 등의 구분이 모호하다. 따라서, CCTV 영상과 같이 연속적으로 기록된 디지털 이미지 시퀀스의 경우는 관리자가 설정하는 특정 임계치 정보를 기준으로 정상 상황(특이한 이벤트가 발생하지 않는 상황) 또는 비정상 상황(특이한 이벤트가 예상되는 상황)으로 구분되고, 각각의 비정상 상황이 하나의 씬으로 취급된다. CCTV 영상의 경우, 분리된 하나의 씬이 하나의 샷(대표샷)이 되고, 이 샷에서 비정상 이벤트를 대표하는 하나의 프레임이 추출되어 키프레임으로 이용된다.A special example of the digital image sequence is a CCTV image as in the present invention. CCTV images are continuously stored, so it is difficult to distinguish between scenes and shots. Therefore, in case of digital image sequence recorded continuously such as CCTV image, it is classified into normal situation (the situation where no special event occurs) or abnormal condition (the situation where special event is expected) based on specific threshold information set by the administrator. Each abnormal situation is treated as one scene. In the case of a CCTV image, a separate scene becomes one shot (representative shot), and one frame representing an abnormal event is extracted from the shot and used as a key frame.

시각지식은 씬에 내재된 정보를 정형화된 메타데이터 형식으로 표현한 것으로, CCTV 영상과 같은 디지털 이미지 시퀀스를 이벤트 기반으로 분할한 씬으로부터 대표샷을 추출하고, 전통적인 비젼 기술을 이용하여 대표샷으로부터 객체를 추출(씬의 syntactic 정보)하고, 추출된 객체간의 상관 관계를 기반으로 이벤트 정보(씬의 semantic 정보)를 추론하고, 이 두 정보를 정형화된 메타데이터 형식으로 표현한 것이다.Visual knowledge expresses the information inherent in the scene in the form of a standardized metadata. It extracts representative shots from scenes that divide digital image sequences, such as CCTV images, based on events, and extracts objects from representative shots using traditional vision techniques. It extracts (syntactic information of the scene), infers event information (semantic information of the scene) based on the correlation between the extracted objects, and expresses these two information in the form of standardized metadata.

이에 따라 본 발명에 따른 영상분석부(154)는 데이터 저장부(151)로부터 전달받은 통합데이터에서 영상데이터를 추출하여 씬(Scene)을 분리한다(S100).Accordingly, the image analyzer 154 according to the present invention extracts the image data from the integrated data received from the data storage unit 151 and separates the scene (Scene) (S100).

이때 영상분석부(154)는 영상데이터의 이미지 변화량을 모니터링하여 변화량이 임계치를 초과하는 시점을 씬의 시작으로 태깅하고 변화량이 임계치 이하로 떨어지는 시점을 씬의 종료점으로 태깅하여 씬의 시작점과 종료점의 구간 영상을 분리하고 분리한 영상을 분석용 씬으로 저장한다. At this time, the image analyzer 154 monitors the amount of change in the image data and tags the point of time when the amount of change exceeds the threshold as the start of the scene, and the point of time when the amount of change falls below the threshold as the end point of the scene. The interval image is separated and the separated image is saved as an analysis scene.

이러한 임계치는 관리자에 의해 설정될 수 있으며 객체에 따라 변화량이 많은 경우 임계치를 높게 설정하고 변화량이 적은 경우 임계치를 낮게 설정함이 바람직하다. Such a threshold may be set by an administrator, and it is preferable to set the threshold high when the amount of change is large and set the threshold low when the amount of change is small according to the object.

그런 다음 영상분석부(154)는 분리된 각 씬에서 대표샷(shot)을 추출하는데(S110), 예를 들어, 슬라이딩 윈도우 기법을 이용하여 분리된 씬을 따라 구간 영역을 이동하면서 구간 영역 내의 엔트로피를 계산하고, 엔트로피가 가장 높은 구간을 대표샷으로 추출할 수 있다.Then, the image analyzer 154 extracts a representative shot from each of the separated scenes (S110), for example, by moving the interval region along the separated scene using a sliding window technique, entropy in the interval region. , And a section having the highest entropy can be extracted as a representative shot.

대표샷이 추출되면, 영상분석부(154)는 대표샷을 구성하는 프레임에서 객체를 추출하는데(S120), 예를 들어, 추출된 대표샷을 구성하는 이미지 프레임에 대하여 전통적인 비전 기술을 이용하여 객체를 추출 및 인식하고, 객체의 이미지 상에서의 좌표를 계산한다.When the representative shot is extracted, the image analyzer 154 extracts the object from the frame constituting the representative shot (S120), for example, an object using a conventional vision technique for the image frame constituting the extracted representative shot. Extract and recognize and calculate the coordinates on the image of the object.

이에 따라 객체 추출이 완료되면 상기 추출된 객체 간 상호 관계를 기반으로 행위 동사를 추출한다(S130). Accordingly, when object extraction is completed, an action verb is extracted based on the relationship between the extracted objects (S130).

예를 들어, 온톨로지와 같은 정형화된 형식으로 관심 이벤트에 대한 행위가 정의되고 정의된 행위를 구성하는 단위 행동들의 합성 규칙이 사전에 구축될 수 있다. 영상분석부(154)는 추출된 객체의 시간적 및/또는 공간적 변화 관계(예를 들어, 이동속도, 이동방향, 상호 관계를 형성하는 객체들간의 조합 등)를 기반으로 사전 구축된 합성 규칙을 만족시키는 다수의 행위 동사를 추론할 수 있다. 통상적으로, 객체들 간의 다양한 관계정보에서 다수의 행위 동사가 추론될 수 있고, 추론된 행위 동사에 랭킹이 부여될 수 있다. 행위 정의 및 합성 규칙은 행동을 모델링한 것으로, 신체 일부의 움직임, 한 사람의 다양한 액션, 두 객체 사이에서 발생하는 행동, 다수 객체로 구성된 그룹에서 발생되는 그룹 행동들의 특성을 조사하고 조사된 특성을 기반으로 정형화된 온톨로지로 구축될 수 있다.For example, the behavior for the event of interest is defined in a formal format such as ontology, and a composition rule of unit actions constituting the defined behavior may be built in advance. The image analyzer 154 satisfies the pre-composite composition rule based on the temporal and / or spatial change relations of the extracted objects (for example, moving speed, direction of movement, and combinations of objects forming mutual relations). Can infer multiple behavioral verbs Typically, a plurality of behavior verbs may be inferred from various relationship information between objects, and ranking may be assigned to the inferred behavior verbs. Behavior definition and composition rules model behavior and examine the characteristics of the movements of body parts, various actions of one person, behaviors occurring between two objects, and group behaviors occurring in groups of multiple objects. It can be built as a formal ontology based on that.

이에 따라 영상분석부(154)는 행위 동사를 추출한 근거가 되는 객체와 상호 관계가 가장 잘 표현된것으로 판단되는 프레임을 키프레임으로 선정하게 되는데(S140), 예를 들면 대표샷을 구성하는 복수의 이미지 프레임에서 가장 높은 랭킹의 행위 동사를 가지고 있는 이미지 프레임을 키프레임으로 선정할 수 있다.Accordingly, the image analyzing unit 154 selects a frame that is determined to be the best representation of the object and the correlation on which the behavior verb is extracted as a key frame (S140), for example, a plurality of constituent representative shots. An image frame that has the highest ranking behavior verb in the image frame may be selected as a keyframe.

이를 통해 상기 선정된 키프레임을 기반으로 시각지식을 생성한다(S150). 예를 들어, 선정된 키프레임의 이미지, 키프레임에 포함된 객체들의 MBR(Minimum Bounding Rectangle) 영역에 대한 시각 단어(Visual Word), 객체 속성 및 객체들의 화면상 위치, 추론된 행위 동사 및 행위 동사의 추출에 사용된 합성 규칙을 구성적 항목(syntactic element)과 의미적 항목(semantic element)으로 구분하여, XML과 같은 정형화된 형식으로 시각지식을 생성할 수 있다. 부가적으로, 시각지식은 키프레임 선정 과정에서 사용된 영상 소스의 기본 정보, 예를 들어, 카메라의 종류, 카메라의 위치, 카메라의 관리 아이디, 원시영상이 저장된 경로, 원시영상의 이름, 씬의 시작 및 종료 프레임 넘버, 대표샷의 시작 및 종료 프레임 넘버, 키 프레임의 프레임 넘버 등을 포함할 수 있다.Through this, visual knowledge is generated based on the selected key frame (S150). For example, an image of a selected keyframe, a visual word for the area of the minimum bounding rectangle (MBR) of the objects contained in the keyframe, an object property and an on-screen position of the objects, an inferred behavior verb, and an action verb. By synthesizing the syntactic rules used in the extraction of the syntactic and semantic elements, visual knowledge can be generated in a formal format such as XML. In addition, the visual knowledge may include basic information of the image source used in the keyframe selection process, for example, the type of camera, the position of the camera, the management ID of the camera, the path where the raw image is stored, the name of the raw image, and the scene. Start and end frame numbers, start and end frame numbers of representative shots, frame numbers of key frames, and the like.

이에 따라 생성된 시각지식은 통합경보 처리부(155)로 전송되며 통합경보 처리부(155)는 운전경보 분석부(153)로부터 전달받은 운전정보 데이터 또는 센싱경보데이터와 함께 현재 상황이 경보 상황인지 가중치에 따라 경보데이터를 분류하여 생성하게 된다. 아울러 시각지식은 별도로 마련되는 통합경보 처리부(155)의 데이타베이스에 저장하거나 경보데이터 저장부(156)에 저장하도록 한다(S160). 이때 저장시 예를 들어, 생성된 시각지식의 검색의 편의성을 위하여, 시간 단위, 공간 단위, 객체 단위, 이벤트 단위, 시각단어(visual word) 단위 등으로 인덱싱하여 씬을 대표하는 키프레임 정보로 저장할 수 있다.Accordingly, the generated visual knowledge is transmitted to the integrated alarm processor 155, and the integrated alarm processor 155 is weighted to determine whether the current situation is an alarm situation along with driving information data or sensing alarm data received from the driving alarm analyzer 153. Alarm data is classified and generated accordingly. In addition, the visual knowledge is stored in the database of the integrated alarm processor 155, which is provided separately, or stored in the alarm data storage 156 (S160). In this case, for example, for convenience of retrieval of the generated visual knowledge, indexing is performed by time unit, space unit, object unit, event unit, visual word unit, etc. and stored as keyframe information representing the scene. Can be.

아울러 통합경보 처리부(155) 또는 경보데이터 저장부(156)는 저장된 시각지식을 클라이언트에게 제공하기 위하여 시각화한다(S170). 즉, 통합경보 처리부(155)의 데이타베이스 또는 경보데이터 저장부(156)에 저장된 시각지식을 클라이언트 단말기(160)의 데이터 및 경보표시부(161) 입력 제약사항에 따라 시각지식 시각화 인터페이스에 적재하고, 적재된 시각지식을 시각지식 시각화 인터페이스를 통해 디스플레이하고 네비게이션할 수 있다.In addition, the integrated alarm processing unit 155 or the alarm data storage unit 156 visualizes the stored visual knowledge to provide the client (S170). That is, the visual knowledge stored in the database of the integrated alarm processing unit 155 or the alarm data storage unit 156 is loaded into the visual knowledge visualization interface according to the input constraints of the data and the alarm display unit 161 of the client terminal 160, Loaded visual knowledge can be displayed and navigated through the visual knowledge visualization interface.

도 5는 본 발명의 일실시예에 따른 경보데이터 생성과정과 데이터 및 경보표시과정을 나타내는 도면이다. 5 is a diagram illustrating an alarm data generation process and a data and alarm display process according to an embodiment of the present invention.

도면을 참조하면 통합경보 처리부(155)는 운전경보 분석부(153)로부터 운전데이터 추이와 임계치 분석 등에 따른 운전정보 데이터와 센싱경보 데이터를 전달받고 영상분석부(154)로부터 생성된 시각지식으로부터 영상경보 이미지를 전달받아 이들 간의 선행관계를 비교 분석하여 상황을 인지하고, 전달받은 경보데이터를 AND, OR 조건을 통한 비교, 분석, 가중치에 따른 우선순위 분류 과정을 등을 우선순위가 설정 순위보다 높은 경보에 대해 클라이언트 단말기(160)로 전송한다. Referring to the drawing, the integrated alarm processor 155 receives the driving information data and the sensing alarm data according to the driving data trend and the threshold analysis from the driving alarm analyzer 153 and receives the image from the visual knowledge generated from the image analyzer 154. Receives alarm images and analyzes the preceding relationships among them to recognize the situation, and compares the received alarm data with AND and OR conditions, analyzes, and prioritizes the classification process based on weight. The alert is sent to the client terminal 160.

아울러 경보데이터 저장부(156)는 통합경보 처리부(155)로부터 영상 또는 센싱데이터를 전달받아 저장하며 필요에 따라 클라이언트 단말기(160)의 요청이 있는 경우 요청 조건에 따라 검색하여 이를 전송하도록 구성된다. In addition, the alarm data storage unit 156 receives and stores the image or the sensing data from the integrated alarm processing unit 155, and is configured to search for and transmit the request according to the request condition when the request of the client terminal 160 is required.

도 5에서는 통합경보 처리부(155)의 경보데이터 생성 조건을 센싱경보데이터 발생된 후 영상경보데이터의 발생 여부를 추가적으로 확인하여 생성시키는 것으로 하였으나, 이는 설정에 따라 영상경보데이터 발생을 선행 조건으로 하고, 센싱경보데이터의 발생을 후행 조건으로 할 수도 있다. In FIG. 5, the alarm data generation condition of the integrated alarm processing unit 155 is generated by additionally checking whether or not the video alarm data is generated after the sensing alarm data is generated. The generation of the sensing alarm data may be a post condition.

아울러 센싱경보데이터가 발생되었으나 영상경보데이터는 발생하지 않는 경우라도 안전사고 예방을 위해 현재 발생된 센싱경보데이터와 해당 객체의 현재부터 이전 일정 시간까지의 영상데이터를 클라이언트 단말기(160)로 전송하여 관리자가 경보 상황인지 여부를 판단하도록 하거나 현재 경보 상황은 아니더라도 위험상황이 발생할 가능성이 높은 상황으로 판단하여 예의 주시할 수 있도록 구성될 수 있다. In addition, even if the sensing alarm data is generated, but the video alarm data does not occur, the manager to send the current sensing alarm data and the video data of the object from the current to the previous predetermined time to prevent the safety accident to the client terminal 160 Can be configured to determine whether or not the alarm situation or to determine the situation that the risk situation is likely to occur even if not the current alarm situation.

아울러 IoT 계측센서(110)의 고장 발생에 따라 센싱경보데이터는 발생하지 않고 영상경보데이터만 발생할 수 있으므로 다양한 상황에 맞게 경보데이터를 가중치 및 우선순위를 두어 분류한 후 이를 클라이언트 단말기(160)로 전송하여 해당 상황에 가장 적절한 대응이 수행될 수 있도록 구성됨이 바람직할 것이다. In addition, since the sensing alarm data may not occur but only the image alarm data according to the failure of the IoT measurement sensor 110, the alarm data is classified with weights and priorities according to various situations, and then transmitted to the client terminal 160. It would be desirable to be configured such that a response most appropriate to the situation may be performed.

한편 상기 클라이언트 단말기(160)는 상기 플랫폼 서버(150)와 데이터 통신가능하도록 연결되어 상기 플랫폼 서버(150)로부터 상황데이터 및 경보데이터를 전달받아 디스플레이하도록 구비된다. On the other hand, the client terminal 160 is connected to the platform server 150 to enable data communication is provided to receive and display the status data and alarm data from the platform server 150.

이를 위해 상기 클라이언트 단말기(160)에는 데이터 및 경보표시부(161)가 포함되어 통합경보 처리부(155)로부터 전달받는 통합 경보를 가중치, 우선순위에 따라 표시한다. To this end, the client terminal 160 includes a data and alarm display unit 161 to display the integrated alarm received from the integrated alarm processing unit 155 according to weight and priority.

여기서 선정된 통합 경보는 동일한 설비의 계측센서 실시간 데이터 및 비정상적으로 감지된 추출된 영상화면과 동시에 실시간 데이터, 경보데이터, Trend, 통계표, 과거 데이터를 비교, 분석, 판단을 할 수 있도록 표시됨이 바람직하다. The selected integrated alarm is preferably displayed so that real-time data, alarm data, trends, statistical tables, and historical data can be compared, analyzed, and judged at the same time as the measurement sensor real-time data and abnormally detected extracted video screen of the same facility. .

도 6은 본 발명의 일실시예에 따라 설비의 화재발생과정에서 클라이언트의 인지시점을 나타내는 도면이다. 6 is a view showing the recognition time of the client in the process of fire of the facility according to an embodiment of the present invention.

도 6에 도시된 바와 같이 본 발명에 따른 IoT 융합 지능형 영상분석 플랫폼 시스템(100)은 화재발생과정을 예로 들면 기존 영상분석 시스템이 화재발생 직전 시점에서 관리자가 화재발생상황을 인지하게 되나, 본 발명의 경우 IoT 계측센서(110)와 CCTV 카메라(120)의 영상분석을 동시에 비교하여 화재발생상황을 관리자에게 제공함에 따라 인지시점이 훨씬 빨라짐과 동시에 정확도 또한 대폭 증대될 수 있게 된다. As illustrated in FIG. 6, the IoT converged intelligent video analysis platform system 100 according to the present invention uses a fire generation process as an example. However, when the existing video analysis system immediately before a fire occurs, an administrator recognizes a fire situation. In this case, by comparing the video analysis of the IoT measurement sensor 110 and CCTV camera 120 at the same time to provide a fire occurrence situation to the administrator, the recognition time can be much faster and accuracy can be significantly increased.

화재의 경우 영상에서는 나타나지 않지만 화재가 발생되었거나, 현재 시설물 또는 설비가 임계치를 넘는 과열 양상을 보이는 경우가 흔히 있으므로 이와 같은 경우에는 기존 영상분석 시스템만으로 사전예방의 효과가 극히 미비할 수 밖에 없을 것이다. Although the fire does not appear in the image, the fire has occurred, or the current facilities or facilities often overheat the threshold, so in such a case, the effectiveness of precautionary prevention by the existing image analysis system will be extremely insignificant.

이와 같이 본 발명은 도면에 도시된 일실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. As described above, the present invention has been described with reference to one embodiment shown in the drawings, but this is merely an example, and those skilled in the art may realize various modifications and other equivalent embodiments therefrom. Will understand.

따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

110 : 복수의 IoT 계측센서 120 : CCTV 카메라
130 : NVR 서버 140 : 데이터 통합연계부
150 : 플랫폼 서버 160 : 클라이언트 단말기
110: a plurality of IoT measurement sensors 120: CCTV camera
130: NVR server 140: data integration link
150: platform server 160: client terminal

Claims (7)

특정 객체의 이상 유무를 감지하도록 객체의 센싱데이터를 수집하는 복수의 IoT 계측센서(110)들과;
특정 객체의 이상 유무를 감지하도록 객체의 영상데이터를 수집하는 CCTV 카메라(120)와;
상기 CCTV 카메라(120)와 데이터 통신가능하도록 연결되어 상기 영상데이터를 전송받아 저장하는 NVR(Network Video Recorder) 서버(130)와;
상기 IoT 계측센서(110)들 및 NVR 서버(130)와 데이터 통신가능하도록 연결되어 각각 상기 센싱데이터와 상기 영상데이터를 제공받아 통합데이터로 처리하는 데이터 통합연계부(140)와;
상기 데이터 통합연계부(140)와 데이터 통신가능하도록 연결되어 통합데이터를 전달받으며 통합데이터 내 센싱데이터 및 영상데이터를 분석하여 해당 객체의 이상 유무에 대한 상황데이터 및 경보데이터를 생성하는 플랫폼 서버(150); 및
상기 플랫폼 서버(150)와 데이터 통신가능하도록 연결되어 상기 플랫폼 서버(150)로부터 상황데이터 및 경보데이터를 전달받아 디스플레이하는 클라이언트 단말기(160);를 포함하되,
상기 플랫폼 서버(150)는
상기 데이터 통합연계부(140)로부터 상기 통합데이터를 전송받아 이를 저장하는 데이터 저장부(151)와,
상기 데이터 저장부(151)로부터 실시간 또는 저장된 통합데이터를 요청하여 센싱데이터를 추출하는 센싱데이터 처리부(152)와,
상기 센싱데이터 처리부(152)로부터 추출된 센싱데이터를 전달받아 해당 객체의 운전정보 데이터의 상태값과 기 설정된 경보데이터를 비교, 분석하여 경보 상황인지 여부를 판단하고 경보 상황이면 센싱경보데이터를 생성하는 운전경보 분석부(153)와,
상기 데이터 저장부(151)로부터 실시간 또는 저장된 통합데이터를 요청하여 영상데이터를 추출하되 해당 영상데이터에서 씬을 분리하고, 대표샷, 객체, 행위 동사, 키프레임 및 시각지식을 생성하는 영상분석부(154)와,
상기 운전경보 분석부(153)로부터 운전정보 데이터 또는 센싱경보데이터를 전달받으며 상기 영상분석부(154)로부터 시각지식을 전달받아 센싱데이터와 영상데이터를 통합하여 현재 상황이 경보 상황인지 가중치에 따라 경보데이터를 분류하여 생성하는 통합경보 처리부(155)를 포함하는 것을 특징으로 하는 IoT 융합 지능형 영상분석 플랫폼 시스템.
A plurality of IoT measurement sensors 110 for collecting sensing data of an object to detect an abnormality of a specific object;
CCTV camera 120 for collecting the image data of the object to detect the presence or absence of a specific object;
A network video recorder (NVR) server 130 connected to the CCTV camera 120 to perform data communication and receiving and storing the image data;
A data integration linker 140 connected to the IoT measurement sensors 110 and the NVR server 130 to receive data and processing the received data and the image data into integrated data;
The platform server 150 is connected to the data integration connection unit 140 so as to communicate data, and receives the integrated data, and analyzes the sensing data and the image data in the integrated data to generate the situation data and the alarm data regarding the abnormality of the object. ); And
And a client terminal 160 connected to the platform server 150 so as to communicate data, and receiving and displaying situation data and alarm data from the platform server 150.
The platform server 150 is
A data storage unit 151 which receives the integrated data from the data integration linker 140 and stores the integrated data;
A sensing data processor 152 for extracting sensing data by requesting real-time or stored integrated data from the data storage unit 151;
Receiving the sensing data extracted from the sensing data processing unit 152 to compare and analyze the state value of the operation information data of the object and the preset alarm data to determine whether or not the alarm situation, and to generate the sensing alarm data if the alarm situation Driving alarm analysis unit 153,
The image analyzer extracts image data by requesting real-time or stored integrated data from the data storage unit 151, separates a scene from the image data, and generates a representative shot, an object, an action verb, a key frame, and a visual knowledge ( 154),
Receives driving information data or sensing alarm data from the driving alarm analyzing unit 153 and receives visual knowledge from the image analyzing unit 154 to integrate sensing data and image data to alert the current situation according to the weight of the alarm situation. IoT convergence intelligent image analysis platform system, characterized in that it comprises an integrated alarm processing unit 155 for classifying and generating data.
제1항에 있어서,
상기 IoT 계측센서(110)는 생성된 상기 센싱데이터를 데이터 통합연계부(140)로 전송하는 센싱데이터 전송부(111)가 포함되며, 상기 CCTV 카메라(120)는 생성된 상기 영상데이터를 상기 NVR 서버(130)로 전송하는 영상데이터 전송부(121)가 포함되는 것을 특징으로 하는 IoT 융합 지능형 영상분석 플랫폼 시스템.
The method of claim 1,
The IoT measurement sensor 110 includes a sensing data transmission unit 111 for transmitting the generated sensing data to the data integration connection unit 140, the CCTV camera 120 is the NVR to the generated image data IoT converged intelligent image analysis platform system, characterized in that it comprises a video data transmission unit 121 for transmitting to the server (130).
제2항에 있어서,
상기 NVR 서버(130)는
상기 CCTV 카메라(120)로부터 영상데이터를 전달받아 디지털 형태의 데이터로 압축, 저장하는 영상데이터 저장부(131)와,
상기 CCTV 카메라(120)의 모니터링, 이벤트 관리 및 제어를 수행하며 상기 영상데이터를 상기 영상데이터 저장부(131)로부터 전달받아 영상 프레임 편집을 수행하는 영상제어부(132)와,
상기 CCTV 카메라(120)로부터 전달받는 영상데이터를 실시간 출력하는 영상화면 표시부(133)와,
상기 영상화면 표시부(133)로부터 실시간 출력하는 영상데이터를 전달받아 이를 데이터 통합연계부(140)로 제공하는 영상데이터 제공부(134)를 포함하는 것을 특징으로 하는 IoT 융합 지능형 영상분석 플랫폼 시스템.
The method of claim 2,
The NVR server 130 is
An image data storage unit 131 which receives the image data from the CCTV camera 120 and compresses and stores the image data into digital data;
An image control unit 132 for performing monitoring, event management and control of the CCTV camera 120 and receiving image data from the image data storage unit 131 to perform image frame editing;
An image screen display unit 133 for outputting the image data received from the CCTV camera 120 in real time;
IoT image intelligent platform analysis system characterized in that it comprises a video data providing unit 134 for receiving the real-time output image data from the video screen display unit 133 to provide it to the data integration connection unit 140.
제3항에 있어서,
상기 데이터 통합연계부(140)는
상기 IoT 계측센서(110)들의 센싱데이터 전송부(111)로부터 상기 센싱데이터를 전달받는 센싱데이터 수신부(141)와,
상기 NVR 서버(130)의 영상데이터 제공부(134)로부터 상기 영상데이터를 제공받는 영상데이터 수신부(142)와,
상기 센싱데이터 수신부(141) 및 상기 영상데이터 수신부(142)로부터 전달받은 센싱데이터와 영상데이터를 객체 장치별로 분류하고, 채널별 프레임 형태로 분리하여 통합 처리하는 통합데이터 처리부(143)와,
상기 통합데이터 처리부(143)로부터 통합데이터를 전달받아 플랫폼 서버(150)의 데이터 베이스 구조에 맞게 처리하여 플랫폼 서버(150)로 전송하는 통합데이터 전송부(144)를 포함하는 것을 특징으로 하는 IoT 융합 지능형 영상분석 플랫폼 시스템.
The method of claim 3,
The data integration connection unit 140
A sensing data receiver 141 which receives the sensing data from the sensing data transmitter 111 of the IoT measurement sensors 110;
An image data receiving unit 142 receiving the image data from the image data providing unit 134 of the NVR server 130;
An integrated data processor 143 which classifies the sensing data and the image data received from the sensing data receiver 141 and the image data receiver 142 by object device, separates them into frames for each channel, and integrates them;
IoT convergence comprising an integrated data transmission unit 144 for receiving the integrated data from the integrated data processing unit 143 and processing it according to the database structure of the platform server 150 to transmit to the platform server 150 Intelligent Video Analysis Platform System.
삭제delete 제1항에 있어서,
상기 영상분석부(154)는
데이터 저장부(151)로부터 전달받은 통합데이터에서 영상데이터를 추출하여 씬(Scene)을 분리하는 단계(S100)와,
상기 분리된 각 씬에서 대표샷(shot)을 추출하는 단계(S110)와,
상기 대표샷을 구성하는 프레임에서 객체를 추출하는 단계(S120)와,
상기 추출된 객체 간 상호 관계를 기반으로 행위 동사를 추출하는 단계(S130)와,
상기 행위 동사를 추출한 근거가 되는 객체와 상호 관계가 가장 잘 표현된 것으로 판단되는 프레임을 키프레임으로 선정하는 단계(S140)와,
상기 선정된 키프레임을 기반으로 시각지식을 생성하는 단계(S150)를 포함하여 분석이 이루어지는 것을 특징으로 하는 IoT 융합 지능형 영상분석 플랫폼 시스템.
The method of claim 1,
The image analyzer 154 is
Separating the scene (Scene) by extracting the image data from the integrated data received from the data storage unit 151 (S100),
Extracting a representative shot from each of the separated scenes (S110);
Extracting an object from a frame constituting the representative shot (S120);
Extracting an action verb based on the mutual relationship between the extracted objects (S130);
Selecting as a key frame a frame that is determined to best express the relationship between the object on which the behavior verb is extracted (S140);
IoT convergence intelligent video analysis platform system, characterized in that the analysis is made, including the step of generating visual knowledge based on the selected key frame (S150).
제6항에 있어서,
상기 통합경보 처리부(155)는 영상분석부(154)로부터 시각지식을 전송받아 이를 저장하며 클라이언트 단말기(160)로 시각지식을 전송시 클라이언트 단말기(160)의 인터페이스에 따라 시각화하여 전송하는 것을 특징으로 하는 IoT 융합 지능형 영상분석 플랫폼 시스템.
The method of claim 6,
The integrated alarm processor 155 receives and stores visual knowledge from the image analyzer 154 and visualizes and transmits visual knowledge to the client terminal 160 according to the interface of the client terminal 160. IoT convergence intelligent video analysis platform system.
KR1020190077928A 2019-06-28 2019-06-28 IoT Convergence Intelligent Video Analysis Platform System KR102058452B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190077928A KR102058452B1 (en) 2019-06-28 2019-06-28 IoT Convergence Intelligent Video Analysis Platform System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190077928A KR102058452B1 (en) 2019-06-28 2019-06-28 IoT Convergence Intelligent Video Analysis Platform System

Publications (1)

Publication Number Publication Date
KR102058452B1 true KR102058452B1 (en) 2019-12-23

Family

ID=69051890

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190077928A KR102058452B1 (en) 2019-06-28 2019-06-28 IoT Convergence Intelligent Video Analysis Platform System

Country Status (1)

Country Link
KR (1) KR102058452B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111208725A (en) * 2020-02-26 2020-05-29 无锡职业技术学院 Multifunctional alarm clock system for classroom
KR102263512B1 (en) * 2020-09-14 2021-06-10 가온플랫폼 주식회사 IoT integrated intelligent video analysis platform system capable of smart object recognition
KR20210084887A (en) * 2019-12-30 2021-07-08 주식회사 에이디티캡스 Convergence Monitoring System and Method for Industry Safety
CN113183987A (en) * 2021-05-11 2021-07-30 南京信易达计算技术有限公司 Unmanned application intelligent storage system and method for new energy automobile
KR102291259B1 (en) * 2020-02-28 2021-08-20 주식회사 그릿테크 Ai system based on edge-computing for reinforcing safe-management in industrial site
KR20220036672A (en) * 2020-09-16 2022-03-23 엔씨엔스페이스(주) Control system capable of 3d visualization based on data and the method thereof
WO2022092328A1 (en) * 2020-10-26 2022-05-05 (주)글루시스 Method for managing media data and sensing data
CN115004270A (en) * 2020-02-26 2022-09-02 云特科株式会社 Monitoring alarm system and method for industrial equipment and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101075550B1 (en) * 2010-01-04 2011-10-20 구자효 Image sensing agent and security system of USN complex type
KR101789690B1 (en) * 2017-07-11 2017-10-25 (주)블루비스 System and method for providing security service based on deep learning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101075550B1 (en) * 2010-01-04 2011-10-20 구자효 Image sensing agent and security system of USN complex type
KR101789690B1 (en) * 2017-07-11 2017-10-25 (주)블루비스 System and method for providing security service based on deep learning

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210084887A (en) * 2019-12-30 2021-07-08 주식회사 에이디티캡스 Convergence Monitoring System and Method for Industry Safety
KR102389521B1 (en) * 2019-12-30 2022-04-21 에스케이쉴더스 주식회사 Convergence Monitoring System and Method for Industry Safety
CN111208725A (en) * 2020-02-26 2020-05-29 无锡职业技术学院 Multifunctional alarm clock system for classroom
CN115004270B (en) * 2020-02-26 2023-06-13 云特科株式会社 Monitoring alarm system and method for industrial equipment and device
CN115004270A (en) * 2020-02-26 2022-09-02 云特科株式会社 Monitoring alarm system and method for industrial equipment and device
KR102291259B1 (en) * 2020-02-28 2021-08-20 주식회사 그릿테크 Ai system based on edge-computing for reinforcing safe-management in industrial site
KR102263512B1 (en) * 2020-09-14 2021-06-10 가온플랫폼 주식회사 IoT integrated intelligent video analysis platform system capable of smart object recognition
WO2022055023A1 (en) * 2020-09-14 2022-03-17 가온플랫폼 주식회사 Iot integrated intelligent image analysis platform system capable of smart object recognition
KR102438433B1 (en) * 2020-09-16 2022-09-01 엔씨엔스페이스(주) Control system capable of 3d visualization based on data and the method thereof
KR20220036672A (en) * 2020-09-16 2022-03-23 엔씨엔스페이스(주) Control system capable of 3d visualization based on data and the method thereof
WO2022092328A1 (en) * 2020-10-26 2022-05-05 (주)글루시스 Method for managing media data and sensing data
CN113183987A (en) * 2021-05-11 2021-07-30 南京信易达计算技术有限公司 Unmanned application intelligent storage system and method for new energy automobile
CN113183987B (en) * 2021-05-11 2024-02-23 南京信易达计算技术有限公司 Intelligent storage system and method for unmanned application of new energy automobile

Similar Documents

Publication Publication Date Title
KR102058452B1 (en) IoT Convergence Intelligent Video Analysis Platform System
US8577082B2 (en) Security device and system
US6928228B2 (en) System and method for detection and analysis of video recordings
JP5560397B2 (en) Autonomous crime prevention alert system and autonomous crime prevention alert method
KR100905504B1 (en) Video tripwire
KR101133924B1 (en) Active image monitoring system using motion pattern database, and method thereof
US20080136934A1 (en) Flame Detecting Method And Device
KR101980551B1 (en) System For Detecting An Action Through Real-Time Intelligent CCTV Image Analysis Using Machine Learning Object Detection And Method For Detecting An Action Through Real-Time Intelligent CCTV Image Analysis Using Machine Learning Object Detection
JP2018101317A (en) Abnormality monitoring system
US20060238616A1 (en) Video image processing appliance manager
KR102149832B1 (en) Automated Violence Detecting System based on Deep Learning
KR102407327B1 (en) Apparatus for Monitoring Fire And System having the same
CN107122743A (en) Security-protecting and monitoring method, device and electronic equipment
US20050225637A1 (en) Area monitoring
KR101075550B1 (en) Image sensing agent and security system of USN complex type
EP3469434B1 (en) Automatic visual and acoustic analytics for event detection
KR102438433B1 (en) Control system capable of 3d visualization based on data and the method thereof
KR102299704B1 (en) System for smart deep learning video surveillance by linking disaster environment metadata
CN106781167A (en) The method and apparatus of monitoring object motion state
KR20160093253A (en) Video based abnormal flow detection method and system
CN111908288A (en) TensorFlow-based elevator safety system and method
KR102081577B1 (en) Intelligence Fire Detecting System Using CCTV
KR20230103890A (en) Video surveillance system based on multi-modal video captioning and method of the same
KR20230039468A (en) Interaction behavior detection apparatus between objects in the image and, method thereof
EP3672233A1 (en) Method for carrying out a health check of cameras and a camera system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant