KR101765722B1 - System and method of generating narrative report based on cognitive computing for recognizing, tracking, searching and predicting vehicles and person attribute objects and events - Google Patents

System and method of generating narrative report based on cognitive computing for recognizing, tracking, searching and predicting vehicles and person attribute objects and events Download PDF

Info

Publication number
KR101765722B1
KR101765722B1 KR1020160003942A KR20160003942A KR101765722B1 KR 101765722 B1 KR101765722 B1 KR 101765722B1 KR 1020160003942 A KR1020160003942 A KR 1020160003942A KR 20160003942 A KR20160003942 A KR 20160003942A KR 101765722 B1 KR101765722 B1 KR 101765722B1
Authority
KR
South Korea
Prior art keywords
information
unit
event
tracking
objects
Prior art date
Application number
KR1020160003942A
Other languages
Korean (ko)
Other versions
KR20170084657A (en
Inventor
송동호
송한희
김성룡
Original Assignee
소프트온넷(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소프트온넷(주) filed Critical 소프트온넷(주)
Priority to KR1020160003942A priority Critical patent/KR101765722B1/en
Publication of KR20170084657A publication Critical patent/KR20170084657A/en
Application granted granted Critical
Publication of KR101765722B1 publication Critical patent/KR101765722B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • G06K9/00469
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • H04N21/8405Generation or processing of descriptive data, e.g. content descriptors represented by keywords

Abstract

본 발명은 CCTV 영상정보를 기반으로 객체 인식을 하고 객체들의 이동정보의 인식정보들을 기반으로 응용서비스를 제공할 수 있는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고성 작성 시스템으로서, 단일객체들 중에서 특정 용의객체를 구분하는 객체정보수집부와; 단일객체 및 발생한 사건이벤트들이 서로 다른 시.공간 상에서 복합되어 나타나는 움직임 및 변화를 분석하여 구성된 복합객체들에 대해서, 지능형 정보를 추출 및 저장하고, 지능형 정보의 상호 관계성을 구별하여 복잡한 범죄들 간의 상호 관계성을 구별하는 객체관계인지형 처리부와; 단일객체 및 복합객체의 분석을 통해 추적된 범죄에 대한 알람 및 보고서, 또는 전체 내용을 요약해서 나레이션을 적어도 포함하는 보고서로 출력하는 나레이티브 보고서 출력부와; 지능형 정보를 사용하여 범죄 해결을 위한 응용서비스로 활용하는 사용자 인터페이스를 제공하는 응용서비스부;를 포함하고, 나레이티브 보고서 출력부는, 나레이션 생성을 위한 나레이톨로지를 관리하는 나레이톨로지 구축부와; 나레이톨로지 기반으로 형식 시나리오 생성 및 한국어 나레이션 표현을 하는 나레이션 표현부와; 정보 전달의 대상에 따라 시나리오를 요약하고 구체화하여 지정된 언어로 표현하는 시나리오 생성부;를 포함하여 구성된다.The present invention relates to a cognitive-type vehicle and an impression object capable of providing an application service based on recognition information of moving information of objects, based on CCTV image information, and a narrative for recognition, tracking, 1. A reporting system, comprising: an object information collection unit for dividing a specific object among a plurality of single objects; It analyzes and analyzes the movement and changes of single objects and event events in different time and space, extracts and stores intelligent information for complex objects composed of them, distinguishes interrelationships of intelligent information, A terrain processing unit which is an object relation for distinguishing mutual relations; A narrative report output unit for outputting alarms and reports on crimes that have been tracked through analysis of a single object and a composite object, or a report including at least a narration summarizing the entire contents; And an application service unit for providing a user interface used as an application service for solving a crime using intelligent information, wherein the narrative report output unit includes: a neural tally construction unit for managing a neural tile for generating a narration; A narration expression unit for generating a type scenario and a Korean narration expression based on a Naray Tollage; And a scenario generating unit for summarizing and specifying the scenarios according to the objects of information transmission and expressing them in a designated language.

Description

인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템 및 방법{SYSTEM AND METHOD OF GENERATING NARRATIVE REPORT BASED ON COGNITIVE COMPUTING FOR RECOGNIZING, TRACKING, SEARCHING AND PREDICTING VEHICLES AND PERSON ATTRIBUTE OBJECTS AND EVENTS}FIELD OF THE INVENTION The present invention relates to a system and method for creating a narrative report for recognizing, tracking, searching, and predicting objects and events in a cognitive-type vehicle and an impression of a vehicle. AND EVENTS}

본 발명은 CCTV 영상정보를 이용한 용의차량 및 용의자의 인식, 추적, 검색 및 예측을 위한 나레이티브 보고서 작성 시스템 및 방법에 관한 것으로서, 특히, 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for creating a narrative report for recognizing, tracking, searching and predicting a vehicle and a suspect using CCTV image information. More particularly, the present invention relates to a system and method for generating awareness, , And a system and method for generating a narrative report for prediction.

본 발명의 기술분야는 동영상내 존재하는 수많은 객체들중 사용자가 필요한 특정 객체들과 사건에 관한 이벤트들을 인식하고, 이 인식된 정보를 여러 시간과 공간상에서 상호 상관관계를 분석하면 객체 혹은 이벤트들의 추적정보가 나온다. 이러한 하부 정보를 바탕으로 통상 동영상은 길이가 길 수 있는데, 이를 요약하여 스토리텔링 방식의 짧은 나레이티브 보고서 혹은 요약된 동영상 형태로 작성 출력하는 것을 포함한다. 이러한 정보를 바탕으로 상부 응용서비스 계층에서는 객체나 이벤트 검색, 추적, 예측, 보고서출력 등의 서비스를 할 수 있는 시스템 및 방법을 포함한다.The technical field of the present invention is to recognize the events related to specific objects and events among a large number of objects existing in a moving picture and to analyze the correlation of the recognized information in various time and space, Information comes out. On the basis of such sub information, a normal moving image may be long, and it may be summarized and output in the form of a short narrative report of a story telling method or a summarized moving image. Based on this information, the upper application service layer includes a system and a method for performing services such as object and event search, tracking, prediction, and report output.

기존에는 방범용 폐쇄회로(CCTV)가 범죄 발생 억제효과를 준다는 이유로 지방자치단체 및 경찰청에서 적극적으로 CCTV를 설치하고 매해 설치 대수를 증가시켜왔다. 하지만 최근에는 범죄예방 효과가 분명치 않다는 의견도 많아지고 있으며, 학계에서 또한 CCTV가 사건 발생 후 범죄 수사에는 효과가 있지만, 범죄 예방에는 큰 역할을 하지 못하고 있다는 논란이 끊임없이 진행되고 있다.In the past, local government and police agencies actively installed CCTV and increased the number of installations every year because crime prevention closure (CCTV) is effective in suppressing crime. However, there are many opinions that the effect of crime prevention is not clear in recent years. In the academic world, there is also a constant controversy that CCTV does not play a big role in crime prevention though it is effective in crime investigation after the incident.

기존의 지방자치단체 및 경찰청에 설치된 CCTV를 활용하던 방법은CCTV영상을 관제센터에서 별도의 모니터와 모니터링 요원을 두고, 상기 모니터링 요원이 자리에 앉아 실시간으로 변화되는 화면을 보면서 범죄 발생시 해당 문제처리를 위한 행동을 취하거나, 문제가 발생한 후 기존에 저장된 영상데이터를 경찰의 요청에 의해 제공하는 형태로 진행되었다. 이때 한 명의 모니터링 요원이 한번에 확인하는 영상데이터의 개수가 너무 많아서 범죄발생을 미리 감지하거나 범죄발생을 실시간으로 확인 하기에는 어려움이 많았다.CCTVs installed in existing local governments and police departments use CCTV images at the control center with a separate monitor and monitoring staff. The monitoring staff sees the changes in real time, Or after the occurrence of the problem, the existing image data was provided at the request of the police. At this time, the number of image data that one monitoring agent checks at a time is too much, so it is difficult to detect the occurrence of crime in advance or to confirm the occurrence of crime in real time.

기존의 지방자치단체 및 경찰청에 설치된 CCTV를 활용하여 지진, 수해, 산불과 같은 자연재해의 재난상황을 실시간으로 파악하여 관련 기관간의 상호 공동대응을 신속히 진행하여 재난 피해를 최소화 하기 위해 소방방재청을 중심으로 지방자치단체 및 경찰청에서 운영중인 CCTV 영상정보를 통합 연계하려는 움직임이 최근에 진행되어 왔다.Using CCTV installed in existing local governments and police agencies, it is possible to identify the disaster situation of natural disasters such as earthquakes, floods and forest fires in real time, Has recently moved to integrate CCTV image information, which is operated by local governments and police agencies.

본 발명은 이러한 종래기술의 문제점을 해소하고 종래기술의 추세에 부응하기 위한 것으로서, 촬영된 동영상 정보를 분석하여 범죄관련 데이터를 추출하고 추출된 데이터를 통해 범죄 용의자 예측 및 추적을 위한 보고서를 작성하여 범죄예방 및 용의자 추적 성능을 향상시킬 수 있는 CCTV 영상정보를 이용한 용의차량 및 용의자의 인식, 추적 및 예측을 위한 보고서 작성 시스템 및 방법, 특히 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템 및 방법을 제공하는 것을 본 발명의 일실시예에 따른 목적으로 한다.In order to solve the problems of the related art and to cope with the trend of the related art, the present invention extracts crime-related data by analyzing the photographed moving picture information and creates a report for predicting and tracking the crime suspect through the extracted data A system and method for creating a report for recognizing, tracking and predicting vehicles and suspects using CCTV image information that can improve crime prevention and suspect tracking performance, in particular, recognition and tracking of objects and events in cognitive vehicles and impressions And to provide a system and method for generating a narrative report for prediction.

상기 목적을 달성하기 위해 본 발명의 제1양태는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템으로서, CCTV 영상정보를 VMS(Video management System)를 통해 실시간 입력 받거나 저장된 영상을 입력 받은후, 적어도 용의차량과 용의자에 대한 인상착의에 관한 객체를 포함하는 영상내 객체에 관한 객체 인식을 하고 상기 객체 인식된 인식정보에 대한 테깅을 저장하고, 상기 객체들이 시.공간 상에서 이동할 때 이동정보를 추가로 인식하고, 이들 인식정보들을 기반으로 응용서비스를 제공할 수 있는 시스템에 있어서, 상기 응용서비스는 검색, 추적, 예측, 자동 알람 및 보고서를 출력하거나 자동으로 긴 동영상의 내용 중 요청한 인물.사물.이벤트들에 대한 축약요구사항을 처리하여 나레이티브 보고서작성 혹은 비디오 요약을 해주는 나레이티브 보고서작성 중 하나를 적어도 포함하고, 상기 시스템은, CCTV 영상을 입력하여 상기 응용서비스 제공에 필요한 최소한의 단일객체들을 구분하여 인식하고, 상기 단일객체들 중에서 특정 용의객체를 구분하는 객체정보수집부와; 상기 단일객체 및 발생한 사건이벤트들이 서로 다른 시.공간 상에서 복합되어 나타나는 움직임 및 변화를 분석하여 구성된 복합객체들에 대해서, 지능형 정보를 추출 및 저장하고, 상기 지능형 정보의 상호 관계성을 구별하여 복잡한 범죄들 간의 상호 관계성을 구별하는 객체관계인지형 처리부와; 상기 단일객체 및 복합객체의 분석을 통해 추적된 범죄에 대한 알람 및 보고서, 또는 전체 내용을 요약해서 단문 또는 장문의 자연어 표현을 동반할 수 있는 나레이션을 적어도 포함하는 보고서로 출력하는 나레이티브 보고서 출력부와; 저장된 상기 지능형 정보를 사용하여 범죄 해결을 위한 상기 응용서비스로 활용하는 사용자 인터페이스를 제공하는 응용서비스부;를 포함하고, 상기 나레이티브 보고서 출력부는, 나레이션 생성을 위한 나레이톨로지를 관리하는 나레이톨로지 구축부와; 상기 나레이톨로지 기반으로 형식 시나리오 생성 및 한국어 나레이션 표현을 하는 나레이션 표현부와; 정보 전달의 대상에 따라 시나리오를 요약하고 구체화하여 지정된 언어로 표현하는 시나리오 생성부;를 포함하여 구성된다.In order to achieve the above object, a first aspect of the present invention is a system for creating a narrative report for recognizing, tracking, searching, and predicting objects and events of a cognitive-type vehicle and an impression through a video management system (VMS) The method comprising the steps of: recognizing an object related to an object in an image including an object related to impression recognition of at least a vehicle and a suspect, storing tagging for the recognized object recognition information, A system for recognizing movement information when moving in a space and providing application services based on the recognition information, the system comprising: an application for outputting search, tracking, prediction, automatic alarm and report, To handle the abbreviated requirements for the requested person, object, or event among the contents of the long video, Or generating a narrative report for video summarization. The system recognizes at least one single object necessary for providing the application service by inputting a CCTV image, and recognizes a specific object An object information collecting unit for classifying the object information; The intelligent information is extracted and stored for the composite objects constructed by analyzing the movement and the change of the single object and the event events occurring in the different time and space, and the intelligent information is distinguished from the interrelationship, A terrain processing unit which is an object relation for distinguishing mutual relations among the plurality of objects; An alarm and report for the crime tracked through the analysis of the single object and the composite object or a narrative report output unit for outputting at least a narrative which can summarize the entire contents and narration that can accompany a natural language expression of a short- Wow; And an application service unit for providing a user interface used as the application service for resolving the crime using the stored intelligent information, wherein the narrative report output unit includes: a narrate report output unit for outputting a narrate report, A building part; A narration expression unit for generating a type scenario and a Korean narration expression based on the Naritology; And a scenario generating unit for summarizing and specifying the scenarios according to the objects of information transmission and expressing them in a designated language.

바람직하게는, 상기 객체정보수집부는, 도로 및 건물내의 CCTV영상을 VMS시스템을 사용하여 실시간으로 직접 로딩하거나 또는 오프라인에 저장된 동영상 데이터를 간접 로딩하여 스트리밍데이터를 입력하고 영상에 포함된 일반객체들을 인식하는 것을 포함하는 영상객체인식 엔진부와; 상기 일반객체에 포함된 다양한 사물 및 사람에 대한 객체들중 시스템이 특정한 객체들만(특정한 객체는 차량을 포함하는 특정사물, 사람 및 인상착의중 적어도 하나를 포함)을 인식하고 이를 분리해 내어 테깅하고 테깅 메타데이타를 저장하고, 저장된 상기 객체로부터 용의객체를 구별하는 용의객체인식부;를 포함하여 구성된다.Preferably, the object information collecting unit is configured to directly load the CCTV image in the road and the building using the VMS system, or indirectly load the offline video data to input streaming data and recognize general objects included in the image A video object recognition engine unit including the video object recognition unit; Among the objects for various objects and people included in the general object, the system recognizes only specific objects (a specific object includes at least one of specific objects including people, people, and impressions), separates and tags them And an object recognition unit for storing the tagging meta data and distinguishing a used object from the stored object.

바람직하게는, 상기 영상객체인식 엔진부는, 인지형 범죄인식 추적, 검색을 위한 나레이티브 보고서 작성 시스템이 필요로 하는 영상 스트리밍 데이타를 입력받기 위한 인터페이스로서, 하나의 스트리밍 또는 동시에 수천개 이상의 스트리밍 데이터를 병렬 또는 분산 처리 방식으로 입력 받을 수 있는 영상입력부와; 동영상에 포함되어 있는 객체들을 인식하기위해 HMM(Hidden Markov Model)이나 GMM(Gaussian Mixture Model), 딥뉴럴네트워크나 LSTM(Long short-term memory) 중 적어도 하나를 포함하는 알고리즘을 이용하여 객체들에 테두리를 쳐서(엣지) 객체를 구분하고, 인식하는 객체인식 엔진부;를 포함하여 구성된다. Preferably, the image object recognition engine unit is an interface for receiving image streaming data required by a narrative report generating system for cognitive-based crime recognition and search, and is capable of receiving one streaming or at least several thousand streaming data at the same time A video input unit that can receive input in parallel or in a distributed processing manner; An algorithm including at least one of a hidden markov model (HMM), a gaussian mixture model (GMM), a deep neural network, and a long short-term memory (LSTM) is used to recognize objects included in a moving image. And an object recognition engine unit for recognizing and recognizing an object by touching the object.

바람직하게는, 상기 용의객체 인식부는, 상기 일반객체로부터 적어도 도로나 건물내에 나타나는 사물을 포함하는 사물객체를 인식하는 사물 인식부와; 상기 일반객체로부터 사람에 대한 인상착의로서 상/하의 색깔, 대략 키, 안경/가방/모자 착용여부 중 적어도 하나를 포함하는 사람객체를 구별하는 사람 인식부와; 상기 일반객체로부터 차량의 차종, 제조사, 모델명, 색깔, 번호판 인식 중 적어도 하나를 포함하는 차량객체를 구별하는 차량 인식부와; 상기 영상객체인식 엔진부를 통해 추출된 일반객체로부터 범죄와 관련하여 관찰될 수 있는 단일객체(사람객체, 사물객체, 차량객체 중 적어도 하나를 포함)의 모양, 상태 및 움직임을 분석하여 범죄의 사전/사후 용의 행위 분석을 수행하는 징후 분석부와; 상기 용의 행위와 관련된 단일객체 또는 단일객체 단위로 용의객체를 구별하는 용의 이벤트객체 분석부;를 포함하여 구성된다.Preferably, the usage object recognizing unit includes: an object recognizing unit that recognizes an object object including at least a road or an object appearing in the building from the general object; A human recognition unit for distinguishing a human object including at least one of up / down color, approximate key, wearing glasses / bag / hat as impression of a person from the general object; A vehicle recognition unit for distinguishing a vehicle object including at least one of a vehicle type, a maker, a model name, a color, and a license plate recognition from the general object; (Including at least one of a human object, a object object, and a vehicle object) that can be observed with respect to a crime from a general object extracted through the image object recognition engine, A symptom analysis unit for performing analysis of post-use behavior; And an event object analyzing unit for identifying a single object related to the usage action or an object for a single object unit.

바람직하게는, 상기 징후 분석부는, 도로상에서 관찰되는 폭탄테러와 같은 특이 상황 이나 폭력사건, 절도사건과 같은 사건이벤트를 구별하는 긴급이벤트 분석부와; 교통사고, 건널목 노인, 장애자 중 적어도 하나를 포함하는 장애 상황을 분석하여 경찰출동이 필요한 사건이벤트를 분석하는 일반이벤트 분석부와; 상기 사건이벤트의 우선순위 및 정확도를 산출하고 사건이벤트 이력(history)을 관리하는 이벤트 관리부;를 포함하여 구성된다.Preferably, the symptom analysis unit includes: an emergency event analysis unit for distinguishing event events such as bombardment observed on the road, specific events such as bombardment, violent incidents, and theft incidents; A general event analyzing unit for analyzing a fault event including at least one of a traffic accident, a crossing elderly person, and a handicapped person and analyzing an incident event requiring a police call; And an event management unit for calculating a priority and an accuracy of the event event and managing an event event history.

바람직하게는, 상기 객체관계인지형 처리부는, 단일 시·공간 정보에 대해서 단일객체 정보를 다수 연결하여 복합적인 시.공간 상황에 대해서 복합객체 정보와 지능형 정보를 추출하고 이를 사용하여 용의자 및 용의차량으로 지목된 용의객체의 사건이벤트를 처리하고 이를 바탕으로 도주경로 추적을 적어도 포함하는 사건이벤트의 진행을 추적하는 이벤트 추적부와; 상기 사건이벤트들 간의 상호 관계성을 분석하는 상호관계 인지부;를 포함하여 구성된다.Preferably, the terrain processing unit, which is the object relation, extracts complex object information and intelligent information for a complex time and space situation by connecting a plurality of single object information to single temporal / spatial information, An event tracing unit for tracking the progress of an event event including at least an escape route tracing based on the event event of the dragon object identified as < RTI ID = 0.0 > And a correlation relation part for analyzing the correlation between the event events.

삭제delete

바람직하게는, 상기 응용서비스부는, 범죄가 의심되는 지능형 정보상의 사건이벤트들에서 용의객체를 사용자가 지정하면 이 정보를 바탕으로 용의자를 시.공간상에서 추적하고 모니터링 하는 용의객체 추적부와; 사용자가 필요한 용의객체의 특징 정보를 입력하여 입력값을 만족하는 용의객체를 지능형정보상에서 검색하고 CCTV영상의 시·공간 정보의 위치를 알려주는 용의객체 검색부와; 나레이션 시나리오 생성 기술기반으로 상기 용의객체에 대한 범죄 알람 및 이력을 보고해주는 알람, 보고서출력부와; 누적된 상기 지능형 정보를 바탕으로 한 특정 지역이나 시간대에 관한 범죄발생 예측 서비스부;를 포함하여 구성된다.Preferably, the application service unit includes an object tracking unit for tracking and monitoring a suspect in a time and space based on the information, when the user designates an object for use in event events on the intelligent information suspected of being crime; An object retrieval unit for inputting feature information of a necessary object for a user to retrieve an object for the satisfaction of the input value on the intelligent information and informing the location of the temporal / spatial information of the CCTV image; An alarm and report output unit for reporting a crime alarm and a history of the forgery object on the basis of a narration scenario generation technique; And a crime occurrence prediction service unit for a specific area or time zone based on the accumulated intelligence information.

바람직하게는, 상기 응용서비스부는, 검색, 추적, 알람.보고서 출력, 예측을 적어도 포함하는 서비스를 제공하고, 한국어 자연어 형태로 사용자(적어도 경찰이 포함됨)의 질의 또는 검색어를 넣을 수 도 있는 고급서비스와, 비교적 단순한 키워드 중심의 일반 서비스를 수동 또는 자동 선택할 수 있으며, 문자 알리미 및 보고서 서비스 또는 전체 내용을 요약해서 요약보고서 또는 요약동영상으로 출력하는 응용서비스는 필히 나레이티브 보고서 작성 및 출력을 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템. Preferably, the application service unit provides a service including at least search, trace, alarm, report output, and prediction, and may include an advanced service that may include a query of a user (including at least a police officer) And a simple keyword-based general service can be manually or automatically selected. Application services that summarize the text alerts and report services, or the entire contents, as a summary report or a summary video, must be configured And a neural report writing system for event recognition, tracking, retrieval, and prediction of objects and events of impersonal vehicles and impressions .

상기 목적을 달성하기 위한 본 발명의 제2양태는 CCTV 영상정보를 이용한 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 방법으로서, CCTV 또는 VMS로부터 직.간접으로 영상데이터를 입력받아 영상데이터로부터 단일객체를 구별하여 인식하고 용의객체를 구별하는 단계와; 용의객체 인식부에서 저장한 상기 단일객체의 테깅 메타데이터를 사용하여 상기 단일객체 및 복합객체에 대해서, 지능형 정보를 추출 저장하고, 상기 지능형 정보의 상호관계성을 분석하여 복잡한 범죄들간의 상호관계성을 구별하여 표시하고 저장하는 단계; 저장된 상기 상호관계성을 기초로 단문 또는 장문의 자연어 표현을 동반할 수 있는 나레이션을 적어도 포함하는 보고서를 출력하는 단계;를 포함하고, 상기 보고서를 출력하는 단계는, 나레이톨로지 구축부가 관리하는 나레이톨로지를 사용하여 용의객체 정보를 형식 시나리오와 한국어 나레이션을 생성하는 단계와; 생성된 상기 나레이션을 정보수신 대상자에 맞는 언어와 시나리오로 변환한 후 문장 혹은 동영상을 생성하여 결과물을 내고 이를 정보수신 대상자가 갖고 있는 수신 단말장치에 전달하는 단계;를 포함하여 구성된다.A second aspect of the present invention for achieving the above object is a method for generating a narrative report for recognizing, tracking, searching and predicting objects and events of a cognitive vehicle and impression using CCTV image information, Recognizing the single object from the image data and recognizing the object; The intelligent information is extracted and stored for the single object and the complex object using the tagging meta data of the single object stored in the object recognition unit for analyzing the interrelationships of the intelligent information, Displaying and storing the sex distinctively; And outputting a report including at least a narration capable of expressing a natural language of a short or long sentence based on the stored correlation, and the step of outputting the report comprises: Generating a type scenario and a Korean narration using the object information for the use of the object; Converting the generated narration into a language and a scenario suitable for the information receiver, generating a sentence or a moving image, and transmitting the result to a receiving terminal device of the information receiver.

바람직하게는, VMS로부터 영상데이터를 입력받아 영상데이터로부터 단일객체를 구별하여 인식하고 용의객체를 구별하는 단계는 도로 및 건물내의 CCTV 영상을 VMS를 사용하여 실시간으로 직접 로딩하거나 오프라인에 저장된 동영상 데이터를 간접로딩하고 HMM, GMM, 디뉴럴네트워크나 LSTM 중 적어도 하나를 포함하는 알고리즘을 사용하여 영상에 포함된 일반객체를 인식하는 단계와; 상기 일반객체에서 필터링을 통해 단일객체(사물객체, 사람객체, 차량객체)를 분리해 내어 테깅하고 테깅 메타데이터를 저장하고, 용의객체를 구별하는 단계;를 포함하여 구성된다.Preferably, the step of receiving the image data from the VMS and distinguishing the single object from the image data and distinguishing the object of the dragging may include directly loading the CCTV image in the road and the building using the VMS in real time, And recognizing a general object included in the image using an algorithm including at least one of an HMM, a GMM, a neural network, and an LSTM; Separating and tagging a single object (object object, human object, vehicle object) through filtering in the general object, storing the tagging meta data, and distinguishing the object for use.

바람직하게는, 상기 용의객체 인식부에서 저장한 상기 단일객체의 테깅 메타데이터를 사용하여 상기 단일객체 및 복합객체에 대해서, 지능형 정보를 추출 저장하고, 상기 지능형 정보의 상호관계성을 분석하여 복잡한 범죄들간의 상호관계성을 구별하여 표시하고 저장하는 단계는, 상기 단일객체 정보 또는 단일 시·공간 정보에 대해서 단일객체 정보를 다수 연결하여 복합적인 시.공간 상황에 대해서 복합객체 정보를 추출하고, 이를 사용하여 상기 용의객체의 사건이벤트를 처리하고, 용의객체의 도주경로를 추적하고 이때 발생된 지능형 정보들을 저장하는 단계와; 상기 단일객체 및 복합객체의 정보와 사건이벤트들을 입력으로 하여 사건이벤트들간의 상호관계성을 복합적 시.공간상에서 분석하고 이때 발생한 상호관계성 정보를 저장하는 단계;를 포함하여 구성된다.Preferably, the intelligent information is extracted and stored for the single object and the composite object using the tagging meta data of the single object stored in the object recognition unit, and the correlation of the intelligent information is analyzed, The step of separately displaying and storing the interrelationships of the crimes comprises the steps of extracting the composite object information for a complex time and space situation by connecting a plurality of single object information to the single object information or the single time and space information, Processing the event event of the forgery object, tracking the escape route of the forgery object, and storing the generated intelligent information; And analyzing the interrelationships between event events based on the information of the single object and the complex object and the event events and storing the correlation information generated at the time.

상기 목적을 달성하기 위한 본 발명의 제3양태는 CCTV 영상정보를 이용한 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 방법으로서, 응용서비스부의 GUI를 통해 용의자 또는 용의 차량의 검색, 추적, 범죄발생 예측 및 알람.보고서 서비스를 선택하고 상기 GUI가 제공하는 질의어 창에서 한국어 자연어 문장 혹은 키워드 중심의 질의를 입력 받는 단계와; 요청한 서비스가 검색, 추적, 예측이며 동시에 키워드 중심 출력이라면, 저장된 지능형 정보를 로딩하여 정보를 얻기위한 추적객체로 지정하고 추적객체의 검색, 추적, 예측 및 알람정보를 추출하여 키워드 중심 결과를 출력하는 단계와; 상기 요청한 서비스가 보고서 출력이면 결과물을 보고서형태로 출력하는 단계;를 포함하고, 상기 요청한 서비스가 보고서 출력이면 결과물을 보고서형태로 출력하는 단계는, 단문 또는 장문의 자연어 표현을 동반할 수 있는 나레이션을 적어도 포함하는 보고서를 출력하는 단계이며, 상기 보고서를 출력하는 단계는, 나레이톨로지 구축부가 관리하는 나레이톨로지를 사용하여 용의객체 정보를 형식 시나리오와 한국어 나레이션을 생성하는 단계와; 생성된 상기 나레이션을 정보수신 대상자에 맞는 언어와 시나리오로 변환한 후 문장 혹은 동영상을 생성하여 결과물을 내고 이를 정보수신 대상자가 갖고 있는 수신 단말장치에 전달하는 단계;를 포함하여 구성된다.According to a third aspect of the present invention, there is provided a method of generating a narrative report for recognizing, tracking, searching, and predicting objects and events of a cognitive vehicle and impression using CCTV image information, Searching for, tracking, crime occurrence prediction and alarm of the vehicle for the user; selecting a report service and receiving a query based on Korean natural language sentence or keyword in a query language window provided by the GUI; If the requested service is search, trace, and forecast, and at the same time keyword-centered output, the stored intelligent information is loaded and designated as a tracking object for obtaining information, and the retrieval, tracking, prediction and alarm information of the tracking object is extracted and the keyword- ; And outputting the result in the form of a report if the requested service is a report output, and outputting the result in the form of a report if the requested service is a report output, Outputting a report including at least a step of outputting the report, the method comprising: generating a type scenario and a Korean narration for object information for use by a neural network managed by a neural tile construction unit; Converting the generated narration into a language and a scenario suitable for the information receiver, generating a sentence or a moving image, and transmitting the result to a receiving terminal device of the information receiver.

바람직하게는, 요청한 서비스가 검색, 추적, 예측이며 동시에 키워드 중심 출력이라면, 저장된 지능형 정보를 로딩하여 정보를 얻기위한 추적객체로 지정하고 추적객체의 검색, 추적, 예측 및 알람정보를 추출하여 키워드 중심 결과를 출력하는 단계는, 입력받은 질의가 용의객체 추적이라면 질의 조건에 맞는 용의객체를 지정하고, 지능형 정보상의 사건이벤트를 사용하여 지정된 용의객체의 이동 경로를 추적하여 알려주는 단계와; 상기 입력받은 질의가 용의객체 검색이라면 지능형 정보들 상에서 질의 조건을 입력값으로 용의객체를 검색하고, 용의객체로 지정된 객체 리스트와 용의객체 정보를 알려주는 단계와; 상기 입력받은 질의가 범죄발생 예측이라면 지능형 정보를 바탕으로 질의된 특정 지역이나 시간대에 대한 범죄발생 예측값을 결과로 알려주는 단계와; 상기 입력받은 질의가 알람이라면 질의조건에 맞는 사건이벤트 발생시 나레이션 시나리오 생성기술기반으로 상기 용의객체에 대한 범죄 알람 및 이력을 알려주는 단계;를 포함하여 구성된다. Preferably, if the requested service is a search, a trace, a prediction, and at the same time a keyword-centered output, the stored intelligent information is loaded and designated as a tracking object for obtaining information, and the searching, tracking, The step of outputting a result may include the steps of: specifying an object suitable for the query condition if the input query is an object tracking for the inputted query; tracking the movement path of the designated object using the event in the intelligent information; If the input query is an object search for the object, searching the object for the query condition on the intelligent information and informing the object list and the object information specified for the object; If the input query is a crime occurrence prediction, informing the result of the crime occurrence prediction for a specific region or time zone based on the intelligent information; And if the input query is an alarm, reporting a crime alarm and a history of the forgery object based on a narration scenario generation technique when an event event corresponding to a query condition is generated.

삭제delete

이상과 같은 구성에 따라서, 본 발명은 다음과 같은 효과를 얻을 수 있다.According to the above configuration, the present invention can obtain the following effects.

첫째, 모니터링 요원이 감시 부담을 경감하고 범죄발생을 미리 감지하거나 범죄발생을 실시간으로 확인할 수 있도록 하여 해당 요원들이 효과적이고 신속하게 범죄를 예방하거나 범죄의 악영향을 최소화할 수 있는 솔루션을 제공할 수 있다.First, the monitoring staff can reduce the burden of surveillance, detect the occurrence of crime in advance or check the occurrence of crime in real time, so that the agents can provide effective and quick solutions to prevent crime and minimize adverse effects of crime .

둘째, 지진, 수해, 산불과 같은 자연재해의 재난상황을 실시간으로 파악하여 관련 기관간의 상호 공동대응을 신속히 진행하여 재난 피해를 최소화 하기 위해 소방방재청을 중심으로 지방자치단체 및 경찰청에서 운영중인 CCTV 영상정보 통합 연계하려는 움직임에 부응하는 실효적인 솔루션을 제공할 수 있다.Second, in order to minimize disaster damage by promptly understanding the disaster situations of natural disasters such as earthquakes, floods, and forest fires in real time, It is possible to provide an effective solution to the movement to integrate information integration.

보다 구체적으로, 구성을 중심으로 설명하자면, 본 발명이 제공하는 나레이티브 보고서 작성을 위해서는 다음과 같은 3개 소프트웨어 계층으로 구성이 가능하다.More specifically, with respect to the configuration, the following three software layers can be used to create a narrative report provided by the present invention.

하부층에서는 CCTV동영상을 입력받아 딥뉴럴넷 등의 방법을 사용하는 딥러닝 방식과 포털사이트 등에 올려져 있는 다수 사진을 포함한 오픈 영상 데이타를 이용하여 영상내 객체들을 인식, 이벤트 감지하도록 머신러닝의 결과물인 인지 모델이 만들어 지며, 이 모델이 실시간으로 영상을 입력받아 러닝시킨 대상물에 대한 객체 및 이벤트들을 인식하게 되는 지능형 정보 수집층이 있다. 이러한 러닝(학습) 과정은 뉴럴넷의 10개의 층 이상으로 구성되는 딥러닝으로 구현되었다.In the lower layer, CCTV video is received and the deep learning method using deep neural net method and the open image data including a large number of photographs posted on the portal site are used to recognize the objects in the video and to detect the event, There is an intelligent information collecting layer which recognizes objects and events of an object which is created by the model and receives the images in real time. This learning process was implemented with deep learning consisting of more than ten layers of neural networks.

중간부에서는 이러한 하부 정보를 바탕으로 시간과 공간 상의 객체 및 발생한 이벤트의 전개 및 이동을 추적하며 각 이벤트를 완성 및 이벤트간의 상호 관계성을 인지하고, 나레이티브 보고서를 작성하기 위해 필요한 나레이티브 온톨로지(나레이톨로지)를 구축하고, 이러한 나레이톨로지를 기반으로 하여 나레이션 시나리오를 생성하고 한국어 나레이션 표현기술로 보고서를 작성하는 계층이다. 이 계층에서는, 보고서를 사용하는 대상이 누구이며, 어떤 정보 매체를 통해서 전달되는 가를 고려하여, 같은 정보라도 단문이나 장문 형태뿐 아니라, 구어식 표현이나 문어식 표현 등을 고려하고 이것은 나레이션 정보를 요약하여 생성하는 기술을 적용한다. 특히, 나레이티브 보고서는 스토리텔링 기법을 이용하여 긴 영상에 포함된 내용을 종합.요약하거나, 특정 사건, 인물, 물건 중심으로 이야기 풀이 하듯 요약하는 것이 필요한 경우에 아주 유용하게 사용될 수 있다. 예를들면, 경찰이 용의자 검거를 CCTV영상을 통해 할 필요가 있다고 하자. 그러면 이러한 나레이티브 보고서 작성이 지원이 되는 시스템에서는 경찰 수사관이 긴 시간동안 동영상을 모두 순차적으로 시청하여 육안으로 용의자를 찾아낼 필요가 있는 것이 아니라, 특정 용의자, 시간, 공간 정보를 주고 보고서 작성을 의뢰 하면 본 발명의 시스템에서 이 입력정보를 바탕으로 보고서를 작성하게 함으로써, 경찰 수사인력을 크게 효율적으로 사용할 수 있는 장점이 있다. 또한, 비디오 요약 시스템은 긴 동영상을 요약하여 짧은 핵심 내용만 간추려 핵심내용중심으로 재편집된 동영상 요약본을 만들어 줄 수도 있다.In the middle part, based on this sub information, it traces the development and movement of the objects in the time and space and the generated events, recognizes the interrelationships between the completion of each event and the events, and the necessary neuralized ontology And narration scenarios based on the narratorology, and to create a report using Korean narration expression technology. In this layer, taking into account who is using the report and which information medium is used to convey it, considering the same information as well as a short sentence or a long sentence form, as well as a spoken expression or an octopus expression, To apply the technology to generate. In particular, the narrative report can be very useful when it is necessary to summarize, summarize, or summarize the contents of a long video using storytelling techniques, focusing on specific events, characters, and objects. For example, suppose the police need to arrest a suspect through a CCTV video. In a system that supports such narrative reporting, a police investigator does not have to watch the videos sequentially for a long time and visually identify the suspects, but rather, they give specific suspects, time and space information, , The system of the present invention generates a report on the basis of the input information, thereby making it possible to use the police investigation personnel efficiently. In addition, the video summary system can summarize long videos and shorten the core content to create re-edited video summaries based on core content.

이 중간부의 정보를 이용하여 상부의 응용계층으로서 인지형 범죄정보 추출, 인식, 검색, 예측 등 응용서비스를 제공하는 계층으로 구성된다. 본 발명은 이러한 각 계층의 요소기술 뿐만 아니라, 수직적으로 연결되어야 가능한 이러한 기술 계층간의 관계에 대한 통합 시스템 및 방법을 특징으로 한다.It is composed of layers that provide application services such as cognitive type crime information extraction, recognition, search, and prediction as the upper application layer using the information in the middle part. The present invention features not only elemental description of each layer but also an integrated system and method for the relationship between these layers of technology that need to be connected vertically.

또한, 하드웨어 계층은 상기 딥러닝을 수행하는데 필요한 컴퓨팅을 인텔계열의 CPU를 이용하여 처리하거나, 딥뉴럴넷등을 처리하는데 벡터연산이 대부분인 점을 감안하여 NVIDIA와 같은 GPGPU (General Purpose Graphic Processing Unit)와 CUDA(Compute Unified Device Architecture, 병렬 컴퓨팅 플렛폼으로서 application programming interface (API)을 제공하여 GPU를 활용한 프로그래밍을 쉽게 하도록 하는 일종의 라이브러리 인터페이스)를 이용하여 보다 효과적으로 처리하는 방법을 포함한다. 예를들면, 1,000 CCTV 들로 부터 입력되는 데이터 스트리밍에 대한 객체인식, 태깅을 동시 병렬로 처리하기 위해서 필요한 컴퓨팅 자원은 몇 개나 될까 이를 계산하면, 1 Gflops x 24 layers x 30 fps x 1,000 CCTVs = 720 Tflops 72,000 CPU cores 나 되는 수퍼컴퓨터급 컴퓨팅이 필요하다. 16,000 CPU cores = 3 GPUs 에 해당되므로 72,000개 core는 14개의 GPUs 로 처리가능하다.In consideration of the fact that most of the vector operations are performed in processing hardware required for performing the deep learning using the CPU of the Intel series or deep neural networks, the hardware layer includes GPGPU (General Purpose Graphic Processing Unit) such as NVIDIA CUDA (Compute Unified Device Architecture, a kind of library interface that provides an application programming interface (API) as a parallel computing platform to facilitate programming using the GPU). For example, how many computing resources will be required to simultaneously process object recognition and tagging for data streaming from 1,000 CCTVs in parallel? 1 Gflops x 24 layers x 30 fps x 1,000 CCTVs = 720 Tflops 72,000 CPU cores Need supercomputer-level computing. Since it corresponds to 16,000 CPU cores = 3 GPUs, 72,000 cores can be processed with 14 GPUs.

또한, 하드웨어계층과 소프트웨어 계층을 포함하는 스토리지 저장장치도 본 발명에서는 연관이 있다. 특히, 상기 영상내 인식된 객체들과, 이 객체들을 설명하는 태깅 정보들은 데이타 베이스 혹은 파일시스템에 메타데이타 형태로 저장된다. 이 메타데이타는 상부 응용서비스 계층에서 키워드 등 검색을 수행할 때 보다 효과적으로 원 영상을 빠르게 검색하는데 이용된다. 스토리지 메타데이타는 관련 종래기술에 따르면, 하부 파일시스템의 블록 정보들을 UNIX의 inode 같은 파일 메타데이타를 스토리지의 관리서버에 보관하게 되는데 이는 데이타를 보관하는 데이타서버와 분리됨으로써 보다 효과적인 스토리지 메타 데이타를 처리하는것을 포함한다. In addition, storage storage devices including hardware layers and software layers are also relevant in the present invention. In particular, the objects recognized in the image and the tagging information describing the objects are stored in the form of metadata in a database or a file system. This metadata is used to search the original image more efficiently when performing a search such as a keyword in the upper application service layer. According to the related art, the storage metadata is stored in the management server of the storage of file metadata such as a UNIX inode of the block information of the lower file system, which is separated from the data server storing the data, .

본 발명의 상기 목적, 기타 다른 목적 및 특징은 첨부된 아래의 도면과 연관된 바람직한 실시예를 상세로부터 명확하게 나타날 것이다.These and other objects and features of the present invention will become apparent from the detailed description of the preferred embodiments with reference to the accompanying drawings, in which:

도 1은 본 발명의 일실시예로서, CCTV 영상정보를 이용한 용의차량 및 용의자의 인식, 추적 및 예측을 위한 나레이티브 보고서 작성 시스템을 도시한 구성도.
도 2는 본 발명의 일실시예에 따른 객체정보 수집부의 내부 구성도.
도 3은 본 발명의 일실시예에 따른 영상객체인식엔진부의 내부 구성도.
도 4는 본 발명의 일실시예에 따른 용의객체 인식부의 내부 구성도.
도 5는 본 발명의 일실시예에 따른 징후 분석부의 내부 구성도.
도 6은 본 발명의 일실시예에 따른 객체관계 인지형처리부의 내부 구성도.
도 7은 본 발명의 일실시예에 따른 나레이티브 보고서 출력부의 내부 구성도.
도 8은 본 발명의 일실시예에 따른 응용 서비스부의 내부 구성도.
도 9는 본 발명의 일실시예에 따른 CCTV 영상정보를 이용한 용의차량 및 용의자의 인식, 추적 및 예측을 위한 보고서 작성 방법에서 단일객체 및 복합객체에 대한 지능형 정보를 생성하는 방법에 대한 과정을 도시한 순서도.
도 10은 본 발명의 일실시예에 따른 영상데이터를 입력으로 객체를 구별하는 순서도.
도 11은 본 발명의 일실시예에 따른 영상데이터에서 구별된 객체로부터 용의객체의 이동경로를 추적하거나 예측하는 순서도.
도 12는 본 발명의 일실시예에 따른 지능형 정보를 기반으로 시나리오를 생성 전달하는 순서도.
도 13은 본 발명의 일실시예에 따른 지능형 정보를 응용하여 사용하는 순서도.
도 14는 본 발명의 일실시예에 따른 지능형 정보를 응용하여 최종 보고서를 출력하는 방법을 나타낸 순서도이다.
도 15는 본 발명의 일실시예에 따라서, CCTV 영상정보를 이용한 용의차량 및 용의자의 인식, 추적 및 예측을 위한 보고서 작성 시스템을 구현한 실예를 나타낸 구성도이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram illustrating a narrative report generating system for recognizing, tracking, and predicting a vehicle and a suspect using a CCTV image information according to an embodiment of the present invention; FIG.
BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]
FIG. 3 is an internal configuration view of a video object recognition engine according to an exemplary embodiment of the present invention; FIG.
4 is an internal configuration diagram of a dragon object recognition unit according to an embodiment of the present invention;
5 is an internal configuration diagram of a symptom analyzing unit according to an embodiment of the present invention;
FIG. 6 is an internal configuration diagram of an object-relational-aware type processing unit according to an embodiment of the present invention; FIG.
FIG. 7 is an internal configuration view of a report output unit according to an exemplary embodiment of the present invention; FIG.
8 is an internal configuration view of an application service unit according to an embodiment of the present invention;
9 is a flowchart illustrating a method for generating intelligent information on a single object and a composite object in a report generating method for recognizing, tracking, and predicting a vehicle and a suspect using CCTV image information according to an exemplary embodiment of the present invention FIG.
FIG. 10 is a flowchart for distinguishing objects by inputting image data according to an embodiment of the present invention; FIG.
11 is a flowchart for tracking or predicting a movement path of a dragon object from an object distinguished from image data according to an embodiment of the present invention;
12 is a flowchart for generating and delivering a scenario based on intelligent information according to an embodiment of the present invention;
FIG. 13 is a flow chart illustrating application of intelligent information according to an embodiment of the present invention. FIG.
14 is a flowchart illustrating a method of outputting a final report by applying intelligent information according to an embodiment of the present invention.
15 is a block diagram illustrating an embodiment of a report generating system for recognizing, tracking, and predicting a vehicle and a suspect using the CCTV image information according to an embodiment of the present invention.

먼저, 도 1을 참조하여 CCTV 영상정보를 이용한 용의차량 및 용의자의 인식, 추적 및 예측을 위한 보고서 작성 시스템의 구성 및 동작을 상세하게 설명한다.First, the construction and operation of a report generating system for recognizing, tracking and predicting a vehicle and a suspect vehicle using CCTV image information will be described in detail with reference to FIG.

본 발명은 기존 VMS(1000)에 의해 관리되는 CCTV또는 데이터 저장부(2000)에 저장된 영상데이터를 VMS(1000)를 통해 입력 받아 입력된 영상데이터를 객체정보 수집부(3100)에 네트워크(4000)를 통해 전달한다.  The present invention is characterized in that the CCTV managed by the existing VMS 1000 or the image data stored in the data storage unit 2000 is received through the VMS 1000 and the input image data is transmitted to the object information collection unit 3100 through the network 4000. [ Lt; / RTI >

도 2에 도시된 바와 같이 영상객체인식엔진부(3110)는 입력된 상기 영상데이터로부터 색깔 및 모양변화와 움직임의 변화등을 통하여 배경 및 단일객체들을 구분한다. 용의객체 인식부(3120)은 구분된 상기 단일객체에 포함된 다양한 사물 및 사람에 대한 객체들중에서 시스템이 특정한 객체들(특정 사물, 사람 및 인상착의, 차량)을 인식하고 이를 분리해 내어 테깅하고, 테깅 메타데이터를 데이터 저장부(2000)에 저장하고, 용의객체를 구별한다. As shown in FIG. 2, the image object recognition engine 3110 distinguishes the background and single objects from the input image data through color and shape changes and movement changes. The object recognizing unit 3120 recognizes specific objects (specific objects, people and impressions, vehicles) among the objects of various objects and people included in the separated single object, separates them, Stores the tagging metadata in the data storage unit 2000, and distinguishes the objects.

도 3에 도시된 바와 같이 영상입력부(3111)는 상기 영상데이터를 VMS(1000)를 통해 하나 혹은 동시에 수천개 이상이 동영상 스트리밍 데이터를 입력받아 분산 처리 방식으로 입력된 영상을 처리하는 역할을 담당한다. 상기 영상입력부(3111)로 입력된 영상데이터에 포함되어 있는 객체들을 객체인식엔진부(3112)는 HMM(Markov Model)이나 GMM(Gaussian Mixture Model), 딥뉴럴네트워크, LSTM(Long short-term memory)등의 알고리즘을 이용하여 배경과 객체를 구분하고 객체들에 테두리를 쳐서(엣지) 사용자들이 GUI(Graphic User Interface)상에서 객체를 구분하기 쉽게 해준다. 이때 객체인식엔진부(3112)를 통해 구분된 객체를 일반객체라 한다.  As shown in FIG. 3, the video input unit 3111 receives video streaming data of one or more video streaming data through the VMS 1000, and processes a video stream input through a distributed processing method . The objects recognized by the image data inputted to the image input unit 3111 may be recognized by an object recognition engine unit 3112 using an HMM (Markov Model), a Gaussian Mixture Model (GMM), a deep neural network, a long short-term memory (LSTM) (Edge) to distinguish objects on the GUI (Graphic User Interface). At this time, the object identified through the object recognition engine 3112 is referred to as a general object.

도 4에 도시된 바와 같이 객체인식엔진부(3112)를 통해 구별된 일반객체를 입력으로,As shown in FIG. 4, the general object distinguished through the object recognition engine 3112 is input,

사물 인식부(3121)는 도로나 건물내에서 나타나는 사물의 모양,색깔,위치 등의 정보를 사용하여 사물객체를 인식한다. 이때 사물객체로는 안경/가방/모자/옷 등과 같은 사물을 나타낸다. 상기 일반객체를 입력으로 사람 인식부(3122)는 사람에 대한 인상착의로서 상/하의 색깔, 대략 키, 사물객체(안경/가방/목자/옷 등)을 착용/탈의/교체했는지의 여부를 통해 사람객체를 인식한다. 상기 일반객체를 입력으로 상기 사물객체 중에서 특히 차량은 차량 인식부(3123)을 통해 별도로 관리되는데, 차종, 제조사, 모델명, 색깔을 구별하고 차량번호판의 번호를 인식하여 차량객체를 구별한다. 구별된 상기 객체(사물객체, 사람객체, 차량객체)의 정보를 전달받은 징후 분석부(3124)는 범죄 사전/사후 용의 행위를 분석하기 위해 객체들의 움직임과 상태변화에 대한 모니터링을 진행한다. 상기 모니터링된 용의 행위를 용의 이벤트객체 분석부(3125)가 분석하여 상기 객체들 중에서 용의객체를 구별한다.The object recognition unit 3121 recognizes object objects using information such as the shape, color, and position of objects appearing on the road or building. In this case, object objects represent objects such as glasses, bags, hats, clothes, and the like. The person recognizing unit 3122 recognizes the person as an impression of a person by inputting the general object, and determines whether or not the color, the key, and the object object (eyeglasses / bag / shepherd / Recognize human objects. Among the object objects, the vehicle is separately managed through the vehicle recognizing unit 3123 by inputting the general object. The car object is distinguished by distinguishing the model, the manufacturer, the model name, the color, and the license plate number. The symptom analysis unit 3124 receiving the information of the objects (object object, human object, vehicle object) distinguished distinguishes the movement of the objects and the state change in order to analyze the behavior of the crime dictionary / posture. The event object analyzing unit 3125 analyzes the monitored actions and distinguishes the objects from the objects.

도 5에 도시된 바와 같이, 긴급이벤트 분석부(3124a)는 모니터링을 통해 폭탄테러, 폭력사건, 절도사건 등의 사건이벤트를 구별하여 이벤트 관리부(3124c)에 전달하고, 일반이벤트 분석부(3124b)는 교통사고, 건널목에 사람이 정지해 있는 상황 등의 사건이벤트를 구별하여 이벤트 관리부(3124c)에 전달한다. 사건이벤트를 전달받은 이벤트 관리부(3124c)는 사건이벤트들의 우선순위 및 정확도를 산출하고 사건이벤트와 관련된 객체정보와 사건이벤트 이력을 관리하고, 장기간 저장이 필요할 경우 데이터 저장부(2000)에 저장한다. 긴급이벤트 분석부(3124a)는 사람객체가 가방 등을 놓고 멀어져 가는 상황 등을 인식하는 것을 통해 폭탄테러와 같은 특이 상황을 인지하고, 사람객체가 담이나 벽을 오르는 상황을 인지하여 사건이벤트를 생성한다. 또한 일반이벤트 분석부(3124b)는 차량객체간 충돌을 인지하거나 건널목에 차량객체가 이동중인 가운데 사람객체가 건널목 한가운데에 정지해 있는 상황 등을 인지하여 사건이벤트를 생성한다.5, the emergency event analysis unit 3124a distinguishes event events such as bomb terrorism, violent events, and theft events through monitoring and transmits them to the event management unit 3124c. The general event analysis unit 3124b, And event events such as a traffic accident, a situation where a person is stopped at the crossing, and the like to the event management unit 3124c. The event management unit 3124c receiving the event event calculates the priority and the accuracy of the event events, manages the object information and the event event history related to the event event, and stores the event information and the event event history in the data storage unit 2000 when the long-term storage is needed. The emergency event analyzer 3124a recognizes a specific situation such as a bomb terror through recognizing a human object moving away from a bag or the like, recognizes a situation where a human object climbs a wall or a wall, generates an event event do. In addition, the general event analyzer 3124b recognizes a collision between vehicle objects, or recognizes a situation in which a human object is stopped in the middle of a crossing while a vehicle object is moving at a crossing, and generates an event event.

용의객체 인식부(3120)는 이벤트 관리부(3124c)에서 생성된 사건이벤트와 사건이벤트를 발생시킨 객체 정보들을 사용하여 용의객체를 생성하고, 용의객체 정보를 객체관계 인지형처리부(3200)에 전달한다. 객체관계 인지형 처리부(3200)는 상기 단일객체 및 복합객체, 사건이벤트, 용의객체 정보를 기반으로 생성된 지능형 정보를 저장한다. 상기 복합객체는 단일 시·공간 정보상에서 사건이벤트를 발생시킨 단일객체들을 여러개 묶어 복합적인 여러 개의 시·공간 정보를 분석하여 사건이벤트를 발생시킨 단일객체들간의 연관관계를 추론하고 상관 관계가 있는 단일객체들을 하나의 용의객체로 지정할 수 있는 단일객체들의 집합이다.The object recognition unit 3120 generates an event object using the event information generated by the event management unit 3124c and the object information that generated the event event, . The object relationship cognitive type processing unit 3200 stores intelligent information generated based on the single object, the composite object, the event event, and the object information. The complex object classifies several single objects that generate event events in a single temporal / spatial information, analyzes complex multiple temporal / spatial information, deduces the association between single objects that generate event events, It is a set of single objects that can designate objects as a single object.

도 6에 도시된 바와 같이, 이벤트 추적부(3210)는 단일객체 또는 복합객체를 지능형 정보를 사용하여 용의객체를 지목하고 지목된 용의객체의 사건이벤트 진행상황을 이벤트 관리부(3124c)로부터 전달 받아 용의객체를 추적하고, 도주경로를 예측하는 역할을 담당한다. 상호관계 인지부(3220)는 상기 용의객체가 생성하는 사건이벤트들과 단일객체 또는 복합객체들이 생성하는 사건이벤트들간의 상호 관계성을 분석하여 도주경로 추적 또는 추적경로 예측의 정확성을 높여준다. 이때 추적되는 용의객체의 현재 이동상황 및 예상경로를 디스플레이되고 있는 모니터 화면에 표시되고, 용의객체위 위치는 지도와 연동하여 지도상에 표시될 수 있다. 객체관계 인지형처리부(3200)는 이때 산출된 데이터를 장기간 저장이 필요할 경우 데이터 저장부(2000)에 저장한다.6, the event tracing unit 3210 uses a single object or a composite object to point to a dragon object and transmits an event event progress of the dragged object from the event management unit 3124c It tracks the object of acceptance and plays the role of predicting escape route. The interrelation recognition unit 3220 analyzes the correlation between the event events generated by the forgery object and the event events generated by the single object or the composite object, thereby enhancing the accuracy of escape route tracking or tracking route prediction. At this time, the current movement status and the expected path of the dragged object to be tracked are displayed on the displayed monitor screen, and the dragged object position can be displayed on the map in conjunction with the map. The object relation awareness type processing unit 3200 stores the calculated data in the data storage unit 2000 when it is necessary to store the data for a long period of time.

도 7에 도시된 바와 같이, 나레이티브 보고서 출력부(3300)는 객체관계 인지형처리부(3200)로부터 추적하는 지능형 정보, 용의객체 정보, 용의객체들 사이의 상호 연관성 정보를 전달받아 나레이톨로지 구축부(3310)가 관리하는 나레이톨리지를 기반으로 나레이션 표현부(3320)가 형식 시나리오를 생성하고, 수신 대상자에 맞는 언어의 나레이션을 시나리오 생성부(3330)에 전달한다. 상기 나레이션의 언어는 정보를 수신하는 대상자에 따라 변경될 수 있다. 시나리오 생성부(3330)는 정보를 전달해야 되는 대상자리스트에 기록된 정보 수신 대상자를 선택하고, 정보를 수신 받는 대상자가 이해할 수 있는 시나리오로 요약하여 대상자에게 전달한다. 이때 전달방법은 핸드폰 문자, FAX, 메신저 텍스트, 프린터 등의 수신 단말장치를 사용할 수 있다.7, the narrative report output unit 3300 receives intelligence information, object information for use, and correlation information between the objects for tracking, which are tracked from the object relationship awareness type processing unit 3200, The narration expression unit 3320 generates a type scenario based on the Naray-Tolerance managed by the logic building unit 3310 and delivers the narration of the language suited to the receiver to the scenario generation unit 3330. [ The language of the narration can be changed according to the person who receives the information. The scenario generating unit 3330 selects an information receiving subject recorded in the list of subjects to which information is to be transmitted and summarizes the information into a scenario that the receiving subject can understand and delivers the information to the subject. At this time, a reception terminal such as a mobile phone character, a facsimile, an instant messenger text, a printer, or the like can be used as the delivery method.

도 8에 도시된 바와 같이, 응용 서비스부(3400)는 객체정보 수집부(3100)와 객체관계 인지형처리부(3200)를 통해 생성된 객체(사람객체, 사물객체, 차량객체, 용의객체)와 사건이벤트들 간의 상호관계를 통해 생성된 지능형 정보를 사용하여 서비스한다. 용의객체 추적부(3410)는 지능형 정보에 있는 객체들 중에서 범죄가 의심되는 객체를 선택하여 용의객체로 지정하고 지정된 용의객체를 추적 모니터링 한다. 용의객체 검색부(3420)는 지능형 정보상에서 검색하려는 객체 특성들을 선택하여 선택된 특성값을 포함하고 있는 객체를 용의객체로 검색하고, 용의객체로 지정된 객체 리스트와 용의객체의 시공간 정보, 개수, 우선순위 등의 정보를 알려준다. 그리고, 알람, 보고서 출력부(3430)는 나레이션 시나리오 생성 기술기반으로 상기 용의객체에 대한 범죄 알람 및 이력을 보고해준다. 범죄발생 예측 서비스부(3440)는 데이터저장부(2000)에 누적된 상기 지능형 정보를 기반으로 지도상의 특정 지역이나 시간대에 범죄발생을 예측을 하여 사용자에게 알려주는 역할을 담당한다. 8, the application service unit 3400 includes an object information collecting unit 3100 and objects (a human object, a object object, a vehicle object, a dragon object) generated through the object relationship awareness processing unit 3200, And event events through the use of the generated intelligent information. Object tracking unit 3410 selects an object suspected of being a crime among the objects in the intelligent information, designates it as a dragon object, and tracks the object for the designated dragon. The object searching unit 3420 searches the intelligent information for the object having the selected property value by selecting the object characteristics to be searched on the intelligent information and extracts the space time information of the object list specified by the used object, Number, priority, and other information. The alarm and report output unit 3430 reports the crime alarm and history of the dragon object based on the narration scenario generation technique. The crime occurrence prediction service unit 3440 plays a role of predicting the occurrence of a crime in a specific region or time zone on the map based on the intelligent information accumulated in the data storage unit 2000 and informing the user.

상기 지능형 정보는 도로 및 건물내 CCTV영상으로부터 실시간 혹은 비실시간 영상데이터 분석을 통해 생성된 객체(사람객체, 사물객체, 차량객체) 정보들 또는 상기 객체들의 움직임과 상태변화를 통해 생성된 사건이벤트들 또는 상기 객체 정보들과 상기 사건이벤트들의 분석을 통해 추출된 용의객체 정보들의 조합으로 구성될 수 있다. 이때 용의객체란 범죄관련 관찰될 수 있는 여러 객체를 의미한다.(예: 차량, 사람, 범죄행위 등) 또한 상기 지능형 정보는 기존에 경찰에서 보유한 범인 데이터베이스와 연계하여 업그레이드 될 수 있다.The intelligent information includes information of objects (human object, object object, vehicle object) generated through real-time or non-real-time image data analysis from roads and building CCTV images or event events Or a combination of object information extracted from the object information and analysis of the event events. In this case, the object of dragon means various objects that can be observed related to the crime (eg, vehicle, person, criminal behavior, etc.). Furthermore, the intelligent information can be upgraded in connection with the existing criminal database held by the police.

이하, 도 9 내지 도 11을 참조하여 본 발명에 따른 CCTV 영상정보를 이용한 용의차량 및 용의자의 인식, 추적 및 예측을 위한 보고서 작성 방법에서 단일객체 및 복합객체에 대한 지능형 정보를 생성하는 방법에 대하여 상세하게 설명한다.Hereinafter, a method for generating intelligent information on a single object and a composite object in a report generating method for recognizing, tracking and predicting a vehicle and a suspect using the CCTV image information according to the present invention will be described with reference to FIGS. 9 to 11 Will be described in detail.

도 9에 도시된 바와 같이, 객체정보수집부(3100)는 VMS(1000)로부터 영상데이터를 입력받아 영상데이터로부터 단일객체를 구별하여 인식하고 용의객체를 구별한다.(S100)9, the object information collecting unit 3100 receives image data from the VMS 1000, distinguishes and recognizes a single object from the image data, and distinguishes the objects for use (S100).

도 10을 참조하여 보다 구체적으로 영상데이터로부터 용의객체를 구별하는 방법을 설명하면, 영상객체인식엔진부(3110)는 도로 및 건물내의 CCTV 영상을 VMS(1000)를 사용하여 실시간으로 직접 로딩하거나 오프라인에 저장된 동영상 데이터를 간접로딩하고 HMM, GMM, 디뉴럴네트워크나 LSTM 등의 알고리즘을 사용하여 영상에 포함된 일반객체를 인식한다.(S110)  Referring to FIG. 10, a method of distinguishing a dragon object from image data will be described. The image object recognition engine 3110 directly loads a CCTV image in the road and a building using the VMS 1000 in real time Indirectly loads video data stored offline and recognizes general objects included in the image using algorithms such as HMM, GMM, a neural network, and LSTM (S110)

용의객체인식부(3120)는 상기 일반객체에서 필터링을 통해 단일객체(사물객체, 사람객체, 차량객체)를 분리해 내어 테깅하고 테깅 메타데이터를 저장하고, 용의객체를 구별해 낸다.(S120)The object recognition unit 3120 separates a single object (object object, human object, and vehicle object) through filtering in the general object, stores the tagging metadata, stores the tagging metadata, and distinguishes the object. S120)

상술한 바와 같이 용의객체 인식부(3120)에서 저장한 단일객체의 테깅 메타데이터를 사용하여 객체관계인지형처리부(3200)는 상기 단일객체 및 복합객체에 대해서, 지능형 정보를 추출 저장하고, 상기 지능형 정보의 상호관계성을 분석하여 복잡한 범죄들간의 상호관계성을 구별하여 표시하고 저장한다.(S200)As described above, the terrain processing unit 3200, which is an object relation, extracts and stores intelligent information for the single object and the complex object using the tagging metadata of a single object stored in the object recognition unit 3120, The interrelationships of the information are analyzed and the interrelationships between the complex crimes are distinguished, displayed and stored (S200).

도 11를 참조하여 보다 구체적으로 지능형 정보를 저장하고 상호관계성을 분석하는 방법을 설명하면, 이벤트 추적부(3210)는 단일객체 정보 또는 단일 시·공간 정보에 대해서 단일객체 정보를 다수 연결하여 복합적인 시.공간 상황에 대해서 복합객체 정보를 추출하고, 이를 사용하여 상기 용의객체의 사건이벤트를 처리하고, 용의객체의 도주경로를 추적하고 이때 발생된 지능형 정보들을 저장한다.(S210)11, a method of storing intelligent information and analyzing interrelationships will be described. The event tracking unit 3210 may combine a plurality of single object information for a single object information or a single time / space information, Space object, extracts complex object information from the object, processes event events of the object, tracks the escape route of the object, and stores the generated intelligent information (S210).

상호관계 인지부(3220)는 상기 단일객체 및 복합객체의 정보와 사건이벤트들을 입력으로 하여 사건이벤트들간의 상호관계성을 복합적 시.공간상에서 분석하고 이때 발생한 상호관계성 정보를 저장한다.(S220)The interrelation recognition unit 3220 receives the information of the single object and the complex object and event events, analyzes the interrelation between event events in a complex time space, and stores the interrelation information generated at this time. )

이하, 도 12 내지 도 14를 참조하여 본 발명에 따른 CCTV 영상정보를 이용한 용의차량 및 용의자의 인식, 추적 및 예측을 위한 보고서 작성 방법에서 단일객체 및 복합객체의 지능형 정보를 사용하여 알람 및 보고서를 추력하거나 응용서비스를 제공하는 방법에 대한 과정을 도시한다.Hereinafter, with reference to FIG. 12 to FIG. 14, a method of generating a report for recognition, tracking and prediction of a vehicle and a suspect using CCTV image information according to the present invention, And how to provide application services.

도 12에 도시된 바와 같이, 응용서비스부(3400)의 GUI를 통해 용의자 또는 용의 차량의 검색, 추적, 범죄발생 예측 및 알람.보고서 서비스를 선택하고 상기 GUI가 제공하는 질의어 창에서 한국어 자연어 문장 혹은 키워드 중심의 질의를 입력받는다.(S300) 12, a user selects a suspect or a dragon's vehicle search, trace, crime occurrence prediction, alarm, and report service through the GUI of the application service section 3400 and displays a Korean natural language sentence Or a keyword-based query is input (S300)

요청한 서비스가 검색, 추적, 예측이며 동시에 키워드 중심 출력이라면, 저장된 지능형 정보를 로딩하여 정보를 얻기위한 추적객체로 지정하고 추적객체의 검색, 추적, 예측 및 알람정보를 추출하여 키워드 중심 결과를 출력한다.(S400) If the requested service is retrieval, tracking, and forecasting, and at the same time the keyword-centric output, the stored intelligent information is loaded as a tracking object for obtaining information, and the retrieval, tracking, prediction and alarm information of the tracking object is extracted and the keyword- (S400)

도 12를 참조하여 보다 구체적으로 용의객체의 검색, 추적, 예측 및 알람정보를 추출하여 결과를 출력하는 방법을 설명하면, 상기 입력받은 질의가 용의객체 추적이라면 질의 조건에 맞는 용의객체를 지정하고, 용의객체 추적부(3410)는 지능형 정보상의 사건이벤트를 사용하여 지정된 용의객체의 이동 경로를 추적하여 알려준다. (S410)Referring to FIG. 12, a method for retrieving, tracking, predicting, and alarming information of a dragon object and outputting a result will be described. If the input query is an object trace for the input query, And the object tracking unit 3410 uses the event event on the intelligent information to track the movement path of the designated object. (S410)

상기 입력받은 질의가 용의객체 검색이라면 용의객체 검색부(3420)는 지능형 정보들 상에서 질의 조건을 입력값으로 용의객체를 검색하고, 용의객체로 지정된 객체 리스트와 용의객체 정보를 알려준다. (S420) If the input query is an object search for the object, the object search unit 3420 searches the intelligent information for the query object with the input value, and notifies the object list and the object information of the object designated by the object . (S420)

상기 입력받은 질의가 범죄발생 예측이라면 범죄발생 예측서비스부(3440)는 지능형 정보를 바탕으로 질의된 특정 지역이나 시간대에 대한 범죄발생 예측값을 결과로 알려준다.(S430)If the input query is a crime occurrence prediction, the crime occurrence prediction service unit 3440 informs the result of the crime occurrence prediction for the specific region or time zone that is queried based on the intelligent information (S430)

상기 입력받은 질의가 알람이라면 알람, 보고서 출력부는 질의조건에 맞는 사건이벤트 발생시 나레이션 시나리오 생성기술기반으로 상기 용의객체에 대한 범죄 알람 및 이력을 알려준다.(S440)If the input inquiry is an alarm, the alarm and report output unit informs the crime alarm and history of the forgery object based on the narration scenario generation technique when an event event corresponding to the query condition occurs (S440)

상술한 바와 같이 요청한 서비스가 보고서 출력이면 결과물을 보고서형태로 출력하기 위해 나레이티브보고서 출력부(S3300)를 호출하여 결과를 출력한다.(S500)If the requested service is a report output as described above, the report output unit S3300 is called to output the result in a report form, and the result is output (S500)

도 14를 참조하여 보다 구체적으로 보고서를 출력하는 방법을 설명하면, 나레이션 표현부(3320)는 나레이톨로지 구축부(3310)가 관리하는 나레이톨로지를 사용하여 용의객체 정보를 형식 시나리오와 한국어 나레이션을 생성한다.(S510)Referring to FIG. 14, a narration expression unit 3320 outputs a report using a narrative structure managed by the narlitology construction unit 3310, The narration is generated (S510)

시나리오 생성부(3330)는 상기 생성된 나레이션을 정보수신 대상자에 맞는 언어와 시나리오로 변환한 후 정보수신 대상자가 갖고 있는 수신 단말장치에 전달한다.(S520) The scenario generating unit 3330 converts the generated narration into a language and a scenario suitable for the information receiving subject, and then transmits the converted narration to the receiving terminal device of the information receiving subject (S520)

도 15는 본 발명의 일실시예에 따라서, CCTV 영상정보를 이용한 용의차량 및 용의자의 인식, 추적 및 예측을 위한 보고서 작성 시스템을 구현한 실예를 나타낸 구성도이다. 그러나, 도 15는 본 발명의 시스템을 구현한 일실시예로서 여러가지 다양한 구현예가 가능하다.15 is a block diagram illustrating an embodiment of a report generating system for recognizing, tracking, and predicting a vehicle and a suspect using the CCTV image information according to an embodiment of the present invention. However, FIG. 15 is an embodiment implementing the system of the present invention, and various various implementations are possible.

이상과 같이 본 발발명의 바람직한 실시예에 대하여 설명하였지만 본 발명은 이에 한정되지 않으며, 다음의 특허청구범위를 일탈하지 않고도 당분야의 통상의 기술자에 의해 여러 가지 변경 및 변형이 가능함은 자명한 것이다.Although the preferred embodiments of the present invention have been described above, the present invention is not limited thereto, and various changes and modifications may be made by those skilled in the art without departing from the scope of the following claims.

1000: VMS 2000: 데이터 저장부
3000: 본 발명 시스템 3100: 객체정보 수집부
3110: 영상객체인식 엔진부 3111: 영상 입력부
3112: 객체인식 엔진부 3120: 용의객체 인식부
3121: 사물 인식부 3122: 사람 인식부
3123: 차량 인식부 3124: 징후 분석부
3124a: 긴급이벤트 분석부 3124b: 일반이벤트 분석부
3124c: 이벤트 관리부 3125: 용의 이벤트객체 분석부
3200: 객체관계 인지형처리부 3210: 이벤트 추적부
3220: 상호관계 인지부 3300: 나레이티브 보고서 출력부
3310: 나레이톨로지 구축부 3320: 나레이션 표현부
3330: 시나리오 생성부 3400: 응용 서비스부
3410: 용의객체 추적부 3420: 용의객체 검색부
3430: 알람, 보고서출력부 3440: 범죄발생 예측 서비스부
4000: 중앙처리장치(CPU) 5000: 그래픽 처리부
6000: 네트워크
1000: VMS 2000: Data storage unit
3000: Inventive system 3100: Object information collection unit
3110: image object recognition engine unit 3111: image input unit
3112: object recognition engine unit 3120: object recognition unit
3121: object recognition unit 3122: human recognition unit
3123: vehicle recognition unit 3124: symptom analysis unit
3124a: emergency event analysis unit 3124b: general event analysis unit
3124c: an event management unit 3125:
3200: Object relation awareness type processing unit 3210: Event tracking unit
3220: Correlation relation recognition part 3300: Narrative report output part
3310: Naray Tallocation building part 3320: Narration presentation part
3330: scenario generation unit 3400: application service unit
3410: object search unit 3420: object search unit
3430: alarm, report output unit 3440: crime prediction service unit
4000: central processing unit (CPU) 5000: graphics processing section
6000: Network

Claims (15)

CCTV 영상정보를 VMS(Video management System)를 통해 실시간 입력 받거나 저장된 영상을 입력 받은후, 적어도 용의차량과 용의자에 대한 인상착의에 관한 객체를 포함하는 영상내 객체에 관한 객체 인식을 하고 상기 객체 인식된 인식정보에 대한 테깅을 저장하고, 상기 객체들이 시.공간 상에서 이동할 때 이동정보를 추가로 인식하고, 이들 인식정보들을 기반으로 응용서비스를 제공할 수 있는 시스템에 있어서, 상기 응용서비스는 검색, 추적, 예측, 자동 알람 및 보고서를 출력하거나 자동으로 긴 동영상의 내용 중 요청한 인물.사물.이벤트들에 대한 축약요구사항을 처리하여 나레이티브 보고서작성 혹은 비디오 요약을 해주는 나레이티브 보고서작성 중 하나를 적어도 포함하고, 상기 시스템은,
CCTV 영상을 입력하여 상기 응용서비스 제공에 필요한 최소한의 단일객체들을 구분하여 인식하고, 상기 단일객체들 중에서 특정 용의객체를 구분하는 객체정보수집부와;
상기 단일객체 및 발생한 사건이벤트들이 서로 다른 시.공간 상에서 복합되어 나타나는 움직임 및 변화를 분석하여 구성된 복합객체들에 대해서, 지능형 정보를 추출 및 저장하고, 상기 지능형 정보의 상호 관계성을 구별하여 복잡한 범죄들 간의 상호 관계성을 구별하는 객체관계인지형 처리부와;
상기 단일객체 및 복합객체의 분석을 통해 추적된 범죄에 대한 알람 및 보고서, 또는 전체 내용을 요약해서 단문 또는 장문의 자연어 표현을 동반할 수 있는 나레이션을 적어도 포함하는 보고서로 출력하는 나레이티브 보고서 출력부와;
저장된 상기 지능형 정보를 사용하여 범죄 해결을 위한 상기 응용서비스로 활용하는 사용자 인터페이스를 제공하는 응용서비스부;
를 포함하고,
상기 나레이티브 보고서 출력부는,
나레이션 생성을 위한 나레이톨로지를 관리하는 나레이톨로지 구축부와;
상기 나레이톨로지 기반으로 형식 시나리오 생성 및 한국어 나레이션 표현을 하는 나레이션 표현부와;
정보 전달의 대상에 따라 시나리오를 요약하고 구체화하여 지정된 언어로 표현하는 시나리오 생성부;
를 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템.
The CCTV image information is received in real time via a VMS (Video Management System) or received as a stored image, at least an object related to an object in an image including an object related to a vehicle and a suspect, A system for storing tagging information on the recognition information, further recognizing movement information when the objects move in the time space, and providing an application service based on the recognition information, Generate narrative reports or narrative reports that provide video summaries by processing tracking requirements, predicting, automatic alarms and reports, or automatically handling the abbreviated requirements for the person, The system comprising:
An object information collecting unit for inputting a CCTV image to separately recognize a minimum number of single objects necessary for providing the application service and distinguishing objects for specific use among the single objects;
The intelligent information is extracted and stored for the composite objects constructed by analyzing the movement and the change of the single object and the event events occurring in the different time and space, and the intelligent information is distinguished from the interrelationship, A terrain processing unit which is an object relation for distinguishing mutual relations among the plurality of objects;
An alarm and report for the crime tracked through the analysis of the single object and the composite object or a narrative report output unit for outputting at least a narrative which can summarize the entire contents and narration that can accompany a natural language expression of a short- Wow;
An application service unit for providing a user interface used as the application service for resolving a crime using the stored intelligent information;
Lt; / RTI >
The narrative report output unit includes:
A neural network construction unit for managing a neural network for generating a narration;
A narration expression unit for generating a type scenario and a Korean narration expression based on the Naritology;
A scenario generating unit for summarizing and specifying the scenarios according to the information delivery object and expressing them in a designated language;
And a navigation report generating system for recognizing, tracking, searching, and predicting events and objects of the cognitive type vehicle and the impression landing.
제 1항에 있어서,
상기 객체정보수집부는,
도로 및 건물내의 CCTV영상을 VMS시스템을 사용하여 실시간으로 직접 로딩하거나 또는 오프라인에 저장된 동영상 데이터를 간접 로딩하여 스트리밍데이터를 입력하고 영상에 포함된 일반객체들을 인식하는 것을 포함하는 영상객체인식 엔진부와;
상기 일반객체에 포함된 다양한 사물 및 사람에 대한 객체들중 시스템이 특정한 객체들만(특정한 객체는 차량을 포함하는 특정사물, 사람 및 인상착의중 적어도 하나를 포함)을 인식하고 이를 분리해 내어 테깅하고 테깅 메타데이타를 저장하고, 저장된 상기 객체로부터 용의객체를 구별하는 용의객체인식부;
를 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템.
The method according to claim 1,
The object information collecting unit,
A video object recognition engine unit for inputting streaming data by indirectly loading video data stored in offline and real-time loading of CCTV images in roads and buildings using a VMS system, and recognizing general objects included in the video; ;
Among the objects for various objects and people included in the general object, the system recognizes only specific objects (a specific object includes at least one of specific objects including people, people, and impressions), separates and tags them An object recognition unit for storing the tagging meta data and distinguishing a used object from the stored object;
And a navigation report generating system for recognizing, tracking, searching, and predicting events and objects of the cognitive type vehicle and the impression landing .
제 2항에 있어서,
상기 영상객체인식 엔진부는,
인지형 범죄인식 추적, 검색을 위한 나레이티브 보고서 작성 시스템이 필요로 하는 영상 스트리밍 데이타를 입력받기 위한 인터페이스로서, 하나의 스트리밍 또는 동시에 수천개 이상의 스트리밍 데이터를 병렬 또는 분산 처리 방식으로 입력 받을 수 있는 영상입력부와;
동영상에 포함되어 있는 객체들을 인식하기위해 HMM(Hidden Markov Model)이나 GMM(Gaussian Mixture Model), 딥뉴럴네트워크나 LSTM(Long short-term memory) 중 적어도 하나를 포함하는 알고리즘을 이용하여 객체들에 테두리를 쳐서(엣지) 객체를 구분하고, 인식하는 객체인식 엔진부;
를 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템.
3. The method of claim 2,
Wherein the image object recognition engine unit comprises:
It is an interface for receiving input of video streaming data required by cognitive crime awareness tracking and narrative reporting system for retrieval. It is an interface that can input one streaming or several thousand streaming data at the same time by parallel or distributed processing An input unit;
An algorithm including at least one of a hidden markov model (HMM), a gaussian mixture model (GMM), a deep neural network, and a long short-term memory (LSTM) is used to recognize objects included in a moving image. An object recognizing engine unit for recognizing and recognizing an object by touching an edge;
And a navigation report generating system for recognizing, tracking, searching, and predicting events and objects of the cognitive type vehicle and the impression landing .
제 2항에 있어서,
상기 용의객체 인식부는,
상기 일반객체로부터 적어도 도로나 건물내에 나타나는 사물을 포함하는 사물객체를 인식하는 사물 인식부와;
상기 일반객체로부터 사람에 대한 인상착의로서 상/하의 색깔, 대략 키, 안경/가방/모자 착용여부 중 적어도 하나를 포함하는 사람객체를 구별하는 사람 인식부와;
상기 일반객체로부터 차량의 차종, 제조사, 모델명, 색깔, 번호판 인식 중 적어도 하나를 포함하는 차량객체를 구별하는 차량 인식부와;
상기 영상객체인식 엔진부를 통해 추출된 일반객체로부터 범죄와 관련하여 관찰될 수 있는 단일객체(사람객체, 사물객체, 차량객체 중 적어도 하나를 포함)의 모양, 상태 및 움직임을 분석하여 범죄의 사전/사후 용의 행위 분석을 수행하는 징후 분석부와;
상기 용의 행위와 관련된 단일객체 또는 단일객체 단위로 용의객체를 구별하는 용의 이벤트객체 분석부;
를 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템.
3. The method of claim 2,
The object recognizing unit recognizes,
An object recognition unit for recognizing an object object including at least a road or an object appearing in the building from the general object;
A human recognition unit for distinguishing a human object including at least one of up / down color, approximate key, wearing glasses / bag / hat as impression of a person from the general object;
A vehicle recognition unit for distinguishing a vehicle object including at least one of a vehicle type, a maker, a model name, a color, and a license plate recognition from the general object;
(Including at least one of a human object, a object object, and a vehicle object) that can be observed with respect to a crime from a general object extracted through the image object recognition engine, A symptom analysis unit for performing analysis of post-use behavior;
An event object analyzing unit for identifying a single object or an object for use in a unit of a single object related to the action;
And a navigation report generating system for recognizing, tracking, searching, and predicting events and objects of the cognitive type vehicle and the impression landing .
제 4항에 있어서,
상기 징후 분석부는,
도로상에서 관찰되는 폭탄테러와 같은 특이 상황 이나 폭력사건, 절도사건과 같은 사건이벤트를 구별하는 긴급이벤트 분석부와;
교통사고, 건널목 노인, 장애자 중 적어도 하나를 포함하는 장애 상황을 분석하여 경찰출동이 필요한 사건이벤트를 분석하는 일반이벤트 분석부와;
상기 사건이벤트의 우선순위 및 정확도를 산출하고 사건이벤트 이력(history)을 관리하는 이벤트 관리부;
를 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템.
5. The method of claim 4,
The symptom analyzing unit,
An emergency event analysis unit for distinguishing event events such as a specific situation such as a bombing terrorism observed on the road, violent incidents, and theft incidents;
A general event analyzing unit for analyzing a fault event including at least one of a traffic accident, a crossing elderly person, and a handicapped person and analyzing an incident event requiring a police call;
An event management unit for calculating a priority and an accuracy of the event event and managing an event event history;
And a navigation report generating system for recognizing, tracking, searching, and predicting events and objects of the cognitive type vehicle and the impression landing .
제 1항에 있어서,
상기 객체관계인지형 처리부는,
단일 시·공간 정보에 대해서 단일객체 정보를 다수 연결하여 복합적인 시.공간 상황에 대해서 복합객체 정보와 지능형 정보를 추출하고 이를 사용하여 용의자 및 용의차량으로 지목된 용의객체의 사건이벤트를 처리하고 이를 바탕으로 도주경로 추적을 적어도 포함하는 사건이벤트의 진행을 추적하는 이벤트 추적부와;
상기 사건이벤트들 간의 상호 관계성을 분석하는 상호관계 인지부;
를 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템.
The method according to claim 1,
The terrain processing unit, which is the object relation,
Multiple object information is connected to a single time / space information to extract complex object information and intelligent information for complex time and space situations, and event events of a dragon object identified as a vehicle of a suspect and a dragon are processed An event tracing unit for tracking the progress of the incident event including at least the escape route tracing based on the trajectory tracing;
A correlation relation part for analyzing a correlation between the event events;
And a navigation report generating system for recognizing, tracking, searching, and predicting events and objects of the cognitive type vehicle and the impression landing .
삭제delete 제 1항에 있어서,
상기 응용서비스부는,
범죄가 의심되는 지능형 정보상의 사건이벤트들에서 용의객체를 사용자가 지정하면 이 정보를 바탕으로 용의자를 시.공간상에서 추적하고 모니터링 하는 용의객체 추적부와;
사용자가 필요한 용의객체의 특징 정보를 입력하여 입력값을 만족하는 용의객체를 지능형정보상에서 검색하고 CCTV영상의 시·공간 정보의 위치를 알려주는 용의객체 검색부와;
나레이션 시나리오 생성 기술기반으로 상기 용의객체에 대한 범죄 알람 및 이력을 보고해주는 알람, 보고서출력부와;
누적된 상기 지능형 정보를 바탕으로 한 특정 지역이나 시간대에 관한 범죄발생 예측 서비스부;
를 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템.
The method according to claim 1,
The application service unit,
An object tracking unit for tracking and monitoring a suspect in a time and space based on the information when a user designates an object for use in an event event of intelligent information suspected of crime;
An object retrieval unit for inputting feature information of a necessary object for a user to retrieve an object for the satisfaction of the input value on the intelligent information and informing the location of the temporal / spatial information of the CCTV image;
An alarm and report output unit for reporting a crime alarm and a history of the forgery object on the basis of a narration scenario generation technique;
A crime occurrence prediction service unit for a specific region or time zone based on the accumulated intelligence information;
And a navigation report generating system for recognizing, tracking, searching, and predicting events and objects of the cognitive type vehicle and the impression landing .
제 1항에 있어서,
상기 응용서비스부는,
검색, 추적, 알람.보고서 출력, 예측을 적어도 포함하는 서비스를 제공하고,
한국어 자연어 형태로 사용자(적어도 경찰이 포함됨)의 질의 또는 검색어를 넣을 수 도 있는 고급서비스와, 비교적 단순한 키워드 중심의 일반 서비스를 수동 또는 자동 선택할 수 있으며, 문자 알리미 및 보고서 서비스 또는 전체 내용을 요약해서 요약보고서 또는 요약동영상으로 출력하는 응용서비스는 필히 나레이티브 보고서 작성 및 출력을 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템.
The method according to claim 1,
The application service unit,
Provides services that include at least search, trace, alarm, report output, and forecasting,
You can manually or automatically select advanced services that can include queries or search queries for users in Korean (including at least police) and relatively simple, keyword-centric, general services in a natural language format, summarize text alerts and report services Wherein the application service outputting the summary report or the summary video comprises a preparation and output of a narrative report, and a narrative report generating system for recognizing, tracking, searching, and predicting the events and events of the cognitive vehicle and the impression .
CCTV 영상정보를 이용한 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 방법으로서,
CCTV 또는 VMS로부터 직.간접으로 영상데이터를 입력받아 영상데이터로부터 단일객체를 구별하여 인식하고 용의객체를 구별하는 단계와;
용의객체 인식부에서 저장한 상기 단일객체의 테깅 메타데이터를 사용하여 상기 단일객체 및 복합객체에 대해서, 지능형 정보를 추출 저장하고, 상기 지능형 정보의 상호관계성을 분석하여 복잡한 범죄들간의 상호관계성을 구별하여 표시하고 저장하는 단계;
저장된 상기 상호관계성을 기초로 단문 또는 장문의 자연어 표현을 동반할 수 있는 나레이션을 적어도 포함하는 보고서를 출력하는 단계;
를 포함하고,
상기 보고서를 출력하는 단계는,
나레이톨로지 구축부가 관리하는 나레이톨로지를 사용하여 용의객체 정보를 형식 시나리오와 한국어 나레이션을 생성하는 단계와;
생성된 상기 나레이션을 정보수신 대상자에 맞는 언어와 시나리오로 변환한 후 문장 혹은 동영상을 생성하여 결과물을 내고 이를 정보수신 대상자가 갖고 있는 수신 단말장치에 전달하는 단계;
를 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 위한 나레이티브 보고서 작성 방법.
A method of generating a narrative report for recognizing, tracking, searching, and predicting objects and events of a cognitive vehicle and impression using CCTV image information,
Directly or indirectly receiving image data from a CCTV or a VMS, distinguishing and recognizing a single object from image data, and distinguishing objects of the image;
The intelligent information is extracted and stored for the single object and the complex object using the tagging meta data of the single object stored in the object recognition unit for analyzing the interrelationships of the intelligent information, Displaying and storing the sex distinctively;
Outputting a report including at least a narration that can accompany a natural language expression of a short or long sentence based on the stored correlation;
Lt; / RTI >
The step of outputting the report includes:
Generating a type scenario and a Korean narration for use object information using a neural tile managed by a neural tile construction unit;
Converting the generated narration into a language and a scenario suitable for the information receiver, generating a sentence or a moving picture, transmitting the result, and transmitting the result to a receiving terminal device of the information receiver;
And generating a narrative report for recognizing, tracking, searching, and predicting an object and an event of the cognitive vehicle and the impression.
제 10항에 있어서,
VMS로부터 영상데이터를 입력받아 영상데이터로부터 단일객체를 구별하여 인식하고 용의객체를 구별하는 단계는
도로 및 건물내의 CCTV 영상을 VMS를 사용하여 실시간으로 직접 로딩하거나 오프라인에 저장된 동영상 데이터를 간접로딩하고 HMM, GMM, 디뉴럴네트워크나 LSTM 중 적어도 하나를 포함하는 알고리즘을 사용하여 영상에 포함된 일반객체를 인식하는 단계와;
상기 일반객체에서 필터링을 통해 단일객체(사물객체, 사람객체, 차량객체)를 분리해 내어 테깅하고 테깅 메타데이터를 저장하고, 용의객체를 구별하는 단계;
를 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 방법.
11. The method of claim 10,
The step of recognizing the single object from the image data by receiving the image data from the VMS and distinguishing the object of the image
It is possible to directly load CCTV images in roads and buildings using VMS in real time, or indirectly load offline video data, and use an algorithm including at least one of HMM, GMM, ;
Separating and tagging a single object (object object, human object, vehicle object) through filtering in the general object, storing the tagging meta data, and distinguishing the object for use;
And generating a narrative report for recognizing, tracking, searching, and predicting an object and an event of the cognitive vehicle and the impression.
제 10항에 있어서,
상기 용의객체 인식부에서 저장한 상기 단일객체의 테깅 메타데이터를 사용하여 상기 단일객체 및 복합객체에 대해서, 지능형 정보를 추출 저장하고, 상기 지능형 정보의 상호관계성을 분석하여 복잡한 범죄들간의 상호관계성을 구별하여 표시하고 저장하는 단계는,
상기 단일객체 정보 또는 단일 시·공간 정보에 대해서 단일객체 정보를 다수 연결하여 복합적인 시.공간 상황에 대해서 복합객체 정보를 추출하고, 이를 사용하여 상기 용의객체의 사건이벤트를 처리하고, 용의객체의 도주경로를 추적하고 이때 발생된 지능형 정보들을 저장하는 단계와;
상기 단일객체 및 복합객체의 정보와 사건이벤트들을 입력으로 하여 사건이벤트들간의 상호관계성을 복합적 시.공간상에서 분석하고 이때 발생한 상호관계성 정보를 저장하는 단계;
를 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 방법.
11. The method of claim 10,
The intelligent information is extracted and stored for the single object and the complex object using the tagging meta data of the single object stored in the object recognition unit for the purpose of analyzing the mutual relation of the intelligent information, The step of separately displaying and storing the relationships comprises:
Space information, extracts composite object information for a composite time / space situation by connecting a plurality of single object information to the single object information or single time / space information, processes the event event of the forgery object using the extracted composite object information, Tracking the escape route of the object and storing the generated intelligent information;
Analyzing the interrelationships between event events based on the information of the single object and the composite object and event events, and analyzing the events in the time space and storing the correlation information;
And generating a narrative report for recognizing, tracking, searching, and predicting an object and an event of the cognitive vehicle and the impression.
CCTV 영상정보를 이용한 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 방법으로서,
응용서비스부의 GUI를 통해 용의자 또는 용의 차량의 검색, 추적, 범죄발생 예측 및 알람.보고서 서비스를 선택하고 상기 GUI가 제공하는 질의어 창에서 한국어 자연어 문장 혹은 키워드 중심의 질의를 입력 받는 단계와;
요청한 서비스가 검색, 추적, 예측이며 동시에 키워드 중심 출력이라면, 저장된 지능형 정보를 로딩하여 정보를 얻기위한 추적객체로 지정하고 추적객체의 검색, 추적, 예측 및 알람정보를 추출하여 키워드 중심 결과를 출력하는 단계와;
상기 요청한 서비스가 보고서 출력이면 결과물을 보고서형태로 출력하는 단계;
를 포함하고,
상기 요청한 서비스가 보고서 출력이면 결과물을 보고서형태로 출력하는 단계는, 단문 또는 장문의 자연어 표현을 동반할 수 있는 나레이션을 적어도 포함하는 보고서를 출력하는 단계이며, 상기 보고서를 출력하는 단계는,
나레이톨로지 구축부가 관리하는 나레이톨로지를 사용하여 용의객체 정보를 형식 시나리오와 한국어 나레이션을 생성하는 단계와;
생성된 상기 나레이션을 정보수신 대상자에 맞는 언어와 시나리오로 변환한 후 문장 혹은 동영상을 생성하여 결과물을 내고 이를 정보수신 대상자가 갖고 있는 수신 단말장치에 전달하는 단계;
를 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 방법.
A method of generating a narrative report for recognizing, tracking, searching, and predicting objects and events of a cognitive vehicle and impression using CCTV image information,
Searching, tracking, crime occurrence prediction and alarming of a suspect or a dragon vehicle through a GUI of an application service part; receiving a query based on a Korean natural language sentence or a keyword in a query language window provided by the GUI;
If the requested service is search, trace, and forecast, and at the same time keyword-centered output, the stored intelligent information is loaded and designated as a tracking object for obtaining information, and the search, tracking, prediction, and alarm information of the tracking object are extracted, ;
Outputting a result in the form of a report if the requested service is a report output;
Lt; / RTI >
Wherein the outputting of the result in the form of a report is a step of outputting a report including at least a narration that can accompany a natural language expression of a short or long sentence if the requested service is a report output,
Generating a type scenario and a Korean narration for use object information using a neural tile managed by a neural tile construction unit;
Converting the generated narration into a language and a scenario suitable for the information receiver, generating a sentence or a moving picture, transmitting the result, and transmitting the result to a receiving terminal device of the information receiver;
And generating a narrative report for recognizing, tracking, searching, and predicting an object and an event of the cognitive vehicle and the impression.
제 13항에 있어서,
요청한 서비스가 검색, 추적, 예측이며 동시에 키워드 중심 출력이라면, 저장된 지능형 정보를 로딩하여 정보를 얻기위한 추적객체로 지정하고 추적객체의 검색, 추적, 예측 및 알람정보를 추출하여 키워드 중심 결과를 출력하는 단계는,
입력받은 질의가 용의객체 추적이라면 질의 조건에 맞는 용의객체를 지정하고, 지능형 정보상의 사건이벤트를 사용하여 지정된 용의객체의 이동 경로를 추적하여 알려주는 단계와;
상기 입력받은 질의가 용의객체 검색이라면 지능형 정보들 상에서 질의 조건을 입력값으로 용의객체를 검색하고, 용의객체로 지정된 객체 리스트와 용의객체 정보를 알려주는 단계와;
상기 입력받은 질의가 범죄발생 예측이라면 지능형 정보를 바탕으로 질의된 특정 지역이나 시간대에 대한 범죄발생 예측값을 결과로 알려주는 단계와;
상기 입력받은 질의가 알람이라면 질의조건에 맞는 사건이벤트 발생시 나레이션 시나리오 생성기술기반으로 상기 용의객체에 대한 범죄 알람 및 이력을 알려주는 단계;
를 포함하여 구성된 것을 특징으로 하는 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 방법.
14. The method of claim 13,
If the requested service is search, trace, and forecast, and at the same time keyword-centered output, the stored intelligent information is loaded and designated as a tracking object for obtaining information, and the retrieval, tracking, prediction and alarm information of the tracking object is extracted and the keyword- In the step,
If an input query is an object tracking for a query, specifying an object suitable for the query condition and using the event event on the intelligent information to track the movement path of the designated object;
If the input query is an object search for the object, searching the object for the query condition on the intelligent information and informing the object list and the object information specified for the object;
If the input query is a crime occurrence prediction, informing the result of the crime occurrence prediction for a specific region or time zone based on the intelligent information;
If the input query is an alarm, notifying a crime alarm and a history of the forgery object based on a narration scenario generation technique when an event event corresponding to a query condition is generated;
And generating a narrative report for recognizing, tracking, searching, and predicting an object and an event of the cognitive vehicle and the impression.
삭제delete
KR1020160003942A 2016-01-12 2016-01-12 System and method of generating narrative report based on cognitive computing for recognizing, tracking, searching and predicting vehicles and person attribute objects and events KR101765722B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160003942A KR101765722B1 (en) 2016-01-12 2016-01-12 System and method of generating narrative report based on cognitive computing for recognizing, tracking, searching and predicting vehicles and person attribute objects and events

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160003942A KR101765722B1 (en) 2016-01-12 2016-01-12 System and method of generating narrative report based on cognitive computing for recognizing, tracking, searching and predicting vehicles and person attribute objects and events

Publications (2)

Publication Number Publication Date
KR20170084657A KR20170084657A (en) 2017-07-20
KR101765722B1 true KR101765722B1 (en) 2017-08-08

Family

ID=59443327

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160003942A KR101765722B1 (en) 2016-01-12 2016-01-12 System and method of generating narrative report based on cognitive computing for recognizing, tracking, searching and predicting vehicles and person attribute objects and events

Country Status (1)

Country Link
KR (1) KR101765722B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102376479B1 (en) 2021-11-26 2022-03-18 (주)혜성에스앤피 Method, device and system for controlling for automatic recognition of object based on artificial intelligence

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580745B2 (en) 2017-08-17 2023-02-14 National University Of Singapore Video visual relation detection methods and systems
KR102323609B1 (en) 2018-04-30 2021-11-09 이휘원 A method of automatically detecting event of object using wearable device and a management server operating the same
KR101954719B1 (en) * 2018-08-09 2019-03-06 주식회사 인텔리빅스 Apparatus for Detecting Event and Driving Method Thereof
KR102011402B1 (en) * 2018-08-21 2019-08-16 한밭대학교 산학협력단 Intelligent Face Recognition and Tracking System and Method to Distribute GPU Resource using CUDA
KR101954717B1 (en) * 2018-10-22 2019-03-06 주식회사 인텔리빅스 Apparatus for Processing Image by High Speed Analysis and Driving Method Thereof
KR102219836B1 (en) * 2019-04-25 2021-02-24 (주)월드정보기술 Method for providing alzheimer's disease patient caring service using artificial intelligence based video content analysis
KR102391656B1 (en) * 2019-05-07 2022-04-28 인핸드플러스 주식회사 A wearable device that performs event detection using a camera module and wireless communication device
CN113012006A (en) * 2019-12-19 2021-06-22 深圳云天励飞技术有限公司 Intelligent investigation and research method, system, computer equipment and storage medium
KR102403018B1 (en) * 2020-07-07 2022-05-30 퍼시픽솔루션 주식회사 Apparatus for traffic information collection using radar and image analysis
KR102344449B1 (en) 2020-08-19 2021-12-29 인핸드플러스 주식회사 Medication adherence monitoring system and device using thereof
KR102397839B1 (en) * 2020-11-11 2022-05-16 주식회사 자비스넷 A captioning sensor apparatus based on image analysis and a method for operating it

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007048249A (en) * 2005-08-08 2007-02-22 Ara Software:Kk Safety monitoring system
KR101092472B1 (en) * 2011-09-09 2011-12-13 (주)나인정보시스템 Video indexing system using surveillance camera and the method thereof
KR101547255B1 (en) * 2015-05-21 2015-08-25 주식회사 넥스파시스템 Object-based Searching Method for Intelligent Surveillance System

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007048249A (en) * 2005-08-08 2007-02-22 Ara Software:Kk Safety monitoring system
KR101092472B1 (en) * 2011-09-09 2011-12-13 (주)나인정보시스템 Video indexing system using surveillance camera and the method thereof
KR101547255B1 (en) * 2015-05-21 2015-08-25 주식회사 넥스파시스템 Object-based Searching Method for Intelligent Surveillance System

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102376479B1 (en) 2021-11-26 2022-03-18 (주)혜성에스앤피 Method, device and system for controlling for automatic recognition of object based on artificial intelligence

Also Published As

Publication number Publication date
KR20170084657A (en) 2017-07-20

Similar Documents

Publication Publication Date Title
KR101765722B1 (en) System and method of generating narrative report based on cognitive computing for recognizing, tracking, searching and predicting vehicles and person attribute objects and events
US11328163B2 (en) Methods and apparatus for automated surveillance systems
EP3330889B1 (en) Automatic prediction of an event using data
Cameron et al. Emergency situation awareness from twitter for crisis management
KR102356666B1 (en) Method and apparatus for risk detection, prediction, and its correspondence for public safety based on multiple complex information
US11640726B2 (en) Person monitoring system and person monitoring method
CN108230637A (en) A kind of fire alarm method and system
KR102149832B1 (en) Automated Violence Detecting System based on Deep Learning
US20180253813A1 (en) System and method for incident validation and ranking using human and non-human data sources
CN111191498A (en) Behavior recognition method and related product
KR102157201B1 (en) System and method for determining disastrous based on image and accident record analysis
di Bella et al. Smart Security: Integrated systems for security policies in urban environments
KR102648004B1 (en) Apparatus and Method for Detecting Violence, Smart Violence Monitoring System having the same
WO2022153496A1 (en) Information processing device, information processing method, and program
KR102579572B1 (en) System for controlling acoustic-based emergency bell and method thereof
US20210081477A1 (en) Filtering signals during major events
JP6739119B6 (en) Risk determination program and system
CN113919544A (en) Crime early warning method and device, computer equipment and storage medium
Ma Multimedia emergency event extraction and modeling based on object detection and bi-lstm network
CN115809256B (en) Public security management integrated information system and visual display method
CN117351405B (en) Crowd behavior analysis system and method
US20210067596A1 (en) Detecting major events
Quintero React: The riskmap evaluation and coordination terminal
KR102228873B1 (en) Construction system of criminal suspect knowledge network using public security information and Method thereof
Nguyen et al. Exploring AI-Enabled Use Cases for Societal Security and Safety

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
R401 Registration of restoration