KR20190088087A - method of providing categorized video processing for moving objects based on AI learning using moving information of objects - Google Patents

method of providing categorized video processing for moving objects based on AI learning using moving information of objects Download PDF

Info

Publication number
KR20190088087A
KR20190088087A KR1020170179092A KR20170179092A KR20190088087A KR 20190088087 A KR20190088087 A KR 20190088087A KR 1020170179092 A KR1020170179092 A KR 1020170179092A KR 20170179092 A KR20170179092 A KR 20170179092A KR 20190088087 A KR20190088087 A KR 20190088087A
Authority
KR
South Korea
Prior art keywords
moving
motion information
image
moving objects
artificial intelligence
Prior art date
Application number
KR1020170179092A
Other languages
Korean (ko)
Other versions
KR102028930B1 (en
Inventor
이성진
김태우
Original Assignee
이노뎁 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이노뎁 주식회사 filed Critical 이노뎁 주식회사
Priority to KR1020170179092A priority Critical patent/KR102028930B1/en
Publication of KR20190088087A publication Critical patent/KR20190088087A/en
Application granted granted Critical
Publication of KR102028930B1 publication Critical patent/KR102028930B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06K9/00718
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06K9/481
    • G06K9/627
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present invention relates to a technique which generates an object cluster in accordance with a similarity calculation result in motion information of a plurality of moving objects, then uses object clustering information to learn an object classification module based on artificial intelligence, and inputs motion information of an object into the object classification module when the object is identified in a CCTV video to quickly determine which object cluster the identified object belongs. A control agent inputs a tag into an object cluster based on a thumbnail image of a moving object video to classify a plurality of video clips associated with a moving object identified in a CCTV video by category. Generally, extraction and tracking of motion information of a video can be implemented by a light algorithm. Therefore, according to the present invention, large-scale CCTV videos can be analyzed in parallel, and a type of a moving object can be quickly classified. Also, according to the present invention, a CCTV video can be classified and searched based on a type of a moving object. Specifically, since the present invention classifies a moving object based on artificial intelligence learning, the present invention can adaptively respond to a specific photographing environment or a specific camera.

Description

움직임 정보를 이용한 인공지능 학습기반의 이동객체 영상 분류처리 방법 {method of providing categorized video processing for moving objects based on AI learning using moving information of objects}[0001] The present invention relates to a moving object image classification method based on artificial intelligence learning using motion information,

본 발명은 일반적으로 CCTV 촬영 영상에 대하여 이동객체의 영상 클립을 카테고리로 분류 처리하는 기술에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention generally relates to a technique for classifying video clips of moving objects into categories according to CCTV shot images.

더욱 상세하게는, 본 발명은 다수의 이동객체의 움직임 정보 간의 유사도 산출 결과에 따라 객체 클러스터를 생성한 후에 그 객체 클러스터링 정보를 활용하여 인공지능 기반의 객체 분류 모듈을 학습하고, CCTV 촬영 영상에서 이동객체를 식별하면 그 식별된 이동객체의 움직임 정보를 객체 분류 모듈에 입력하여 어떠한 객체 클러스터에 귀속하는지를 신속하게 결정하는 기술에 관한 것이다. 이때, 이동객체 이미지의 썸네일 이미지에 기초하여 관제요원이 객체 클러스터에 태그를 입력하도록 함으로써 CCTV 촬영 영상에서 식별되는 이동객체에 관련된 다수의 영상 클립을 카테고리 별로 분류 처리할 수 있다.More specifically, the present invention generates an object cluster according to a result of calculating similarity between motion information of a plurality of moving objects, then learns an object classification module based on an artificial intelligence using the object clustering information, The present invention relates to a technique for quickly determining to which object cluster an object belongs by inputting motion information of the identified moving object to an object classification module. At this time, by allowing the controller to input a tag to the object cluster based on the thumbnail image of the moving object image, a plurality of image clips related to the moving object identified in the CCTV photographed image can be classified and categorized.

범죄 예방 및 범죄수사 증거 확보를 위해 카메라(예: CCTV)가 다수 설치되고 있는데 현재 국내에는 대략 500만대의 CCTV가 14.2미터 간격으로 설치되어 5.5초에 한 번씩 주변 상황을 촬영하고 있다. 이들 CCTV가 촬영한 영상은 경찰서나 통합관제센터와 같은 관제 시스템으로 전달되고 관제 요원들이 모니터링을 통해 범죄 예방 활동을 수행한다.A number of cameras (eg CCTV) are installed for crime prevention and criminal investigation. Currently, about 5 million CCTVs are installed at intervals of 14.2 meters in the country, taking pictures of the surroundings once every 5.5 seconds. The images taken by these CCTVs are transmitted to the control system such as the police station or the integrated control center, and the crime prevention activities are performed by the control personnel through monitoring.

폭발적으로 증가하는 CCTV 대수에 비해 영산관제 시스템에서 근무하는 관제요원은 많이 부족하다. 2011년 경찰청 자료에 의하면 서울지역에서 관제요원 1인당 평균 45대의 CCTV를 모니터링하고 있어 범죄예방에 어려움이 많다. 또한 범죄수사, 범인 탐지, 미아 탐색을 위해 CCTV에서 촬영하여 저장해둔 영상을 살펴보는 경우에는 소수의 관제요원이 엄청나게 많은 영상을 일일히 살펴보고 있는 실정이어서 업무 처리 효율이 상당히 떨어진다.Compared to the explosive increase in the number of CCTV units, there are a lot of inspectors working in the Youngsan management system. According to the data of the police department in 2011, it monitors the average of 45 CCTVs per person in the Seoul area, making it difficult to prevent crime. Also, in case of watching images stored in CCTV for crime investigation, criminal detection, and loser search, a small number of control personnel are looking at a lot of images, and the efficiency of the processing is considerably lowered.

이러한 문제점을 해결하기 위한 방안으로 관제요원을 확충하는 것은 현실적으로 한계가 있다. 이에, 영상처리 기술을 통해 CCTV 촬영 영상을 분석하여 관제요원이 영상관제 업무를 수행하기에 편리한 형태로 영상을 가공하고 그에 관한 정보를 제공해주는 지능형 영상분석 기능이 탑재되어 있는 관제 시스템, 즉 '지능형 관제 시스템'에 대한 관심이 최근들어 높아지고 있다.In order to solve these problems, it is practically limited to expand control personnel. Therefore, the control system which is equipped with the intelligent image analysis function that analyzes the CCTV shot image through the image processing technology and processes the image in a form convenient for the control personnel to perform the video control task, Interest in the 'control system' has been growing in recent years.

영상관제를 위하여 통상 수천대의 CCTV를 관리해야 하고 CCTV 카메라가 고화질화되어가고 있는 추세를 감안하여 지능형 관제 시스템에서 요구되는 영상처리를 고속으로 수행할 수 있는 기술이 요구된다.In view of the tendency to manage thousands of CCTVs for video surveillance and the tendency of CCTV cameras to be in high image quality, there is a need for a technique capable of performing high speed image processing required in an intelligent control system.

본 발명의 목적은 일반적으로 CCTV 촬영 영상에 대하여 이동객체의 영상 클립을 카테고리로 분류 처리하는 기술을 제공하는 것이다. An object of the present invention is to provide a technique for classifying image clips of a moving object into categories according to a CCTV shot image.

특히, 본 발명의 목적은 다수의 이동객체의 움직임 정보 간의 유사도 산출 결과에 따라 객체 클러스터를 생성한 후에 그 객체 클러스터링 정보를 활용하여 인공지능 기반의 객체 분류 모듈을 학습하고, CCTV 촬영 영상에서 이동객체를 식별하면 그 식별된 이동객체의 움직임 정보를 객체 분류 모듈에 입력하여 어떠한 객체 클러스터에 귀속하는지를 신속하게 결정하는 기술을 제공하는 것이다. 이때, 이동객체 이미지의 썸네일 이미지에 기초하여 관제요원이 객체 클러스터에 태그를 입력하도록 함으로써 CCTV 촬영 영상에서 식별되는 이동객체에 관련된 다수의 영상 클립을 카테고리 별로 분류 처리하도록 한다.In particular, an object of the present invention is to provide an object classification module based on an artificial intelligence based on the object clustering information after generating an object cluster according to a result of calculating similarity between motion information of a plurality of moving objects, The motion information of the identified moving object is input to the object classification module to quickly determine to which object cluster it belongs. At this time, the control agent inputs a tag to the object cluster based on the thumbnail image of the moving object image, thereby sorting a plurality of image clips related to the moving object identified in the CCTV shot image into categories.

상기의 목적을 달성하기 위하여 본 발명의 움직임 정보를 이용한 인공지능 학습기반의 이동객체 영상 분류처리 방법은, 영상 분석을 통해 다수의 제 1 이동객체를 추적하여 각각에 대한 객체 움직임 정보를 추출하는 제 1 단계; 다수의 제 1 이동객체에 대하여 객체 움직임 정보에 기초한 유사도 산출 결과에 따라 하나이상의 제 1 이동객체를 귀속시키는 복수의 객체 클러스터를 결정하는 제 2 단계; 다수의 제 1 이동객체로부터 얻어지는 객체 움직임 정보 및 객체 클러스터 귀속 정보의 다수의 조합을 활용하여 객체 분류 모듈을 인공지능 학습시키는 제 3 단계; 영상 내에서 식별되는 복수의 제 2 이동객체에 대하여 제 2 이동객체 각각의 객체 움직임 정보를 추출하여 객체 분류 모듈에 입력함으로써 각각의 제 2 이동객체가 귀속할 객체 클러스터를 결정하는 제 4 단계; 복수의 제 2 이동객체에 대한 영상 클립을 객체 클러스터 별로 관리하여 저장하는 제 5 단계;를 포함하여 구성된다.In order to achieve the above object, an artificial intelligence learning based moving object image classification processing method using motion information according to the present invention is a method for classifying moving object images by tracking an object motion information for each of a plurality of first moving objects through image analysis, Stage 1; A second step of determining a plurality of object clusters for attributing one or more first moving objects to a plurality of first moving objects according to a result of calculating similarity based on object motion information; A third step of artificial intelligence learning of the object classification module using a plurality of combinations of object motion information and object cluster attribution information obtained from a plurality of first moving objects; A fourth step of extracting object motion information of each of the second moving objects from the plurality of second moving objects identified in the image and inputting the extracted object motion information into the object classification module to determine an object cluster to which each second moving object belongs; And a fifth step of managing and storing image clips for a plurality of second moving objects for each object cluster.

이때, 본 발명은, 복수의 제 2 이동객체 중에서 특정의 제 3 이동객체에 대한 객체 클러스터의 귀속 변경 설정을 식별하면 제 3 이동객체의 객체 움직임 정보 및 그 변경 설정된 객체 클러스터 귀속 정보의 조합을 활용하여 객체 분류 모듈을 인공지능 학습시키는 단계;를 더 포함하여 구성될 수 있다.At this time, if the attribution change setting of the object cluster for the specific third moving object is identified from among the plurality of second moving objects, the combination of the object motion information of the third moving object and the changed object cluster belonging information And performing artificial intelligence learning on the object classification module.

또한, 본 발명은, 다수의 제 1 이동객체에 대하여 썸네일 이미지를 생성하여 그 귀속하는 객체 클러스터에 따라 구분하여 디스플레이 표시하는 단계; 섬네일 이미지에 대응하여 객체 클러스터에 대한 하나이상의 태그 정보를 입력받는 단계; 복수의 객체 클러스터 각각에 대하여 태그 정보에 따라 카테고리를 지정하는 단계; 사용자 조작에 대응하여 특정의 키워드를 식별하는 단계; 키워드에 대응하는 카테고리가 지정된 하나이상의 영상 클립을 디스플레이 표시하는 단계;를 더 포함하여 구성될 수 있다.According to another aspect of the present invention, there is provided a method of generating thumbnail images, the method comprising: generating thumbnail images for a plurality of first moving objects, Receiving at least one tag information for an object cluster corresponding to a thumbnail image; Designating a category according to tag information for each of a plurality of object clusters; Identifying a specific keyword in response to a user operation; Displaying one or more image clips designated by the category corresponding to the keyword on the display screen.

본 발명에서 제 2 단계는, 다수의 제 1 이동객체 각각에 대하여 객체 움직임 정보를 벡터화하여 객체 움직임 벡터를 생성하는 단계; 객체 움직임 벡터 상호간의 유클리드 거리에 기초하여 다수의 제 1 이동객체 간의 유사도를 산출하는 단계; 유사도가 미리 설정된 임계치 이상인 복수의 제 1 이동객체끼리 그룹화하여 복수의 객체 클러스터를 생성하는 단계;를 포함하여 구성될 수 있다.The second step of the present invention includes generating an object motion vector by vectorizing object motion information for each of a plurality of first moving objects; Calculating a degree of similarity between the plurality of first moving objects based on the Euclidean distance between the object motion vectors; And creating a plurality of object clusters by grouping a plurality of first moving objects whose similarities are equal to or greater than a predetermined threshold value.

또한, 본 발명에서 객체 움직임 정보는 동일한 제 1 이동객체에 대해 일련의 영상 프레임에서 식별된 시간별 동적 노출 속성을 그룹화하여 구성되고, 객체 움직임 벡터는 동일한 제 1 이동객체에 대해 그룹화된 일련의 동적 노출 속성을 엘리먼트로 하는 1차원 벡터로 구성되고, 인공지능 학습은 제 1 이동객체 또는 제 3 이동객체의 객체 움직임 정보 및 객체 클러스터 귀속 정보를 객체 분류 모듈의 입력 레이어와 출력 레이어에 각각 적용하여 반복 학습시키는 것일 수 있다.Also, in the present invention, the object motion information is configured by grouping temporal dynamic exposure attributes identified in a series of image frames for the same first moving object, and the object motion vectors are grouped into a series of dynamic exposures grouped for the same first moving object And the artificial intelligence learning is performed by applying object motion information and object cluster attribution information of the first moving object or the third moving object to the input layer and the output layer of the object classification module, It can be done.

한편, 본 발명에 따른 컴퓨터로 판독가능한 비휘발성 기록매체는 컴퓨터에 이상과 같은 움직임 정보를 이용한 인공지능 학습기반의 이동객체 영상 분류처리 방법을 실행시키기 위한 프로그램을 기록한 것이다.Meanwhile, a computer-readable nonvolatile recording medium according to the present invention records a program for executing a moving object image classification processing method based on artificial intelligence learning using motion information as described above in a computer.

일반적으로 영상의 움직임 정보 추출 및 추적은 가벼운 알고리즘으로 구현이 가능하므로 본 발명에 따르면 대규모의 CCTV 촬영 영상을 병렬 분석하고 이동객체의 종류를 신속하게 분류 처리할 수 있는 장점이 있다.In general, motion information extraction and tracking of a video image can be implemented with a lightweight algorithm. Therefore, according to the present invention, there is an advantage that a CCTV shot image can be analyzed in parallel and the types of moving objects can be quickly classified.

또한, 본 발명에 따르면 이동객체의 종류에 기반하여 CCTV 촬영 영상을 분류 및 검색할 수 있는 장점이 있다. 특히, 본 발명은 인공지능 학습 기반으로 이동객체를 분류하기 때문에 특정 촬영 환경이나 특정 카메라에 대해 적응적으로 대응할 수 있는 장점이 있다.In addition, according to the present invention, it is possible to classify and search a CCTV photographed image based on the kind of a moving object. In particular, since the present invention classifies moving objects on the basis of artificial intelligence learning, it has an advantage that it can adaptively cope with a specific shooting environment or a specific camera.

[도 1]은 본 발명에 따른 인공지능 학습기반의 이동객체 영상 분류처리 방법의 전체 프로세스를 나타내는 순서도.
[도 2]는 본 발명에서 객체 클러스터 생성 과정을 나타내는 순서도.
[도 3]은 본 발명에서 객체 분류 모듈에 대한 초기학습 과정을 개념적으로 나타내는 도면.
[도 4]는 본 발명에서 이동객체에 대한 카테고리 분류 과정을 개념적으로 나타내는 도면.
[도 5]은 본 발명에서 객체 분류 모듈에 대한 계속학습 과정을 개념적으로 나타내는 도면.
[도 6]은 본 발명에서 이동객체에 대해 객체 움직임 정보가 추출되는 개념을 나타내는 도면.
[도 7]은 본 발명에서 객체 클러스터의 개념을 나타내는 도면.
[도 8]는 본 발명에서 객체 움직임 벡터를 생성하고 객체 분류 모듈을 인공지능 학습시키는 개념을 나타내는 도면.
[도 9]은 본 발명에서 객체 분류 모듈을 통해 신규 발견된 이동객체를 분류하는 개념을 나타내는 도면.
[도 10]은 본 발명에 따른 인공지능 학습기반의 이동객체 영상 분류처리 기술의 특징을 정리하여 나타낸 도면.
1 is a flowchart showing an entire process of a moving object image classification processing method based on artificial intelligence learning according to the present invention.
FIG. 2 is a flowchart illustrating an object cluster creation process in the present invention. FIG.
FIG. 3 conceptually illustrates an initial learning process for an object classification module in the present invention; FIG.
FIG. 4 conceptually illustrates a category classification process for a moving object in the present invention. FIG.
FIG. 5 conceptually illustrates a continuous learning process for an object classification module in the present invention; FIG.
FIG. 6 is a diagram illustrating a concept in which object motion information is extracted for a moving object in the present invention; FIG.
7 is a diagram showing the concept of an object cluster in the present invention.
8 is a diagram illustrating a concept of generating an object motion vector and artificial intelligence learning of an object classification module in the present invention.
9 illustrates a concept of classifying a newly discovered moving object through an object classification module in the present invention.
FIG. 10 is a diagram summarizing features of a moving object image classification processing technique based on an artificial intelligence learning according to the present invention.

이하에서는 도면을 참조하여 본 발명을 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

[도 1]은 본 발명에 따른 인공지능 학습기반의 이동객체 영상 분류처리 방법의 전체 프로세스를 나타내는 순서도이다. [도 1]의 프로세스는 일반적으로 영상관제 시스템의 영상관리 서버가 수행할 수 있다.1 is a flowchart illustrating an overall process of a moving object image classification processing method based on artificial intelligence learning according to the present invention. The process of FIG. 1 is generally performed by a video management server of a video control system.

단계 (S100) : 먼저, CCTV 촬영 영상을 분석하여 다수의 제 1 이동객체를 식별 및 추적한다. 이 과정에서 사용되는 CCTV 촬영 영상은 바람직하게는 영상관리 서버가 보관하고 있는 대량의 영상 파일이다. Step S100: First, the CCTV shot image is analyzed to identify and track a plurality of first moving objects. The CCTV photographed image used in this process is preferably a large amount of image files stored in the image management server.

이때, 압축 영상에서 이동객체를 식별하고 추적하는 기술은 다양하게 채택될 수 있다. 미리 마련된 다수의 제 1 이동객체에 관한 영상 클립을 외부로부터 제공받는 것도 가능하고, 장시간의 CCTV 촬영 영상으로부터 제 1 이동객체에 관한 영상 클립을 추출해낼 수도 있다. 후자의 경우에, 종래기술에서와 같이 압축영상을 디코딩하여 차성분을 분석하는 방식도 가능하지만, 본 출원인의 특허출원 제10-2017-0107580호 "압축영상에 대한 신택스 기반의 이동객체 영역 추출 방법"의 기법을 활용하는 것이 처리속도 면에서 유리하다. 특히, 이동객체의 추적 기술에 관해서는 본 출원인의 특허출원 제10-2017-0176597호 "압축영상에 대한 신택스 기반의 객체 추적 방법"의 기법이 활용될 수 있다.At this time, techniques for identifying and tracking moving objects in a compressed image can be variously adopted. It is also possible to receive the image clips related to the plurality of first moving objects prepared in advance from the outside and to extract the image clips related to the first moving object from the CCTV shooting image for a long time. In the latter case, a method of analyzing the difference component by decoding a compressed image as in the prior art is also possible. However, the applicant's patent application No. 10-2017-0107580 "Syntax-based Moving Object Region Extraction "Is advantageous in terms of processing speed. Particularly, regarding the tracking technology of moving objects, the applicant's patent application No. 10-2017-0176597 entitled " Method of tracking a syntax-based object on a compressed image "

그리고 나서, 객체 추적 결과를 활용하여 이들 제 1 이동객체의 각각에 대하여 CCTV 촬영 영상에서 어떻게 움직이는지를 나타내는 정보, 즉 '객체 움직임 정보'를 구성한다.Then, using the object tracking result, information indicating how to move each of the first moving objects on the CCTV shot image, that is, 'object motion information' is constructed.

영상에서 특정 객체의 동적 노출 속성(presentational dynamics)으로는 CCTV 촬영 영상에서의 위치, 해당 이동객체를 최적으로 둘러싸는 바운딩 박스(bounding box)의 크기, 순간속력(instant speed)을 들 수 있다. 특정 객체가 영상 내에서 어떻게 움직이는지 살펴보려면 이러한 동적 노출 속성을 하나만 볼 것이 아니고 시간을 변경시켜가며 여러 개를 살펴보아야 한다. 이에, 본 명세서에서는 시간정보와 동적 노출 속성을 결합하고 이들을 시간 변화에 따라 복수 개 추출하여 그룹화함으로써 객체 움직임 정보를 구성한다.The presentational dynamics of a specific object in an image include a position in a CCTV shot image, a size of a bounding box that optimally surrounds the moving object, and an instant speed. To see how a particular object moves within an image, you should not look at just one of these dynamic exposure properties, but rather look at several things, changing the time. In this specification, object motion information is constructed by combining time information and dynamic exposure attributes and extracting and grouping a plurality of them according to time.

본 발명에서 객체 움직임 정보의 구성에 대해서는 [도 6]을 참조하여 상세하게 후술한다.The configuration of object motion information in the present invention will be described later in detail with reference to FIG.

단계 (S110) : 이들 다수의 제 1 이동객체에 대하여 객체 움직임 정보에 기초하여 유사도를 산출하고, 유사도가 높은 제 1 이동객체들끼리 그룹화하여 다수의 제 1 이동객체로부터 복수의 객체 클러스터를 생성한다. 예를 들어, 100개의 제 1 이동객체를 7개의 객체 클러스터로 분류한다. 움직임이 유사한 객체들은 서로 같은 종류일 가능성이 높다는 가정에 근거한 것이다. 이처럼 본 발명은 객체의 움직임에 근거하여 객체 클러스터링을 수행하므로 종래기술에서와 같이 압축영상을 디코딩하여 각각의 객체가 무엇인지 인식할 필요가 없다. 이로 인해, 본 발명은 종래기술에 비해 고속 처리가 가능해진다.Step S110: The degree of similarity is calculated based on the object motion information for the plurality of first moving objects, and the plurality of object clusters are generated from the plurality of first moving objects by grouping the first moving objects having high similarity . For example, 100 first moving objects are classified into seven object clusters. It is based on the assumption that objects with similar motions are likely to be of the same kind. As described above, since the present invention performs object clustering based on the motion of an object, it is not necessary to decode a compressed image and recognize what each object is, as in the prior art. As a result, the present invention enables high-speed processing as compared with the prior art.

본 발명에서 객체 클러스터링 과정에 대해서는 [도 2]와 [도 7]을 참조하여 상세하게 후술한다.The object clustering process will be described later in detail with reference to FIG. 2 and FIG. 7 in the present invention.

단계 (S120) : 위 생성된 복수의 객체 클러스터 각각에 대하여 해당 클러스터에 속하는 제 1 이동객체에 관한 객체 썸네일 이미지에 기초하여 태그 정보를 입력받고 그에 따라 카테고리를 지정한다.Step S120: For each of the generated plurality of object clusters, the tag information is input based on the object thumbnail image related to the first moving object belonging to the corresponding cluster, and the category is designated accordingly.

이상의 과정에서는 다수의 제 1 이동객체를 유사하다고 추정되는 것들끼리 묶어서 객체 클러스터를 생성하였지만, 각각의 객체 클러스터가 어떠한 것인지를 식별하지는 않았다. 이는 본 발명에서 객체 클러스터링 과정이 객체 내용이 아니라 움직임에 근거하여 이루어지기 때문이다.In the above process, although a plurality of first moving objects are created by grouping objects estimated to be similar, an object cluster is not identified. This is because the object clustering process is performed based on the motion, not the object content, in the present invention.

이에, 다수의 제 1 이동객체에 대하여 썸네일 이미지를 생성하여 그 귀속하는 객체 클러스터에 따라 구분하여 관제요원에게 디스플레이 표시하고, 이들 섬네일 이미지에 대응하여 관제요원으로부터 각각의 객체 클러스터에 대한 하나이상의 태그 정보(예: 사람, 자동차, 자전거)를 입력받는다. 그리고 나서, 복수의 객체 클러스터 각각에 대하여 태그 정보에 따라 카테고리를 지정한다. 바람직하게는 단계 (S120)의 태그 입력은 객체 클러스터 단위로 이루어지며, 동일한 객체 클러스터에 속하는 복수의 제 1 이동객체는 동일한 태그를 갖는다.In this case, a thumbnail image is generated for a plurality of first moving objects, and displayed on the display unit according to the belonging object clusters. Then, corresponding to the thumbnail images, one or more tag information (For example, people, cars, bicycles). Then, the category is designated according to the tag information for each of the plurality of object clusters. Preferably, the tag input in step S120 is performed on an object cluster basis, and a plurality of first moving objects belonging to the same object cluster have the same tag.

단계 (S130) : 이상과 같이 다수의 제 1 이동객체로부터 얻어지는 객체 움직임 정보 및 객체 클러스터 귀속 정보의 다수의 조합을 활용하여 인공지능(AI) 기반의 객체 분류 모듈을 인공지능 학습시킨다. 객체 움직임 정보들이 어떠한 객체 클러스터로 귀속되었는지에 관한 다수의 조합 데이터를 통해 객체 분류 모듈을 반복적으로 지도 학습(supervised learning)시킴으로써 객체 분류 모듈이 그러한 클러스터 분류 성향을 나타내도록 맞춰가는 것이다. 이때, 인공지능 학습 기법으로는 DNN(Deep Neural Network) 기술을 적용할 수 있다.Step S130: The artificial intelligence (AI) -based object classification module is artificially intelligently learned by using a plurality of combinations of object motion information and object cluster attribution information obtained from a plurality of first moving objects as described above. The object classification module repeatedly performs supervised learning through a plurality of combination data on the object clusters to which the object motion information is attributed so that the object classification module indicates such a cluster classification tendency. At this time, DNN (Deep Neural Network) technology can be applied as an artificial intelligence learning technique.

본 발명에서 객체 분류 모듈의 인공지능 학습에 대해서는 [도 8]을 참조하여 상세하게 후술한다.The artificial intelligence learning of the object classification module will be described later in detail with reference to FIG. 8 in the present invention.

단계 (S140) : 이상의 단계 (S100) 내지 단계 (S130)을 통하여 다수의 제 1 이동객체를 이용하여 객체 클러스터를 정의하고 객체 분류 모듈을 인공지능 학습하는 과정에 대해서 기술하였다. 이하에서는 신규로 식별되는 이동객체에 대해 위 학습된 객체 분류 모듈을 이용하여 어떠한 객체 클러스터에 속하는지를 신속하게 판단하는 과정, 즉 객체 분류 과정에 대해서 기술한다.Step S140: A process of defining an object cluster using a plurality of first moving objects and performing artificial intelligence learning on the object classification module through steps S100 to S130 is described. Hereinafter, a process of quickly determining which object cluster belongs to a newly identified moving object using the object classification module learned above, i.e., an object classification process will be described.

영상관제 시스템에서 CCTV 카메라로부터 생성되는 촬영 영상 내에서 제 2 이동객체가 식별되면 그 제 2 이동객체에 대한 객체 움직임 정보를 추출하여 위 학습된 객체 분류 모듈에 입력한다. 이때, 제 2 이동객체의 식별 또한 관제요원이 수동으로 식별해주는 것이 아니라 본 출원인의 특허출원 제10-2017-0107580호 "압축영상에 대한 신택스 기반의 이동객체 영역 추출 방법"에 의해 자동으로 수행되는 것이 바람직하다.When the second moving object is identified in the photographed image generated from the CCTV camera in the video monitoring system, the object moving information for the second moving object is extracted and input to the learned object classification module. At this time, the identification of the second moving object is not performed manually by the control personnel but is automatically performed by the applicant's patent application No. 10-2017-0107580 entitled " Syntax-Based Moving Object Region Extraction Method for Compressed Image " .

이렇게 식별된 제 2 이동객체에 대해 객체 움직인 정보를 추출하는데, 이에 관해서는 단계 (S100)에서 전술한 바와 같다. 이처럼 제 2 이동객체에 대한 객체 움직임 정보를 객체 분류 모듈에 입력하면 객체 분류 모듈은 다중 레이어에 따른 일련의 연산을 수행하여 그 결과를 출력한다. 위의 인공지능 학습에 의하여 객체 분류 모듈이 제공하는 출력 값은 제 2 이동객체가 귀속할 객체 클러스터가 무엇인지에 관한 판단 결과에 해당한다.The object moving information is extracted for the thus-identified second moving object, as described above in step S100. When the object motion information for the second moving object is input to the object classification module, the object classification module performs a series of operations according to the multiple layers and outputs the result. The output value provided by the object classification module according to the artificial intelligence learning corresponds to the judgment result about what object cluster the second moving object belongs to.

CCTV 촬영 영상으로부터 복수의 제 2 이동객체가 식별되는데, 각각의 제 2 이동객체에 대하여 이러한 과정을 수행하여 각각이 귀속할 객체 클러스터가 무엇인지 바람직하게는 실시간으로 결정해준다.A plurality of second moving objects are identified from the CCTV photographed image. This process is performed for each second moving object to determine what object clusters each belongs to, preferably in real time.

본 발명에서 객체 분류 모듈을 이용한 이동객체의 클러스터 분류에 대해서는 [도 9]를 참조하여 상세하게 후술한다.In the present invention, cluster classification of moving objects using the object classification module will be described later in detail with reference to FIG.

단계 (S150, S160) : 이상의 단계 (S100, S110)에서 이루어진 객체 클러스터링 과정은 영상 내용은 보지 않고 단순히 움직임 형태에 기초하여 판단한 것이기 때문에 매우 거친 것이었다. 그에 따라, 단계 (S130)에서 이루어진 객체 분류 모듈의 의 인공지능 학습 결과도 완전히 신뢰하기 어렵고, 단계 (S140)에서의 제 2 이동객체에 대한 클러스터 분류 결과에도 오류가 있을 수 있다.Steps S150 and S160: The object clustering process performed in the above steps S100 and S110 is very rough since it is determined based on the motion form without viewing the image contents. Accordingly, the AI learning result of the object classification module made in step S130 is also completely unreliable, and the cluster classification result for the second moving object in step S140 may also be in error.

이하에서는 단계 (S140)에서 이루어진 제 2 이동객체에 대한 클러스터 분류 결과에 오류가 발견된 경우에 그 내용을 반영하여 객체 분류 모듈을 다시 인공지능 학습시키는 과정에 대해 기술한다.Hereinafter, when an error is found in the cluster classification result for the second moving object made in step S140, the process of re-learning the object classification module by artificial intelligence is described.

먼저, 앞서 객체 클러스터 귀속이 결정된 복수의 제 2 이동객체 중에서 특정의 이동객체(이를 '제 3 이동객체'라 한다)에 대한 객체 클러스터의 귀속 변경 설정을 식별한다. 예를 들어, 객체 분류 모듈이 수행한 객체 클러스터 귀속 결과를 관제요원이 썸네일 이미지 등으로 확인한 후에 그중에서 잘못이라고 판단되는 것을 발견하여 해당 이동객체의 클러스터 분류를 수동으로 변경하는 경우이다. 이 때에는 제 3 이동객체의 객체 움직임 정보 및 그 변경 설정된 객체 클러스터 귀속 정보의 조합을 활용하여 객체 분류 모듈을 인공지능 학습시킨다.First, it identifies the attribution change setting of the object cluster for a specific moving object (referred to as a 'third moving object') among the plurality of second moving objects determined to belong to the object cluster. For example, the controller classifies the object clustering result performed by the object classification module with a thumbnail image or the like, finds that the object is incorrect, and manually changes the cluster classification of the moving object. At this time, the object classification module is artificially intelligently learned by using the combination of the object motion information of the third moving object and the changed object cluster attribution information.

단계 (S170, S180) : 영상관제 시스템은 CCTV 촬영 영상으로부터 발견되는 복수의 제 2 이동객체에 대한 영상 클립을 객체 클러스터 별로 관리하여 저장하고, 관제요원이 모니터 단말을 조작하여 키워드(예: 사람, 자동차, 자전거)를 입력하면 그 키워드에 대응하는 카테고리가 지정되어 있는 영상 클립을 선별하여 관제요원의 모니터 화면에 디스플레이 표시해준다.Steps S170 and S180: The video control system manages and stores image clips for a plurality of second moving objects found from the CCTV shot image for each object cluster, and the control personnel manipulates the monitor terminal to generate keywords (e.g., Car, bicycle) is input, a video clip having a category corresponding to the keyword is selected and displayed on the monitor screen of the control personnel.

[도 2]는 본 발명에서 CCTV 촬영 영상에서 획득한 다수의 이동객체에 대하여 움직임 정보에 기초한 유사도 산출 결과에 따라 복수의 객체 클러스터를 생성하는 과정을 나타내는 순서도이다. [도 2]의 과정은 [도 1]의 전체 프로세스에서 단계 (S110)에 해당한다.FIG. 2 is a flowchart illustrating a process of generating a plurality of object clusters according to a result of calculating a degree of similarity based on motion information for a plurality of moving objects obtained from a CCTV shot image in the present invention. The process of FIG. 2 corresponds to step S110 in the entire process of FIG.

단계 (S200) : 먼저, 다수의 제 1 이동객체 각각에 대하여 객체 움직임 정보를 벡터화하여 객체 움직임 벡터를 생성한다. 객체 움직임 정보는 일련의 시간정보와 동적 노출 정보로 이루어지는데, 수학적 연산을 위하여 객체 움직임 정보로부터 객체 움직임 벡터를 생성한다. 본 명세서에서 객체 움직임 벡터는 동일 이동객체에 관한 일련의 동적 노출 속성을 엘리먼트로 하는 1차원 벡터로 구성되는데, 이에 대해서는 [도 8]을 참조하여 상세하게 후술한다.In operation S200, an object motion vector is generated by vectorizing object motion information for each of a plurality of first moving objects. The object motion information is composed of a series of time information and dynamic exposure information. For the mathematical operation, an object motion vector is generated from the object motion information. In this specification, an object motion vector is composed of a one-dimensional vector having elements of a series of dynamic exposure attributes related to the same moving object, which will be described later in detail with reference to FIG.

단계 (S210) : 다수의 제 1 이동객체로부터 도출된 다수의 객체 움직임 벡터 상호간의 유클리드 거리(Euclidean distance)를 산출한다. 유클리드 거리는 다차원 공간에서 두 점 사이의 기하학적 거리를 나타내는 개념인데, 유클리드 거리 외에도 구현 예에 따라서 다른 형태의 거리 개념, 예컨대 맨해튼 거리(Manhattan Distance), 대원 거리(Great Distance), 마할라노비스의 거리(Mahalanobis Distamce), 시간 거리(Time Distance) 등이 채택될 수 있다.Step S210: The Euclidean distance between a plurality of object motion vectors derived from the plurality of first moving objects is calculated. Euclidean distance is a concept that represents the geometric distance between two points in a multidimensional space. In addition to Euclidean distance, other types of distance concept such as Manhattan Distance, Great Distance, Mahalanobis Distamce, Time Distance, etc. may be adopted.

단계 (S220) : 다수의 제 1 이동객체들 중에서 그 산출된 유클리드 거리가 미리 설정된 임계치 이하인 이동객체들끼리 그룹화하여 복수의 객체 클러스터를 생성한다. 본 발명에서는 유클리드 거리가 가까울수록 이동객체의 움직임 형태가 상대적으로 더 유사한 것으로 간주한다. 따라서, 움직임의 형태가 충분히 유사한 이동객체들끼리는 아무래도 유사한 성격의 객체일 가능성이 높다고 보고 동일한 객체 클러스터로 귀속시키는 것이다.Step S220: Among the plurality of first moving objects, moving objects having the calculated Euclidean distance equal to or less than a preset threshold value are grouped to generate a plurality of object clusters. In the present invention, the closer the Euclidean distance is, the more similar the movement form of the moving object is regarded as being more similar. Therefore, moving objects that are sufficiently similar in shape to movements are likely to be objects of a similar nature, and are attributed to the same object cluster.

[도 3]은 본 발명에서 객체 분류 모듈에 대한 초기학습 과정을 개념적으로 나타내는 도면이다. [도 3]의 초기학습 과정은 [도 1]의 전체 프로세스에서 단계 (S100) 내지 단계 (S130)에 대응한다.3 is a conceptual diagram illustrating an initial learning process for an object classification module in the present invention. The initial learning process of FIG. 3 corresponds to steps S100 to S130 in the entire process of FIG.

CCTV 촬영 영상이 실시간 혹은 스토리지 서버로부터 제공되면 객체 추적 모듈이 찰영 영상으로부터 다수의 이동객체를 추출한 후 이들에 대해 움직임 정보(시간, 크기, 위치, 순간속력)를 추출한다.When a CCTV shot image is provided from a real-time or storage server, the object tracking module extracts a plurality of moving objects from the search image and extracts motion information (time, size, position, and instantaneous speed).

객체 클러스터링 모듈은 객체 움직임 정보가 유사한 이동객체들을 클러스터로 묶은 후 바람직하게는 여러 이동객체의 썸네일 이미지(thumbnail images)를 한꺼번에 관제요원에게 보여준다. The object clustering module clusters similar moving objects with similar object motion information, and preferably displays thumbnail images of moving objects to the controller at a time.

관제요원은 다수의 썸네일 이미지를 보고 해당 이동객체에 대해 사람, 자동차, 자전거 등과 같이 유의미한 태그를 입력한다. 바람직하게는 썸네일 이미지를 객체 클러스터별로 분류하여 제공한다. 그 입력된 태그는 이동객체들이 귀속하는 해당 객체 클러스터에 태그 정보로서 입력되며, 바람직하게는 동일한 객체 클러스터에 속하는 이동객체들은 동일한 태그를 갖게 된다.The control agent sees a number of thumbnail images and inputs meaningful tags such as people, cars, bicycles, etc. for the moving objects. Preferably, thumbnail images are classified and provided according to object clusters. The input tag is input as tag information to a corresponding object cluster to which the moving objects belong. Preferably, the moving objects belonging to the same object cluster have the same tag.

CCTV 촬영 영상으로부터 획득된 다수의 이동객체에 대한 객체 움직임 정보와 각각의 객체 클러스터 귀속 정보(태그 정보)가 인공지능 기반의 객체 분류 모듈로 제공되어 인공지능 학습(예: DNN)에 활용된다.The object motion information for each of a number of moving objects obtained from the CCTV shot image and each object cluster attribution information (tag information) are provided to an artificial intelligence based object classification module and utilized in artificial intelligence learning (eg, DNN).

[도 4]는 본 발명에서 이동객체에 대한 카테고리 분류 과정을 개념적으로 나타내는 도면이다. [도 4]의 카테고리 분류 과정은 [도 1]의 전체 프로세스에서 단계 (S140)에 대응한다.4 is a diagram conceptually illustrating a category classification process for a moving object in the present invention. The category classification process of FIG. 4 corresponds to step S140 in the entire process of FIG.

객체 추적 모듈이 CCTV 촬영 영상으로부터 새로운 이동객체를 식별하면 그에 관한 객체 움직임 정보를 객체 분류 모듈로 제공한다. When the object tracking module identifies a new moving object from the CCTV photographed image, it provides object motion information on the object to the object classification module.

객체 분류 모듈은 [도 3]의 과정을 통하여 객체 움직임 정보가 입력되면 앞서 다수의 제 1 이동객체의 클러스터 분류 경향에 합치하도록 객체 클러스터의 귀속 정보가 출력되도록 학습되었다. 그에 따라, 객체 분류 모듈은 새로운 이동객체에 대한 객체 움직임 정보를 입력받으면 새로운 이동객체가 귀속되어야 하는 객체 클러스터가 어디인지 판정한 결과를 출력해준다.When the object motion information is inputted through the process of [FIG. 3], the object classification module is learned such that the attribution information of the object cluster is outputted so as to conform to the cluster classification tendency of the plurality of first moving objects. Accordingly, when the object movement module for the new moving object is input, the object classification module outputs the result of determining the object cluster to which the new moving object belongs.

한편, 객체 추적 모듈은 새로운 이동객체에 대하여 썸네일 이미지도 제공하는데, 썸네일 이미지는 [도 5]를 참조하여 후술하는 객체 분류 모듈에 대한 계속학습 과정에서 활용될 것이다.Meanwhile, the object tracking module also provides a thumbnail image for a new moving object. The thumbnail image will be used in the continuous learning process for the object classification module, which will be described later with reference to FIG.

[도 5]은 본 발명에서 객체 분류 모듈에 대한 계속학습 과정을 개념적으로 나타내는 도면이다. [도 5]의 계속학습 과정은 [도 1]의 전체 프로세스에서 단계 (S150) 및 단계 (S160)에 대응한다.5 is a diagram conceptually showing a continuous learning process for an object classification module in the present invention. The continuation learning process of FIG. 5 corresponds to step S150 and step S160 in the entire process of FIG.

앞서 카테고리 분류 과정을 통하여 객체 분류 모델이 복수의 신규 이동객체에 대해 객체 클러스터의 귀속을 결정하였다. 이러한 객체 분류 데이터를 관제요원이 썸네일 이미지를 기초로 확인하고 이중에서 잘못 분류되었다고 판단되는 것에 대해서는 해당 이동객체의 클러스터 분류를 수정한다.Through the category classification process, the object classification model determines the attribution of object clusters to a plurality of new moving objects. The controller classifies the object classification data based on the thumbnail image and modifies the cluster classification of the moving object when it is determined that the object classification data is erroneously classified.

이처럼 클러스터 분류가 수정되는 경우에, 해당 이동객체에 대한 객체 움직임 정보와 그 수정된 객체 클러스터 귀속 정보를 활용하여 객체 분류 모듈을 다시 인공지능 학습시킨다.When the cluster classification is modified as described above, the object classification module is re-artificially intelligently learned using the object motion information about the moving object and the modified object cluster attribution information.

이와 같은 계속학습 과정은 관제요원에 의해 카테고리 분류가 수정될 때마다 지속적으로 수정될 수 있다.This continuing learning process can be continuously revised by the control personnel whenever the category classification is modified.

[도 6]은 본 발명에서 이동객체에 대해 객체 움직임 정보가 추출되는 개념을 나타내는 도면이다. 6 is a diagram illustrating a concept in which object motion information is extracted for a moving object in the present invention.

본 발명에서는 CCTV 촬영 영상으로부터 이동객체가 발견되면 영상에서 시간변화에 따른 일련의 동적 노출 속성을 추출하고 이를 그룹화하여 객체 움직임 정보를 구성한다. 각 시점(Tk)에서 이동객체의 동적 노출 속성으로는 영상 내의 위치, 이동객체를 최적으로 담는 바운딩 박스의 크기, 순간속력을 들 수 있다. 특정 객체가 영상 내에서 어떻게 움직이는지 살펴보려면 이러한 동적 노출 속성을 하나만 볼 것이 아니고 시간을 변경시켜가며 여러 개를 살펴보아야 한다. 그에 따라, 이동객체 하나에 대한 객체 움직임 정보(A)는 N개의 시간(T1, T2, ..., TN)에서 추출되는 동적 노출 속성의 그룹으로 구성된다. In the present invention, when a moving object is found from a CCTV photographed image, a series of dynamic exposure attributes according to a time change is extracted from the image and grouped to form object motion information. The dynamic exposure properties of the moving object at each time point Tk include the position in the image, the size of the bounding box optimally storing the moving object, and the instantaneous speed. To see how a particular object moves within an image, you should not look at just one of these dynamic exposure properties, but rather look at several things, changing the time. Accordingly, the object motion information A for one moving object consists of a group of dynamic exposure attributes extracted from N times (T1, T2, ..., TN).

[도 6]에서는 객체 움직임 정보(A)의 일 예로서 [Tk, Lk, Bk, Sk]가 N개 연결된 형태를 제시하였다. 이때, 샘플링 시간의 간격(예: T2 - T1) 및 전체 시간 샘플의 갯수 N는 영상관제 시스템의 설계 목적에 따라 적절히 설정된다. 특히, 샘플 갯수 N이 증가하면 프로세스 연산량이 증가하므로 시스템 성능과 목표 처리량을 고려하여 N의 값을 설정할 수 있다. 또한, 이동객체에 대해서는 전체 혹은 일부에 대해 썸네일 이미지가 추출되는데, 썸네일 이미지의 갯수는 관제요원이 객체 카테고리를 식별하기에 적절한 정도로 설정한다.In FIG. 6, N pieces of [Tk, Lk, Bk, Sk] are shown as an example of the object motion information (A). At this time, the interval of the sampling time (for example, T2 - T1) and the number N of the total time samples are appropriately set according to the design purpose of the video control system. In particular, as the number of samples N increases, the amount of process computation increases. Therefore, the value of N can be set in consideration of system performance and target throughput. In addition, a thumbnail image is extracted for all or part of the moving object, and the number of thumbnail images is set to a degree suitable for the controller to identify the object category.

[도 7]은 본 발명에서 객체 클러스터의 개념을 나타내는 도면이다.7 is a diagram illustrating the concept of an object cluster in the present invention.

[도 7]에는 CCTV 촬영 영상으로부터 추출된 M개(예: 100개)의 이동객체를 L개(예: 7개)의 객체 클러스터로 귀속시키는 개념이 도시되었다. 본 발명에서는 영상에서 발견되는 다수의 이동객체에 대하여 움직임 형태가 유사한 것들끼리 묶어서 객체 클러스터를 형성한다. 7 shows a concept of assigning M (e.g., 100) moving objects extracted from the CCTV shot image to L (e.g., 7) object clusters. In the present invention, object clusters are formed by grouping objects having similar motion shapes in relation to a plurality of moving objects found in an image.

[도 7]를 참조하면 이동객체 A1, A3, A12, A31, A33이 서로 유사한 움직임 형태를 보이고 있는 것들이며, 이들은 예컨대 사람일 수 있다. 또한, 이동객체 A2, A9, A11, A21, A32가 서로 유사한 움직임 형태를 보이고 있는 것들이며, 이들은 예컨대 자동차일 수 있다. CCTV 촬영 영상에서 사람과 자동차는 위치, 크기, 순간속도의 측면에서 일반적으로 구별되는 형태를 나타내기 때문에 각자 상이한 객체 클러스터를 정의하게 된다.Referring to FIG. 7, the moving objects A1, A3, A12, A31, and A33 show similar motion patterns, and they may be, for example, persons. Also, the moving objects A2, A9, A11, A21, and A32 have similar motion patterns, and these may be, for example, automobiles. In CCTV images, human beings and automobiles define different object clusters because they represent a generally distinct form in terms of location, size, and instantaneous speed.

[도 8]는 본 발명에서 객체 움직임 벡터를 생성하고 객체 분류 모듈을 인공지능 학습시키는 개념을 나타내는 도면이다.8 is a diagram illustrating a concept of generating an object motion vector and artificial intelligence learning of an object classification module in the present invention.

본 발명에서는 다수의 이동객체, 즉 제 1 이동객체 및 제 3 이동객체와 관련하여 영상으로부터 얻어지는 객체 움직임 정보와 객체 클러스터 귀속 정보에 관한 다수의 조합을 객체 분류 모듈에 적용하여 반복적으로 지도 학습 방식에 따른 인공지능 학습을 수행한다. 다만, [도 8]은 편이상 하나의 이동객체와 관련하여 객체 분류 모듈을 학습시키는 과정에 대해서 도시하였다.In the present invention, a plurality of combinations of object motion information and object cluster attribution information obtained from an image in relation to a plurality of moving objects, i.e., a first moving object and a third moving object, are applied to an object classification module, Artificial intelligence learning is performed. However, FIG. 8 shows a process of learning an object classification module with respect to one moving object on one side.

이동객체 하나에 대한 객체 움직임 정보(A)는 N개의 시간(T1, T2, ..., TN)에서 추출되는 동적 노출 속성의 그룹(L1, B1, S1; L2, B2, S2; ... LN, BN, SN)으로 이루어진다. 본 발명에서는 수학적 연산을 위하여 객체 움직임 정보로부터 객체 움직임 벡터(C)를 생성하는데, 해당 이동객체에 대해 그룹화된 일련의 동적 노출 속성을 엘리먼트로 하는 1차원 벡터로 구성될 수 있다. 이때, 위치 정보는 x 좌표와 y 좌표로 이루어져 있으므로 [도 8]의 상단에 표시된 바와 같이 객체 움직임 벡터는 4*N의 길이를 갖는 1차원 벡터로 구성될 수 있다.The object motion information A for a moving object is a group of dynamic exposure attributes (L1, B1, S1; L2, B2, S2, ...) extracted from N times (T1, T2, ..., TN). LN, BN, SN). In the present invention, an object motion vector (C) is generated from object motion information for a mathematical operation. The motion motion vector may be a one-dimensional vector having a series of dynamic exposure attributes grouped as elements. At this time, since the position information is composed of the x-coordinate and the y-coordinate, the object motion vector may be composed of a one-dimensional vector having a length of 4 * N, as shown at the top of FIG.

또한, 객체 클러스터의 갯수를 L이라고 하였을 때, 이동객체에 대한 객체 클러스터 귀속 정보(D)는 길이 L의 1차원 벡터로 구성될 수 있다. 바람직하게는 그 이동객체가 귀속하는 객체 클러스터에 해당하는 엘리먼트만 1로 표시되고 나머지 엘리먼트는 0으로 설정되는 것이다.Also, when the number of object clusters is L, the object cluster attribution information D for the moving object can be composed of a one-dimensional vector of length L. [ Preferably, only the element corresponding to the object cluster to which the moving object belongs is represented by 1, and the remaining elements are set to 0.

본 발명에서 객체 분류 모듈은 인공지능을 기반으로 한 다중 레이어의 뉴럴 네트워크로 구성된다. 객체 움직임 벡터를 객체 분류 모듈의 입력 레이어로 제공하고 객체 클러스터 귀속 정보를 객체 분류 모듈의 출력 레이어로 제공한 상태에서 인공지능 학습 과정(예: DNN)을 수행하면 뉴럴 네트워크의 내부 구성이 해당 입력과 출력에 맞도록 조금씩 조정된다. 다수의 이동객체에 대해서 이러한 과정을 반복적으로 수행함으로써 뉴럴 네트워크는 소망하는 객체 클러스터 분류 특성을 나타내도록 내부 구성이 설정되어 가는 것이다.In the present invention, the object classification module is composed of a multi-layer neural network based on artificial intelligence. If an object motion vector is provided as an input layer of an object classification module and an object cluster attribution information is provided to an output layer of an object classification module, an artificial intelligent learning process (eg, DNN) Adjust slightly to fit the output. By repeating this process for a number of moving objects, the neural network is set to show the desired object cluster classification characteristics.

[도 9]은 본 발명에서 객체 분류 모듈을 통해 신규 발견된 이동객체를 분류하는 개념을 나타내는 도면이다.9 is a diagram illustrating a concept of classifying a newly discovered moving object through the object classification module in the present invention.

CCTV 촬영 영상에서 이동객체가 신규로 발견되었을 때에 그 신규 객체를 어떠한 객체 클러스터로 귀속시켜야 하는지 분류해야 한다. 이를 위해, 영상으로부터 신규 객체를 추적하여 객체 움직임 정보(NA)를 추출하고 이로부터 신규 객체에 대한 객체 움직임 벡터(NC)를 구성한다.When a moving object is newly found in a CCTV shot image, it is necessary to classify which object cluster belongs to which object cluster. To do this, a new object is traced from the image to extract the object motion information (NA), and from this, an object motion vector (NC) for the new object is constructed.

객체 분류 모듈의 입력 레이어에 신규 객체에 대한 객체 움직임 벡터(NC)를 제공하고 뉴럴 네트워크의 다중 레이어를 통과하여 정보가 전파되도록 일련의 연산을 수행하면 출력 레이어에서 신규 객체에 대한 분류 결과가 출력된다. 그 출력 결과는 길이 L의 1차원 벡터인데, 바람직하게는 그 신규 객체가 귀속할 객체 클러스터에 해당하는 엘리먼트만 1로 표시되고 나머지 엘리먼트는 0으로 설정된다. 이러한 과정을 통하여 신규 객체에 대한 분류 결과가 얻어진다.When an object motion vector (NC) is provided to an input layer of an object classification module and a series of operations are performed to propagate information through multiple layers of a neural network, a classification result for a new object is output in the output layer . The output result is a one-dimensional vector of length L. Preferably, only the element corresponding to the object cluster to which the new object belongs is represented by 1, and the remaining elements are set to zero. Through this process, classification results for new objects are obtained.

[도 10]은 본 발명에 따른 인공지능 학습기반의 이동객체 영상 분류처리 기술의 특징을 정리하여 나타낸 도면이다.10 is a view showing an overview of features of a moving object image classification processing technique based on artificial intelligence learning according to the present invention.

먼저, 객체 분류의 면에서 본 발명은 객체의 움직임 정보(메타 정보)에 기반하여 이동객체를 다루기 때문에 가벼운 객체 추적 모듈을 이용하여 여러 채널에서 식별되는 다수의 객체를 신속하게 분류하는 것이 가능하여 높은 분류 성능을 나타낸다. 종래기술은 이미지 특징 기반으로 매우 복잡한 객체 분석 엔진을 사용하므로 분류 성능이 낮아 많은 채널을 수용할 수 없었다.First, since the present invention deals with a moving object based on motion information (meta information) of an object in terms of object classification, it is possible to quickly classify a plurality of objects identified in various channels by using a light object tracking module, Indicates classification performance. The prior art uses a very complicated object analysis engine based on image features, so that it can not accommodate many channels because of its low classification performance.

객체 학습의 면에서, 본 발명은 유사한 객체는 사전에 클러스터링을 수행하여 복수 개의 객체를 동시에 태깅하고 이를 학습에 반영하므로 인공지능 학습의 부담이 대폭 경감되는 장점이 있다. 종래의 인공지능 학습 기술에서는 객체를 하나하나 학습시키며 객체의 특징을 정확하게 학습시키는 방식이었기에 인공지능 학습의 부담이 매우 컸었다.In the aspect of object learning, the present invention has an advantage that burden of artificial intelligence learning is greatly reduced because tagging similar objects by clustering in advance and simultaneously tagging a plurality of objects and reflecting them in learning. In the conventional artificial intelligence learning technology, artificial intelligence learning was very burdensome because it was a method of learning objects one by one and learning the characteristics of objects accurately.

본 발명에 따라 영상관제 시스템을 운영한다면, 초기 구축 과정에서는 시스템 설치 환경에서 발생한 학습 데이터를 학습시키고, 시스템 운영 과정에서 객체 분류 모듈이 자동으로 객체 분류를 수행하고 이를 관제요원에게 클러스터로 전달하며, 오류가 있는 경우에만 계속 학습 수행한다. If the video control system is operated according to the present invention, the learning data generated in the system installation environment is learned during the initial construction process, the object classification module automatically classifies the objects in the system operation process, Continue learning only if there is an error.

영상관제 시스템에 속하는 다수의 CCTV 카메라에 대해서 객체 분류 모듈을 개별적으로 학습시킬 필요가 없다. 어느 하나의 CCTV 카메라의 촬영 영상에 대해서 객체 분류 모듈을 인공지능 학습시킨 결과를 유사한 환경의 다른 CCTV 카메라의 촬영 영상에 대해서도 적용할 수 있다고 기대할 수 있으며, 몇가지 테스트 영상을 통해 이를 검증하는 것도 가능하다.It is not necessary to individually learn the object classification module for a plurality of CCTV cameras belonging to the video control system. It can be expected that the result of artificial intelligence learning of the object classification module for the captured image of any one CCTV camera can be applied to the captured image of another CCTV camera of similar environment and it can be verified through several test images .

본 발명에 따르면 영상관제 시스템에서 근무하는 관제요원은 유사시에 CCTV 카메라를 특정한 후에 이동객체의 종류를 추가로 한정함으로써 매우 효과적으로 영상을 모니터링할 수 있다. 이러한 특징은 스토리지 장치에 저장되어 있는 대규모의 촬영 영상을 검색하는 과정에서도 유익하게 활용될 수 있다.According to the present invention, the control personnel working in the video control system can monitor the video very effectively by further specifying the type of the moving object after specifying the CCTV camera in case of emergency. This feature can be advantageously used in the process of searching a large-scale shot image stored in the storage device.

한편, 본 발명은 컴퓨터가 읽을 수 있는 비휘발성 기록매체에 컴퓨터가 읽을 수 있는 코드의 형태로 구현되는 것이 가능하다. 이러한 비휘발성 기록매체는 컴퓨터가 읽을 수 있는 데이터를 저장하는 모든 종류의 스토리지 장치를 포함하는데 예컨대 하드디스크, SSD, CD-ROM, NAS, 자기테이프, 웹디스크, 클라우드 디스크 등이 있고 네트워크로 연결된 다수의 스토리지 장치에 코드가 분산 저장되고 실행되는 형태로 구현될 수도 있다.Meanwhile, the present invention can be embodied in the form of computer readable code on a computer-readable non-volatile recording medium. Such a non-volatile recording medium includes all kinds of storage devices for storing computer-readable data such as a hard disk, an SSD, a CD-ROM, a NAS, a magnetic tape, a web disk, a cloud disk, The code may be distributed and stored in the storage device of the computer.

Claims (6)

영상 분석을 통해 다수의 제 1 이동객체를 추적하여 각각에 대한 객체 움직임 정보를 추출하는 제 1 단계;
상기 다수의 제 1 이동객체에 대하여 상기 객체 움직임 정보에 기초한 유사도 산출 결과에 따라 하나이상의 제 1 이동객체를 귀속시키는 복수의 객체 클러스터를 결정하는 제 2 단계;
상기 다수의 제 1 이동객체로부터 얻어지는 객체 움직임 정보 및 객체 클러스터 귀속 정보의 다수의 조합을 활용하여 객체 분류 모듈을 인공지능 학습시키는 제 3 단계;
영상 내에서 식별되는 복수의 제 2 이동객체에 대하여 상기 제 2 이동객체 각각의 객체 움직임 정보를 추출하여 상기 객체 분류 모듈에 입력함으로써 각각의 제 2 이동객체가 귀속할 객체 클러스터를 결정하는 제 4 단계;
상기 복수의 제 2 이동객체에 대한 영상 클립을 객체 클러스터 별로 관리하여 저장하는 제 5 단계;
를 포함하여 구성되는 움직임 정보를 이용한 인공지능 학습기반의 이동객체 영상 분류처리 방법.
A first step of tracking a plurality of first moving objects through image analysis and extracting object motion information for each of the first moving objects;
A second step of determining a plurality of object clusters for attributing one or more first moving objects to the plurality of first moving objects according to a result of calculating similarity based on the object motion information;
A third step of artificial intelligence learning of the object classification module using a plurality of combinations of object motion information and object cluster attribution information obtained from the plurality of first moving objects;
A fourth step of determining an object cluster to which each second moving object belongs by extracting object motion information of each of the second moving objects for a plurality of second moving objects identified in the image and inputting the extracted object motion information to the object classification module ;
A fifth step of managing and storing image clips for the plurality of second moving objects for each object cluster;
A moving object image classification processing method based on an artificial intelligence learning using motion information including a moving object image including motion information;
청구항 1에 있어서,
상기 제 4 단계 이후에 수행되는,
상기 복수의 제 2 이동객체 중에서 특정의 제 3 이동객체에 대한 객체 클러스터의 귀속 변경 설정을 식별하면 상기 제 3 이동객체의 객체 움직임 정보 및 상기 변경 설정된 객체 클러스터 귀속 정보의 조합을 활용하여 상기 객체 분류 모듈을 인공지능 학습시키는 단계;
를 더 포함하여 구성되는 움직임 정보를 이용한 인공지능 학습기반의 이동객체 영상 분류처리 방법.
The method according to claim 1,
The method of claim 1,
When the identification of the attribution change setting of the object cluster with respect to a specific third moving object among the plurality of second moving objects is identified, Artificial intelligence learning module;
A moving object image classification processing method based on artificial intelligence learning using motion information.
청구항 1에 있어서,
상기 제 2 단계와 상기 제 3 단계 사이에 수행되는,
상기 다수의 제 1 이동객체에 대하여 썸네일 이미지를 생성하여 그 귀속하는 객체 클러스터에 따라 구분하여 디스플레이 표시하는 단계;
상기 섬네일 이미지에 대응하여 상기 객체 클러스터에 대한 하나이상의 태그 정보를 입력받는 단계;
상기 복수의 객체 클러스터 각각에 대하여 상기 태그 정보에 따라 카테고리를 지정하는 단계;
를 더 포함하여 구성되고,
상기 제 5 단계 이후에 수행되는,
사용자 조작에 대응하여 특정의 키워드를 식별하는 단계;
상기 키워드에 대응하는 카테고리가 지정된 하나이상의 영상 클립을 디스플레이 표시하는 단계;
를 더 포함하여 구성되는 움직임 정보를 이용한 인공지능 학습기반의 이동객체 영상 분류처리 방법.
The method according to claim 1,
And performing the second step and the third step,
Generating thumbnail images for the plurality of first moving objects and displaying and displaying the thumbnail images according to the belonging object clusters;
Receiving at least one tag information for the object cluster corresponding to the thumbnail image;
Designating a category according to the tag information for each of the plurality of object clusters;
Further comprising:
The method according to claim 1,
Identifying a specific keyword in response to a user operation;
Displaying one or more image clips designated by the category corresponding to the keyword on the display;
A moving object image classification processing method based on artificial intelligence learning using motion information.
청구항 1에 있어서,
상기 제 2 단계는,
상기 다수의 제 1 이동객체 각각에 대하여 상기 객체 움직임 정보를 벡터화하여 객체 움직임 벡터를 생성하는 단계;
상기 객체 움직임 벡터 상호간의 유클리드 거리(Euclidean distance)를 산출하는 단계;
상기 유클리드 거리가 미리 설정된 임계치 이하인 복수의 제 1 이동객체끼리 그룹화하여 복수의 객체 클러스터를 생성하는 단계;
를 포함하여 구성되는 것을 특징으로 하는 움직임 정보를 이용한 인공지능 학습기반의 이동객체 영상 분류처리 방법.
The method according to claim 1,
The second step comprises:
Generating an object motion vector by vectorizing the object motion information for each of the plurality of first moving objects;
Calculating an Euclidean distance between the object motion vectors;
Creating a plurality of object clusters by grouping a plurality of first moving objects whose Euclidean distance is equal to or less than a predetermined threshold value;
And a moving object image classification processing method based on artificial intelligence learning using motion information.
청구항 4에 있어서,
상기 객체 움직임 정보는 동일한 제 1 이동객체에 대해 일련의 영상 프레임에서 식별된 시간별 동적 노출 속성을 그룹화하여 구성되고,
상기 객체 움직임 벡터는 동일한 제 1 이동객체에 대해 그룹화된 일련의 동적 노출 속성을 엘리먼트로 하는 1차원 벡터로 구성되고,
상기 인공지능 학습은 상기 제 1 이동객체 또는 상기 제 3 이동객체의 객체 움직임 정보 및 객체 클러스터 귀속 정보를 상기 객체 분류 모듈의 입력 레이어와 출력 레이어에 각각 적용하여 반복 학습시키는 것을 특징으로 하는 움직임 정보를 이용한 인공지능 학습기반의 이동객체 영상 분류처리 방법.
The method of claim 4,
Wherein the object motion information is configured by grouping temporal dynamic exposure attributes identified in a series of image frames for the same first moving object,
Wherein the object motion vector comprises a one-dimensional vector having elements as a series of dynamic exposure attributes grouped for the same first moving object,
Wherein the artificial intelligence learning repeatedly applies object motion information and object cluster attribution information of the first moving object or the third moving object to the input layer and the output layer of the object classification module, Artificial intelligence learning based moving object image classification processing method.
컴퓨터에 청구항 1 내지 5 중 어느 하나의 항에 따른 움직임 정보를 이용한 인공지능 학습기반의 이동객체 영상 분류처리 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독가능한 비휘발성 기록매체.A computer-readable nonvolatile recording medium storing a program for causing a computer to execute a moving object image classification processing method based on artificial intelligence learning using motion information according to any one of claims 1 to 5.
KR1020170179092A 2017-12-26 2017-12-26 method of providing categorized video processing for moving objects based on AI learning using moving information of objects KR102028930B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170179092A KR102028930B1 (en) 2017-12-26 2017-12-26 method of providing categorized video processing for moving objects based on AI learning using moving information of objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170179092A KR102028930B1 (en) 2017-12-26 2017-12-26 method of providing categorized video processing for moving objects based on AI learning using moving information of objects

Publications (2)

Publication Number Publication Date
KR20190088087A true KR20190088087A (en) 2019-07-26
KR102028930B1 KR102028930B1 (en) 2019-10-07

Family

ID=67469869

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170179092A KR102028930B1 (en) 2017-12-26 2017-12-26 method of providing categorized video processing for moving objects based on AI learning using moving information of objects

Country Status (1)

Country Link
KR (1) KR102028930B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210125371A (en) * 2020-04-08 2021-10-18 한국전자통신연구원 Method and apparatus for analyzing traffic situation
WO2021216439A1 (en) * 2020-04-20 2021-10-28 Chooch Intelligence Technologies Co. Automated generation of training data for contextually generated perceptions
KR20220078832A (en) 2020-12-04 2022-06-13 포항공과대학교 산학협력단 Motion feature extracting method in video based on neural network and analysis apparatus
KR20230046156A (en) * 2021-09-29 2023-04-05 한국축산데이터 주식회사 농업회사법인 Method and apparatus for extracting abnormal behavior patterns of livestock based on artificial intelligence

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240045469A (en) * 2022-09-30 2024-04-08 한국전자기술연구원 Electronic device and method for semi-automatic cctv video search

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140089810A (en) * 2013-01-07 2014-07-16 한남대학교 산학협력단 CCTV Environment based Security Management System for Face Recognition
KR20160112256A (en) * 2015-03-18 2016-09-28 한국전자통신연구원 Image analysis apparatus using cluster system and method using the same
KR20170137350A (en) * 2016-06-03 2017-12-13 (주)싸이언테크 Apparatus and method for studying pattern of moving objects using adversarial deep generative model

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140089810A (en) * 2013-01-07 2014-07-16 한남대학교 산학협력단 CCTV Environment based Security Management System for Face Recognition
KR20160112256A (en) * 2015-03-18 2016-09-28 한국전자통신연구원 Image analysis apparatus using cluster system and method using the same
KR20170137350A (en) * 2016-06-03 2017-12-13 (주)싸이언테크 Apparatus and method for studying pattern of moving objects using adversarial deep generative model

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210125371A (en) * 2020-04-08 2021-10-18 한국전자통신연구원 Method and apparatus for analyzing traffic situation
WO2021216439A1 (en) * 2020-04-20 2021-10-28 Chooch Intelligence Technologies Co. Automated generation of training data for contextually generated perceptions
KR20220078832A (en) 2020-12-04 2022-06-13 포항공과대학교 산학협력단 Motion feature extracting method in video based on neural network and analysis apparatus
KR20230046156A (en) * 2021-09-29 2023-04-05 한국축산데이터 주식회사 농업회사법인 Method and apparatus for extracting abnormal behavior patterns of livestock based on artificial intelligence
WO2023054822A1 (en) * 2021-09-29 2023-04-06 한국축산데이터 주식회사 농업회사법인 Artificial intelligence-based method and device for extracting abnormal behavior patterns of livestock

Also Published As

Publication number Publication date
KR102028930B1 (en) 2019-10-07

Similar Documents

Publication Publication Date Title
US11210504B2 (en) Emotion detection enabled video redaction
KR102028930B1 (en) method of providing categorized video processing for moving objects based on AI learning using moving information of objects
US11301690B2 (en) Multi-temporal scale analytics
Benabbas et al. Motion pattern extraction and event detection for automatic visual surveillance
US8660368B2 (en) Anomalous pattern discovery
CA3164902A1 (en) Systems and methods for identifying an object of interest from a video sequence
CN106295598A (en) A kind of across photographic head method for tracking target and device
EP3765995B1 (en) Systems and methods for inter-camera recognition of individuals and their properties
Rabiee et al. Crowd behavior representation: an attribute-based approach
KR20110035662A (en) Intelligent image search method and system using surveillance camera
Henrio et al. Anomaly detection in videos recorded by drones in a surveillance context
Singleton et al. Gun identification using tensorflow
Rezaee et al. Deep-Transfer-learning-based abnormal behavior recognition using internet of drones for crowded scenes
JP6909657B2 (en) Video recognition system
Jang et al. Detection of dangerous situations using deep learning model with relational inference
Park et al. Intensity classification background model based on the tracing scheme for deep learning based CCTV pedestrian detection
Kumar et al. Attention-based bidirectional-long short-term memory for abnormal human activity detection
Kumar et al. SSE: A Smart Framework for Live Video Streaming based Alerting System
Alia et al. A cloud-based deep learning framework for early detection of pushing at crowded event entrances
Brahmaiah et al. Artificial intelligence and deep learning for weapon identification in security systems
Kulbacki et al. Intelligent video monitoring system with the functionality of online recognition of people’s behavior and interactions between people
AU2021100892A4 (en) Deeply learned intelligent system for end to end tracking and detection in videos
Dogra et al. Scene representation and anomalous activity detection using weighted region association graph
KR20240028530A (en) System and method for audio tagging of objects of interest
Arshad et al. Anomalous Situations Recognition in Surveillance Images Using Deep Learning

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant