KR102169073B1 - Real-time Streaming Blocking System and Method Based on the Results of the Video Obscenity Analysis - Google Patents

Real-time Streaming Blocking System and Method Based on the Results of the Video Obscenity Analysis Download PDF

Info

Publication number
KR102169073B1
KR102169073B1 KR1020190121056A KR20190121056A KR102169073B1 KR 102169073 B1 KR102169073 B1 KR 102169073B1 KR 1020190121056 A KR1020190121056 A KR 1020190121056A KR 20190121056 A KR20190121056 A KR 20190121056A KR 102169073 B1 KR102169073 B1 KR 102169073B1
Authority
KR
South Korea
Prior art keywords
video
harmfulness
harmful
frame
streaming
Prior art date
Application number
KR1020190121056A
Other languages
Korean (ko)
Inventor
정광수
김민수
강정호
Original Assignee
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광운대학교 산학협력단 filed Critical 광운대학교 산학협력단
Priority to KR1020190121056A priority Critical patent/KR102169073B1/en
Application granted granted Critical
Publication of KR102169073B1 publication Critical patent/KR102169073B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4542Blocking scenes or portions of the received content, e.g. censoring scenes
    • G06K9/00744
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream

Abstract

Disclosed are a system for blocking streaming in real-time based on the result of video harmfulness analysis and a method thereof, wherein the system comprises: a video server in which a video is encoded and stored in the server in the shape of a segment having a fixed reproduction length and bitrates different from each other for HTTP adaptive streaming, and which provides real-time streaming video data; and a user terminal in which an HTTP adaptive streaming client is installed and which compares similarity among video frames by using a deep learning-based harmfulness analysis engine to calculate length information of the scene of each frame and harmfulness probability for each frame to determine whether to block streaming depending on the final harmfulness rating so as to block harmful videos. Therefore, harmful videos may be blocked during real-time streaming.

Description

동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 시스템 및 방법{Real-time Streaming Blocking System and Method Based on the Results of the Video Obscenity Analysis}Real-time Streaming Blocking System and Method Based on the Results of the Video Obscenity Analysis}

본 발명은 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 시스템 및 방법에 관한 것으로, 보다 상세하게는 HTTP 적응적 스트리밍 기술이 적용된 VoD 및 실시간 스트리밍 서비스 시스템에서, 실시간 스트리밍 중인 동영상 세그먼트에서 동영상 프레임들을 추출하고, 딥러닝 기반의 유해성 분석 엔진을 사용하여 동영상 프레임 간 유사도를 유해 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하여 최종 유해 등급에 따라 스트리밍 차단을 결정하여 유해한 동영상을 차단하는, 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 시스템 및 방법에 관한 것이다.The present invention relates to a real-time streaming blocking system and method based on a video harmfulness analysis result. More specifically, in a VoD and real-time streaming service system to which HTTP adaptive streaming technology is applied, video frames are extracted from a video segment being streamed in real time, and Using a running-based hazard analysis engine, it compares the similarity between video frames with the original harmful image, calculates the length information of the scene of each frame and the harmful probability for each frame, and blocks harmful videos by deciding to block streaming according to the final harmful rating. , To a real-time streaming blocking system and method based on the result of harmfulness analysis of video.

최근, 컴퓨터와 스마트기기의 보급이 증감함에 따라 유무선 인터넷은 PC와 스마트기기로 접속 가능한 유해 사이트, 유해 동영상들이 범람하고 있으며, 어린이나 청소년과 같이 보호가 필요한 피보호자들은 유해 사이트에 접속하거나 또는 성인 동영상이나 불법 동영상을 다운로드 받거나 유해 동영상에 노출되어 있다. In recent years, as the spread of computers and smart devices increases and decreases, harmful sites and videos that can be accessed by PC and smart devices are flooding the wired and wireless Internet, and guardians who need protection, such as children and teenagers, access harmful sites or adult videos. Or illegal videos are downloaded or exposed to harmful videos.

이를 해결하기 위해, 어린 자녀들과 청소년들에게 유해 사이트를 차단하고, 유해 동영상 차단 기술이 필요하다.To solve this problem, it is necessary to block harmful sites for young children and adolescents and to block harmful videos.

이와 관련된 선행기술1로써, 특허공개번호 10-2016-0116585에서는 "동영상 유해 영역 차단 방법 및 장치"가 공개되어 있다. As prior art 1 related to this, in Patent Publication No. 10-2016-0116585, "a method and apparatus for blocking a harmful area of a video" is disclosed.

동영상 유해 영역 차단 장치는 입력되는 동영상의 현재 프레임이 유해한 프레임인지 판단하고, 유해한 프레임에 대하여 얼굴 및 상기 얼굴을 제외한 사람의 적어도 일부분을 검출한 후, 얼굴 및 상기 사람의 적어도 일부분 중 검출된 영역을 마스킹하며, 현재 프레임의 이후 프레임에 대해 순차적으로 직전 프레임에서 검출된 얼굴 및 사람의 적어도 일부분에 대한 정보를 초기값으로 사용하여 얼굴 및 사람의 적어도 일부분을 추적하여 추적된 영역을 마스킹한다. The video harmful area blocking device determines whether the current frame of the input video is a harmful frame, detects a face and at least a part of a person other than the face with respect to the harmful frame, and then detects the detected area among the face and at least a part of the person. Masking is performed, and at least a portion of a face and a person is tracked by sequentially using information on at least a portion of a face and a person detected in a frame immediately preceding the current frame as an initial value to mask the tracked area.

이와 관련된 선행기술2로써, 특허공개번호 10-2011-0120545에서는 피보호자가 컴퓨터를 사용하는 경우 유해 동영상으로의 접근을 근본적이고 효율적으로 차단할 수 있도록 하는 "컴퓨터 유해 동영상 차단 장치 및 방법"을 개시하고 있다.As a related prior art 2, Patent Publication No. 10-2011-0120545 discloses a "computer harmful video blocking device and method" that allows the guardian to fundamentally and efficiently block access to harmful videos when using a computer. .

피보호자의 컴퓨터 사용시 유해 동영상을 차단하는 장치는, 상기 컴퓨터에서 실행이 허가된 동영상 파일에 대한 허가파일 정보를 저장하는 데이터베이스; 상기 컴퓨터 사용자의 식별정보를 입력받는 입력 모듈; 피보호자로부터 컴퓨터에 저장된 동영상 파일의 실행을 요청받은 경우, 상기 실행 요청된 동영상 파일에 대한 요청파일 정보와 상기 데이터베이스에 저장된 허가파일 정보를 비교 검색하는 검색 모듈; 및 상기 검색 모듈에 의해 상기 요청파일 정보에 상응하는 허가파일 정보가 상기 데이터베이스에서 검색된 경우 상기 실행 요청된 동영상 파일이 실행되도록 하고, 상기 요청파일 정보에 상응하는 허가파일 정보가 상기 데이터베이스에서 검색되지 않은 경우 상기 실행 요청된 동영상 파일의 실행이 차단되도록 하는 제어 모듈을 포함한다. An apparatus for blocking a harmful video when a guardian uses a computer includes: a database storing permission file information for a video file permitted to be executed on the computer; An input module for receiving identification information of the computer user; A search module for comparing and searching the request file information for the video file requested for execution with the permission file information stored in the database when a request for execution of the video file stored in the computer is received from the guardian; And when permission file information corresponding to the requested file information is searched in the database by the search module, the video file requested for execution is executed, and permission file information corresponding to the requested file information is not searched in the database. In this case, it includes a control module to block execution of the video file requested for execution.

그러나, 기존의 스트리밍 시스템은 실시간 스트리밍 동영상에서 추출된 동영상 프레임에 대한 유해성 분석 결과와 동영상 프레임이 반복된 장면 길이 정보를 고려하여 최종 유해 등급을 산출하고, 산출된 최종 유해 등급을 기초로 실시간 스트리밍 중인 동영상에 대하여 유해 동영상의 차단 제어를 제공하지 않았다.However, the existing streaming system calculates the final harmfulness level by considering the harmfulness analysis result of the video frame extracted from the real-time streaming video and the scene length information in which the video frame is repeated, and based on the calculated final harmfulness level, No harmful video blocking control was provided for the video.

특허공개번호 10-2016-0116585 (공개일자 2016년 10월 10일), "동영상 유해 영역 차단 방법 및 장치", 한국전자통신연구원Patent Publication No. 10-2016-0116585 (Publication date October 10, 2016), "Method and device for blocking harmful areas of video", Electronics and Telecommunications Research Institute 특허공개번호 10-2011-0120545 (공개일자 2011년 11월 04일), "컴퓨터 유해 동영상 차단 장치 및 방법", 이승수Patent Publication No. 10-2011-0120545 (Publication date November 04, 2011), "A device and method for blocking harmful computer videos", Seungsoo Lee

상기 문제점을 해결하기 위한 본 발명의 목적은 실시간 스트리밍 동영상에서 추출된 동영상 프레임에 대한 유해성 분석 결과와 유사한 동영상 프레임이 반복된 장면 길이 정보를 고려하여 최종 유해 등급을 산출하고, 산출된 최종 유해 등급을 기초로 실시간 스트리밍 중인 동영상에 대하여 유해 동영상의 차단 제어를 하는, 동영상 유해성 분석 결과 기반의 실시간 스트리밍 차단 시스템을 제공한다. An object of the present invention for solving the above problem is to calculate a final harmful rating by considering the scene length information in which a video frame is repeated similar to the result of a harmfulness analysis of a video frame extracted from a real-time streaming video, and calculate the calculated final harmful rating. It provides a real-time streaming blocking system based on the result of analyzing harmfulness of a video, which blocks harmful videos with respect to a video being streamed in real time.

본 발명의 다른 목적은 동영상 유해성 분석 결과 기반의 실시간 스트리밍 차단 방법을 제공한다.Another object of the present invention is to provide a method for blocking real-time streaming based on a result of analyzing harmfulness of a video.

본 발명의 목적을 달성하기 위해, 동영상 유해성 분석 결과 기반의 실시간 스트리밍 차단 시스템은, HTTP 적응적 스트리밍을 위해 동영상 데이터를 고정된 재생 길이와 서로 다른 품질(bitrate)을 가지는 세그먼트의 형태로 인코딩하여 서버에 저장되며, 실시간 스트리밍 동영상 데이터를 제공하는 동영상 서버; 및 HTTP 적응적 스트리밍 클라이언트이 설치되며, 딥러닝 기반의 유해성 분석 엔진을 사용하여 동영상 프레임 간 유사도를 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하여 최종 유해 등급에 따라 스트리밍 차단을 결정하여 유해한 이미지를 차단하는 사용자 단말을 포함한다. In order to achieve the object of the present invention, a real-time streaming blocking system based on a video harmfulness analysis result encodes video data in the form of segments having a fixed playback length and different bitrates for HTTP adaptive streaming, A video server that is stored in and provides real-time streaming video data; And HTTP adaptive streaming client is installed, and the similarity between video frames is compared with the original image using a deep learning-based harmfulness analysis engine, and the length information of the scene of each frame and the harmful probability for each frame are calculated and streamed according to the final harmfulness level. It includes a user terminal that blocks harmful images by determining blocking.

본 발명의 다른 목적을 달성하기 위해, 동영상 유해성 분석 결과 기반의 실시간 스트리밍 차단 방법은, (a) HTTP 적응적 스트리밍을 위해 동영상 데이터를 고정된 재생 길이와 서로 다른 품질(bitrate)을 가지는 세그먼트의 형태로 인코딩하여 동영상 서버에 저장되며, 상기 동영상 서버로부터 실시간 스트리밍 동영상 데이터를 사용자 단말로 제공하는 단계; 및 (b) 상기 사용자 단말에 HTTP 적응적 스트리밍 클라이언트가 설치되며, 딥러닝 기반의 유해성 분석 엔진을 사용하여 동영상 프레임 간 유사도를 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하여 최종 유해 등급에 따라 스트리밍 차단을 결정하여 유해한 동영상을 차단하는 단계를 포함하며,
상기 사용자 단말은 상기 HTTP 적응적 스트리밍 클라이언트가 설치되며, 상기 동영상 서버로부터 요청할 동영상에 대한 정보를 기술하는 MPD(Media Presentation Description) 파일을 다운로드하며, 측정한 네트워크 대역폭 및 단말의 상태에 따라 특정 품질(bitrate)의 동영상 세그먼트를 요청하고,
상기 딥러닝 기반의 유해성 분석 엔진은 CNN(Convolutional Neural Network) 모델을 사용하며, 동영상 세그먼트의 주어진 데이터 세트에 대하여 입력 이미지들의 특성을 학습하여 유해 원본 이미지와 비교 이미지를 비교하여 즉, 동영상 프레임 간 유사도를 상기 유해 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하고, 동영상의 유해성을 분석하여 각각의 동영상 프레임에 대한 유해 확률의 형태로 동영상 유해성 분석 결과를 동영상 스트리밍 차단 제어 모듈로 제공한다.
In order to achieve another object of the present invention, a method for blocking real-time streaming based on a result of a video harmfulness analysis includes: (a) a format of a segment having a fixed playback length and different bitrates for video data for HTTP adaptive streaming. Encoding and storing in a video server, and providing real-time streaming video data from the video server to a user terminal; And (b) an HTTP adaptive streaming client is installed in the user terminal, and the similarity between video frames is compared with the original image using a deep learning-based harmfulness analysis engine, and the length information of the scene of each frame and the harmful probability for each frame are calculated. Blocking harmful videos by calculating and determining streaming blocking according to the final harmful rating,
The user terminal is installed with the HTTP adaptive streaming client, downloads a Media Presentation Description (MPD) file describing information on a video to be requested from the video server, and a specific quality according to the measured network bandwidth and the state of the terminal ( bitrate) of the video segment,
The deep learning-based harmfulness analysis engine uses a CNN (Convolutional Neural Network) model, and compares the harmful original image with the comparison image by learning the characteristics of the input images for a given data set of the video segment, that is, the similarity between video frames. By comparing the harmful original image, the length information of the scene of each frame and the harmful probability for each frame are calculated, and the harmfulness of the video is analyzed and the result of the video harmfulness analysis in the form of a harmful probability for each video frame is blocked from video streaming. Provided as a module.

본 발명의 동영상 유해성 분석 결과 기반의 실시간 스트리밍 차단 시스템 및 방법은 실시간 스트리밍 중인 동영상에서 추출된 동영상 프레임을 이용하여 동영상의 유해성을 분석하고, 동영상의 유해성 분석 결과와 추출된 동영상 프레임이 반복된 장면 길이를 반영하여 유해 동영상의 스트리밍 차단을 제어함으로써 실시간 스트리밍 서비스에서 의미 있는 차단 제어를 수행할 수 있다.The real-time streaming blocking system and method based on the results of the video harmfulness analysis of the present invention analyzes the harmfulness of the video using the video frame extracted from the video being streamed in real time, and the length of the scene in which the harmfulness analysis result of the video and the extracted video frame are repeated. It is possible to perform meaningful blocking control in a real-time streaming service by controlling the streaming blocking of harmful videos by reflecting.

적응적 스트리밍 기술이 적용된 VoD 및 실시간 스트리밍 서비스, 개인 방송 및 실시간 스트리밍을 제공하는 서비스 플랫폼에서, 스트리밍 중인 동영상에서 유사도 비교를 기반으로 추출된 동영상 프레임을 이용하여 동영상의 유해성을 분석함으로써 동영상 유해성 분석에서 발생할 수 있는 부하를 최소화하고, 유해성 분석 결과와 추출된 동영상 프레임이 반복된 장면 길이를 반영하여 스트리밍 차단을 제어함으로써 실시간 스트리밍 서비스에서 의미 있는 차단 제어를 수행할 수 있다.In a service platform that provides VoD and real-time streaming services applied with adaptive streaming technology, personal broadcasting and real-time streaming, the harmfulness of the video is analyzed by analyzing the harmfulness of the video using the video frame extracted based on the similarity comparison from the video being streamed. It is possible to perform meaningful blocking control in a real-time streaming service by minimizing the load that may occur and controlling the blocking of streaming by reflecting the result of the harmfulness analysis and the repeated scene length of the extracted video frame.

도 1은 동영상 유해성 분석 결과 기반의 실시간 스트리밍 차단 시스템의 구조를 나타낸 도면이다.
도 2는 프레임 간의 유사도 비교 기반의 장면 길이 분석에 대한 예시를 나타낸 도면이다.
도 3은 도 2에서 동영상 프레임 간 유사도 비교 기반의 장면 길이 분석을 위해 SSIM (Structural Similarity; 구조적 유사도 지수) 값을 계산하여 유사도 비교를 수행하는 예를 나타낸 그림이다.
도 4는 유해성 분석 결과와 장면 길이 정보를 이용하여 최종 유해 등급을 산출하는 과정에 대한 예를 나타낸 도면이다.
도 5는 최종 유해 등급을 계산할 때 유해성 분석에 의해 산출된 동영상 프레임별 유해 등급과 각 동영상 프레임에 해당하는 장면이 반복된 길이를 반영하는 과정을 보여준다.
도 6은 도 4의 유해 등급 산출에 사용된 각 변수들의 정의를 나타낸다.
1 is a diagram showing the structure of a real-time streaming blocking system based on a video harmfulness analysis result.
2 is a diagram illustrating an example of a scene length analysis based on a similarity comparison between frames.
FIG. 3 is a diagram illustrating an example of performing a similarity comparison by calculating a Structural Similarity (SSIM) value for analyzing a scene length based on a similarity comparison between video frames in FIG. 2.
4 is a diagram showing an example of a process of calculating a final hazard level by using a hazard analysis result and scene length information.
FIG. 5 shows a process of reflecting the harmful rating for each video frame calculated by the harmfulness analysis and the repeated length of the scene corresponding to each video frame when calculating the final harmfulness rating.
6 shows the definition of each variable used to calculate the hazard level of FIG. 4.

이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 발명의 구성 및 동작을 상세하게 설명한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

실시간 스트리밍 중인 동영상의 유해성 분석 결과를 기반으로 스트리밍 차단을 제어하는 시스템 및 방법이 제공된다. A system and method for controlling streaming blocking based on a result of analysis of harmfulness of a video being streamed in real time are provided.

본 시스템은 유해성 분석을 위해 동영상 서버에서 사용자 단말로 전송되는 동영상 세그먼트로부터 동영상 프레임을 추출한다. 추출할 동영상 프레임은 유사도 비교 기반의 적응적 추출을 통해 유해성 분석에서 발생할 수 있는 부하를 최소화할 수 있도록 결정된다. 또한 실시간 스트리밍 동영상에 대한 적절한 차단 시점을 결정하기 위해 본 시스템은 추출된 동영상 프레임에 대한 유해성 분석 결과와 유사한 동영상 프레임들이 반복된 장면의 길이 정보를 고려하여 최종 유해 등급을 계산한다. 본 시스템은 계산된 최종 유해 등급에 따라 스트리밍 중인 동영상에 대하여 차단 제어를 수행한다.The system extracts a video frame from a video segment transmitted from a video server to a user terminal for harmfulness analysis. The video frame to be extracted is determined to minimize the load that may occur in the hazard analysis through adaptive extraction based on similarity comparison. In addition, in order to determine an appropriate blocking time for a real-time streaming video, the system calculates a final harmfulness rating by considering the length information of a scene in which video frames similar to the result of the harmfulness analysis of the extracted video frame are repeated. The system performs blocking control on the video being streamed according to the calculated final harmful rating.

본 발명의 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 시스템은 The real-time streaming blocking system based on the video harmfulness analysis result of the present invention

HTTP 적응적 스트리밍 기술이 적용된 VoD 및 실시간 스트리밍 서비스 플랫폼에서, In VoD and real-time streaming service platforms with HTTP adaptive streaming technology,

HTTP 적응적 스트리밍을 위해 동영상 데이터를 고정된 재생 길이와 서로 다른 품질을 가지는 세그먼트의 형태로 인코딩하여 서버에 저장되며, 실시간 스트리밍 동영상 데이터를 제공하는 동영상 서버; 및 A video server that encodes video data in the form of segments having a fixed playback length and different qualities for HTTP adaptive streaming and stores them in the server, and provides real-time streaming video data; And

HTTP 적응적 스트리밍 클라이언트이 설치되며, 상기 동영상 서버로부터 요청할 동영상에 대한 정보를 기술하는 MPD(Media Presentation Description) 파일을 다운로드하며, 측정한 네트워크 대역폭 및 단말의 상태에 따라 적절한 품질(bitrate)의 동영상 세그먼트를 요청하며, 동영상 유해성 분석의 경우 딥러닝 기반의 유해성 분석 엔진을 사용하며, 딥러닝 기반의 유해성 분석 엔진은 기본적으로 CNN(Convolutional Neural Network) 모델로 구성되며 주어진 데이터 세트에 대하여 입력 이미지들의 특성을 학습함으로써 유해한 이미지와 유해하지 않은 이미지를 구분하여 상기 실시간 스트리밍 동영상 데이터를 수신받아 재생하는 사용자 단말을 포함하며,
상기 사용자 단말은 상기 HTTP 적응적 스트리밍 클라이언트가 설치되며, 상기 동영상 서버로부터 요청할 동영상에 대한 정보를 기술하는 MPD(Media Presentation Description) 파일을 다운로드하며, 측정한 네트워크 대역폭 및 단말의 상태에 따라 특정 품질(bitrate)의 동영상 세그먼트를 요청하고,
상기 딥러닝 기반의 유해성 분석 엔진은 CNN(Convolutional Neural Network) 모델을 사용하며, 동영상 세그먼트의 주어진 데이터 세트에 대하여 입력 이미지들의 특성을 학습하여 동영상 프레임 간 유사도를 유해 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하고, 동영상의 유해성을 분석하여 각각의 동영상 프레임에 대한 유해 확률의 형태로 동영상 유해성 분석 결과를 동영상 스트리밍 차단 제어 모듈로 제공한다.
An HTTP adaptive streaming client is installed, it downloads an MPD (Media Presentation Description) file describing information on the video to be requested from the video server, and generates a video segment of an appropriate bitrate according to the measured network bandwidth and the state of the terminal. Requested, and in the case of video harmfulness analysis, a deep learning-based harmfulness analysis engine is used, and the deep learning-based harmfulness analysis engine is basically composed of a CNN (Convolutional Neural Network) model and learns the characteristics of input images for a given data set. By doing so, it includes a user terminal that receives and plays the real-time streaming video data by classifying harmful images and non-hazardous images,
The user terminal is installed with the HTTP adaptive streaming client, downloads a Media Presentation Description (MPD) file describing information on a video to be requested from the video server, and a specific quality according to the measured network bandwidth and the state of the terminal ( bitrate) of the video segment,
The deep learning-based harmfulness analysis engine uses a CNN (Convolutional Neural Network) model, and compares the similarity between video frames with the original harmful image by learning the characteristics of input images for a given data set of a video segment. The length information and the harmful probability of each frame are calculated, the harmfulness of the video is analyzed, and the video harmfulness analysis result is provided to the video streaming blocking control module in the form of the harmfulness probability for each video frame.

사용자 단말은 실시간 스트리밍 동영상 중에 동영상 세그먼트로부터 동영상 프레임을 추출하고, 동영상 프레임에 대한 유해성 분석 결과와 유사한 동영상 프레임들이 반복된 장면의 길이 정보를 고려하여 최종 유해 등급을 계산하며, 계산된 최종 유해 등급에 따라 스트리밍 중인 동영상에 대하여 차단 제어를 수행한다. The user terminal extracts a video frame from the video segment among the real-time streaming video, calculates the final harmfulness rating by considering the length information of the repeated video frames similar to the result of harmfulness analysis on the video frame, and calculates the final harmfulness rating. Accordingly, blocking control is performed on the video being streamed.

동영상 유해성 분석 결과 기반의 실시간 스트리밍 차단 시스템은 현재 인터넷상에서 동영상을 전송할 때 주로 사용되는 스트리밍 기술인 HTTP(Hyper Text Transfer Protocol) 적응적 스트리밍을 기반으로 동작한다. HTTP 적응적 스트리밍은 서버에 동영상을 고정된 재생 길이와 서로 다른 품질을 가지는 세그먼트의 형태로 인코딩하여 저장한다. 스트리밍이 시작되면, 사용자 단말(HTTP 적응적 스트리밍 클라이언트)은 서버로부터 요청할 동영상에 대한 정보를 기술하는 MPD(Media Presentation Description) 파일을 다운로드하며, 측정한 네트워크 상태 및 단말의 상태에 따라 적절한 품질의 동영상 세그먼트를 요청한다. 동영상 유해성 분석의 경우 딥러닝 기반의 유해성 분석 엔진을 사용한다. 딥러닝 기반의 유해성 분석 엔진은 기본적으로 CNN(Convolutional Neural Network) 모델로 구성되며 주어진 데이터 세트에 대하여 입력 이미지들의 특성을 학습함으로써 유해한 이미지와 유해하지 않은 이미지를 구분하는 방식으로 동작한다. The real-time streaming blocking system based on the result of video harmfulness analysis operates based on HTTP (Hyper Text Transfer Protocol) adaptive streaming, a streaming technology mainly used when transmitting video over the Internet. HTTP adaptive streaming encodes and stores a video on a server in the form of segments having a fixed playback length and different quality. When streaming starts, the user terminal (HTTP adaptive streaming client) downloads an MPD (Media Presentation Description) file describing information on the video to be requested from the server, and a video of appropriate quality according to the measured network status and terminal status. Request a segment. In the case of video hazard analysis, a deep learning-based hazard analysis engine is used. The deep learning-based harmfulness analysis engine is basically composed of a CNN (Convolutional Neural Network) model, and operates in a manner that distinguishes harmful and non-hazardous images by learning the characteristics of input images for a given data set.

본 발명에서, 유해 동영상은 미성년자나 아이들에게 부적합한 폭력성, 음란성을 포함한 동영상을 의미하며, 유해성 분석 결과는 동영상 세그먼트로부터 추출된 동영상 프레임을 입력 이미지로 유해성 분석 엔진에 전달함으로써 얻을 수 있다고 가정한다. In the present invention, it is assumed that a harmful video refers to a video including violence or obscene that is inappropriate for minors or children, and the harmfulness analysis result can be obtained by transmitting a video frame extracted from a video segment as an input image to a harmfulness analysis engine.

본 발명이 제시하는 것은 유해성 분석의 부하를 최소화하기 위해 전송된 동영상 세그먼트로부터 필요한 정보만을 추출하여 유해성 분석 엔진으로 전달하는 기술과 유해성 분석 결과를 이용하여 실시간 스트리밍 차단을 결정하는 방법에 관한 것으로 구체적인 유해 이미지 판단 메커니즘은 기술하지 않는다.In order to minimize the load of harmfulness analysis, the present invention relates to a technology that extracts only necessary information from the transmitted video segment and transmits it to the harmfulness analysis engine, and a method of determining real-time streaming blocking using the result of the harmfulness analysis. The image judgment mechanism is not described.

도 1은 동영상 유해성 분석 결과 기반의 실시간 스트리밍 차단 시스템의 구조를 나타낸다. 1 shows the structure of a real-time streaming blocking system based on a video harmfulness analysis result.

본 시스템은, 사용자 단말은 스트리밍되는 동영상 세그먼트로부터 동영상 프레임을 추출하고, 각 동영상 프레임들의 입력 이미지들의 특성을 학습하여 유해한 이미지와 유해하지 않은 이미지를 구분하여 동영상의 유해성을 분석하여 각각의 동영상 프레임에 대한 유해성 분석 결과를 제공하는 딥러닝 기반의 유해성 분석 엔진; 동영상 유해성 분석의 효율성을 높이기 위해 중복된 동영상 프레임을 제외하고 동영상 프레임을 추출하는 동영상 프레임 추출 모듈; 및 상기 동영상 유해성 분석 결과와 장면 길이 정보를 이용하여 최종 유해 등급을 산출하고, 최종 유해 등급으로 판단된 유해 동영상의 스트리밍 차단을 제어하는 동영상 스트리밍 차단 제어 모듈로 구성된다.In this system, the user terminal extracts a video frame from the streamed video segment, learns the characteristics of the input images of each video frame, classifies a harmful image from a non-harmful image, analyzes the harmfulness of the video, and adds it to each video frame. A deep learning-based harmfulness analysis engine that provides results of harmfulness analysis on the disease; A video frame extraction module for extracting video frames excluding duplicated video frames to increase the efficiency of video harmfulness analysis; And a video streaming blocking control module that calculates a final harmful rating by using the video harmfulness analysis result and scene length information, and controls streaming blocking of the harmful video determined as the final harmful rating.

상기 딥러닝 기반의 유해성 분석 엔진은 CNN(Convolutional Neural Network) 모델을 사용하며, 동영상 세그먼트의 주어진 데이터 세트에 대하여 입력 이미지들의 특성을 학습하여 유해한 이미지와 유해하지 않은 이미지를 구분하여 동영상 유해성 분석 결과를 동영상 스트리밍 차단 제어 모듈로 제공한다. The deep learning-based harmfulness analysis engine uses a CNN (Convolutional Neural Network) model, and by learning the characteristics of input images for a given data set of a video segment, it classifies harmful and non-hazardous images to analyze the results of the video harmfulness analysis. It is provided as a video streaming blocking control module.

동영상 서버로부터 동영상 세그먼트가 사용자 단말로 전송되면, 사용자 단말의 제안 시스템은 동영상 프레임 간의 유사도 비교를 통해 유해성 분석의 부하를 최소화할 수 있도록 적응적으로 동영상 프레임을 추출한다. 추출된 동영상 프레임은 딥러닝 기반의 유해성 분석 엔진으로 전달된다. When a video segment is transmitted from the video server to the user terminal, the proposed system of the user terminal adaptively extracts the video frame so as to minimize the load of harmfulness analysis through similarity comparison between video frames. The extracted video frames are delivered to a deep learning-based harmfulness analysis engine.

유해성 분석 엔진은 입력된 동영상 프레임에 대한 유해성 분석을 통해 프레임별 유해 확률의 형태로 유해성 분석 결과를 동영상 스트리밍 차단 제어 모듈로 전달한다. The harmfulness analysis engine delivers the result of the harmfulness analysis in the form of a harmful probability for each frame through the harmfulness analysis of the input video frame to the video streaming blocking control module.

동영상 스트리밍 차단 제어 모듈은 동영상 프레임 간 유사도를 비교하여 각 프레임 장면의 길이 정보와 프레임별 유해 확률을 계산하여 계산된 최종 유해 등급에 따라 스트리밍 차단을 결정한다.The video streaming blocking control module compares the similarity between video frames, calculates length information of each frame, and a harmful probability for each frame, and determines streaming blocking according to the calculated final harmfulness level.

도 2는 프레임 간의 유사도 비교 기반의 장면 길이 분석에 대한 예시를 나타낸다. 본 시스템은 네트워크 상황에 적응적으로 요청하는 동영상 품질을 조절하기 위해 다양한 품질의 정해진 재생 길이를 가지는 세그먼트 형태로 동영상을 동영상 서버에 저장하는 HTTP 적응적 스트리밍 환경을 가정한다. 동영상 세그먼트 내에는 동영상의 프레임 속도에 따라 정해진 개수의 동영상 프레임이 포함된다. 본 시스템은 인접한 동영상 프레임들 간의 유사도를 비교함으로써 프레임의 장면 길이에 대한 분석을 한다. 실시예는 Frame 1과 유사도가 높은 동영상 프레임이 4개, Frame 2, 3, 그리고 4는 각각 3개, 6개, 그리고 3개가 존재하는 경우를 나타낸다. 프레임 간 유사도가 변하는 동영상 프레임이 장면을 나누는 기준이 되며, 장면이 달라질 경우 유해성 분석 결과 또한 달라질 가능성이 높기 때문에 본 시스템은 장면 길이를 고려하여 스트리밍 차단 시점을 결정한다.2 shows an example of a scene length analysis based on a similarity comparison between frames. This system assumes an HTTP adaptive streaming environment in which a video is stored in a video server in the form of segments having a predetermined playback length of various qualities in order to adaptively adjust the requested video quality according to the network situation. The video segment includes a fixed number of video frames according to the frame rate of the video. The system analyzes the scene length of a frame by comparing the similarity between adjacent video frames. The embodiment shows a case where there are 4 video frames having a high similarity to Frame 1, and 3, 6, and 3 are respectively in Frames 2, 3, and 4. A video frame with a varying degree of similarity between frames serves as a criterion for dividing a scene, and if the scene is different, the result of harmfulness analysis is highly likely to be different. Therefore, the system determines the timing of blocking streaming in consideration of the scene length.

동영상 세그먼트 내에는 동영상의 프레임 레이트에 따라 다른 수의 동영상 프레임들이 포함된다. 본 발명의 실시예에서는 프레임 레이트가 30이고, 동영상 세그먼트당 재생 길이가 2초로 고정된 경우를 가정한다. (즉, 동영상 세그먼트 내에 포함된 동영상 프레임의 총 개수는 60개) 동영상 세그먼트는 수 초 정도의 재생 길이를 가지는 작은 동영상 조각 단위로 하나 또는 두 개 이상의 장면을 포함할 수 있다. 동영상 유해성 분석 결과 기반의 실시간 스트리밍 차단 시스템은 유해성 분석의 부하를 최소화할 수 있도록 동영상 프레임을 추출하기 위해 동영상 세그먼트 내에 포함된 장면들을 장면 변화의 기준이 되는 동영상 프레임들을 추출하고, 기 저장된 비교대상 이미지와 학습을 통해 동영상 프레임 간 유사도를 비교하여 유해 이미지를 구분한다. 따라서, 그림의 실시예에서 보여주는 동영상 프레임 간 유사도 비교 결과는 각 동영상 프레임들이 포함되는 장면이 구분된 결과를 나타낸다. 첫 번째 추출된 동영상 프레임이 포함된 장면의 길이

Figure 112019100076592-pat00001
은 4이며,
Figure 112019100076592-pat00002
(두 번째 추출된 동영상 프레임이 포함된 장면의 길이),
Figure 112019100076592-pat00003
(세 번째 추출된 동영상 프레임이 포함된 장면의 길이), 그리고
Figure 112019100076592-pat00004
(네 번째 추출된 동영상 프레임이 포함된 장면의 길이)의 값은 각각 3, 6, 3이다.A different number of video frames are included in the video segment according to the frame rate of the video. In the embodiment of the present invention, it is assumed that the frame rate is 30 and the playback length per video segment is fixed to 2 seconds. (That is, the total number of video frames included in the video segment is 60) The video segment may include one or two or more scenes in units of small video fragments having a playback length of about several seconds. The real-time streaming blocking system based on the result of the harmfulness analysis of the video extracts the video frames that are the basis of the scene change from the scenes included in the video segment in order to extract the video frame to minimize the load of the harmfulness analysis, and the previously saved comparison target image The harmful images are classified by comparing the similarity between video frames through and learning. Accordingly, the result of comparing the similarity between the video frames shown in the exemplary embodiment of the figure indicates the result of classifying the scenes including each video frame. Length of the scene containing the first extracted movie frame
Figure 112019100076592-pat00001
Is 4,
Figure 112019100076592-pat00002
(The length of the scene containing the second extracted movie frame),
Figure 112019100076592-pat00003
(The length of the scene containing the third extracted video frame), and
Figure 112019100076592-pat00004
The values of (the length of the scene including the fourth extracted video frame) are 3, 6, and 3, respectively.

도 3은 도 2에서 동영상 프레임 간 유사도 비교 기반의 장면 길이 분석을 위해 SSIM (Structural Similarity; 구조적 유사도 지수) 값을 계산하여 유사도 비교를 수행하는 예를 나타낸 그림이다.FIG. 3 is a diagram illustrating an example of performing a similarity comparison by calculating a Structural Similarity (SSIM) value for analyzing a scene length based on a similarity comparison between video frames in FIG. 2.

동영상 프레임 간 유사도 비교 기반의 장면 길이 분석을 위해 SSIM (Structural Similarity; 구조적 유사도 지수) 값을 계산하여 학습된 유해 장면이 포함된 원본 이미지와 동영상 프레임의 비교 이미지의 유사도를 비교한다. For the scene length analysis based on the similarity comparison between video frames, a Structural Similarity (SSIM) value is calculated and the similarity of the original image containing the learned harmful scene and the comparison image of the video frame is compared.

SSIM은 2D 이미지(동영상 프레임 등)에 대한 지각 품질 평가에서 사용되는 대표적인 메트릭으로, 사람의 시각 시스템은 이미지로부터 구조 정보를 도출하는데 특화되어 있기 때문에 구조 정보의 왜곡 정도가 지각 품질에 가장 큰 영향을 주는 가정에 근거하여 계산되는 값이다. 따라서, SSIM 값은 유사도 비교의 대상이 되는 두 이미지의 각 픽셀에 대한 밝기 정보와 왜곡 정보를 이용하여 계산된다. SSIM is a representative metric used in the perception quality evaluation of 2D images (movie frames, etc.). Since the human visual system is specialized in deriving structural information from images, the degree of distortion of structural information has the greatest effect on the perceived quality. Note is a calculated value based on assumptions. Accordingly, the SSIM value is calculated using brightness information and distortion information for each pixel of two images to be subjected to similarity comparison.

도 3의 예에서 볼 수 있듯이, 동영상 유해성 분석 결과 기반의 실시간 스트리밍 차단 시스템은 추출된 동영상 프레임 간의 유사도를 비교한다. 실시예에서 10번째 동영상 프레임과 11번째 동영상 프레임에 대한 SSIM 값은 0.4795로 작은 값을 가지기 때문에 서로 다른 장면을 의미한다고 볼 수 있으며, 반면 11번째 동영상 프레임과 12번째 동영상 프레임에 대한 SSIM 값은 0.8258로 큰 값을 가지기 때문에 두 프레임이 같은 장면에 포함되어 있다고 볼 수 있다. 도 3의 실시예는 단지 유사도 비교 기반의 동영상 프레임 추출이 어떤 방식으로 동작하는지를 보여주기 위한 것으로, 제안된 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 시스템에서 동영상 세그먼트 내에 포함된 여러 장면을 구분하고 프렘임의 각 장면을 대표하는 동영상 프레임을 추출하기 위한 메커니즘과 차이가 있다. 제안 시스템의 경우, 인접한 동영상 프레임 간의 유사도를 비교하면서 SSIM 값이 크게 변하는 부분을 장면 변화의 기준으로 정하게 된다. 예를 들면, 도 2의 예에서 첫 번째 추출된 동영상 프레임이 포함된 장면의 경우, 추출된 동영상 프레임과 유사한 동영상 프레임들이 모여 있는 장면으로 볼 수 있다. 반면, 두 번째 추출된 동영상 프레임이 포함된 장면의 경우, 첫 번째 추출된 동영상 프레임이 포함된 장면에서 SSIM 값이 크게 변하는 동영상 프레임부터 시작되는 다른 장면으로 볼 수 있다.As can be seen in the example of FIG. 3, the real-time streaming blocking system based on the result of analyzing the harmfulness of the video compares the similarity between the extracted video frames. In the embodiment, the SSIM values for the 10th video frame and the 11th video frame have a small value of 0.4795, which can be considered to mean different scenes, whereas the SSIM values for the 11th and 12th video frames are 0.8258. Because it has a large value, it can be considered that the two frames are included in the same scene. The embodiment of FIG. 3 is merely to show how video frame extraction based on similarity comparison works. In the proposed real-time streaming blocking system based on the result of harmfulness analysis of a video, several scenes included in a video segment are classified and each frame is There is a difference with the mechanism for extracting a video frame representing a scene. In the case of the proposed system, a part in which the SSIM value changes significantly while comparing the similarity between adjacent video frames is determined as a criterion for scene change. For example, in the case of a scene including the first extracted video frame in the example of FIG. 2, it may be viewed as a scene in which video frames similar to the extracted video frame are gathered. On the other hand, in the case of a scene including the second extracted video frame, it may be viewed as another scene starting from a video frame in which the SSIM value changes significantly in the scene including the first extracted video frame.

원본 이미지를 x, 비교 이미지를 y라고 할 때 SSIM 값을 계산하기 위해 우선 두 이미지의 픽셀들에 대한 평균 밝기 I(x,y)를 다음 수식과 같이 계산한다.

Figure 112019100076592-pat00005
는 원본 이미지 x의 평균 밝기,
Figure 112019100076592-pat00006
는 비교 이미지
Figure 112019100076592-pat00007
의 평균 밝기, 그리고
Figure 112019100076592-pat00008
은 이미지 밝기 상수를 의미한다. 해당 수식에 의해 계산되는 값은 원본 이미지와 비교 이미지의 평균 밝기를 종합하여 두 이미지의 평균 밝기를 나타낼 수 있도록 정규화된 값을 의미한다.When the original image is x and the comparison image is y, to calculate the SSIM value, first, the average brightness I(x,y) of the pixels of the two images is calculated by the following equation.
Figure 112019100076592-pat00005
Is the average brightness of the original image x,
Figure 112019100076592-pat00006
The comparison image
Figure 112019100076592-pat00007
The average brightness of, and
Figure 112019100076592-pat00008
Means the image brightness constant. The value calculated by the corresponding formula refers to a value normalized to represent the average brightness of the two images by synthesizing the average brightness of the original image and the comparison image.

Figure 112019100076592-pat00009
Figure 112019100076592-pat00009

평균 밝기를 계산한 후에는 각 이미지의 표준편차 값을 이미지의 콘트라스트 값 c(x,y)으로 정의하고, 두 이미지의 표준편차 값을 다음 수식과 같이 계산한다. After calculating the average brightness, the standard deviation value of each image is defined as the contrast value c(x,y) of the image, and the standard deviation value of the two images is calculated as follows.

Figure 112019100076592-pat00010
는 원본 이미지 x의 밝기 표준편차,
Figure 112019100076592-pat00011
는 비교 이미지 y의 밝기 표준 편차, 그리고
Figure 112019100076592-pat00012
는 이미지 콘트라스트 상수를 의미한다. 두 이미지의 평균 밝기를 계산하는 수식과 마찬가지로, 해당 수식에 의해 계산되는 값은 원본 이미지와 비교 이미지의 밝기 표준편차를 종합하여 두 이미지의 콘트라스트를 나타낼 수 있도록 정규화된 값을 의미한다.
Figure 112019100076592-pat00010
Is the standard deviation of the brightness of the original image x,
Figure 112019100076592-pat00011
Is the standard deviation of the brightness of the comparison image y, and
Figure 112019100076592-pat00012
Denotes the image contrast constant. Like the equation for calculating the average brightness of two images, the value calculated by the equation means a value normalized to represent the contrast of the two images by synthesizing the standard deviation of brightness of the original image and the comparison image.

Figure 112019100076592-pat00013
Figure 112019100076592-pat00013

이미지 콘트라스트를 계산한 후, 두 이미지 간의 밝기 공분산과 밝기 표준편차를 이용하여 이미지 구조 지수 s(x,y)의 값을 다음 수식과 같이 계산한다. 밝기 공분산

Figure 112019100076592-pat00014
는 각 이미지의 밝기 정보가 서로 얼마나 연관성이 있는지를 나타내기 위한 값이며,
Figure 112019100076592-pat00015
는 이미지 구조 상수를 의미한다. 해당 수식에 의해 계산되는 값은 두 이미지 각각의 밝기 표준편차 대비 두 이미지 사이의 연관된 밝기 표준 편차의 값의 상대적 비율을 의미한다.After calculating the image contrast, the value of the image structure index s(x,y) is calculated using the brightness covariance and brightness standard deviation between the two images as shown in the following equation. Brightness covariance
Figure 112019100076592-pat00014
Is a value to indicate how much the brightness information of each image is related to each other,
Figure 112019100076592-pat00015
Means the image structure constant. The value calculated by the corresponding equation refers to a relative ratio of the standard deviation of the brightness of each of the two images to the standard deviation of the brightness of the two images.

Figure 112019100076592-pat00016
Figure 112019100076592-pat00016

이미지 구조 상수는 이미지 콘트라스트 상수를 이용하여 다음 수식과 같이 계산된다. 이미지 콘트라스트를 계산하는 과정이 이미지의 밝기 표준편차를 포함하기 때문에 이미지 구조 지수를 계산하는 과정과 연관성이 있으며, 다만 이미지 구조 지수 계산에는 밝기 공분산을 사용하기 때문에 상수항에 의한 편향을 줄이기 위해 해당 수식과 같이 이미지 구조 상수를 계산하게 된다.The image structure constant is calculated using the image contrast constant as follows. Since the process of calculating the image contrast includes the standard deviation of the brightness of the image, it is related to the process of calculating the image structure index. However, since brightness covariance is used to calculate the image structure index, Likewise, the image structure constant is calculated.

Figure 112019100076592-pat00017
Figure 112019100076592-pat00017

최종적으로, SSIM 값은 두 이미지의 평균 밝기, 이미지의 콘트라스트 값, 그리고 이미지 구조 지수를 종합하여 다음 수식과 같이 계산된다. 이때 사용되는 가중치 a, b, c의 값은 모두 1로 설정된다. 해당 수식이 의미하는 바는 사람의 지각 품질에 영향을 주는 각 요소를 모두 반영하여 원본 이미지와 비교 이미지의 유사도를 비교하는 것으로, 가중치가 모두 1로 설정되었기 때문에 SSIM 계산에 있어서, 각 요소가 모두 같은 영향력을 가지게 된다.Finally, the SSIM value is calculated by the following equation by synthesizing the average brightness of the two images, the contrast value of the image, and the image structure index. At this time, the values of the weights a, b, and c used are all set to 1. The meaning of the formula is to compare the similarity between the original image and the comparison image by reflecting all factors that affect the perceived quality of a person. Since the weights are all set to 1, in the SSIM calculation, each factor is It will have the same influence.

Figure 112019100076592-pat00018
Figure 112019100076592-pat00018

본 발명에서는 인접한 두 동영상 프레임에 대한 SSIM 값을 계산하고, 계산된 SSIM 값을 특정 임계값과 비교하여 유사 여부를 판단한다. 도 2의 실시예에서 원본 이미지와 비교 이미지의 유사도 비교를 기반으로 각 장면을 구분하기 위한 임계값은 0.5를 사용하였다. 또한, 동영상 프레임 간의 유사도 비교 결과를 이용하여 도 2의 실시예와 같이, 동영상 세그먼트 내에 포함된 동영상 프레임들을 장면 단위로 분류하고, 각 장면의 길이를 분석하여 최종 유해 등급의 계산에 사용한다.In the present invention, SSIM values for two adjacent video frames are calculated, and similarity is determined by comparing the calculated SSIM values with a specific threshold. In the example of FIG. 2, a threshold value of 0.5 for classifying each scene based on the similarity comparison between the original image and the comparison image was used. In addition, using the similarity comparison result between the video frames, as in the embodiment of FIG. 2, video frames included in the video segment are classified into scene units, and the length of each scene is analyzed and used to calculate the final harmful rating.

도 4는 유해성 분석 결과와 장면 길이 정보를 이용하여 최종 유해 등급을 산출하는 과정에 대한 예시를 나타낸다. 4 shows an example of a process of calculating a final hazard level by using the hazard analysis result and scene length information.

동영상 세그먼트에서 추출된 동영상 프레임에 대한 유해성 분석 결과와 장면 길이 정보를 이용하여 각 장면에 대한 유해 등급 및 스트리밍 차단을 결정하기 위한 최종 유해 등급을 산출하는 과정을 나타낸다. 유해성 분석 엔진의 입력으로 사용된 동영상 프레임에 대한 유해성 분석 결과는 프레임별 유해 확률로 표현된다. 그림의 예에서 첫 번째 추출된 동영상 프레임에 대한 유해 확률

Figure 112019100076592-pat00019
은 0.76 (76%), 두 번째로 추출된 동영상 프레임에 대한 유해 확률
Figure 112019100076592-pat00020
는 0.32 (32%)이다. 추출된
Figure 112019100076592-pat00021
번째 동영상 프레임에 대한 유해 확률로부터 해당 동영상 프레임의 유해 등급
Figure 112019100076592-pat00022
는 다음 수식과 같이 계산된다.It shows the process of calculating the final hazard rating for determining the hazard rating for each scene and blocking streaming by using the hazard analysis result of the video frame extracted from the video segment and the scene length information. The result of the hazard analysis of the video frame used as an input of the hazard analysis engine is expressed as a hazard probability for each frame. Harmful probability for the first extracted video frame in the example in the figure
Figure 112019100076592-pat00019
Is 0.76 (76%), the probability of harm for the second extracted video frame
Figure 112019100076592-pat00020
Is 0.32 (32%). Extracted
Figure 112019100076592-pat00021
The harmfulness rating of the video frame from the harmful probability for the second video frame
Figure 112019100076592-pat00022
Is calculated as follows.

Figure 112019100076592-pat00023
Figure 112019100076592-pat00023

위와 같은 수식을 통해 유해 확률을 1부터 10까지의 이산적인 값을 가지는 유해 등급으로 변환할 수 있다. 유해 등급이 계산된 후에는 추출된

Figure 112019100076592-pat00024
번째 동영상 프레임이 포함된 장면의 길이 정보
Figure 112019100076592-pat00025
를 이용하여 최종 유해 등급
Figure 112019100076592-pat00026
을 다음 수식과 같이 계산한다.
Figure 112019100076592-pat00027
는 최대 유해 등급,
Figure 112019100076592-pat00028
는 유해 등급
Figure 112019100076592-pat00029
에 해당하는 동영상 프레임이 포함된 장면의 길이, 그리고
Figure 112019100076592-pat00030
는 최종 유해 등급을 계산할 때 유해 등급
Figure 112019100076592-pat00031
에 반영되는 가중치를 의미한다. 유해 등급 가중치는 스트리밍 차단을 실제로 결정하게 되는 사업자 등에 따라 다른 값을 가질 수 있으며, 어떻게 설정하느냐에 따라 최종 유해 등급에 반영되는 각 장면이 가지는 유해 등급의 중요도가 변한다. 도 4의 예시에서 사용되는 유해 등급 가중치는 모두 1로 설정되었다. 예를 들어 높은 유해 등급에 대한 가중치가 큰 값으로 설정되어 있을 경우, 최종 유해 등급을 계산할 때 장면별 유해 등급의 변화가 빠르게 반영된다. 반대로 낮은 유해 등급에 대한 가중치가 큰 값으로 설정되어 있을 경우, 최종 유해 등급을 계산할 때 장면별 유해 등급의 변화는 상대적으로 천천히 반영된다. 해당 수식에서 계산되는 값은 추출된 각 동영상 프레임이 포함된 장면 길이와 유해 등급을 이용하여 가중 이동 평균을 계산함으로써 현재 스트리밍 중인 동영상의 유해성을 나타내기 위한 누적 유해 등급을 의미하게 된다.Through the above equation, the hazard probability can be converted into a hazard class having discrete values ranging from 1 to 10. After the hazard class has been calculated, the extracted
Figure 112019100076592-pat00024
Length information of the scene containing the first video frame
Figure 112019100076592-pat00025
Final hazard rating using
Figure 112019100076592-pat00026
Is calculated as the following formula.
Figure 112019100076592-pat00027
Is the maximum hazard class,
Figure 112019100076592-pat00028
Is a hazardous rating
Figure 112019100076592-pat00029
The length of the scene containing the video frame corresponding to, and
Figure 112019100076592-pat00030
Is the hazard class when calculating the final hazard class.
Figure 112019100076592-pat00031
It means the weight reflected in. The hazard rating weight may have a different value depending on the operator who actually decides to block streaming, and the importance of the hazard rating of each scene reflected in the final hazard rating changes depending on how it is set. All harmful grade weights used in the example of FIG. 4 are set to 1. For example, if the weight for a high hazard level is set to a large value, the change in the hazard grade for each scene is quickly reflected when calculating the final hazard grade. Conversely, when the weight for a low hazard level is set to a large value, the change in the hazard grade for each scene is relatively slowly reflected when calculating the final hazard grade. The value calculated in the equation refers to a cumulative hazard rating to indicate the harmfulness of the currently streaming video by calculating a weighted moving average using the scene length including each extracted video frame and the hazard rating.

Figure 112019100076592-pat00032
Figure 112019100076592-pat00032

최종 유해 등급은 도 4의 예시에서 볼 수 있듯이, 현재까지 추출된 프레임이 포함된 장면들의 길이 정보와 각 프레임의 유해성 분석 결과를 이용하여 계산되며 각각 유해 등급 8과 4, 그리고 장면 길이 4와 3을 반영하여 계산된 최종 유해 등급은 7이다. 이후에 다른 유해 등급을 가지는 장면이 나올 경우 계산되는 최종 유해 등급의 값은 달라지며, 유해 등급의 변화에 따라 최종 유해 등급은 이전의 값보다 커지거나 또는 작아질 수 있다.As can be seen in the example of FIG. 4, the final hazard level is calculated using the length information of the scenes including the frames extracted so far and the result of the hazard analysis of each frame, and the hazard grades 8 and 4, and the scene lengths 4 and 3, respectively. The final hazard class calculated by reflecting is 7. Subsequently, when a scene having a different hazard level appears, the calculated value of the final hazard level varies, and the final hazard level may be larger or smaller than the previous value according to the change of the hazard level.

현재까지 추출된 동영상 프레임에 대하여 유해성 분석 결과와 각 장면의 길이가 그림의 표와 같을 경우, 본 시스템은 먼저 유해성 분석 결과로 도출된 프레임 별 유해 확률을 이용하여 유해 등급을 산출한다. 유해 등급이 높을 경우 해당 프레임의 유해성이 높다는 것을 의미한다. 본 시스템은 현재 스트리밍 중인 동영상의 차단 시점을 결정하기 위해 최종 유해 등급을 프레임 별 유해 등급과 각 프레임에 해당하는 장면이 반복된 개수, 장면 길이 정보를 반영하여 산출한다. 각 프레임 별 유해 등급은 해당 프레임의 장면 길이가 길수록 최종 유해 등급을 산출할 때 반영되는 가중치가 높아진다. 본 시스템은 현재 시점에서의 유해성 분석 결과만을 이용하여 스트리밍 차단 시점을 결정하지 않고 이전에 추출된 프레임들에 대한 유해성 분석 결과, 그리고 각 프레임들이 얼마나 긴 시간 동안 반복되었는지에 대한 정보를 동시에 고려함으로써 의미 있는 스트리밍 차단 제어를 수행할 수 있다.If the result of the hazard analysis and the length of each scene for the video frames extracted so far are the same as the table in the figure, the system first calculates the hazard level using the hazard probability for each frame derived from the hazard analysis result. If the hazard rating is high, it means that the frame's hazard is high. The system calculates the final harmful rating by reflecting the harmful rating for each frame, the number of repetitions of the scenes corresponding to each frame, and the scene length information in order to determine the blocking time of the currently streaming video. For each frame, as the scene length of the frame increases, the weight reflected when calculating the final harmful level increases. This system does not determine the streaming blocking time using only the harmfulness analysis result at the current time, but considers the harmfulness analysis result of previously extracted frames and information on how long each frame has been repeated. Can perform streaming blocking control.

도 5는 최종 유해 등급을 계산할 때 유해성 분석에 의해 산출된 동영상 프레임별 유해 등급과 각 동영상 프레임에 해당하는 장면이 반복된 길이를 반영하는 과정을 보여준다. G는 스트리밍 차단을 수행하는 사업자 등이 설정한 최대 유해 등급을 의미하며,

Figure 112019100076592-pat00033
Figure 112019100076592-pat00034
번째로 추출된 동영상 프레임이 반복된 개수
Figure 112019100076592-pat00035
를 고려하여 최종 유해 등급을 계산하는 수식으로, 도 4의 예시를 통해 설명한 수식과 동일하다. 도 5의 예시에서는 유해 등급이 1부터 5까지 총 5개 존재하는 상황을 가정하였으며, 따라서 최종 유해 등급을 계산하기 위한 수식을 각 유해 등급에 대한 함수
Figure 112019100076592-pat00036
로 표현하는 것이 가능하다. 먼저 도 5의 ①에서 ②에 해당하는 타임라인에서 본 발명에서 제시하는 동영상 유해성 분석 결과 기반의 실시간 스트리밍 차단 시스템은 해당 타임라인에서 유해성 분석 엔진 모듈의 입력으로 제공된 동영상 프레임에 대한 유해 등급을 결정한다. ②에서 ③에 해당하는 타임라인에서는 이전 타임라인에서 추출된 동영상 프레임의 유해 등급과 다른 유해 등급을 가지는 동영상 프레임들이 반복되는 장면이기 때문에 해당 동영상 프레임들에 대해 유해 등급을 새로 계산한다. 최종적으로 ③에서 ④에 해당하는 타임라인에서는 첫 번째 타임라인에서 추출된 동영상 프레임의 유해 등급과 같은 유해 등급을 가지는 동영상 프레임들이 반복되기 때문에 최종 유해 등급을 산출할 때 이를 반영한다. 최종 유해 등급은 타임라인에 따라 반복된 장면, 혹은 같은 유해 등급을 가지는 장면의 길이 정보를 이용하여 계산한다. 그림의 예시에서도 볼 수 있듯이
Figure 112019100076592-pat00037
의 유해 등급을 가지는 장면은 타임라인 ①에서 ②와 타임라인 ③에서 ④, 두 경우가 존재한다. 처음에는 총 7개의 동영상 프레임들이 타임라인 ①에서 ②에 해당하는 장면에 포함되었으므로 최종 유해 등급은 장면 길이 7과
Figure 112019100076592-pat00038
유해 등급을 이용하여 계산되며, 이후에 타임라인 ③에서 ④를 거친 후 유해 등급
Figure 112019100076592-pat00039
에 해당하는 동영상 프레임이 포함된 장면의 길이가 30이 증가하였으므로 최종 유해 등급을 계산할 때 이를 반영하게 된다. 타임라인 ②에서 ③의 경우 유해 등급
Figure 112019100076592-pat00040
를 가지며 최종 유해 등급을 계산할 때 높은 유해 등급을 가지지만 유해 등급
Figure 112019100076592-pat00041
에 비해 장면 길이가 짧기 때문에 최종 유해 등급에 반영되는 비율이 줄어들게 된다. 최종 유해 등급 산출에 사용되는 유해 등급별 가중치
Figure 112019100076592-pat00042
는 장면 별로 누적된 동영상 프레임이 30개 이상일 경우 업데이트하게 되며 새로운 장면이 등장할 때마다 그림의 예시에서와 같이 모든 유해 등급에 대한 가중치 값이 1로 초기화된다. 최종 유해 등급은 어느 한 시점에서의 유해 등급만을 고려하는 것이 아니라 시간에 따라, 그리고 반복되는 장면의 길이에 따라 누적된 유해 등급을 고려하여 계산되기 때문에 실시간으로 유해한 동영상을 차단하는 데 있어서 적시성을 보장할 수 있다.FIG. 5 shows a process of reflecting the harmful rating for each video frame calculated by the harmfulness analysis and the repeated length of the scene corresponding to each video frame when calculating the final harmfulness rating. G refers to the maximum harm rating set by a provider that performs streaming blocking,
Figure 112019100076592-pat00033
silver
Figure 112019100076592-pat00034
The number of times the extracted video frame is repeated
Figure 112019100076592-pat00035
This is an equation for calculating the final hazard level in consideration of and is the same as the equation described through the example of FIG. 4. In the example of FIG. 5, it is assumed that there are a total of five hazard grades from 1 to 5, and therefore, the formula for calculating the final hazard grade is a function for each hazard grade.
Figure 112019100076592-pat00036
It is possible to express it as First, in the timeline corresponding to ① to ② of FIG. 5, the real-time streaming blocking system based on the result of the harmfulness analysis of the video presented by the present invention determines the harmfulness level of the video frame provided as an input of the harmfulness analysis engine module in the timeline. . In the timeline corresponding to ② to ③, since video frames having a harmful rating different from that of the video frame extracted from the previous timeline are repeated, the harmful rating is newly calculated for the corresponding video frames. Finally, in the timeline corresponding to ③ to ④, the video frames having the same harmfulness rating as that of the video frame extracted from the first timeline are repeated, so this is reflected when calculating the final harmfulness rating. The final hazard level is calculated using length information of a scene repeated according to a timeline or a scene having the same hazard level. As you can see in the example in the picture
Figure 112019100076592-pat00037
There are two cases of scenes with a hazard rating of: ② in the timeline ① and ④ in the timeline ③. Initially, a total of 7 video frames were included in the scene corresponding to the timeline ① to ②, so the final hazard rating was 7 and
Figure 112019100076592-pat00038
It is calculated using the hazard class, and after going through ④ in the timeline ③, the hazard class
Figure 112019100076592-pat00039
Since the length of the scene including the video frame corresponding to is increased by 30, this is reflected when calculating the final harm rating. Hazard grade in case of ③ in timeline ②
Figure 112019100076592-pat00040
And has a high hazard class when calculating the final hazard class, but
Figure 112019100076592-pat00041
Since the scene length is shorter than that, the ratio reflected in the final hazard rating decreases. Weight for each hazard class used to calculate the final hazard class
Figure 112019100076592-pat00042
Is updated when there are more than 30 video frames accumulated for each scene, and each time a new scene appears, the weight values for all harmful ratings are initialized to 1 as in the example of the figure. As the final hazard rating is calculated not only by considering the hazard rating at any one point in time, but by taking into account the hazard rating accumulated over time and according to the length of the repeated scene, timeliness is guaranteed in blocking harmful videos in real time. can do.

도 6은 도 4의 최종 유해 등급 산출에 사용된 각 변수들의 정의를 나타낸다. 6 shows the definition of each variable used to calculate the final hazard level of FIG. 4.

Figure 112019100076592-pat00043
Figure 112019100076592-pat00044
번째로 추출된 동영상 프레임에 대한 유해성 분석 결과로 해당 프레임의 장면이 유해 장면일 확률을 나타낸다.
Figure 112019100076592-pat00045
i 번째로 추출된 동영상 프레임이 반복된 개수로 장면 길이 정보를 나타낸다. g는 추출된 동영상 프레임의 유해 등급으로 프레임 별 유해 확률을 이용하여 결정된다. G는 서비스 제공자가 설정 가능한 최대 유해 등급으로 도 3의 예에서는 최소 1등급부터 최대 10등급까지 유해 등급을 가지도록 설정하였다.
Figure 112019100076592-pat00046
Figure 112019100076592-pat00047
와 동일한 값으로 장면 길이를 나타내며,
Figure 112019100076592-pat00048
는 최종 유해 등급을 산출할 때 사용되는 가중치로
Figure 112019100076592-pat00049
와 마찬가지로 추출된 동영상 프레임의 유해 등급이 높을수록 최종 유해 등급 산출에 더 많은 가중치를 주기 위해 설정된 변수이다. 본 시스템에서는 최종 유해 등급이 각 프레임의 장면 길이에 너무 민감하게 반응하지 않도록 모든 유해 등급에 대한 가중치
Figure 112019100076592-pat00050
의 값을 1로 설정하였다.
Figure 112019100076592-pat00051
의 값은 사용자에게 제공되는 서비스 또는 동영상의 특성에 따라 다르게 설정될 수 있는 값이다. g'은 최종 유해 등급이며, 동영상 프레임의 유해 등급이 가질 수 있는 값의 범위 내에서 결정된다.
Figure 112019100076592-pat00043
Is
Figure 112019100076592-pat00044
As a result of analyzing the harmfulness of the second extracted video frame, it indicates the probability that the scene of the corresponding frame is a harmful scene.
Figure 112019100076592-pat00045
Denotes scene length information as the number of repetitions of the i- th extracted video frame. g is the harmfulness level of the extracted video frame, and is determined using a harmful probability for each frame. G is the maximum harmful rating that can be set by the service provider, and in the example of FIG. 3, it is set to have a harmful rating ranging from a minimum of 1 to a maximum of 10.
Figure 112019100076592-pat00046
Is
Figure 112019100076592-pat00047
The scene length is represented by the same value as
Figure 112019100076592-pat00048
Is the weight used when calculating the final hazard rating.
Figure 112019100076592-pat00049
Likewise, the higher the harmfulness level of the extracted video frame, the more weight is set to calculate the final harmfulness level. In this system, all hazard ratings are weighted so that the final hazard rating is not too sensitive to the scene length of each frame.
Figure 112019100076592-pat00050
The value of was set to 1.
Figure 112019100076592-pat00051
The value of is a value that can be set differently according to the characteristics of a service or video provided to a user. g'is the final harmful rating, and is determined within the range of values that can have the harmful rating of the video frame.

본 발명의 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 방법은 The method for blocking real-time streaming based on the result of the video harmfulness analysis of the present invention

(a) HTTP 적응적 스트리밍을 위해 동영상 데이터를 고정된 재생 길이와 서로 다른 품질(bitrate)을 가지는 세그먼트의 형태로 인코딩하여 동영상 서버에 저장되며, 상기 동영상 서버로부터 실시간 스트리밍 동영상 데이터를 사용자 단말로 제공하는 단계; 및(a) For HTTP adaptive streaming, video data is encoded in the form of segments having a fixed playback length and different bitrates and stored in a video server, and real-time streaming video data is provided to the user terminal from the video server. Step to do; And

(b) 상기 사용자 단말에 HTTP 적응적 스트리밍 클라이언트가 설치되며, 딥러닝 기반의 유해성 분석 엔진을 사용하여 동영상 프레임 간 유사도를 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하여 최종 유해 등급에 따라 스트리밍 차단을 결정하여 유해한 동영상을 차단하는 단계를 포함하며,(b) An HTTP adaptive streaming client is installed in the user terminal, and the similarity between video frames is compared with the original image using a deep learning-based harmfulness analysis engine to calculate the length information of the scene of each frame and the harmful probability for each frame. And determining to block streaming according to the final harmful rating to block harmful videos,

상기 사용자 단말은 상기 HTTP 적응적 스트리밍 클라이언트가 설치되며, 상기 동영상 서버로부터 요청할 동영상에 대한 정보를 기술하는 MPD(Media Presentation Description) 파일을 다운로드하며, 측정한 네트워크 대역폭 및 단말의 상태에 따라 특정 품질(bitrate)의 동영상 세그먼트를 요청하고, The user terminal is installed with the HTTP adaptive streaming client, downloads a Media Presentation Description (MPD) file describing information on a video to be requested from the video server, and a specific quality according to the measured network bandwidth and the state of the terminal ( bitrate) of the video segment,

상기 딥러닝 기반의 유해성 분석 엔진은 CNN(Convolutional Neural Network) 모델을 사용하며, 동영상 세그먼트의 주어진 데이터 세트에 대하여 입력 이미지들의 특성을 학습하여 유해 원본 이미지와 비교 이미지를 비교하여 즉, 동영상 프레임 간 유사도를 상기 유해 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하고, 동영상의 유해성을 분석하여 각각의 동영상 프레임에 대한 유해 확률의 형태로 동영상 유해성 분석 결과를 동영상 스트리밍 차단 제어 모듈로 제공한다. The deep learning-based harmfulness analysis engine uses a CNN (Convolutional Neural Network) model, and compares the harmful original image with the comparison image by learning the characteristics of the input images for a given data set of the video segment, that is, the similarity between video frames. By comparing the harmful original image, the length information of the scene of each frame and the harmful probability for each frame are calculated, and the harmfulness of the video is analyzed and the result of the video harmfulness analysis in the form of a harmful probability for each video frame is blocked from video streaming. Provided as a module.

상기 단계 (b)에서 상기 동영상 서버로부터 동영상 세그먼트들이 사용자 단말로 전송되면, 상기 사용자 단말은 동영상 프레임 간의 유사도 비교를 통해 유해성 분석의 부하를 최소화하도록 적응적으로 동영상 프레임을 추출하며, 추출된 동영상 프레임은 딥러닝 기반의 유해성 분석 엔진으로 전달하며, When the video segments are transmitted from the video server to the user terminal in step (b), the user terminal adaptively extracts the video frame to minimize the load of harmfulness analysis through similarity comparison between video frames, and the extracted video frame Is delivered to a deep learning-based hazard analysis engine,

상기 사용자 단말의 상기 딥러닝 기반의 유해성 분석 엔진은 CNN(Convolutional Neural Network) 모델을 사용하며, 동영상 세그먼트의 주어진 데이터 세트에 대하여 입력 이미지들의 특성을 학습하여 유해 원본 이미지와 비교 이미지를 비교하여 즉, 동영상 프레임 간 유사도를 상기 유해 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하고, 동영상의 유해성을 분석하여 각각의 동영상 프레임에 대한 유해 확률의 형태로 동영상 유해성 분석 결과를 동영상 스트리밍 차단 제어 모듈로 제공하는 단계; The deep learning-based harmfulness analysis engine of the user terminal uses a Convolutional Neural Network (CNN) model, and compares the harmful original image and the comparison image by learning the characteristics of input images for a given data set of a video segment, that is, The similarity between video frames is compared with the harmful original image, the length information of the scene of each frame and the harmful probability of each frame are calculated, and the harmfulness of the video is analyzed and the result of the video harmfulness analysis in the form of a harmful probability for each video frame Providing to a video streaming blocking control module;

상기 동영상 스트리밍 차단 제어 모듈은 동영상 프레임 간 유사도를 비교하여 각 프레임 장면의 길이 정보와 프레임별 유해 확률을 계산하여 계산된 최종 유해 등급에 따라 스트리밍 차단을 결정하여 유해 동영상의 차단 제어를 수행하는 단계; 및The video streaming blocking control module comparing the similarity between video frames, calculating length information of each frame scene and a harmful probability for each frame, determining streaming blocking according to the calculated final harmful rating, and performing blocking control of the harmful video; And

상기 딥러닝 기반의 유해성 분석 엔진은 동영상 세그먼트에서 추출된 동영상 프레임에 대한 유해성 분석 결과와 장면 길이 정보를 이용하여 각 장면에 대한 유해 등급 및 스트리밍 차단을 결정하기 위한 최종 유해 등급을 산출하는 단계를 포함한다.The deep learning-based hazard analysis engine includes the step of calculating a final hazard rating for determining a hazard rating for each scene and blocking streaming using the hazard analysis result of the video frame extracted from the video segment and the scene length information. do.

상기 딥러닝 기반의 유해성 분석 엔진은 상기 동영상 프레임 간 유사도 비교 기반의 장면 길이 분석을 위해 SSIM (Structural Similarity; 구조적 유사도 지수) 값을 계산하여 학습된 유해 장면이 포함된 원본 이미지와 프레임의 비교 이미지의 유사도를 비교한다. The deep learning-based harmfulness analysis engine calculates a SSIM (Structural Similarity; Structural Similarity Index) value for the scene length analysis based on the similarity comparison between the video frames, and compares the original image containing the learned harmful scene with the comparison image of the frame. Compare similarities.

상기 SSIM 값은 두 이미지의 픽셀들에 대한 평균 밝기 I(x,y), 이미지의 콘트라스트 값 c(x,y), 그리고 이미지 구조 지수 s(x,y)를 종합하여 다음과 같이 계산되며,

Figure 112019100076592-pat00052
The SSIM value is calculated as follows by synthesizing the average brightness I(x,y) of the pixels of the two images, the contrast value c(x,y) of the image, and the image structure index s(x,y),
Figure 112019100076592-pat00052

이때 사용되는 가중치 a, b, c의 값은 모두 1로 설정되며, 원본 이미지와 비교 이미지의 유사도를 비교하는 것으로, 가중치가 모두 1로 설정되었기 때문에 SSIM 계산에 있어서, 계산된 SSIM 값을 특정 임계값과 비교하여 유사 여부를 판단한다. At this time, the values of the weights a, b, and c are all set to 1, comparing the similarity between the original image and the comparison image.Since the weights are all set to 1, the calculated SSIM value is a specific threshold. It compares with the value to determine whether it is similar.

상기 딥러닝 기반의 유해성 분석 엔진은 상기 동영상 세그먼트에서 추출된 각 동영상 프레임들에 대하여 장면 단위로 분류하고, 각 동영상 프레임에 대한 유해성 분석 결과와 장면 길이 정보를 이용하여 각 장면에 대한 유해 등급 및 스트리밍 차단을 결정하기 위한 최종 유해 등급을 산출하며, The deep learning-based hazard analysis engine classifies each video frame extracted from the video segment into a scene unit, and uses the hazard analysis result and scene length information for each video frame to classify and stream the hazard rating for each scene. Calculate the final hazard class to determine blocking,

상기 유해성 분석 엔진의 입력으로 사용된 동영상 프레임에 대한 유해성 분석 결과는 프레임별 유해 확률로 표현된다. The result of the hazard analysis of the video frame used as an input of the hazard analysis engine is expressed as a hazard probability for each frame.

본 발명에서 제안하는 동영상 유해성 분석 결과 기반의 실시간 스트리밍 차단 시스템은 유해성 분석에서 발생 가능한 부하를 최소화하기 위해 동영상 프레임 간 유사도 비교를 통해 동영상 프레임을 추출하고, 추출된 동영상 프레임에 대한 유해성 분석 결과와 각 동영상 프레임이 포함된 장면의 길이 정보를 이용하여 실시간 스트리밍 서비스에 대한 의미 있는 차단 제어를 수행한다. 추출된 동영상 프레임에 대한 유해성 분석 결과와 장면 길이 정보를 이용하여 현재까지 누적된 유해 등급을 산출하는 방식이라면 본 발명에서 사용된 최종 유해 등급 산출에 대한 수식과 다른 방식(가중 이동 평균이 아닌 누적값을 산출하는 다른 함수를 이용하는 등) 도 적용하는 것이 가능하다. 또한, 스트리밍 차단을 결정하는 사업자 관점에서 제공하는 서비스 및 동영상의 특성에 따라 최종 유해 등급 산출에 사용되는 유해 등급별 가중치와 최대 유해 등급을 다르게 설정할 수 있다. 스트리밍을 실시간으로 차단하는 방식은 서비스 제공자에 따라 연결 자체를 끊거나 재생 중인 동영상의 화면에 대한 이미지 처리를 수행하는 등 다양한 방식을 적용할 수 있다.The real-time streaming blocking system based on the result of the harmfulness analysis of a video proposed by the present invention extracts a video frame through a similarity comparison between video frames in order to minimize the load that may occur in the harmfulness analysis, and the harmfulness analysis result of the extracted video frame and each Significant blocking control for a real-time streaming service is performed using information on the length of a scene including a video frame. If the method of calculating the accumulated hazard ratings so far using the hazard analysis result of the extracted video frame and the scene length information, a method different from the formula for calculating the final hazard grade used in the present invention (accumulated value other than a weighted moving average) It is also possible to apply, for example, using other functions to calculate. In addition, from the viewpoint of a provider who decides to block streaming, a weight for each harmful rating and a maximum harmful rating used for calculating the final harmful rating may be differently set according to the characteristics of the service and video provided. A method of blocking streaming in real time may apply various methods, such as disconnecting the connection itself or performing image processing on the screen of a video being played, depending on the service provider.

적응적 스트리밍 기술이 적용된 VoD 및 실시간 스트리밍 서비스, 개인 방송 및 실시간 스트리밍을 제공하는 서비스 플랫폼에서, 스트리밍 중인 동영상에서 유사도 비교를 기반으로 추출된 동영상 프레임을 이용하여 동영상의 유해성을 분석함으로써 동영상 유해성 분석에서 발생할 수 있는 부하를 최소화하고, 유해성 분석 결과와 추출된 동영상 프레임이 반복된 장면 길이를 반영하여 스트리밍 차단을 제어함으로써 실시간 스트리밍 서비스에서 의미있는 차단 제어를 수행할 수 있다.In a service platform that provides VoD and real-time streaming services applied with adaptive streaming technology, personal broadcasting and real-time streaming, the harmfulness of the video is analyzed by analyzing the harmfulness of the video using the video frame extracted based on the similarity comparison from the video being streamed. It is possible to perform meaningful blocking control in a real-time streaming service by minimizing the load that may occur and controlling the blocking of streaming by reflecting the result of the harmfulness analysis and the length of the extracted video frame.

본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 기록 매체는 프로그램 명령, 데이터 파일, 데이터 구조를 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 기록 매체는 스토리지, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리에 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예는 컴파일러에 의해 만들어지는 것과, 기계어 코드뿐만 아니라 인터프리터를 사용하여 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상기 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로써 작동하도록 구성될 수 있다.The embodiments according to the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, and data structures alone or in combination. Computer-readable recording media include storage, magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Magneto-optical media, and a hardware device specially configured to store and execute program instructions in ROM, RAM, and flash memory may be included. Examples of program instructions may include those produced by a compiler, and high-level language codes that can be executed by a computer using an interpreter as well as machine language codes. The hardware device may be configured to operate as one or more software modules to perform the operation of the present invention.

이상에서 설명한 바와 같이, 본 발명의 방법은 프로그램으로 구현되어 컴퓨터의 소프트웨어를 이용하여 읽을 수 있는 형태로 기록매체(CD-ROM, RAM, ROM, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등)에 저장될 수 있다. As described above, the method of the present invention is implemented as a program and can be read using software of a computer, and a recording medium (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.) ) Can be stored.

본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진자가 하기의 특허청구범위에 기재된 본 발명의 기술적 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 또는 변형하여 실시할 수 있음을 이해할 수 있을 것이다.Although it has been described with reference to a preferred embodiment of the present invention, various modifications or variations of the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims by those of ordinary skill in the relevant technical field You will understand that it can be done.

Claims (12)

HTTP 적응적 스트리밍을 위해 동영상 데이터를 고정된 재생 길이와 서로 다른 품질(bitrate)을 가지는 세그먼트의 형태로 인코딩하여 서버에 저장되며, 실시간 스트리밍 동영상 데이터를 제공하는 동영상 서버; 및
HTTP 적응적 스트리밍 클라이언트가 설치되며, 딥러닝 기반의 유해성 분석 엔진을 사용하여 동영상 프레임 간 유사도를 유해 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하여 최종 유해 등급에 따라 스트리밍 차단을 결정하여 유해한 동영상을 차단하는 사용자 단말을 포함하며,
상기 사용자 단말은 상기 HTTP 적응적 스트리밍 클라이언트가 설치되며, 상기 동영상 서버로부터 요청할 동영상에 대한 정보를 기술하는 MPD(Media Presentation Description) 파일을 다운로드하며, 측정한 네트워크 대역폭 및 단말의 상태에 따라 특정 품질(bitrate)의 동영상 세그먼트를 요청하고,
상기 딥러닝 기반의 유해성 분석 엔진은 CNN(Convolutional Neural Network) 모델을 사용하며, 동영상 세그먼트의 주어진 데이터 세트에 대하여 입력 이미지들의 특성을 학습하여 동영상 프레임 간 유사도를 유해 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하고, 동영상의 유해성을 분석하여 각각의 동영상 프레임에 대한 유해 확률의 형태로 동영상 유해성 분석 결과를 동영상 스트리밍 차단 제어 모듈로 제공하는, 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 시스템.
A video server that encodes video data into segments having a fixed playback length and different bitrates for HTTP adaptive streaming and stores them in the server, and provides real-time streaming video data; And
An HTTP adaptive streaming client is installed, and the similarity between video frames is compared with the original harmful image using a deep learning-based harmfulness analysis engine, and the length information of each frame and the harmful probability for each frame are calculated according to the final harm rating. Includes a user terminal that blocks harmful videos by deciding to block streaming,
The user terminal is installed with the HTTP adaptive streaming client, downloads a Media Presentation Description (MPD) file describing information on a video to be requested from the video server, and a specific quality according to the measured network bandwidth and the state of the terminal ( bitrate) of the video segment,
The deep learning-based harmfulness analysis engine uses a CNN (Convolutional Neural Network) model, and compares the similarity between video frames with the original harmful image by learning the characteristics of input images for a given data set of a video segment. Real-time streaming based on video harmfulness analysis results, which calculates the length information and harmful probability of each frame, analyzes the harmfulness of the video, and provides the video harmfulness analysis result in the form of harmfulness probability for each video frame to the video streaming blocking control module. Blocking system.
제1항에 있어서,
상기 사용자 단말은
스트리밍되는 동영상 세그먼트로부터 동영상 프레임을 추출하고, 각 동영상 프레임들의 입력 이미지들의 특성을 학습하여 유해 원본 이미지와 비교 이미지를 비교하여 즉, 동영상 프레임 간 유사도를 상기 유해 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하고, 동영상의 유해성을 분석하여 각각의 동영상 프레임에 대한 유해성 분석 결과를 제공하는 딥러닝 기반의 유해성 분석 엔진;
동영상 유해성 분석의 효율성을 높이기 위해 중복된 동영상 프레임을 제외하고 동영상 프레임을 추출하는 동영상 프레임 추출 모듈; 및
상기 유해성 분석 결과와 장면 길이 정보를 이용하여 최종 유해 등급을 산출하고, 최종 유해 등급으로 판단된 유해 동영상의 스트리밍을 차단하는 동영상 스트리밍 차단 제어 모듈;
을 포함하는 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 시스템.
The method of claim 1,
The user terminal
The video frame is extracted from the video segment being streamed, and the characteristics of the input images of each video frame are learned to compare the harmful original image and the comparison image. That is, the similarity between the video frames is compared with the harmful original image, A deep learning-based harmfulness analysis engine that calculates length information and a harmful probability for each frame, analyzes the harmfulness of the video, and provides a result of the harmfulness analysis for each video frame;
A video frame extraction module for extracting video frames excluding duplicated video frames to increase the efficiency of video harmfulness analysis; And
A video streaming blocking control module for calculating a final harmful rating using the harmfulness analysis result and scene length information, and blocking streaming of a harmful video determined as the final harmful rating;
Real-time streaming blocking system based on video harmfulness analysis results comprising a.
삭제delete 제1항에 있어서,
상기 딥러닝 기반의 유해성 분석 엔진은
상기 동영상 프레임 간 유사도 비교 기반의 장면 길이 분석을 위해 SSIM (Structural Similarity; 구조적 유사도 지수) 값을 계산하여 학습된 유해 장면이 포함된 원본 이미지와 프레임의 비교 이미지의 유사도를 비교하는, 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 시스템.
The method of claim 1,
The deep learning-based hazard analysis engine
A video hazard analysis result that compares the similarity between the original image containing the learned harmful scene and the comparative image of the frame by calculating the SSIM (Structural Similarity; Structural Similarity Index) value for the scene length analysis based on the similarity comparison between the video frames. Based real-time streaming blocking system.
제4항에 있어서,
상기 SSIM 값은 두 이미지의 픽셀들에 대한 평균 밝기 I(x,y), 이미지의 콘트라스트 값 c(x,y), 그리고 이미지 구조 지수 s(x,y)를 종합하여 다음과 같이 계산되며,
Figure 112019100076592-pat00053

이때 사용되는 가중치 a, b, c의 값은 모두 1로 설정되며, 원본 이미지와 비교 이미지의 유사도를 비교하는 것으로, 가중치가 모두 1로 설정되었기 때문에 SSIM 계산에 있어서, 계산된 SSIM 값을 특정 임계값과 비교하여 유사 여부를 판단하는, 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 시스템.
The method of claim 4,
The SSIM value is calculated as follows by synthesizing the average brightness I(x,y) of the pixels of the two images, the contrast value c(x,y) of the image, and the image structure index s(x,y),
Figure 112019100076592-pat00053

At this time, the values of the weights a, b, and c are all set to 1, comparing the similarity between the original image and the comparison image.Since the weights are all set to 1, the calculated SSIM value is a specific threshold. Real-time streaming blocking system based on video harmfulness analysis results that compares with values to determine whether they are similar.
제1항에 있어서,
상기 딥러닝 기반의 유해성 분석 엔진은
상기 동영상 세그먼트에서 추출된 각 동영상 프레임들에 대하여 장면 단위로 분류하고, 각 동영상 프레임에 대한 유해성 분석 결과와 장면 길이 정보를 이용하여 각 장면에 대한 유해 등급 및 스트리밍 차단을 결정하기 위한 최종 유해 등급을 산출하며,
상기 유해성 분석 엔진의 입력으로 사용된 동영상 프레임에 대한 유해성 분석 결과는 프레임별 유해 확률로 표현되는, 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 시스템.
The method of claim 1,
The deep learning-based hazard analysis engine
Each video frame extracted from the video segment is classified into a scene unit, and a final harmful rating for determining a harmful rating for each scene and blocking streaming using the harmfulness analysis result and the scene length information for each video frame Is calculated,
A real-time streaming blocking system based on a video hazard analysis result, wherein the hazard analysis result of the video frame used as an input of the hazard analysis engine is expressed as a hazard probability for each frame.
(a) HTTP 적응적 스트리밍을 위해 동영상 데이터를 고정된 재생 길이와 서로 다른 품질(bitrate)을 가지는 세그먼트의 형태로 인코딩하여 동영상 서버에 저장되며, 상기 동영상 서버로부터 실시간 스트리밍 동영상 데이터를 사용자 단말로 제공하는 단계; 및
(b) 상기 사용자 단말에 HTTP 적응적 스트리밍 클라이언트가 설치되며, 딥러닝 기반의 유해성 분석 엔진을 사용하여 동영상 프레임 간 유사도를 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하여 최종 유해 등급에 따라 스트리밍 차단을 결정하여 유해한 동영상을 차단하는 단계를 포함하며,
상기 사용자 단말은 상기 HTTP 적응적 스트리밍 클라이언트가 설치되며, 상기 동영상 서버로부터 요청할 동영상에 대한 정보를 기술하는 MPD(Media Presentation Description) 파일을 다운로드하며, 측정한 네트워크 대역폭 및 단말의 상태에 따라 특정 품질(bitrate)의 동영상 세그먼트를 요청하고,
상기 딥러닝 기반의 유해성 분석 엔진은 CNN(Convolutional Neural Network) 모델을 사용하며, 동영상 세그먼트의 주어진 데이터 세트에 대하여 입력 이미지들의 특성을 학습하여 유해 원본 이미지와 비교 이미지를 비교하여 즉, 동영상 프레임 간 유사도를 상기 유해 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하고, 동영상의 유해성을 분석하여 각각의 동영상 프레임에 대한 유해 확률의 형태로 동영상 유해성 분석 결과를 동영상 스트리밍 차단 제어 모듈로 제공하는, 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 방법.
(a) For HTTP adaptive streaming, video data is encoded in the form of segments having a fixed playback length and different bitrates and stored in a video server, and real-time streaming video data is provided to the user terminal from the video server. Step to do; And
(b) An HTTP adaptive streaming client is installed in the user terminal, and the similarity between video frames is compared with the original image using a deep learning-based harmfulness analysis engine to calculate the length information of the scene of each frame and the harmful probability for each frame. And determining to block streaming according to the final harmful rating to block harmful videos,
The user terminal is installed with the HTTP adaptive streaming client, downloads a Media Presentation Description (MPD) file describing information on a video to be requested from the video server, and a specific quality according to the measured network bandwidth and the state of the terminal ( bitrate) of the video segment,
The deep learning-based harmfulness analysis engine uses a CNN (Convolutional Neural Network) model, and compares the harmful original image with the comparison image by learning the characteristics of the input images for a given data set of the video segment, that is, the similarity between video frames. By comparing the harmful original image, the length information of the scene of each frame and the harmful probability for each frame are calculated, and the harmfulness of the video is analyzed and the result of the video harmfulness analysis in the form of a harmful probability for each video frame is blocked from video streaming. Real-time streaming blocking method based on video harmfulness analysis results provided as a module.
삭제delete 제7항에 있어서,
상기 단계 (b)에서 상기 동영상 서버로부터 동영상 세그먼트들이 사용자 단말로 전송되면, 상기 사용자 단말은 동영상 프레임 간의 유사도 비교를 통해 유해성 분석의 부하를 최소화하도록 적응적으로 동영상 프레임을 추출하며, 추출된 동영상 프레임은 딥러닝 기반의 유해성 분석 엔진으로 전달하며,
상기 사용자 단말의 상기 딥러닝 기반의 유해성 분석 엔진은 CNN(Convolutional Neural Network) 모델을 사용하며, 동영상 세그먼트의 주어진 데이터 세트에 대하여 입력 이미지들의 특성을 학습하여 동영상 프레임 간 유사도를 유해 원본 이미지와 비교하여 각 프레임의 장면의 길이 정보와 프레임별 유해 확률을 계산하고, 동영상의 유해성을 분석하여 각각의 동영상 프레임에 대한 유해 확률의 형태로 동영상 유해성 분석 결과를 동영상 스트리밍 차단 제어 모듈로 제공하는 단계; 및
상기 동영상 스트리밍 차단 제어 모듈은 동영상 프레임 간 유사도를 비교하여 각 프레임 장면의 길이 정보와 프레임별 유해 확률을 계산하여 계산된 최종 유해 등급에 따라 스트리밍 차단을 결정하여 유해 동영상의 차단 제어를 수행하는 단계;
상기 딥러닝 기반의 유해성 분석 엔진은 동영상 세그먼트에서 추출된 동영상 프레임에 대한 유해성 분석 결과와 장면 길이 정보를 이용하여 각 장면에 대한 유해 등급 및 스트리밍 차단을 결정하기 위한 최종 유해 등급을 산출하는 단계;
를 포함하는 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 방법.
The method of claim 7,
When the video segments are transmitted from the video server to the user terminal in step (b), the user terminal adaptively extracts the video frame to minimize the load of harmfulness analysis through similarity comparison between video frames, and the extracted video frame Is delivered to a deep learning-based hazard analysis engine,
The deep learning-based harmfulness analysis engine of the user terminal uses a CNN (Convolutional Neural Network) model, and compares the similarity between video frames with the harmful original image by learning the characteristics of input images for a given data set of a video segment. Calculating the length information of the scene of each frame and the harmful probability of each frame, analyzing the harmfulness of the video, and providing a video harmfulness analysis result to a video streaming blocking control module in the form of a harmful probability for each video frame; And
The video streaming blocking control module comparing the similarity between video frames, calculating length information of each frame scene and a harmful probability for each frame, determining streaming blocking according to the calculated final harmful rating, and performing blocking control of the harmful video;
The deep learning-based harmfulness analysis engine calculating a harmfulness level for each scene and a final harmfulness level for determining the streaming blocking by using the harmfulness analysis result of the video frame extracted from the video segment and the scene length information;
Real-time streaming blocking method based on video harmfulness analysis results comprising a.
제7항에 있어서,
상기 딥러닝 기반의 유해성 분석 엔진은
상기 동영상 프레임 간 유사도 비교 기반의 장면 길이 분석을 위해 SSIM (Structural Similarity; 구조적 유사도 지수) 값을 계산하여 학습된 유해 장면이 포함된 원본 이미지와 프레임의 비교 이미지의 유사도를 비교하는, 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 방법.
The method of claim 7,
The deep learning-based hazard analysis engine
A video hazard analysis result that compares the similarity between the original image containing the learned harmful scene and the comparison image of the frame by calculating the SSIM (Structural Similarity; Structural Similarity Index) value for the scene length analysis based on the similarity comparison between the video frames. Based real-time streaming blocking method.
제10항에 있어서,
상기 SSIM 값은 두 이미지의 픽셀들에 대한 평균 밝기 I(x,y), 이미지의 콘트라스트 값 c(x,y), 그리고 이미지 구조 지수 s(x,y)를 종합하여 다음과 같이 계산되며,
Figure 112019100076592-pat00054

이때 사용되는 가중치 a, b, c의 값은 모두 1로 설정되며, 원본 이미지와 비교 이미지의 유사도를 비교하는 것으로, 가중치가 모두 1로 설정되었기 때문에 SSIM 계산에 있어서, 계산된 SSIM 값을 특정 임계값과 비교하여 유사 여부를 판단하는, 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 방법.
The method of claim 10,
The SSIM value is calculated as follows by synthesizing the average brightness I(x,y) of the pixels of the two images, the contrast value c(x,y) of the image, and the image structure index s(x,y),
Figure 112019100076592-pat00054

At this time, the values of the weights a, b, and c are all set to 1, comparing the similarity between the original image and the comparison image.Since the weights are all set to 1, the calculated SSIM value is a specific threshold. A real-time streaming blocking method based on the result of video harmfulness analysis that compares with the value to determine whether it is similar.
제7항에 있어서,
상기 딥러닝 기반의 유해성 분석 엔진은
상기 동영상 세그먼트에서 추출된 각 동영상 프레임들에 대하여 장면 단위로 분류하고, 각 동영상 프레임에 대한 유해성 분석 결과와 장면 길이 정보를 이용하여 각 장면에 대한 유해 등급 및 스트리밍 차단을 결정하기 위한 최종 유해 등급을 산출하며,
상기 유해성 분석 엔진의 입력으로 사용된 동영상 프레임에 대한 유해성 분석 결과는 프레임별 유해 확률로 표현되는, 동영상 유해성 분석 결과 기반 실시간 스트리밍 차단 방법.

The method of claim 7,
The deep learning-based hazard analysis engine
Each video frame extracted from the video segment is classified into a scene unit, and a final harmful rating for determining a harmful rating for each scene and blocking streaming using the harmfulness analysis result and the scene length information for each video frame Is calculated,
A method for blocking real-time streaming based on a result of a harmfulness analysis of a video, wherein the result of the harmfulness analysis of the video frame used as an input of the harmfulness analysis engine is expressed as a harmful probability for each frame.

KR1020190121056A 2019-09-30 2019-09-30 Real-time Streaming Blocking System and Method Based on the Results of the Video Obscenity Analysis KR102169073B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190121056A KR102169073B1 (en) 2019-09-30 2019-09-30 Real-time Streaming Blocking System and Method Based on the Results of the Video Obscenity Analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190121056A KR102169073B1 (en) 2019-09-30 2019-09-30 Real-time Streaming Blocking System and Method Based on the Results of the Video Obscenity Analysis

Publications (1)

Publication Number Publication Date
KR102169073B1 true KR102169073B1 (en) 2020-10-22

Family

ID=73035488

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190121056A KR102169073B1 (en) 2019-09-30 2019-09-30 Real-time Streaming Blocking System and Method Based on the Results of the Video Obscenity Analysis

Country Status (1)

Country Link
KR (1) KR102169073B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597935A (en) * 2020-12-29 2021-04-02 北京影谱科技股份有限公司 Attention level detection method and device, computing equipment and storage medium
KR102387441B1 (en) 2020-11-11 2022-04-14 광운대학교 산학협력단 Streaming Control System based on Video Stream Characteristics for Real-time Response to Harmful Video Streaming
KR102395846B1 (en) * 2021-11-19 2022-05-10 ㈜노웨어소프트 Filtering system of digital contents and control method therof
KR20220108915A (en) * 2021-01-28 2022-08-04 김민석 Real-time harmfulness inspection apparatus and method for video content
KR20220131701A (en) * 2021-03-22 2022-09-29 주식회사 하이퍼커넥트 Method and apparatus for providing video stream based on machine learning
KR102465368B1 (en) * 2021-11-16 2022-11-11 김민석 Image processing apparatus and method
KR20230068207A (en) 2021-11-10 2023-05-17 광운대학교 산학협력단 Device Resource-based Adaptive Frame Extraction and Streaming Control System for Blocking Obscene Videos in Mobile devices
KR20230119885A (en) 2022-02-08 2023-08-16 주식회사 이투온 Method and device for determining abnormal behavior and object situation using video analysis

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110080224A (en) * 2010-01-05 2011-07-13 (주)필링크 Obscene contents filtering apparatus and method of the same
KR20110120545A (en) 2010-04-29 2011-11-04 이승수 Apparatus and method for blocking harmful movie in computer
KR20160116585A (en) 2015-03-30 2016-10-10 한국전자통신연구원 Method and apparatus for blocking harmful area of moving poctures
KR20190105181A (en) * 2018-02-23 2019-09-16 주식회사 넥스트키 Video provision system using contents for children, and method for providing contents of children based on the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110080224A (en) * 2010-01-05 2011-07-13 (주)필링크 Obscene contents filtering apparatus and method of the same
KR20110120545A (en) 2010-04-29 2011-11-04 이승수 Apparatus and method for blocking harmful movie in computer
KR20160116585A (en) 2015-03-30 2016-10-10 한국전자통신연구원 Method and apparatus for blocking harmful area of moving poctures
KR20190105181A (en) * 2018-02-23 2019-09-16 주식회사 넥스트키 Video provision system using contents for children, and method for providing contents of children based on the same

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102387441B1 (en) 2020-11-11 2022-04-14 광운대학교 산학협력단 Streaming Control System based on Video Stream Characteristics for Real-time Response to Harmful Video Streaming
CN112597935A (en) * 2020-12-29 2021-04-02 北京影谱科技股份有限公司 Attention level detection method and device, computing equipment and storage medium
KR20220108915A (en) * 2021-01-28 2022-08-04 김민석 Real-time harmfulness inspection apparatus and method for video content
WO2022164235A1 (en) * 2021-01-28 2022-08-04 김민석 Device and method for inspecting harmfulness of video content in real time
KR102454230B1 (en) * 2021-01-28 2022-10-14 김민석 Real-time harmfulness inspection apparatus and method for video content
KR20220131701A (en) * 2021-03-22 2022-09-29 주식회사 하이퍼커넥트 Method and apparatus for providing video stream based on machine learning
KR102576636B1 (en) 2021-03-22 2023-09-11 하이퍼커넥트 유한책임회사 Method and apparatus for providing video stream based on machine learning
KR20230068207A (en) 2021-11-10 2023-05-17 광운대학교 산학협력단 Device Resource-based Adaptive Frame Extraction and Streaming Control System for Blocking Obscene Videos in Mobile devices
KR102574353B1 (en) * 2021-11-10 2023-09-01 광운대학교 산학협력단 Device Resource-based Adaptive Frame Extraction and Streaming Control System and method for Blocking Obscene Videos in Mobile devices
KR102465368B1 (en) * 2021-11-16 2022-11-11 김민석 Image processing apparatus and method
KR102395846B1 (en) * 2021-11-19 2022-05-10 ㈜노웨어소프트 Filtering system of digital contents and control method therof
KR20230119885A (en) 2022-02-08 2023-08-16 주식회사 이투온 Method and device for determining abnormal behavior and object situation using video analysis

Similar Documents

Publication Publication Date Title
KR102169073B1 (en) Real-time Streaming Blocking System and Method Based on the Results of the Video Obscenity Analysis
US10452919B2 (en) Detecting segments of a video program through image comparisons
KR101967086B1 (en) Entity-based temporal segmentation of video streams
US10194203B2 (en) Multimodal and real-time method for filtering sensitive media
US10229326B2 (en) Methods, systems, and media for generating a summarized video with video thumbnails
US11416546B2 (en) Content type detection in videos using multiple classifiers
TWI510064B (en) Video recommendation system and method thereof
US8879788B2 (en) Video processing apparatus, method and system
CN110692251B (en) Method and system for combining digital video content
CN114679607B (en) Video frame rate control method and device, electronic equipment and storage medium
TW202201969A (en) Apparatus and method for filtering harmful video file
US11924482B2 (en) Method for on-demand video editing at transcode-time in a video streaming system
CN110679153A (en) Time placement of rebuffering events
JP5096259B2 (en) Summary content generation apparatus and summary content generation program
KR102574353B1 (en) Device Resource-based Adaptive Frame Extraction and Streaming Control System and method for Blocking Obscene Videos in Mobile devices
KR102387441B1 (en) Streaming Control System based on Video Stream Characteristics for Real-time Response to Harmful Video Streaming
JP7211373B2 (en) MOVING IMAGE ANALYSIS DEVICE, MOVING IMAGE ANALYSIS SYSTEM, MOVING IMAGE ANALYSIS METHOD, AND PROGRAM
CN112380999B (en) Detection system and method for inductivity bad behavior in live broadcast process
KR102308303B1 (en) Apparatus and method for filtering harmful video file
KR101358576B1 (en) Video transcoding optimization method using correlation of subjective and objective video quality assessment
KR102302368B1 (en) Operating method of server and user device for providing linked service and user device thereof
Akgul et al. Automated adaptive playback for encoder-adjudicated live sports
KR101362654B1 (en) Video transcoding optimization method using light intensity analysis
US11659217B1 (en) Event based audio-video sync detection
Korshunov Video quality for video analysis

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant