KR20090006397A - System and method for multi-stage filtering of malicious videos in video distribution environment - Google Patents

System and method for multi-stage filtering of malicious videos in video distribution environment Download PDF

Info

Publication number
KR20090006397A
KR20090006397A KR1020070069700A KR20070069700A KR20090006397A KR 20090006397 A KR20090006397 A KR 20090006397A KR 1020070069700 A KR1020070069700 A KR 1020070069700A KR 20070069700 A KR20070069700 A KR 20070069700A KR 20090006397 A KR20090006397 A KR 20090006397A
Authority
KR
South Korea
Prior art keywords
video
harmful
video content
vector
evaluation
Prior art date
Application number
KR1020070069700A
Other languages
Korean (ko)
Other versions
KR100907172B1 (en
Inventor
김지수
박현화
Original Assignee
에스케이 텔레콤주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이 텔레콤주식회사 filed Critical 에스케이 텔레콤주식회사
Priority to KR1020070069700A priority Critical patent/KR100907172B1/en
Publication of KR20090006397A publication Critical patent/KR20090006397A/en
Application granted granted Critical
Publication of KR100907172B1 publication Critical patent/KR100907172B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4667Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer

Abstract

A system and a method for blocking harmful moving picture in each step for making, distributing, and consuming the moving picture are provided to prevent distribution of the harmful moving picture by blocking the harmful moving picture in each step for making, distributing, and consuming the moving picture. A filtering manager(30) generates a summary image by merging images extracted from moving picture contents, and detects harmful moving picture by analyzing the summary image. An evaluation/analysis server(52) detects the harmful moving picture by analyzing reaction information of a customer(50) viewing the moving picture contents and transfers the information of the moving picture contents corresponding to the harmful moving picture to the filtering manager. An image summary server(31) generates a summary image by merging more than one image extracted from the moving picture. A filtering server(32) detects the harmfulness moving picture by analyzing visual information extracted from the image.

Description

동영상 유통 환경에서 유해 동영상의 다단계 차단 시스템 및 방법{System and Method for Multi-stage Filtering of Malicious Videos in Video Distribution Environment} System and Method for Multi-stage Filtering of Malicious Videos in Video Distribution Environment}

본 발명은 동영상 유통 환경에서 유해 동영상의 다단계 차단 시스템 및 방법에 관한 것으로, 동영상의 제작, 유통 및 소비의 각 단계에서 유해 동영상을 차단하고 각 단계에서의 차단 결과를 사용하여 피드백(feedback)을 수행하며, 동영상의 내용에 기반한 필터링을 사용하여 유해 동영상을 효율적으로 차단할 수 있는 유해 동영상의 다단계 차단 시스템 및 방법에 관한 것이다.The present invention relates to a multi-level blocking system and method for harmful videos in a video distribution environment, and to block harmful videos at each stage of production, distribution, and consumption of a video, and to perform feedback using the blocking results at each stage. In addition, the present invention relates to a multi-level blocking system and method for harmful video that can effectively block harmful video using filtering based on the content of the video.

인터넷 필터링(filtering) 기술 분야는 최근 인터넷 보급의 확산과 더불어 급성장하고 있는 산업 기술 중 한 분야이다. 인터넷이 보급되고 이용률이 증가함에 따라 기업, 학교 및 가정에서 생산성은 향상되었지만 불건전한 내용 및 비(非)업무 내용의 보급이 인터넷의 단점으로 인식되고 있다. 특히 확산된 인터넷 망을 통하여 청소년들이 무분별하게 유해/음란 컨텐츠를 접하는 것이 더욱 간단해져, 유해 인터넷 컨텐츠를 차단하기 위한 방법의 마련이 필요하다.The Internet filtering technology field is one of the rapidly growing industrial technologies with the recent spread of the Internet. As the Internet spreads and the usage rate increases, productivity improves in corporations, schools and homes, but dissemination of unhealthy and non-business content is recognized as a disadvantage of the Internet. In particular, it is simpler for adolescents to access harmful / obscene content indiscriminately through a spread internet network, and a method for blocking harmful Internet content needs to be prepared.

유해 컨텐츠 중 가장 큰 비중을 차지하는 매체는 동영상으로, 동영상 형태의 유해 컨텐츠를 차단하는 기술 개발이 필수적이다. 동영상 등의 유해 컨텐츠를 차단하기 위하여 현재 사용되고 있는 기술로, 인터넷을 통하여 동영상을 사용자 단말로 다운로드 할 때에 사용자 단말에서 동영상의 유해성을 판단하여 차단하는 기술이 있다. 그러나 이 경우 사용자 단말에 유해 동영상 차단을 위한 별도의 소프트웨어를 설치하여야 하므로 소프트웨어가 설치된 일부 단말에서만 유해 컨텐츠 차단이 가능하고, 유해성 판단 알고리즘이 충분히 개발되어 있지 않아 차단이 실패할 경우 이에 대한 처리가 불가능한 단점이 있다.The media that occupy the largest proportion of harmful content is video, and it is essential to develop technology to block harmful content in the form of video. As a technology currently used to block harmful content such as a video, there is a technology that determines the harmfulness of a video from the user terminal when the video is downloaded to the user terminal through the Internet. However, in this case, since additional software must be installed on the user's terminal to block harmful video, harmful content can be blocked only on some terminals where the software is installed. There are disadvantages.

유해 컨텐츠 차단을 위한 다른 기술로써, 유해 동영상 또는 유해 컨텐츠를 제공하는 웹사이트를 목록화하여 차단하는 방식이 있다. 그러나 이 경우 유해 동영상 또는 웹사이트에 대한 지속적인 목록화 작업이 필요하므로 실효성이 떨어지고, UCC 등과 같이 실시간으로 등록, 유통 및 소비되는 컨텐츠에 대해서는 효율적으로 차단하기 어렵다.As another technology for blocking harmful content, there is a method of blocking and blocking websites that provide harmful video or harmful content. However, in this case, since continuous cataloging of harmful videos or websites is required, its effectiveness is low, and it is difficult to effectively block contents registered, distributed, and consumed in real time such as UCC.

유해 컨텐츠를 차단하기 위한 또 다른 기술로서, 이미지의 색, 형태 및 음성 정보 등 유통되고 있는 동영상 자체의 내용상 특징을 이용하여 유해 컨텐츠를 판별하여 차단하는 기술이 있다. 이는 현재의 기술 수준으로 달성 가능한 최선의 유해 컨텐츠 차단 방법이지만, 아직까지 유해 컨텐츠 판별 알고리즘이 충분히 개발되어 있지 않아 유해 컨텐츠 판별에 오차가 많이 일어나는데 이에 대한 처리가 불가능하다. 특히, 유해 컨텐츠 차단 시스템의 경우, 수 많은 컨텐츠 중에서 하나라도 차단에 실패하여 대중에 유포되면 큰 문제가 되기 때문에 그 처리에 더욱 신중을 기할 필요가 있다.As another technique for blocking harmful contents, there is a technique for identifying and blocking harmful contents by using characteristics of the contents of the moving image itself, such as image color, shape, and voice information. This is the best harmful content blocking method that can be achieved by the current technology level, but since harmful content identification algorithm has not been developed enough, errors occur in harmful content identification. In particular, in the case of harmful content blocking system, if any one of a large number of contents fails to block and spread to the public, it is a big problem, so it is necessary to be more careful in its processing.

전술한 종래 기술의 문제점을 해결하기 위한 본 발명은, 동영상의 제작, 유통 및 소비의 각 단계에서 유해 동영상을 차단함으로써 유해 동영상의 확산을 막을 수 있으며, 유해 동영상 차단을 위한 각 단계의 필터링 결과를 피드백하여 특정 단계에서 차단에 실패한 경우에도 유해 동영상을 사후적으로 차단할 수 있는 유해 동영상의 다단계 차단 시스템 및 방법을 제공하는 것을 목적으로 한다.The present invention for solving the above problems of the prior art, can prevent the spread of the harmful video by blocking the harmful video at each stage of the production, distribution and consumption of the video, the filtering result of each step for blocking the harmful video It is an object of the present invention to provide a multi-stage blocking system and method for harmful videos that can block harmful videos after the fact that the blocking fails in a specific step.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 유해 동영상의 다단계 차단 시스템은, 동영상 컨텐츠에서 추출된 이미지를 병합하여 요약 이미지를 생성하고, 상기 요약 이미지를 분석하여 유해 동영상을 검출하는 필터링 관리자; 및 상기 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 분석하여 유해 동영상을 검출하고, 유해 동영상에 해당하는 상기 동영상 컨텐츠의 정보를 상기 필터링 관리자에 전송하는 평가 분석 서버를 포함하여 구성될 수 있다.Multi-level blocking system of the harmful video according to an embodiment of the present invention for achieving the above object, a filtering manager for generating a summary image by merging the images extracted from the video content, and analyzing the summary image to detect the harmful video ; And an evaluation analysis server analyzing the reaction information of the consumer watching the video content to detect the harmful video and transmitting the information of the video content corresponding to the harmful video to the filtering manager.

본 발명의 일 실시예에 따른 유해 동영상 차단을 위한 필터링 관리자는, 동영상 컨텐츠에서 추출된 하나 이상의 이미지를 병합하여 요약 이미지를 생성하는 영상 요약 서버; 및 상기 요약 이미지에서 추출된 시각적 정보를 분석하여 유해 동영상을 검출하는 필터링 서버를 포함하여 구성될 수 있다.Filtering manager for blocking harmful video according to an embodiment of the present invention, Video summary server for generating a summary image by merging one or more images extracted from the video content; And a filtering server that detects a harmful video by analyzing visual information extracted from the summary image.

본 발명의 일 실시예에 따른 유해 동영상 차단을 위한 평가 분석 서버는, 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 수신하는 평가 수집부; 수신된 상기 소비자 반응 정보를 사용하여 상기 동영상 컨텐츠의 유해성 정도를 표시하는 평가 벡터를 산출하는 벡터 산출부; 및 상기 평가 벡터의 값을 미리 설정된 값과 비교하여 유해 동영상을 검출하는 유해 동영상 검출부를 포함하여 구성될 수 있다.Evaluation analysis server for blocking harmful video according to an embodiment of the present invention, the evaluation collection unit for receiving the response information of the consumer watching the video content; A vector calculator configured to calculate an evaluation vector indicating a degree of harmfulness of the video content by using the received consumer response information; And a harmful video detection unit which detects a harmful video by comparing the value of the evaluation vector with a preset value.

본 발명의 일 실시예에 따른 유해 동영상의 다단계 차단 방법은, 필터링 관리자에서 동영상 컨텐츠로부터 추출된 이미지를 병합하여 요약 이미지를 생성하고, 상기 요약 이미지를 분석하여 유해 동영상을 검출하는 단계; 및 상기 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 평가 분석 서버에서 분석하여 유해 동영상을 검출하고, 유해 동영상에 해당하는 상기 동영상 컨텐츠의 정보를 상기 필터링 관리자에 전송하는 단계를 포함하여 구성될 수 있다.Multi-step blocking method of the harmful video according to an embodiment of the present invention, the filtering manager merges the image extracted from the video content to generate a summary image, and analyzing the summary image to detect the harmful video; And analyzing the response information of the consumer watching the video content in an evaluation analysis server to detect a harmful video, and transmitting information of the video content corresponding to the harmful video to the filtering manager.

본 발명의 다른 측면에 따른 유해 동영상의 다단계 차단 방법은, 동영상 컨텐츠에서 추출된 하나 이상의 이미지를 병합하여 요약 이미지를 생성하는 단계; 및 상기 요약 이미지에서 추출된 시각적 정보를 분석하여 유해 동영상을 검출하는 단계를 포함하여 구성될 수 있다.According to another aspect of the present invention, there is provided a multi-level blocking method of a harmful video, the method comprising: generating a summary image by merging one or more images extracted from the video content; And detecting harmful videos by analyzing the visual information extracted from the summary image.

본 발명의 또 다른 측면에 따른 유해 동영상의 다단계 차단 방법은, 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 수신하는 단계; 수신된 상기 소비자 반응 정보를 사용하여 상기 동영상 컨텐츠의 유해성 정도를 표시하는 평가 벡터를 산출하는 단계; 및 상기 평가 벡터의 값을 미리 설정된 값과 비교하여 유해 동영상을 검출하는 단계를 포함하여 구성될 수 있다.According to another aspect of the present invention, there is provided a multi-step blocking method of a harmful video, the method comprising: receiving response information of a consumer watching the video content; Calculating an evaluation vector indicating a degree of harmfulness of the video content by using the received consumer response information; And detecting a harmful video by comparing the value of the evaluation vector with a preset value.

본 발명에 따른 유해 동영상의 다단계 차단 시스템 및 방법을 사용하여, 동 영상 컨텐츠의 제작, 유통 및 소비 과정 전반에 걸쳐 유해 동영상을 효율적으로 차단할 수 있으며, 피드백을 통하여 앞 단계에서의 필터링에서 검출되지 않은 유해 동영상을 검출하는 것이 가능하다. 또한, 동영상의 내용에 기반한 필터링 방법을 사용하므로 UCC 등의 동영상에 있어서도 효율적으로 유해 동영상을 차단할 수 있는 이점이 있다.By using the multi-level blocking system and method of the harmful video according to the present invention, it is possible to effectively block the harmful video throughout the production, distribution, and consumption process of the video content, and it is not detected in the filtering in the previous step through feedback. It is possible to detect harmful videos. In addition, since the filtering method based on the content of the video is used, there is an advantage that the harmful video can be efficiently blocked even in a video such as UCC.

이하에서, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세히 살펴본다.Hereinafter, with reference to the accompanying drawings looks at in detail with respect to the preferred embodiment of the present invention.

도 1은 본 발명의 일 실시예에 따른 유해 동영상의 다단계 차단 시스템의 구성을 도시한 구성도이다. 도시된 바와 같이 상기 실시예에 따른 유해 동영상의 다단계 차단 시스템은, 컨텐츠 제공자(10), 필터링 관리자(30) 및 컨텐츠 소비자(50)를 포함하여 구성되며, 상기 유해 동영상의 다단계 차단 시스템은 각 구성 요소 사이에서 동영상 컨텐츠(1)가 원활하게 전달될 수 있도록 하기 위해 업로드 서버(21), 영상 디코더(22) 및 컨텐츠 데이터베이스(40)를 포함할 수도 있다.1 is a block diagram showing the configuration of a multi-level blocking system of a harmful video according to an embodiment of the present invention. As illustrated, the multi-level blocking system of the harmful video according to the embodiment includes a content provider 10, a filtering manager 30, and a content consumer 50, and the multi-level blocking system of the harmful video is configured. An upload server 21, an image decoder 22, and a content database 40 may be included in order to allow the video content 1 to be smoothly transferred between the elements.

도 2는 본 발명의 일 실시예에 따른 유해 동영상의 다단계 차단 방법의 각 단계를 도시한 순서도이다. 상기 실시예에 따른 유해 동영상의 다단계 차단 방법은 동영상 컨텐츠(1)의 제작, 유통 및 소비의 각 단계에서 유해 동영상을 차단하도록 구성된다. 2 is a flowchart illustrating each step of a multi-step blocking method of a harmful video according to an embodiment of the present invention. The multi-step blocking method of the harmful video according to the above embodiment is configured to block the harmful video at each stage of production, distribution and consumption of the video content 1.

제작 단계에서의 유해 동영상 차단Harmful video blocking during production

컨텐츠 제공자(10)는 개인용 컴퓨터(12) 또는 이동 통신 단말기(13)에 저장된 동영상 컨텐츠(1)의 유해성 정도를 표시하는 정보를 생성한다(S201). 본 발명의 일 실시예에서, 컨텐츠 제공자(10)는 메타데이터의 형태로 유해성 등급 정보를 표시할 수도 있다. 메타데이터는 동영상 컨텐츠(1)의 유해 등급을 표시하기에 적절한 임의의 형태로 구성될 수 있으며, 예컨대 19세 이상/미만으로 구분하는 등의 형식으로 구성할 수도 있다. 상기 S201 과정 다음으로, 컨텐츠 제공자(10)는 동영상 컨텐츠(1) 및 동영상 컨텐츠(1)의 유해성 정도를 표시한 메타데이터를 업로드 서버(21)로 전송한다(S202).The content provider 10 generates information indicating the degree of harmfulness of the video content 1 stored in the personal computer 12 or the mobile communication terminal 13 (S201). In one embodiment of the invention, the content provider 10 may display the hazard rating information in the form of metadata. The metadata may be configured in any form suitable for displaying harmful ratings of the video content 1, and may be configured in a format of, for example, 19 years of age or older. After the process S201, the content provider 10 transmits the metadata indicating the degree of harmfulness of the video content 1 and the video content 1 to the upload server 21 (S202).

유통 단계에서의 유해 동영상 차단Block harmful videos at distribution

업로드 서버(21)로 전송된 동영상 컨텐츠(1) 및 유해성 등급 정보는 필터링 관리자(30)에서 수신된다. 본 발명의 일 실시예에서, 동영상 컨텐츠(1)가 소정의 형식으로 인코딩 되어 있을 경우 필터링 관리자(30)는 영상 디코더(22)를 통하여 동영상 컨텐츠(1)를 디코딩한 후 디코딩된 동영상을 수신하는 것도 가능하다. The video content 1 and the hazard rating information transmitted to the upload server 21 are received by the filtering manager 30. In one embodiment of the present invention, when the video content 1 is encoded in a predetermined format, the filtering manager 30 receives the decoded video after decoding the video content 1 through the image decoder 22. It is also possible.

필터링 관리자(30)에서는 필터링 서버(32)에서 동영상 컨텐츠(1)를 분석하여 유해 동영상에 해당되는지 여부를 판단하게 된다. 본 발명의 일 실시예에서, 필터링 서버(32)에 의하여 동영상 컨텐츠(1)의 유해성 여부를 판단하는 작업을 용이하게 하기 위하여, 영상 요약 서버(31)에서는 컨텐츠 제공자(10)에 의하여 S201 과정에서 생성된 메타데이터를 수신하여 확인한다(S203). 메타데이터는 필터링 서 버(32)에서 유해 동영상을 검출하는 과정에서 사용되며, 이는 후술한다.The filtering manager 30 analyzes the video content 1 in the filtering server 32 to determine whether it corresponds to a harmful video. In one embodiment of the present invention, in order to facilitate the task of determining whether the video content 1 is harmful by the filtering server 32, the video summary server 31 by the content provider 10 in the process S201 The generated metadata is received and confirmed (S203). The metadata is used in the process of detecting the harmful video in the filtering server 32, which will be described later.

필터링 관리자(30)에서 동영상 컨텐츠(1)를 빠른 속도로 분석하기 위해서는 동영상 컨텐츠(1)를 내용에 기반하여 요약하는 작업이 요구된다. 이를 위하여, 필터링 관리자(30)에 포함된 영상 요약 서버(31)에서는 업로드 서버(21)로부터 수신한 동영상 컨텐츠(1)에 대하여 요약 이미지를 생성한다(S204). 생성되는 요약 이미지는 동영상 컨텐츠(1)를 샷(shot) 기준으로 하나 이상의 부분으로 나누고, 각 부분의 대표 프레임의 이미지를 추출하여 병합함으로써 생성된 이미지이다. 샷이란 동영상 컨텐츠(1)에서 내용 상으로 연결성이 있어, 전후의 연결된 프레임의 이미지에 유사성이 있으므로 하나로 묶여질 수 있는 단위를 지칭하는 용어이다. 예컨대, 이전의 프레임과 다음 프레임 사이에서 이미지의 형태, 색상 등이 급진적으로 변화할 경우 두 프레임 사이에서 샷이 구분될 수 있다.In order to rapidly analyze the video content 1 in the filtering manager 30, a task of summarizing the video content 1 based on the content is required. To this end, the video summary server 31 included in the filtering manager 30 generates a summary image of the video content 1 received from the upload server 21 (S204). The generated summary image is an image generated by dividing the video content 1 into one or more parts based on a shot, and extracting and merging the images of the representative frames of each part. Shot is a term that refers to a unit that can be bundled together because there is connectivity in the contents of the moving image content 1 and thus there is a similarity in the image of the connected frames before and after. For example, shots may be distinguished between two frames when the shape, color, etc. of the image radically change between the previous frame and the next frame.

생성된 요약 이미지는 필터링 서버(32)로 전달되며, 필터링 서버(32)에서는 학습 기반(learning-based) 필터링 방식에 의하여 요약 이미지의 유해성 여부를 판단한다(S205). 필터링 서버(32)에서는 요약 이미지에서 유해성 판단에 필요한 정보를 추출한다. 예컨데, 요약 이미지로부터 MPEG-7 표준에 기술된 시각 기술자(visual descriptor) 및 기타 추가적으로 필요한 시각적 정보를 추출하여 요약 이미지의 유해성 여부를 판단할 수 있다. 본 발명의 일 실시예에서, 필터링 서버(32)는 MPEG-7 표준 시각 기술자 중에서 DCD(Dominant Color Descriptor), SCD(Scalable Color Descriptor), CSD(Color Structure Descriptor), EHD(Edge Histogram Descriptor) 및 CTSD(Contour Shape Descriptor)를 사용하며, 추가적으 로 요약 이미지 내에서 피부색의 분포, 유해 노출 부위에 대한 패턴 정보 등의 시각적 정보를 추출하여 사용한다.The generated summary image is transmitted to the filtering server 32, and the filtering server 32 determines whether the summary image is harmful by using a learning-based filtering method (S205). The filtering server 32 extracts information necessary for determining the hazard from the summary image. For example, a visual descriptor and other additionally necessary visual information described in the MPEG-7 standard may be extracted from the summary image to determine whether the summary image is harmful. In one embodiment of the present invention, filtering server 32 is a MPEG-7 standard time descriptor, Dominant Color Descriptor (DCD), Scalable Color Descriptor (SCD), Color Structure Descriptor (CSD), Edge Histogram Descriptor (EHD), and CTSD. (Contour Shape Descriptor) is used, and additionally, visual information such as distribution of skin color and pattern information on the harmful exposure area is used in the summary image.

필터링 서버(32)는 전술한 시각 기술자 및 추가적인 시각적 정보 각각을 정규화된 벡터 V1, V2, …, Vn 으로 표현하여, 이를 학습 기반 엔진에 적용한다. 요약 이미지의 벡터화된 시각적 정보를 학습 기반 엔진에 적용함으로써, 요약 이미지에 대한 유해성 정도를 표시하는 계수를 얻을 수 있다. 예컨대, 요약 이미지에서 피부색의 분포를 표시하는 계수 또는 요약 이미지가 노출 부위에 대한 패턴 정보와 일치하는 정도를 표시하는 계수 등을 사용하여 유해성 정도를 표시할 수 있다. 본 발명의 일 실시예에서 유해성 정도 계수는 0부터 100까지의 자연수로 표시될 수도 있으며, 이 경우 0은 유해성이 전혀 없는 경우를 나타내며 100은 완전히 유해한 경우를 나타낸다. The filtering server 32 converts each of the above-described visual descriptor and the additional visual information into a normalized vector V1, V2,... , Expressed as Vn, and applies it to the learning-based engine. By applying the vectorized visual information of the summary image to the learning-based engine, a coefficient indicating the degree of hazard for the summary image can be obtained. For example, the degree of hazard may be indicated by using a coefficient indicating a distribution of skin color in the summary image or a coefficient indicating a degree in which the summary image is consistent with pattern information about an exposed part. In one embodiment of the present invention, the hazard degree coefficient may be expressed as a natural number from 0 to 100, in which case 0 represents no harmfulness and 100 represents a completely harmful case.

필터링 서버(32)는 유해성 정도 계수를 사용하여 요약 이미지를 미리 설정된 유해 등급으로 구분할 수 있다. 예컨대, 유해 등급 1 내지 4가 각각 무해, 일반, 의심 및 유해 이미지의 단계 분류를 의미하고, Ik는 요약 이미지, C(Ik)는 유해성 정도 계수, Th1=20, Th2=40, Th3=75라고 할 경우, 필터링 서버(32)는 하기 수학식 1에 의하여 요약 이미지의 유해성의 등급을 구분할 수 있다.The filtering server 32 may classify the summary image into a preset hazard class using the hazard degree coefficient. For example, hazard ratings 1 through 4 represent step classifications of harmless, general, suspicious and harmful images respectively, I k is a summary image, C (I k ) is a hazard degree factor, Th 1 = 20, Th 2 = 40, When Th 3 = 75, the filtering server 32 may classify the hazard of the summary image according to Equation 1 below.

Figure 112007050563381-PAT00001
Figure 112007050563381-PAT00001

필터링 서버(32)는 상기 수학식 1에 의해 산출된 유해 등급을 기준으로 하여 미리 설정된 등급 이상에 해당하는 동영상 컨텐츠(1)는 유해 동영상에 해당하는 것으로 판단한다.The filtering server 32 determines that the video content 1 corresponding to the preset rating or higher corresponds to the harmful video based on the harmful rating calculated by Equation 1 above.

본 발명의 일 실시예에서, 필터링 서버(32)는 모든 동영상 컨텐츠(1)의 요약 이미지를 순차적으로 분석하는 것이 아니라, 유해성이 높을 것으로 의심되는 동영상 컨텐츠(1)를 우선적으로 분석할 수도 있다. 예컨대, 영상 요약 서버(31)에서 컨텐츠 제공자(10)에 의한 메타데이터를 수신하였으므로 필터링 서버(32)에서는 메타데이터에 유해한 것으로 표시되어 있거나 유해성이 높은 것으로 표시된 동영상 컨텐츠(1)에 대하여 우선적으로 유해 등급 분류를 수행할 수도 있다.In one embodiment of the present invention, the filtering server 32 may not analyze the summary images of all the video content 1 sequentially, but may preferentially analyze the video content 1 that is suspected to have high harmfulness. For example, since the video summary server 31 receives the metadata by the content provider 10, the filtering server 32 preferentially deletes the video content 1 that is marked as harmful or has high harmfulness in the metadata. Classification may also be performed.

나아가, 하나의 요약 이미지를 분석한 결과 대응하는 동영상 컨텐츠(1)가 유해 동영상으로 분류되면, 필터링 서버(32)는 해당 동영상 컨텐츠(1)에 포함되는 이미지들을 검색 대상에서 제외함으로써 요약 이미지 분석을 더욱 효율적으로 수행할 수도 있다. 또한 후술하는 평가 분석 서버(52)에서 취합된 소비자 평가가 보고되면, 보고 결과에 기초하여 유해성이 높은 것으로 의심되는 소비자가 제공한 동영상 컨텐츠(1)의 요약 이미지에 대하여 우선적으로 분석을 수행하는 것도 가능하다.Furthermore, if the corresponding video content 1 is classified as a harmful video as a result of analyzing one summary image, the filtering server 32 excludes the images included in the video content 1 from the search target to perform summary image analysis. You can also do it more efficiently. In addition, when the consumer evaluation collected by the evaluation analysis server 52 to be described later is reported, the analysis of the summary image of the video content 1 provided by the consumer suspected of having a high hazard is performed based on the report result. It is possible.

필터링 서버(32)는 전술한 과정에 의하여 요약 이미지를 통해 동영상 컨텐츠(1)의 유해성을 분석하며, 필터링 관리자(30)는 분석 결과 유해하지 않은 동영상으로 판단된 동영상 컨텐츠(1)만이 업로드 서버(21)로부터 컨텐츠 데이터베이스(40)에 전송되어 저장되도록 한다(S206).The filtering server 32 analyzes the harmfulness of the video content 1 through the summary image by the above-described process, and the filtering manager 30 determines that only the video content 1 determined as the harmful video is analyzed by the upload server ( 21 is transmitted to the content database 40 to be stored (S206).

소비 단계에서의 유해 동영상 차단Harmful video blocking at the consumption stage

동영상 컨텐츠(1)를 시청하는 소비자들은 컨텐츠 데이터베이스(40)로부터 소비자 단말기(51)로 동영상 컨텐츠(1)를 다운로드 또는 스트리밍(streaming)하여 동영상을 시청한다(S207). 따라서, 소비자들은 유해성이 없는 동영상 컨텐츠(1)만을 시청하게 된다. 그러나 이 경우에도 필터링 관리자(30)에 의하여 차단되지 않고 유통된 유해 동영상이 존재할 가능성이 있으므로, 소비 단계에서도 컨텐츠 소비자(50)에 의하여 유해 동영상을 차단하는 과정을 수행하게 된다.Consumers watching the video content 1 download or stream the video content 1 from the content database 40 to the consumer terminal 51 to watch the video (S207). Therefore, consumers will only watch the video content 1 without harm. However, even in this case, since there may be harmful videos distributed without being blocked by the filtering manager 30, the process of blocking harmful videos by the content consumer 50 is performed even at the consumption stage.

소비자들은 소비자 단말기(51)를 통하여 동영상을 시청하며, 시청 도중 유해 동영상을 발견할 경우 평가 분석 서버(52)에 이에 대한 평가를 신고 또는 링크 등의 형태로 남기게 된다. 평가 분석 서버(52)는 컨텐츠에 대한 시청자들의 평가를 취합하고, 이를 분석하여 현재 컨텐츠 데이터베이스(40)에 유해 동영상이 저장되어 소비자들에게 확산되고 있다는 사실을 확인할 수 있다. The consumers watch the video through the consumer terminal 51, and if the harmful video is found during viewing, the evaluation is left in the form of a report or a link in the evaluation analysis server 52. The rating analysis server 52 may collect the ratings of the viewers of the content, analyze the content, and confirm that harmful videos are currently stored in the content database 40 and are being spread to consumers.

도 3은 본 발명의 일 실시예에 따른 평가 분석 서버(52)를 도시한 블록도이다. 평가 분석 서버(52)는 평가 수집부(521), 벡터 산출부(522) 및 유해 동영상 검출부(523)를 포함한다. 우선, 평가 분석 서버(52)에 포함된 평가 수집부(521)에서 는 동영상 컨텐츠(1)에 대한 소비자들의 조회수, 조회수의 증가 속도, 소비자의 신고 횟수, 컨텐츠 제공자(10)의 신뢰도, 신고자의 신뢰도, 외부 링크 수, 외부 링크 수 증가 속도 및 동영상의 게시 시점 등의 소비자 반응 정보를 수신한다. 3 is a block diagram illustrating an evaluation analysis server 52 according to an embodiment of the present invention. The evaluation analysis server 52 includes an evaluation collector 521, a vector calculator 522, and a harmful video detector 523. First, in the evaluation collection unit 521 included in the evaluation analysis server 52, the number of views of consumers about the video content 1, the increase rate of views, the number of reports of consumers, the reliability of the content provider 10, the reporter Receive consumer response information such as reliability, number of external links, rate of external link growth, and when the video is published.

수신된 정보는 벡터 산출부(522)로 전송되며, 벡터 산출부(522)는 전술한 정보들을 조합하여 하기 수학식 2 내지 수학식 4에 기술되는 3개의 벡터의 값을 생성할 수 있다.The received information is transmitted to the vector calculator 522, and the vector calculator 522 may combine the above-described information to generate values of three vectors described in Equations 2 to 4 below.

V1 = f1{컨텐츠 제공자의 신뢰도, 동영상의 게시 시점}V 1 = f 1 {confidence of content provider, when the video is published}

V2 = f2{동영상의 조회수, 조회수의 증가 속도, 외부 링크 수, 외부 링크 수 증가 속도}V 2 = f 2 {speed of video views, speed of views, number of external links, speed of external links}

V3 = f3{동영상의 조회수, 소비자의 신고 횟수, 신고자의 신뢰도}V 3 = f 3 {views of video, number of reports from consumers, reporter's confidence}

상기 수학식 2 내지 수학식 4에서 V1 , V2 V3는 유해 동영상 검출을 위하여 산출되는 벡터들이며, f1 , f2 f3는 각 데이터를 조합하여 상기 벡터값 들을 생성하는 함수들이다. 상기 수학식 2의 V1은 동영상 컨텐츠(1)에 대한 신뢰도를 얻기 위한 함수이며, 상기 수학식 3의 V2는 동영상 컨텐츠(1)에 대한 소비자들의 접근 회수를 계수하기 위한 함수이다. 상기 수학식 4의 V3는 동영상 컨텐츠(1)가 유해 동영상으 로 의심되는 정도를 표시하는 함수이다. 함수 내의 계수나 가중치 등은 벡터 산출부(522)에서 데이터를 조합하는 과정에서 적절히 조절될 수 있다.In Equations 2 to 4, V 1 , V 2 And V 3 are vectors calculated for the detection of harmful video, f 1 , f 2 And f 3 are functions of combining the respective data to generate the vector values. V 1 of Equation 2 is a function for obtaining the reliability of the video content (1), V 2 of the equation (3) is a function for counting the number of times of access to the consumer to the video content (1). V 3 of Equation 4 is a function for displaying the degree to which the video content (1) is suspected to be harmful video. Coefficients, weights, and the like within the function may be appropriately adjusted in the process of combining data in the vector calculator 522.

벡터 산출부(52)에서는 전술한 수학식들에 의하여 구한 벡터 V1 , V2 V3에 각각의 가중치 w1, w2 및 w3를 적용하여 3차원 평가 벡터 V를 하기 수학식 5에 의하여 산출한다. 가중치 w1, w2 및 w3는 각 벡터의 중요도를 표시하기 위한 수치로, 각 벡터의 비중에 따라 적절히 설정될 수 있다.In the vector calculator 52, the vectors V 1 and V 2 obtained by the above-described equations. And Applying respective weights w 1, w 2 and w 3 in the V 3 to the three-dimensional evaluation vector V is calculated by the equation (5). The weights w 1 , w 2, and w 3 are numerical values for indicating the importance of each vector, and may be appropriately set according to the specific gravity of each vector.

V = {w1*V1, w2*V2, w3*V3}V = (w 1 * V 1 , w 2 * V 2 , w 3 * V 3 }

상기 수학식 5에 의하여 평가 산출된 벡터 V는 유통 중인 동영상 컨텐츠(1)의 유해성 여부에 대한 소비자들의 반응 척도로서 기능하며, 유해 동영상 검출부(523)로 전달된다. The vector V evaluated and calculated by Equation 5 functions as a measure of consumer's reaction to the harmfulness of the video content 1 in circulation, and is transmitted to the harmful video detection unit 523.

유해 동영상 검출부(523)에서는 평가 벡터 V에 대해 학습 기반 엔진을 적용하여, 평가 벡터 V을 미리 설정된 값과 비교하여 평가 벡터의 값이 재검토 필요 영역에 포함될 경우, 대응하는 동영상 컨텐츠(1)가 유해 동영상인 것으로 판단하여 재검토 대상이 되도록 한다. The harmful video detection unit 523 applies a learning-based engine to the evaluation vector V, compares the evaluation vector V with a preset value, and when the value of the evaluation vector is included in the area for review, the corresponding video content 1 is harmful. It is determined that the video is to be reviewed.

재검토 대상인 동영상 컨텐츠(1)가 있음이 확인되면, 유해 동영상 검출부(523)는 이에 대한 정보를 필터링 관리자(30)에 보고한다(S209). 필터링 관리자(30)에서는 유해 동영상 검출부(523)로부터 보고를 수신하며, 대상 동영상 컨텐츠(1)의 유해성을 우선적으로 분석하거나, 또는 이미 분석이 완료된 동영상 컨텐 츠(1)일 경우 다시 유해성 정도를 분석하여 유해 동영상에 해당되는지 여부를 확인한다. 유해 동영상에 해당하는 것으로 확인되는 경우 필터링 관리자(30)는 컨텐츠 데이터베이스(40)에서 해당 동영상 컨텐츠(1)를 삭제하는 등의 조치를 취하여 유해 동영상의 유포를 차단하게 된다. When it is confirmed that there is a video content 1 to be reviewed, the harmful video detection unit 523 reports the information to the filtering manager 30 (S209). The filtering manager 30 receives a report from the harmful video detection unit 523, preferentially analyzes the harmfulness of the target video content 1, or analyzes the harmfulness level again when the video content 1 has already been analyzed. To check whether the video is harmful. When it is determined that the video corresponds to the harmful video, the filtering manager 30 takes measures such as deleting the video content 1 from the content database 40 to block the distribution of the harmful video.

한편 평가 분석 서버(52)의 벡터 산출부(522)에서는 필터링 관리자(30)에 의한 재검토 결과에 기초하여, 해당 동영상 컨텐츠(1)의 컨텐츠 제공자(10) 및 신고자의 신뢰도를 조정하고, 벡터 V1 , V2 V3 등을 산출하는데 필요한 계수나 가중치 등의 값을 조절하도록 한다.On the other hand, the vector calculation unit 522 of the evaluation analysis server 52 adjusts the reliability of the content provider 10 and the reporter of the video content 1 based on the review result by the filtering manager 30, and the vector V. 1 , V 2 And V 3 Adjust the values such as coefficients and weights needed to calculate

이상에서 설명된 바와 같이, 동영상의 제작 단계에서 컨텐츠 제공자에 의하여 자체 등급 분류를 표시하도록 하고, 동영상의 유통 단계에서 필터링 관리자가 동영상의 요약 이미지를 통해 동영상이 유해 동영상에 해당되는지 여부를 확인하며, 동영상의 소비 단계에서 소비자 단말기로부터 수신된 평가 또는 신고 등을 수집 및 분석하여 다시 필터링 관리자에게 보고함으로써, 동영상의 제작, 유통 및 소비의 각 단계에서 유해 동영상을 차단하는 것이 가능하다. As described above, at the production stage of the video, the content provider displays its own classification, and at the distribution stage of the video, the filtering manager checks whether the video corresponds to the harmful video through the summary image of the video, By collecting and analyzing the evaluation or report received from the consumer terminal in the consumption phase of the video and reporting it to the filtering manager, it is possible to block the harmful video at each stage of the production, distribution and consumption of the video.

이상 본 발명의 특정 실시예를 도시하고 설명하였으나, 본 발명의 기술사상은 첨부된 도면과 상기한 설명내용에 한정하지 않으며 본 발명의 사상을 벗어나지 않는 범위 내에서 다양한 형태의 변형이 가능함은 이 분야의 통상의 지식을 가진 자에게는 자명한 사실이며, 이러한 형태의 변형은, 본 발명의 정신에 위배되지 않는 범위 내에서 본 발명의 특허청구범위에 속한다고 볼 것이다.  While specific embodiments of the present invention have been illustrated and described, the technical spirit of the present invention is not limited to the accompanying drawings and the above description, and various modifications can be made without departing from the spirit of the present invention. It will be apparent to those skilled in the art, and variations of this form will be regarded as belonging to the claims of the present invention without departing from the spirit of the present invention.

본 발명은 동영상 유통 환경에서 유해 동영상의 다단계 차단 시스템 및 방법에 관한 것으로, 동영상의 제작, 유통 및 소비의 각 단계에서 유해 동영상을 차단하고 각 단계에서의 차단 결과를 사용하여 피드백(feedback)을 수행하며, 동영상의 내용에 기반한 필터링을 사용하여 유해 동영상을 효율적으로 차단할 수 있는 유해 동영상의 다단계 차단 시스템 및 방법에 관한 것이다.The present invention relates to a multi-level blocking system and method for harmful videos in a video distribution environment, and to block harmful videos at each stage of production, distribution, and consumption of a video, and to perform feedback using the blocking results at each stage. In addition, the present invention relates to a multi-level blocking system and method for harmful video that can effectively block harmful video using filtering based on the content of the video.

도 1은 본 발명의 일 실시예에 따른 유해 동영상의 다단계 차단 시스템의 구성을 도시한 개략도이다. 1 is a schematic diagram showing the configuration of a multi-level blocking system of a harmful video according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 유해 동영상의 다단계 차단 방법의 각 단계를 도시한 순서도이다.2 is a flowchart illustrating each step of a multi-step blocking method of a harmful video according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 평가 분석 서버를 도시한 블록도이다.3 is a block diagram illustrating an evaluation analysis server according to an embodiment of the present invention.

Claims (22)

동영상 컨텐츠에서 추출된 이미지를 병합하여 요약 이미지를 생성하고, 상기 요약 이미지를 분석하여 유해 동영상을 검출하는 필터링 관리자; 및A filtering manager which merges the images extracted from the video content to generate a summary image and analyzes the summary image to detect a harmful video; And 상기 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 분석하여 유해 동영상을 검출하고, 유해 동영상에 해당하는 상기 동영상 컨텐츠의 정보를 상기 필터링 관리자에 전송하는 평가 분석 서버를 포함하는 것을 특징으로 하는 유해 동영상의 다단계 차단 시스템.Multi-step of the harmful video, characterized in that it comprises an evaluation analysis server for analyzing the response information of the consumer watching the video content to detect the harmful video, and transmits the information of the video content corresponding to the harmful video to the filtering manager. Blocking system. 제 1항에 있어서,The method of claim 1, 상기 동영상 컨텐츠는, 상기 동영상 컨텐츠의 유해성을 표시하는 정보를 포함하며, The video content includes information indicating the harmfulness of the video content, 상기 필터링 관리자는, 상기 유해성을 표시하는 정보를 사용하여 유해 동영상을 검출하는 것을 특징으로 하는 유해 동영상의 다단계 차단 시스템.And the filtering manager detects a harmful video using the information indicating the harmfulness. 제 1항에 있어서,The method of claim 1, 상기 필터링 관리자는,The filtering manager, 상기 동영상 컨텐츠의 각 샷(shot)으로부터 추출된 하나 이상의 이미지를 병 합하여 상기 요약 이미지를 생성하는 것을 특징으로 하는 유해 동영상의 다단계 차단 시스템.And one or more images extracted from each shot of the moving image content to generate the summary image. 제 1항에 있어서,The method of claim 1, 상기 평가 분석 서버는, The evaluation analysis server, 상기 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 사용하여 생성된 평가 벡터의 값을 미리 설정된 값과 비교하여 유해 동영상을 검출하는 것을 특징으로 하는 유해 동영상의 다단계 차단 시스템. And a harmful video is detected by comparing the value of the evaluation vector generated using the response information of the consumer watching the video content with a preset value. 제 4항에 있어서, The method of claim 4, wherein 상기 평가 벡터는, 하기 수학식으로 표현되는 것을 특징으로 하는 유해 동영상의 다단계 차단 시스템.The evaluation vector, the multi-level blocking system of the harmful video, characterized in that represented by the following equation. V = {w1*V1, w2*V2, w3*V3}V = (w 1 * V 1 , w 2 * V 2 , w 3 * V 3 } V : 상기 평가 벡터V: the evaluation vector V1 : 상기 동영상 컨텐츠의 제공자의 신뢰도 및 상기 동영상 컨텐츠의 게시 시점 중 하나 이상을 사용하여 생성되는 벡터.V 1 : A vector generated using at least one of a reliability of a provider of the video content and a posting time of the video content. w1 : 상기 V1 벡터의 중요도를 표시하는 가중치.w 1 : A weight indicating the importance of the V 1 vector. V2 : 상기 동영상 컨텐츠의 조회수, 조회수의 증가 속도, 외부 링크 수 및 외부 링크 수 증가 속도 중 하나 이상을 사용하여 생성되는 벡터.V 2 : A vector generated using at least one of the number of views of the video content, the rate of increase of the number of views, the number of external links, and the rate of increase of the number of external links. w2 : 상기 V2벡터의 중요도를 표시하는 가중치.w 2 : A weight indicating the importance of the V 2 vector. V3 : 상기 동영상 컨텐츠의 조회수, 소비자의 신고 회수 및 신고자의 신뢰도 중 하나 이상을 사용하여 생성되는 벡터.V 3 : A vector generated using at least one of the number of views of the video content, the number of reports of consumers, and the reliability of reporters. w3 : 상기 V3벡터의 중요도를 표시하는 가중치.w 3 : Weight indicating the importance of the V 3 vector. 동영상 컨텐츠에서 추출된 하나 이상의 이미지를 병합하여 요약 이미지를 생성하는 영상 요약 서버; 및 An image summary server for generating a summary image by merging one or more images extracted from the video content; And 상기 요약 이미지에서 추출된 시각적 정보를 분석하여 유해 동영상을 검출하는 필터링 서버를 포함하는 것을 특징으로 하는 유해 동영상 차단을 위한 필터링 관리자.And a filtering server that detects harmful videos by analyzing the visual information extracted from the summary image. 제 6항에 있어서,The method of claim 6, 상기 동영상 컨텐츠는, 상기 동영상 컨텐츠의 유해성을 표시하는 정보를 포함하며, The video content includes information indicating the harmfulness of the video content, 상기 필터링 서버는, 상기 유해성을 표시하는 정보를 사용하여 유해 동영상 을 검출하는 것을 특징으로 하는 유해 동영상 차단을 위한 필터링 관리자.The filtering server is a filtering manager for blocking harmful videos, characterized in that for detecting harmful videos using the information indicating the harmfulness. 제 6항에 있어서,The method of claim 6, 상기 영상 요약 서버는, The video summary server, 상기 동영상 컨텐츠의 각 샷(shot)으로부터 추출된 하나 이상의 이미지를 병합하여 상기 요약 이미지를 생성하는 것을 특징으로 하는 유해 동영상 차단을 위한 필터링 관리자. And filtering one or more images extracted from each shot of the video content to generate the summary image. 제 6항에 있어서,The method of claim 6, 상기 필터링 서버는, The filtering server, 상기 요약 이미지에서 추출된 MPEG-7 표준 시각 기술자(visual descriptor)를 포함하는 시각적 정보의 값을 미리 설정된 값과 비교하여 유해 동영상을 검출하는 것을 특징으로 하는 유해 동영상 차단을 위한 필터링 관리자.And filtering harmful video by comparing the value of visual information including the MPEG-7 standard visual descriptor extracted from the summary image with a preset value. 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 수신하는 평가 수집부;An evaluation collector which receives response information of a consumer watching the video content; 수신된 상기 소비자 반응 정보를 사용하여 상기 동영상 컨텐츠의 유해성 정도를 표시하는 평가 벡터를 산출하는 벡터 산출부; 및A vector calculator configured to calculate an evaluation vector indicating a degree of harmfulness of the video content by using the received consumer response information; And 상기 평가 벡터의 값을 미리 설정된 값과 비교하여 유해 동영상을 검출하는 유해 동영상 검출부를 포함하는 것을 특징으로 하는 유해 동영상 차단을 위한 평가 분석 서버.And a harmful video detection unit configured to detect a harmful video by comparing the value of the evaluation vector with a preset value. 제 10항에 있어서,The method of claim 10, 상기 평가 벡터는, 하기 수학식으로 표현되는 것을 특징으로 하는 유해 동영상 차단을 위한 평가 분석 서버.The evaluation vector is an evaluation analysis server for blocking harmful videos, characterized in that represented by the following equation. V = {w1*V1, w2*V2, w3*V3}V = (w 1 * V 1 , w 2 * V 2 , w 3 * V 3 } V : 상기 평가 벡터V: the evaluation vector V1 : 상기 동영상 컨텐츠의 제공자의 신뢰도 및 상기 동영상 컨텐츠의 게시 시점 중 하나 이상을 사용하여 생성되는 벡터.V 1 : A vector generated using at least one of a reliability of a provider of the video content and a posting time of the video content. w1 : 상기 V1 벡터의 중요도를 표시하는 가중치.w 1 : A weight indicating the importance of the V 1 vector. V2 : 상기 동영상 컨텐츠의 조회수, 조회수의 증가 속도, 외부 링크 수 및 외부 링크 수 증가 속도 중 하나 이상을 사용하여 생성되는 벡터.V 2 : A vector generated using at least one of the number of views of the video content, the rate of increase of the number of views, the number of external links, and the rate of increase of the number of external links. w2 : 상기 V2벡터의 중요도를 표시하는 가중치.w 2 : A weight indicating the importance of the V 2 vector. V3 : 상기 동영상 컨텐츠의 조회수, 소비자의 신고 회수 및 신고자의 신뢰도 중 하나 이상을 사용하여 생성되는 벡터.V 3 : A vector generated using at least one of the number of views of the video content, the number of reports of consumers, and the reliability of reporters. w3 : 상기 V3벡터의 중요도를 표시하는 가중치.w 3 : Weight indicating the importance of the V 3 vector. 필터링 관리자에서 동영상 컨텐츠로부터 추출된 이미지를 병합하여 요약 이미지를 생성하고, 상기 요약 이미지를 분석하여 유해 동영상을 검출하는 단계; 및Merging the images extracted from the video content in the filtering manager to generate a summary image, and analyzing the summary image to detect a harmful video; And 상기 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 평가 분석 서버에서 분석하여 유해 동영상을 검출하고, 유해 동영상에 해당하는 상기 동영상 컨텐츠의 정보를 상기 필터링 관리자에 전송하는 단계를 포함하는 것을 특징으로 하는 유해 동영상의 다단계 차단 방법.And analyzing the response information of the consumer watching the video content in an evaluation analysis server to detect the harmful video, and transmitting the information of the video content corresponding to the harmful video to the filtering manager. Multi-step blocking method. 제 12항에 있어서,The method of claim 12, 상기 동영상 컨텐츠는, 상기 동영상 컨텐츠의 유해성을 표시하는 정보를 포함하며, The video content includes information indicating the harmfulness of the video content, 상기 유해 동영상을 검출하는 단계는, 상기 유해성을 표시하는 정보를 사용하여 유해 동영상을 검출하는 단계를 포함하는 것을 특징으로 하는 유해 동영상의 다단계 차단 방법.The detecting of the harmful video comprises: detecting the harmful video using the information indicating the harmfulness. 제 12항에 있어서,The method of claim 12, 상기 유해 동영상을 검출하는 단계는,Detecting the harmful video, 상기 동영상 컨텐츠의 각 샷(shot)으로부터 추출된 하나 이상의 이미지를 병합하여 상기 요약 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 유해 동영상의 다단계 차단 방법.And generating the summary image by merging one or more images extracted from each shot of the video content. 제 12항에 있어서,The method of claim 12, 상기 필터링 관리자에 전송하는 단계는,The step of transmitting to the filtering manager, 상기 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 사용하여 생성된 평가 벡터의 값을 미리 설정된 값과 비교하여 유해 동영상을 검출하는 단계를 포함하는 것을 특징으로 하는 유해 동영상의 다단계 차단 방법. And detecting the harmful video by comparing the value of the evaluation vector generated by using the response information of the consumer watching the video content with a preset value. 제 15항에 있어서,The method of claim 15, 상기 평가 벡터는, 하기 수학식으로 표현되는 것을 특징으로 하는 유해 동영상의 다단계 차단 방법.The evaluation vector is a multi-step blocking method of the harmful video, characterized in that represented by the following equation. V = {w1*V1, w2*V2, w3*V3}V = (w 1 * V 1 , w 2 * V 2 , w 3 * V 3 } V : 상기 평가 벡터V: the evaluation vector V1 : 상기 동영상 컨텐츠의 제공자의 신뢰도 및 상기 동영상 컨텐츠의 게시 시점 중 하나 이상을 사용하여 생성되는 벡터.V 1 : A vector generated using at least one of a reliability of a provider of the video content and a posting time of the video content. w1 : 상기 V1 벡터의 중요도를 표시하는 가중치.w 1 : A weight indicating the importance of the V 1 vector. V2 : 상기 동영상 컨텐츠의 조회수, 조회수의 증가 속도, 외부 링크 수 및 외부 링크 수 증가 속도 중 하나 이상을 사용하여 생성되는 벡터.V 2 : A vector generated using at least one of the number of views of the video content, the rate of increase of the number of views, the number of external links, and the rate of increase of the number of external links. w2 : 상기 V2벡터의 중요도를 표시하는 가중치.w 2 : A weight indicating the importance of the V 2 vector. V3 : 상기 동영상 컨텐츠의 조회수, 소비자의 신고 회수 및 신고자의 신뢰도 중 하나 이상을 사용하여 생성되는 벡터.V 3 : A vector generated using at least one of the number of views of the video content, the number of reports of consumers, and the reliability of reporters. w3 : 상기 V3벡터의 중요도를 표시하는 가중치.w 3 : Weight indicating the importance of the V 3 vector. 동영상 컨텐츠에서 추출된 하나 이상의 이미지를 병합하여 요약 이미지를 생성하는 단계; 및 Generating a summary image by merging one or more images extracted from the moving image content; And 상기 요약 이미지에서 추출된 시각적 정보를 분석하여 유해 동영상을 검출하는 단계를 포함하는 것을 특징으로 하는 유해 동영상의 다단계 차단 방법.And detecting the harmful video by analyzing the visual information extracted from the summary image. 제 17항에 있어서,The method of claim 17, 상기 동영상 컨텐츠는, 상기 동영상 컨텐츠의 유해성을 표시하는 정보를 포함하며, The video content includes information indicating the harmfulness of the video content, 상기 유해 동영상을 검출하는 단계는, 상기 유해성을 표시하는 정보를 사용하여 유해 동영상을 검출하는 단계를 포함하는 것을 특징으로 하는 유해 동영상의 다단계 차단 방법.The detecting of the harmful video comprises: detecting the harmful video using the information indicating the harmfulness. 제 17항에 있어서,The method of claim 17, 상기 요약 이미지를 생성하는 단계는, Generating the summary image, 상기 동영상 컨텐츠의 각 샷(shot)으로부터 추출된 하나 이상의 이미지를 병합하여 상기 요약 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 유해 동영상의 다단계 차단 방법. And generating the summary image by merging one or more images extracted from each shot of the video content. 제 17항에 있어서,The method of claim 17, 상기 유해 동영상을 검출하는 단계는,Detecting the harmful video, 상기 요약 이미지에서 추출된 MPEG-7 표준 시각 기술자(visual descriptor)를 포함하는 시각적 정보를 미리 설정된 값과 비교하여 유해 동영상을 검출하는 단계를 포함하는 것을 특징으로 하는 유해 동영상의 다단계 차단 방법.And detecting harmful video by comparing visual information including the MPEG-7 standard visual descriptor extracted from the summary image with a preset value. 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 수신하는 단계;Receiving response information of a consumer watching the video content; 수신된 상기 소비자 반응 정보를 사용하여 상기 동영상 컨텐츠의 유해성 정도를 표시하는 평가 벡터를 산출하는 단계; 및Calculating an evaluation vector indicating a degree of harmfulness of the video content by using the received consumer response information; And 상기 평가 벡터의 값을 미리 설정된 값과 비교하여 유해 동영상을 검출하는 단계를 포함하는 것을 특징으로 하는 유해 동영상의 다단계 차단 방법.And detecting the harmful video by comparing the value of the evaluation vector with a preset value. 제 21항에 있어서,The method of claim 21, 상기 평가 벡터는, 하기 수학식으로 표현되는 것을 특징으로 하는 유해 동영상의 다단계 차단 방법.The evaluation vector is a multi-step blocking method of the harmful video, characterized in that represented by the following equation. V = {w1*V1, w2*V2, w3*V3}V = (w 1 * V 1 , w 2 * V 2 , w 3 * V 3 } V : 상기 평가 벡터V: the evaluation vector V1 : 상기 동영상 컨텐츠의 제공자의 신뢰도 및 상기 동영상 컨텐츠의 게시 시점 중 하나 이상을 사용하여 생성되는 벡터.V 1 : A vector generated using at least one of a reliability of a provider of the video content and a posting time of the video content. w1 : 상기 V1 벡터의 중요도를 표시하는 가중치.w 1 : A weight indicating the importance of the V 1 vector. V2 : 상기 동영상 컨텐츠의 조회수, 조회수의 증가 속도, 외부 링크 수 및 외부 링크 수 증가 속도 중 하나 이상을 사용하여 생성되는 벡터.V 2 : A vector generated using at least one of the number of views of the video content, the rate of increase of the number of views, the number of external links, and the rate of increase of the number of external links. w2 : 상기 V2벡터의 중요도를 표시하는 가중치.w 2 : A weight indicating the importance of the V 2 vector. V3 : 상기 동영상 컨텐츠의 조회수, 소비자의 신고 회수 및 신고자의 신뢰도 중 하나 이상을 사용하여 생성되는 벡터.V 3 : A vector generated using at least one of the number of views of the video content, the number of reports of consumers, and the reliability of reporters. w3 : 상기 V3벡터의 중요도를 표시하는 가중치.w 3 : Weight indicating the importance of the V 3 vector.
KR1020070069700A 2007-07-11 2007-07-11 System and Method for Multi-stage Filtering of Malicious Videos in Video Distribution Environment KR100907172B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070069700A KR100907172B1 (en) 2007-07-11 2007-07-11 System and Method for Multi-stage Filtering of Malicious Videos in Video Distribution Environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070069700A KR100907172B1 (en) 2007-07-11 2007-07-11 System and Method for Multi-stage Filtering of Malicious Videos in Video Distribution Environment

Publications (2)

Publication Number Publication Date
KR20090006397A true KR20090006397A (en) 2009-01-15
KR100907172B1 KR100907172B1 (en) 2009-07-09

Family

ID=40487618

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070069700A KR100907172B1 (en) 2007-07-11 2007-07-11 System and Method for Multi-stage Filtering of Malicious Videos in Video Distribution Environment

Country Status (1)

Country Link
KR (1) KR100907172B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102009029B1 (en) * 2019-06-21 2019-08-09 주식회사 코드라인 A contents filtering system for comparative analysis of feature information
KR20190140599A (en) * 2018-06-12 2019-12-20 엔에이치엔 주식회사 Method and system for filtering user channel contents by a business producer
KR20220024339A (en) * 2020-03-13 2022-03-03 주식회사 하이퍼커넥트 Report evaluation device and operating method thereof
KR20220108915A (en) * 2021-01-28 2022-08-04 김민석 Real-time harmfulness inspection apparatus and method for video content
KR102465368B1 (en) * 2021-11-16 2022-11-11 김민석 Image processing apparatus and method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100468870B1 (en) * 2002-08-13 2005-01-29 삼성테크윈 주식회사 Lens barrel assembly
KR102213373B1 (en) 2020-06-16 2021-02-08 김민석 Apparatus and method for blocking harmful contents using metadata
KR102225100B1 (en) 2020-10-29 2021-03-09 주식회사 지란지교데이터 Method and apparatus for blocking obscene images based on DNA using artificial intelligence
KR102536659B1 (en) * 2021-09-06 2023-05-26 (주)피플인넷 Method for blocking harmful sites based on client
KR102574353B1 (en) 2021-11-10 2023-09-01 광운대학교 산학협력단 Device Resource-based Adaptive Frame Extraction and Streaming Control System and method for Blocking Obscene Videos in Mobile devices

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020027702A (en) * 2000-10-04 2002-04-15 김형준 Method for intercepting the harmfulness site connection on the Internet
KR20030004475A (en) * 2001-07-05 2003-01-15 (주)타잔테크놀로지 System to cut children off from harmfum Internet sites and to search the Internet sites
AU2003283771A1 (en) * 2002-12-18 2004-07-09 Koninklijke Philips Electronics N.V. Method of compensating for the effect of undersirable attributes on the measurement of desirable attributes for objective image quality
KR100687732B1 (en) * 2005-11-24 2007-02-27 한국전자통신연구원 Method for filtering malicious video using content-based multi-modal features and apparatus thereof

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190140599A (en) * 2018-06-12 2019-12-20 엔에이치엔 주식회사 Method and system for filtering user channel contents by a business producer
KR102009029B1 (en) * 2019-06-21 2019-08-09 주식회사 코드라인 A contents filtering system for comparative analysis of feature information
KR20220024339A (en) * 2020-03-13 2022-03-03 주식회사 하이퍼커넥트 Report evaluation device and operating method thereof
US11677904B2 (en) 2020-03-13 2023-06-13 Hyperconnect Inc. Report evaluation device and operation method thereof
KR20220108915A (en) * 2021-01-28 2022-08-04 김민석 Real-time harmfulness inspection apparatus and method for video content
WO2022164235A1 (en) * 2021-01-28 2022-08-04 김민석 Device and method for inspecting harmfulness of video content in real time
KR102465368B1 (en) * 2021-11-16 2022-11-11 김민석 Image processing apparatus and method

Also Published As

Publication number Publication date
KR100907172B1 (en) 2009-07-09

Similar Documents

Publication Publication Date Title
KR100907172B1 (en) System and Method for Multi-stage Filtering of Malicious Videos in Video Distribution Environment
KR101967086B1 (en) Entity-based temporal segmentation of video streams
US10432562B2 (en) Reducing photo-tagging spam
US9473448B2 (en) System for social media tag extraction
CN103544430B (en) Operation environment safety method and electronic operation system
CN102236796B (en) Method and system for sorting defective contents of digital video
WO2017000716A2 (en) Image management method and device, and terminal device
US20150086067A1 (en) Methods for scene based video watermarking and devices thereof
JP2010067274A (en) Mmr system and method
US11526586B2 (en) Copyright detection in videos based on channel context
JP2010250556A (en) Apparatus and method for processing image, and program
CN112434178A (en) Image classification method and device, electronic equipment and storage medium
CN114626024A (en) Internet infringement video low-consumption detection method and system based on block chain
CN110895811B (en) Image tampering detection method and device
CN112202849A (en) Content distribution method, content distribution device, electronic equipment and computer-readable storage medium
CN111581258A (en) Safety data analysis method, device, system, equipment and storage medium
CN113391867B (en) Big data service processing method and service server based on digitization and visualization
CN111160410A (en) Object detection method and device
US11527091B2 (en) Analyzing apparatus, control method, and program
KR100930529B1 (en) Harmful video screening system and method through video identification
CN111914649A (en) Face recognition method and device, electronic equipment and storage medium
CN113888760B (en) Method, device, equipment and medium for monitoring violation information based on software application
US9626567B2 (en) Automated video campaign building
CN117671440A (en) Abnormal portrait file detection method and system
KR102114136B1 (en) method of providing object sequence management for compressed video by use of blockchain of motion vectors

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130620

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140619

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150622

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160629

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180628

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190701

Year of fee payment: 11