KR100907172B1 - System and Method for Multi-stage Filtering of Malicious Videos in Video Distribution Environment - Google Patents
System and Method for Multi-stage Filtering of Malicious Videos in Video Distribution Environment Download PDFInfo
- Publication number
- KR100907172B1 KR100907172B1 KR1020070069700A KR20070069700A KR100907172B1 KR 100907172 B1 KR100907172 B1 KR 100907172B1 KR 1020070069700 A KR1020070069700 A KR 1020070069700A KR 20070069700 A KR20070069700 A KR 20070069700A KR 100907172 B1 KR100907172 B1 KR 100907172B1
- Authority
- KR
- South Korea
- Prior art keywords
- video
- video content
- harmful
- vector
- content
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/454—Content or additional data filtering, e.g. blocking advertisements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4667—Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
동영상 컨텐츠에서 추출된 이미지를 병합하여 요약 이미지를 생성하고, 상기 요약 이미지를 분석하여 유해 동영상을 검출하는 필터링 관리자; 및 상기 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 분석하여 유해 동영상을 검출하고, 유해 동영상에 해당하는 상기 동영상 컨텐츠의 정보를 상기 필터링 관리자에 전송하는 평가 분석 서버를 포함하는 것을 특징으로 하는 유해 동영상의 다단계 차단 시스템이 개시된다. 본 발명에 따른 유해 동영상의 다단계 차단 시스템 및 방법을 사용하여, 동영상의 제작, 유통 및 소비 과정 전반에 걸쳐 유해 동영상을 효율적으로 차단할 수 있으며, 피드백을 통하여 앞 단계에서 검출되지 않은 유해 동영상을 검출하는 것이 가능하다. 또한, 동영상의 내용에 기반한 필터링 방법을 사용하므로 UCC 등의 동영상에 있어서도 효율적으로 유해 동영상을 차단할 수 있는 이점이 있다.A filtering manager which merges the images extracted from the video content to generate a summary image and analyzes the summary image to detect a harmful video; And an evaluation analysis server analyzing the reaction information of the consumer watching the video content to detect the harmful video, and transmitting the information of the video content corresponding to the harmful video to the filtering manager. A multilevel cutoff system is disclosed. By using the multi-level blocking system and method of the harmful video according to the present invention, it is possible to effectively block the harmful video throughout the production, distribution and consumption of the video, and to detect the harmful video not detected in the previous step through the feedback It is possible. In addition, since the filtering method based on the content of the video is used, there is an advantage that the harmful video can be efficiently blocked even in a video such as UCC.
필터링, 동영상, 컨텐츠, 유해, 음란 Filtering, video, content, harmful, obscene
Description
본 발명은 동영상 유통 환경에서 유해 동영상의 다단계 차단 시스템 및 방법에 관한 것으로, 동영상의 제작, 유통 및 소비의 각 단계에서 유해 동영상을 차단하고 각 단계에서의 차단 결과를 사용하여 피드백(feedback)을 수행하며, 동영상의 내용에 기반한 필터링을 사용하여 유해 동영상을 효율적으로 차단할 수 있는 유해 동영상의 다단계 차단 시스템 및 방법에 관한 것이다.The present invention relates to a multi-level blocking system and method for harmful videos in a video distribution environment, and to block harmful videos at each stage of production, distribution, and consumption of a video, and to perform feedback using the blocking results at each stage. In addition, the present invention relates to a multi-level blocking system and method for harmful video that can effectively block harmful video using filtering based on the content of the video.
인터넷 필터링(filtering) 기술 분야는 최근 인터넷 보급의 확산과 더불어 급성장하고 있는 산업 기술 중 한 분야이다. 인터넷이 보급되고 이용률이 증가함에 따라 기업, 학교 및 가정에서 생산성은 향상되었지만 불건전한 내용 및 비(非)업무 내용의 보급이 인터넷의 단점으로 인식되고 있다. 특히 확산된 인터넷 망을 통하여 청소년들이 무분별하게 유해/음란 컨텐츠를 접하는 것이 더욱 간단해져, 유해 인터넷 컨텐츠를 차단하기 위한 방법의 마련이 필요하다.The Internet filtering technology field is one of the rapidly growing industrial technologies with the recent spread of the Internet. As the Internet spreads and the usage rate increases, productivity improves in corporations, schools and homes, but dissemination of unhealthy and non-business content is recognized as a disadvantage of the Internet. In particular, it is simpler for adolescents to access harmful / obscene content indiscriminately through a spread internet network, and a method for blocking harmful Internet content needs to be prepared.
유해 컨텐츠 중 가장 큰 비중을 차지하는 매체는 동영상으로, 동영상 형태의 유해 컨텐츠를 차단하는 기술 개발이 필수적이다. 동영상 등의 유해 컨텐츠를 차단하기 위하여 현재 사용되고 있는 기술로, 인터넷을 통하여 동영상을 사용자 단말로 다운로드 할 때에 사용자 단말에서 동영상의 유해성을 판단하여 차단하는 기술이 있다. 그러나 이 경우 사용자 단말에 유해 동영상 차단을 위한 별도의 소프트웨어를 설치하여야 하므로 소프트웨어가 설치된 일부 단말에서만 유해 컨텐츠 차단이 가능하고, 유해성 판단 알고리즘이 충분히 개발되어 있지 않아 차단이 실패할 경우 이에 대한 처리가 불가능한 단점이 있다.The media that occupy the largest proportion of harmful content is video, and it is essential to develop technology to block harmful content in the form of video. As a technology currently used to block harmful content such as a video, there is a technology that determines the harmfulness of a video from the user terminal when the video is downloaded to the user terminal through the Internet. However, in this case, since additional software must be installed on the user's terminal to block harmful video, harmful content can be blocked only on some terminals where the software is installed. There are disadvantages.
유해 컨텐츠 차단을 위한 다른 기술로써, 유해 동영상 또는 유해 컨텐츠를 제공하는 웹사이트를 목록화하여 차단하는 방식이 있다. 그러나 이 경우 유해 동영상 또는 웹사이트에 대한 지속적인 목록화 작업이 필요하므로 실효성이 떨어지고, UCC 등과 같이 실시간으로 등록, 유통 및 소비되는 컨텐츠에 대해서는 효율적으로 차단하기 어렵다.As another technology for blocking harmful content, there is a method of blocking and blocking websites that provide harmful video or harmful content. However, in this case, since continuous cataloging of harmful videos or websites is required, its effectiveness is low, and it is difficult to effectively block contents registered, distributed, and consumed in real time such as UCC.
유해 컨텐츠를 차단하기 위한 또 다른 기술로서, 이미지의 색, 형태 및 음성 정보 등 유통되고 있는 동영상 자체의 내용상 특징을 이용하여 유해 컨텐츠를 판별하여 차단하는 기술이 있다. 이는 현재의 기술 수준으로 달성 가능한 최선의 유해 컨텐츠 차단 방법이지만, 아직까지 유해 컨텐츠 판별 알고리즘이 충분히 개발되어 있지 않아 유해 컨텐츠 판별에 오차가 많이 일어나는데 이에 대한 처리가 불가능하다. 특히, 유해 컨텐츠 차단 시스템의 경우, 수 많은 컨텐츠 중에서 하나라도 차단에 실패하여 대중에 유포되면 큰 문제가 되기 때문에 그 처리에 더욱 신중을 기할 필요가 있다.As another technique for blocking harmful contents, there is a technique for identifying and blocking harmful contents by using characteristics of the contents of the moving image itself, such as image color, shape, and voice information. This is the best harmful content blocking method that can be achieved by the current technology level, but since harmful content identification algorithm has not been developed enough, errors occur in harmful content identification. In particular, in the case of harmful content blocking system, if any one of a large number of contents fails to block and spread to the public, it is a big problem, so it is necessary to be more careful in its processing.
전술한 종래 기술의 문제점을 해결하기 위한 본 발명은, 동영상의 제작, 유통 및 소비의 각 단계에서 유해 동영상을 차단함으로써 유해 동영상의 확산을 막을 수 있으며, 유해 동영상 차단을 위한 각 단계의 필터링 결과를 피드백하여 특정 단계에서 차단에 실패한 경우에도 유해 동영상을 사후적으로 차단할 수 있는 유해 동영상의 다단계 차단 시스템 및 방법을 제공하는 것을 목적으로 한다.The present invention for solving the above problems of the prior art, can prevent the spread of the harmful video by blocking the harmful video at each stage of the production, distribution and consumption of the video, the filtering result of each step for blocking the harmful video It is an object of the present invention to provide a multi-stage blocking system and method for harmful videos that can block harmful videos after the fact that the blocking fails in a specific step.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 유해 동영상의 다단계 차단 시스템은, 동영상 컨텐츠에서 추출된 이미지를 병합하여 요약 이미지를 생성하고, 상기 요약 이미지를 분석하여 유해 동영상을 검출하는 필터링 관리자; 및 상기 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 분석하여 유해 동영상을 검출하고, 유해 동영상에 해당하는 상기 동영상 컨텐츠의 정보를 상기 필터링 관리자에 전송하는 평가 분석 서버를 포함하여 구성될 수 있다.Multi-level blocking system of the harmful video according to an embodiment of the present invention for achieving the above object, a filtering manager for generating a summary image by merging the images extracted from the video content, and analyzing the summary image to detect the harmful video ; And an evaluation analysis server analyzing the reaction information of the consumer watching the video content to detect the harmful video and transmitting the information of the video content corresponding to the harmful video to the filtering manager.
본 발명의 일 실시예에 따른 유해 동영상 차단을 위한 필터링 관리자는, 동영상 컨텐츠에서 추출된 하나 이상의 이미지를 병합하여 요약 이미지를 생성하는 영상 요약 서버; 및 상기 요약 이미지에서 추출된 시각적 정보를 분석하여 유해 동영상을 검출하는 필터링 서버를 포함하여 구성될 수 있다.Filtering manager for blocking harmful video according to an embodiment of the present invention, Video summary server for generating a summary image by merging one or more images extracted from the video content; And a filtering server that detects a harmful video by analyzing visual information extracted from the summary image.
본 발명의 일 실시예에 따른 유해 동영상 차단을 위한 평가 분석 서버는, 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 수신하는 평가 수집부; 수신된 상기 소비자 반응 정보를 사용하여 상기 동영상 컨텐츠의 유해성 정도를 표시하는 평가 벡터를 산출하는 벡터 산출부; 및 상기 평가 벡터의 값을 미리 설정된 값과 비교하여 유해 동영상을 검출하는 유해 동영상 검출부를 포함하여 구성될 수 있다.Evaluation analysis server for blocking harmful video according to an embodiment of the present invention, the evaluation collection unit for receiving the response information of the consumer watching the video content; A vector calculator configured to calculate an evaluation vector indicating a degree of harmfulness of the video content by using the received consumer response information; And a harmful video detection unit which detects a harmful video by comparing the value of the evaluation vector with a preset value.
본 발명의 일 실시예에 따른 유해 동영상의 다단계 차단 방법은, 필터링 관리자에서 동영상 컨텐츠로부터 추출된 이미지를 병합하여 요약 이미지를 생성하고, 상기 요약 이미지를 분석하여 유해 동영상을 검출하는 단계; 및 상기 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 평가 분석 서버에서 분석하여 유해 동영상을 검출하고, 유해 동영상에 해당하는 상기 동영상 컨텐츠의 정보를 상기 필터링 관리자에 전송하는 단계를 포함하여 구성될 수 있다.Multi-step blocking method of the harmful video according to an embodiment of the present invention, the filtering manager merges the image extracted from the video content to generate a summary image, and analyzing the summary image to detect the harmful video; And analyzing the response information of the consumer watching the video content in an evaluation analysis server to detect a harmful video, and transmitting information of the video content corresponding to the harmful video to the filtering manager.
본 발명의 다른 측면에 따른 유해 동영상의 다단계 차단 방법은, 동영상 컨텐츠에서 추출된 하나 이상의 이미지를 병합하여 요약 이미지를 생성하는 단계; 및 상기 요약 이미지에서 추출된 시각적 정보를 분석하여 유해 동영상을 검출하는 단계를 포함하여 구성될 수 있다.According to another aspect of the present invention, there is provided a multi-level blocking method of a harmful video, the method comprising: generating a summary image by merging one or more images extracted from the video content; And detecting harmful videos by analyzing the visual information extracted from the summary image.
본 발명의 또 다른 측면에 따른 유해 동영상의 다단계 차단 방법은, 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 수신하는 단계; 수신된 상기 소비자 반응 정보를 사용하여 상기 동영상 컨텐츠의 유해성 정도를 표시하는 평가 벡터를 산출하는 단계; 및 상기 평가 벡터의 값을 미리 설정된 값과 비교하여 유해 동영상을 검출하는 단계를 포함하여 구성될 수 있다.According to another aspect of the present invention, there is provided a multi-step blocking method of a harmful video, the method comprising: receiving response information of a consumer watching the video content; Calculating an evaluation vector indicating a degree of harmfulness of the video content by using the received consumer response information; And detecting a harmful video by comparing the value of the evaluation vector with a preset value.
본 발명에 따른 유해 동영상의 다단계 차단 시스템 및 방법을 사용하여, 동 영상 컨텐츠의 제작, 유통 및 소비 과정 전반에 걸쳐 유해 동영상을 효율적으로 차단할 수 있으며, 피드백을 통하여 앞 단계에서의 필터링에서 검출되지 않은 유해 동영상을 검출하는 것이 가능하다. 또한, 동영상의 내용에 기반한 필터링 방법을 사용하므로 UCC 등의 동영상에 있어서도 효율적으로 유해 동영상을 차단할 수 있는 이점이 있다.By using the multi-level blocking system and method of the harmful video according to the present invention, it is possible to effectively block the harmful video throughout the production, distribution, and consumption process of the video content, and it is not detected in the filtering in the previous step through feedback. It is possible to detect harmful videos. In addition, since the filtering method based on the content of the video is used, there is an advantage that the harmful video can be efficiently blocked even in a video such as UCC.
이하에서, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세히 살펴본다.Hereinafter, with reference to the accompanying drawings looks at in detail with respect to the preferred embodiment of the present invention.
도 1은 본 발명의 일 실시예에 따른 유해 동영상의 다단계 차단 시스템의 구성을 도시한 구성도이다. 도시된 바와 같이 상기 실시예에 따른 유해 동영상의 다단계 차단 시스템은, 컨텐츠 제공자(10), 필터링 관리자(30) 및 컨텐츠 소비자(50)를 포함하여 구성되며, 상기 유해 동영상의 다단계 차단 시스템은 각 구성 요소 사이에서 동영상 컨텐츠(1)가 원활하게 전달될 수 있도록 하기 위해 업로드 서버(21), 영상 디코더(22) 및 컨텐츠 데이터베이스(40)를 포함할 수도 있다.1 is a block diagram showing the configuration of a multi-level blocking system of a harmful video according to an embodiment of the present invention. As illustrated, the multi-level blocking system of the harmful video according to the embodiment includes a
도 2는 본 발명의 일 실시예에 따른 유해 동영상의 다단계 차단 방법의 각 단계를 도시한 순서도이다. 상기 실시예에 따른 유해 동영상의 다단계 차단 방법은 동영상 컨텐츠(1)의 제작, 유통 및 소비의 각 단계에서 유해 동영상을 차단하도록 구성된다. 2 is a flowchart illustrating each step of a multi-step blocking method of a harmful video according to an embodiment of the present invention. The multi-step blocking method of the harmful video according to the above embodiment is configured to block the harmful video at each stage of production, distribution and consumption of the video content 1.
제작 단계에서의 유해 동영상 차단Harmful video blocking during production
컨텐츠 제공자(10)는 개인용 컴퓨터(12) 또는 이동 통신 단말기(13)에 저장된 동영상 컨텐츠(1)의 유해성 정도를 표시하는 정보를 생성한다(S201). 본 발명의 일 실시예에서, 컨텐츠 제공자(10)는 메타데이터의 형태로 유해성 등급 정보를 표시할 수도 있다. 메타데이터는 동영상 컨텐츠(1)의 유해 등급을 표시하기에 적절한 임의의 형태로 구성될 수 있으며, 예컨대 19세 이상/미만으로 구분하는 등의 형식으로 구성할 수도 있다. 상기 S201 과정 다음으로, 컨텐츠 제공자(10)는 동영상 컨텐츠(1) 및 동영상 컨텐츠(1)의 유해성 정도를 표시한 메타데이터를 업로드 서버(21)로 전송한다(S202).The
유통 단계에서의 유해 동영상 차단Block harmful videos at distribution
업로드 서버(21)로 전송된 동영상 컨텐츠(1) 및 유해성 등급 정보는 필터링 관리자(30)에서 수신된다. 본 발명의 일 실시예에서, 동영상 컨텐츠(1)가 소정의 형식으로 인코딩 되어 있을 경우 필터링 관리자(30)는 영상 디코더(22)를 통하여 동영상 컨텐츠(1)를 디코딩한 후 디코딩된 동영상을 수신하는 것도 가능하다. The video content 1 and the hazard rating information transmitted to the upload server 21 are received by the
필터링 관리자(30)에서는 필터링 서버(32)에서 동영상 컨텐츠(1)를 분석하여 유해 동영상에 해당되는지 여부를 판단하게 된다. 본 발명의 일 실시예에서, 필터링 서버(32)에 의하여 동영상 컨텐츠(1)의 유해성 여부를 판단하는 작업을 용이하게 하기 위하여, 영상 요약 서버(31)에서는 컨텐츠 제공자(10)에 의하여 S201 과정에서 생성된 메타데이터를 수신하여 확인한다(S203). 메타데이터는 필터링 서 버(32)에서 유해 동영상을 검출하는 과정에서 사용되며, 이는 후술한다.The
필터링 관리자(30)에서 동영상 컨텐츠(1)를 빠른 속도로 분석하기 위해서는 동영상 컨텐츠(1)를 내용에 기반하여 요약하는 작업이 요구된다. 이를 위하여, 필터링 관리자(30)에 포함된 영상 요약 서버(31)에서는 업로드 서버(21)로부터 수신한 동영상 컨텐츠(1)에 대하여 요약 이미지를 생성한다(S204). 생성되는 요약 이미지는 동영상 컨텐츠(1)를 샷(shot) 기준으로 하나 이상의 부분으로 나누고, 각 부분의 대표 프레임의 이미지를 추출하여 병합함으로써 생성된 이미지이다. 샷이란 동영상 컨텐츠(1)에서 내용 상으로 연결성이 있어, 전후의 연결된 프레임의 이미지에 유사성이 있으므로 하나로 묶여질 수 있는 단위를 지칭하는 용어이다. 예컨대, 이전의 프레임과 다음 프레임 사이에서 이미지의 형태, 색상 등이 급진적으로 변화할 경우 두 프레임 사이에서 샷이 구분될 수 있다.In order to rapidly analyze the video content 1 in the
생성된 요약 이미지는 필터링 서버(32)로 전달되며, 필터링 서버(32)에서는 학습 기반(learning-based) 필터링 방식에 의하여 요약 이미지의 유해성 여부를 판단한다(S205). 필터링 서버(32)에서는 요약 이미지에서 유해성 판단에 필요한 정보를 추출한다. 예컨데, 요약 이미지로부터 MPEG-7 표준에 기술된 시각 기술자(visual descriptor) 및 기타 추가적으로 필요한 시각적 정보를 추출하여 요약 이미지의 유해성 여부를 판단할 수 있다. 본 발명의 일 실시예에서, 필터링 서버(32)는 MPEG-7 표준 시각 기술자 중에서 DCD(Dominant Color Descriptor), SCD(Scalable Color Descriptor), CSD(Color Structure Descriptor), EHD(Edge Histogram Descriptor) 및 CTSD(Contour Shape Descriptor)를 사용하며, 추가적으 로 요약 이미지 내에서 피부색의 분포, 유해 노출 부위에 대한 패턴 정보 등의 시각적 정보를 추출하여 사용한다.The generated summary image is transmitted to the
필터링 서버(32)는 전술한 시각 기술자 및 추가적인 시각적 정보 각각을 정규화된 벡터 V1, V2, …, Vn 으로 표현하여, 이를 학습 기반 엔진에 적용한다. 요약 이미지의 벡터화된 시각적 정보를 학습 기반 엔진에 적용함으로써, 요약 이미지에 대한 유해성 정도를 표시하는 계수를 얻을 수 있다. 예컨대, 요약 이미지에서 피부색의 분포를 표시하는 계수 또는 요약 이미지가 노출 부위에 대한 패턴 정보와 일치하는 정도를 표시하는 계수 등을 사용하여 유해성 정도를 표시할 수 있다. 본 발명의 일 실시예에서 유해성 정도 계수는 0부터 100까지의 자연수로 표시될 수도 있으며, 이 경우 0은 유해성이 전혀 없는 경우를 나타내며 100은 완전히 유해한 경우를 나타낸다. The
필터링 서버(32)는 유해성 정도 계수를 사용하여 요약 이미지를 미리 설정된 유해 등급으로 구분할 수 있다. 예컨대, 유해 등급 1 내지 4가 각각 무해, 일반, 의심 및 유해 이미지의 단계 분류를 의미하고, Ik는 요약 이미지, C(Ik)는 유해성 정도 계수, Th1=20, Th2=40, Th3=75라고 할 경우, 필터링 서버(32)는 하기 수학식 1에 의하여 요약 이미지의 유해성의 등급을 구분할 수 있다.The
필터링 서버(32)는 상기 수학식 1에 의해 산출된 유해 등급을 기준으로 하여 미리 설정된 등급 이상에 해당하는 동영상 컨텐츠(1)는 유해 동영상에 해당하는 것으로 판단한다.The
본 발명의 일 실시예에서, 필터링 서버(32)는 모든 동영상 컨텐츠(1)의 요약 이미지를 순차적으로 분석하는 것이 아니라, 유해성이 높을 것으로 의심되는 동영상 컨텐츠(1)를 우선적으로 분석할 수도 있다. 예컨대, 영상 요약 서버(31)에서 컨텐츠 제공자(10)에 의한 메타데이터를 수신하였으므로 필터링 서버(32)에서는 메타데이터에 유해한 것으로 표시되어 있거나 유해성이 높은 것으로 표시된 동영상 컨텐츠(1)에 대하여 우선적으로 유해 등급 분류를 수행할 수도 있다.In one embodiment of the present invention, the
나아가, 하나의 요약 이미지를 분석한 결과 대응하는 동영상 컨텐츠(1)가 유해 동영상으로 분류되면, 필터링 서버(32)는 해당 동영상 컨텐츠(1)에 포함되는 이미지들을 검색 대상에서 제외함으로써 요약 이미지 분석을 더욱 효율적으로 수행할 수도 있다. 또한 후술하는 평가 분석 서버(52)에서 취합된 소비자 평가가 보고되면, 보고 결과에 기초하여 유해성이 높은 것으로 의심되는 소비자가 제공한 동영상 컨텐츠(1)의 요약 이미지에 대하여 우선적으로 분석을 수행하는 것도 가능하다.Furthermore, if the corresponding video content 1 is classified as a harmful video as a result of analyzing one summary image, the
필터링 서버(32)는 전술한 과정에 의하여 요약 이미지를 통해 동영상 컨텐츠(1)의 유해성을 분석하며, 필터링 관리자(30)는 분석 결과 유해하지 않은 동영상으로 판단된 동영상 컨텐츠(1)만이 업로드 서버(21)로부터 컨텐츠 데이터베이스(40)에 전송되어 저장되도록 한다(S206).The
소비 단계에서의 유해 동영상 차단Harmful video blocking at the consumption stage
동영상 컨텐츠(1)를 시청하는 소비자들은 컨텐츠 데이터베이스(40)로부터 소비자 단말기(51)로 동영상 컨텐츠(1)를 다운로드 또는 스트리밍(streaming)하여 동영상을 시청한다(S207). 따라서, 소비자들은 유해성이 없는 동영상 컨텐츠(1)만을 시청하게 된다. 그러나 이 경우에도 필터링 관리자(30)에 의하여 차단되지 않고 유통된 유해 동영상이 존재할 가능성이 있으므로, 소비 단계에서도 컨텐츠 소비자(50)에 의하여 유해 동영상을 차단하는 과정을 수행하게 된다.Consumers watching the video content 1 download or stream the video content 1 from the
소비자들은 소비자 단말기(51)를 통하여 동영상을 시청하며, 시청 도중 유해 동영상을 발견할 경우 평가 분석 서버(52)에 이에 대한 평가를 신고 또는 링크 등의 형태로 남기게 된다. 평가 분석 서버(52)는 컨텐츠에 대한 시청자들의 평가를 취합하고, 이를 분석하여 현재 컨텐츠 데이터베이스(40)에 유해 동영상이 저장되어 소비자들에게 확산되고 있다는 사실을 확인할 수 있다. The consumers watch the video through the
도 3은 본 발명의 일 실시예에 따른 평가 분석 서버(52)를 도시한 블록도이다. 평가 분석 서버(52)는 평가 수집부(521), 벡터 산출부(522) 및 유해 동영상 검출부(523)를 포함한다. 우선, 평가 분석 서버(52)에 포함된 평가 수집부(521)에서 는 동영상 컨텐츠(1)에 대한 소비자들의 조회수, 조회수의 증가 속도, 소비자의 신고 횟수, 컨텐츠 제공자(10)의 신뢰도, 신고자의 신뢰도, 외부 링크 수, 외부 링크 수 증가 속도 및 동영상의 게시 시점 등의 소비자 반응 정보를 수신한다. 3 is a block diagram illustrating an
수신된 정보는 벡터 산출부(522)로 전송되며, 벡터 산출부(522)는 전술한 정보들을 조합하여 하기 수학식 2 내지 수학식 4에 기술되는 3개의 벡터의 값을 생성할 수 있다.The received information is transmitted to the
상기 수학식 2 내지 수학식 4에서 V1 , V2 및 V3는 유해 동영상 검출을 위하여 산출되는 벡터들이며, f1 , f2 및 f3는 각 데이터를 조합하여 상기 벡터값 들을 생성하는 함수들이다. 상기 수학식 2의 V1은 동영상 컨텐츠(1)에 대한 신뢰도를 얻기 위한 함수이며, 상기 수학식 3의 V2는 동영상 컨텐츠(1)에 대한 소비자들의 접근 회수를 계수하기 위한 함수이다. 상기 수학식 4의 V3는 동영상 컨텐츠(1)가 유해 동영상으 로 의심되는 정도를 표시하는 함수이다. 함수 내의 계수나 가중치 등은 벡터 산출부(522)에서 데이터를 조합하는 과정에서 적절히 조절될 수 있다.In Equations 2 to 4, V 1 , V 2 And V 3 are vectors calculated for the detection of harmful video, f 1 , f 2 And f 3 are functions of combining the respective data to generate the vector values. V 1 of Equation 2 is a function for obtaining the reliability of the video content (1), V 2 of the equation (3) is a function for counting the number of times of access to the consumer to the video content (1). V 3 of Equation 4 is a function for displaying the degree to which the video content (1) is suspected to be harmful video. Coefficients, weights, and the like within the function may be appropriately adjusted in the process of combining data in the
벡터 산출부(52)에서는 전술한 수학식들에 의하여 구한 벡터 V1 , V2 및 V3에 각각의 가중치 w1, w2 및 w3를 적용하여 3차원 평가 벡터 V를 하기 수학식 5에 의하여 산출한다. 가중치 w1, w2 및 w3는 각 벡터의 중요도를 표시하기 위한 수치로, 각 벡터의 비중에 따라 적절히 설정될 수 있다.In the
상기 수학식 5에 의하여 평가 산출된 벡터 V는 유통 중인 동영상 컨텐츠(1)의 유해성 여부에 대한 소비자들의 반응 척도로서 기능하며, 유해 동영상 검출부(523)로 전달된다. The vector V evaluated and calculated by Equation 5 functions as a measure of consumer's reaction to the harmfulness of the video content 1 in circulation, and is transmitted to the harmful
유해 동영상 검출부(523)에서는 평가 벡터 V에 대해 학습 기반 엔진을 적용하여, 평가 벡터 V을 미리 설정된 값과 비교하여 평가 벡터의 값이 재검토 필요 영역에 포함될 경우, 대응하는 동영상 컨텐츠(1)가 유해 동영상인 것으로 판단하여 재검토 대상이 되도록 한다. The harmful
재검토 대상인 동영상 컨텐츠(1)가 있음이 확인되면, 유해 동영상 검출부(523)는 이에 대한 정보를 필터링 관리자(30)에 보고한다(S209). 필터링 관리자(30)에서는 유해 동영상 검출부(523)로부터 보고를 수신하며, 대상 동영상 컨텐츠(1)의 유해성을 우선적으로 분석하거나, 또는 이미 분석이 완료된 동영상 컨텐 츠(1)일 경우 다시 유해성 정도를 분석하여 유해 동영상에 해당되는지 여부를 확인한다. 유해 동영상에 해당하는 것으로 확인되는 경우 필터링 관리자(30)는 컨텐츠 데이터베이스(40)에서 해당 동영상 컨텐츠(1)를 삭제하는 등의 조치를 취하여 유해 동영상의 유포를 차단하게 된다. When it is confirmed that there is a video content 1 to be reviewed, the harmful
한편 평가 분석 서버(52)의 벡터 산출부(522)에서는 필터링 관리자(30)에 의한 재검토 결과에 기초하여, 해당 동영상 컨텐츠(1)의 컨텐츠 제공자(10) 및 신고자의 신뢰도를 조정하고, 벡터 V1 , V2 및 V3 등을 산출하는데 필요한 계수나 가중치 등의 값을 조절하도록 한다.On the other hand, the
이상에서 설명된 바와 같이, 동영상의 제작 단계에서 컨텐츠 제공자에 의하여 자체 등급 분류를 표시하도록 하고, 동영상의 유통 단계에서 필터링 관리자가 동영상의 요약 이미지를 통해 동영상이 유해 동영상에 해당되는지 여부를 확인하며, 동영상의 소비 단계에서 소비자 단말기로부터 수신된 평가 또는 신고 등을 수집 및 분석하여 다시 필터링 관리자에게 보고함으로써, 동영상의 제작, 유통 및 소비의 각 단계에서 유해 동영상을 차단하는 것이 가능하다. As described above, at the production stage of the video, the content provider displays its own classification, and at the distribution stage of the video, the filtering manager checks whether the video corresponds to the harmful video through the summary image of the video, By collecting and analyzing the evaluation or report received from the consumer terminal in the consumption phase of the video and reporting it to the filtering manager, it is possible to block the harmful video at each stage of the production, distribution and consumption of the video.
이상 본 발명의 특정 실시예를 도시하고 설명하였으나, 본 발명의 기술사상은 첨부된 도면과 상기한 설명내용에 한정하지 않으며 본 발명의 사상을 벗어나지 않는 범위 내에서 다양한 형태의 변형이 가능함은 이 분야의 통상의 지식을 가진 자에게는 자명한 사실이며, 이러한 형태의 변형은, 본 발명의 정신에 위배되지 않는 범위 내에서 본 발명의 특허청구범위에 속한다고 볼 것이다. While specific embodiments of the present invention have been illustrated and described, the technical spirit of the present invention is not limited to the accompanying drawings and the above description, and various modifications can be made without departing from the spirit of the present invention. It will be apparent to those skilled in the art, and variations of this form will be regarded as belonging to the claims of the present invention without departing from the spirit of the present invention.
본 발명은 동영상 유통 환경에서 유해 동영상의 다단계 차단 시스템 및 방법에 관한 것으로, 동영상의 제작, 유통 및 소비의 각 단계에서 유해 동영상을 차단하고 각 단계에서의 차단 결과를 사용하여 피드백(feedback)을 수행하며, 동영상의 내용에 기반한 필터링을 사용하여 유해 동영상을 효율적으로 차단할 수 있는 유해 동영상의 다단계 차단 시스템 및 방법에 관한 것이다.The present invention relates to a multi-level blocking system and method for harmful videos in a video distribution environment, and to block harmful videos at each stage of production, distribution, and consumption of a video, and to perform feedback using the blocking results at each stage. In addition, the present invention relates to a multi-level blocking system and method for harmful video that can effectively block harmful video using filtering based on the content of the video.
도 1은 본 발명의 일 실시예에 따른 유해 동영상의 다단계 차단 시스템의 구성을 도시한 개략도이다. 1 is a schematic diagram showing the configuration of a multi-level blocking system of a harmful video according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 유해 동영상의 다단계 차단 방법의 각 단계를 도시한 순서도이다.2 is a flowchart illustrating each step of a multi-step blocking method of a harmful video according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 평가 분석 서버를 도시한 블록도이다.3 is a block diagram illustrating an evaluation analysis server according to an embodiment of the present invention.
Claims (22)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070069700A KR100907172B1 (en) | 2007-07-11 | 2007-07-11 | System and Method for Multi-stage Filtering of Malicious Videos in Video Distribution Environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070069700A KR100907172B1 (en) | 2007-07-11 | 2007-07-11 | System and Method for Multi-stage Filtering of Malicious Videos in Video Distribution Environment |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090006397A KR20090006397A (en) | 2009-01-15 |
KR100907172B1 true KR100907172B1 (en) | 2009-07-09 |
Family
ID=40487618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070069700A KR100907172B1 (en) | 2007-07-11 | 2007-07-11 | System and Method for Multi-stage Filtering of Malicious Videos in Video Distribution Environment |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100907172B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100468870B1 (en) * | 2002-08-13 | 2005-01-29 | 삼성테크윈 주식회사 | Lens barrel assembly |
KR102213373B1 (en) | 2020-06-16 | 2021-02-08 | 김민석 | Apparatus and method for blocking harmful contents using metadata |
KR102225100B1 (en) | 2020-10-29 | 2021-03-09 | 주식회사 지란지교데이터 | Method and apparatus for blocking obscene images based on DNA using artificial intelligence |
KR20230035757A (en) * | 2021-09-06 | 2023-03-14 | (주)피플인넷 | Method for blocking harmful sites based on client |
KR20230068207A (en) | 2021-11-10 | 2023-05-17 | 광운대학교 산학협력단 | Device Resource-based Adaptive Frame Extraction and Streaming Control System for Blocking Obscene Videos in Mobile devices |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102072738B1 (en) * | 2018-06-12 | 2020-03-02 | 엔에이치엔 주식회사 | Method and system for filtering user channel contents by a business producer |
KR102009029B1 (en) * | 2019-06-21 | 2019-08-09 | 주식회사 코드라인 | A contents filtering system for comparative analysis of feature information |
KR20210115442A (en) | 2020-03-13 | 2021-09-27 | 주식회사 하이퍼커넥트 | Report evaluation device and operating method thereof |
KR102454230B1 (en) * | 2021-01-28 | 2022-10-14 | 김민석 | Real-time harmfulness inspection apparatus and method for video content |
KR102465368B1 (en) * | 2021-11-16 | 2022-11-11 | 김민석 | Image processing apparatus and method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020027702A (en) * | 2000-10-04 | 2002-04-15 | 김형준 | Method for intercepting the harmfulness site connection on the Internet |
KR20030004475A (en) * | 2001-07-05 | 2003-01-15 | (주)타잔테크놀로지 | System to cut children off from harmfum Internet sites and to search the Internet sites |
KR20050084389A (en) * | 2002-12-18 | 2005-08-26 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Method of compensating for the effect of undersirable attributes on the measurement of desirable attributes for objective image quality |
KR100687732B1 (en) * | 2005-11-24 | 2007-02-27 | 한국전자통신연구원 | Method for filtering malicious video using content-based multi-modal features and apparatus thereof |
-
2007
- 2007-07-11 KR KR1020070069700A patent/KR100907172B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020027702A (en) * | 2000-10-04 | 2002-04-15 | 김형준 | Method for intercepting the harmfulness site connection on the Internet |
KR20030004475A (en) * | 2001-07-05 | 2003-01-15 | (주)타잔테크놀로지 | System to cut children off from harmfum Internet sites and to search the Internet sites |
KR20050084389A (en) * | 2002-12-18 | 2005-08-26 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Method of compensating for the effect of undersirable attributes on the measurement of desirable attributes for objective image quality |
KR100687732B1 (en) * | 2005-11-24 | 2007-02-27 | 한국전자통신연구원 | Method for filtering malicious video using content-based multi-modal features and apparatus thereof |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100468870B1 (en) * | 2002-08-13 | 2005-01-29 | 삼성테크윈 주식회사 | Lens barrel assembly |
KR102213373B1 (en) | 2020-06-16 | 2021-02-08 | 김민석 | Apparatus and method for blocking harmful contents using metadata |
WO2021256755A1 (en) * | 2020-06-16 | 2021-12-23 | 김민석 | Device and method for managing harmful content by using metadata |
KR102225100B1 (en) | 2020-10-29 | 2021-03-09 | 주식회사 지란지교데이터 | Method and apparatus for blocking obscene images based on DNA using artificial intelligence |
KR20230035757A (en) * | 2021-09-06 | 2023-03-14 | (주)피플인넷 | Method for blocking harmful sites based on client |
KR102536659B1 (en) * | 2021-09-06 | 2023-05-26 | (주)피플인넷 | Method for blocking harmful sites based on client |
KR20230068207A (en) | 2021-11-10 | 2023-05-17 | 광운대학교 산학협력단 | Device Resource-based Adaptive Frame Extraction and Streaming Control System for Blocking Obscene Videos in Mobile devices |
Also Published As
Publication number | Publication date |
---|---|
KR20090006397A (en) | 2009-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100907172B1 (en) | System and Method for Multi-stage Filtering of Malicious Videos in Video Distribution Environment | |
US9607224B2 (en) | Entity based temporal segmentation of video streams | |
US8358837B2 (en) | Apparatus and methods for detecting adult videos | |
US20220172476A1 (en) | Video similarity detection method, apparatus, and device | |
KR100687732B1 (en) | Method for filtering malicious video using content-based multi-modal features and apparatus thereof | |
JP5178611B2 (en) | Image processing apparatus, image processing method, and program | |
US8411964B2 (en) | Method and apparatus for analyzing nudity of image using body part detection model, and method and apparatus for managing image database based on nudity and body parts | |
CN112434178B (en) | Image classification method, device, electronic equipment and storage medium | |
CN109165574B (en) | Video detection method and device | |
CN110505513A (en) | Video screenshot method and device, electronic equipment and storage medium | |
KR20190088606A (en) | Video redundancy check system | |
CN111914649A (en) | Face recognition method and device, electronic equipment and storage medium | |
CN114626024A (en) | Internet infringement video low-consumption detection method and system based on block chain | |
CN110895811B (en) | Image tampering detection method and device | |
CN114529784B (en) | Trademark infringement analysis method and system for E-commerce data | |
CN117671440A (en) | Abnormal portrait file detection method and system | |
CN114840286A (en) | Service processing method based on big data and server | |
KR100930529B1 (en) | Harmful video screening system and method through video identification | |
Xue et al. | Performance evaluation of image and video cloud services | |
CN111368128A (en) | Target picture identification method and device and computer readable storage medium | |
US9626567B2 (en) | Automated video campaign building | |
KR101055168B1 (en) | Similar video search system and method | |
CN112784634B (en) | Video information processing method, device and system | |
Parmani et al. | Inter frame video forgery detection using normalized multi scale one level subtraction | |
KR102114136B1 (en) | method of providing object sequence management for compressed video by use of blockchain of motion vectors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130620 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140619 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20150622 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20160629 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20180628 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20190701 Year of fee payment: 11 |