KR102213373B1 - 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법 - Google Patents

메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법 Download PDF

Info

Publication number
KR102213373B1
KR102213373B1 KR1020200072886A KR20200072886A KR102213373B1 KR 102213373 B1 KR102213373 B1 KR 102213373B1 KR 1020200072886 A KR1020200072886 A KR 1020200072886A KR 20200072886 A KR20200072886 A KR 20200072886A KR 102213373 B1 KR102213373 B1 KR 102213373B1
Authority
KR
South Korea
Prior art keywords
content
metadata
harmful
harmfulness
management server
Prior art date
Application number
KR1020200072886A
Other languages
English (en)
Inventor
김민석
Original Assignee
김민석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김민석 filed Critical 김민석
Priority to KR1020200072886A priority Critical patent/KR102213373B1/ko
Application granted granted Critical
Publication of KR102213373B1 publication Critical patent/KR102213373B1/ko
Priority to PCT/KR2021/007068 priority patent/WO2021256755A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region

Abstract

본 발명은 메타데이터를 이용한 유해 컨텐츠 관리 장치에 관한 것으로, 컨텐츠에 대해 유해성 여부를 검사하고 상기 컨텐츠의 메타데이터에 검사결과를 반영하여 관리 서버에 업로드하는 게시자 단말, 상기 게시자 단말이 업로드한 컨텐츠의 메타데이터를 분석하여 유해성을 확인하는 구독자 단말, 및 상기 게시자 단말로부터 업로드 된 컨텐츠를 등록하고 상기 구독자 단말에서 요청한 컨텐츠를 다운로드 또는 스트리밍 제공하는 관리 서버를 포함한다.

Description

메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법 {APPARATUS AND METHOD FOR BLOCKING HARMFUL CONTENTS USING METADATA}
본 발명은 유해 컨텐츠 관리 기술에 관한 것으로, 보다 상세하게는 업로드되는 컨텐츠의 메타데이터에 대해 신뢰성을 확보하여 컨텐츠 재생시 메타데이터를 통해 컨텐츠의 유해성을 확인하고 차단할 수 있는 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법에 관한 것이다.
음란/유해 컨텐츠 수준은 갈수록 심화되고 더욱 자극적인 영상들이 생성되고 있다. 그리고 인터넷 환경이 좋아지면서 유해 컨텐츠를 노출할 수 있는 사용자들 장비 역시 성능이 더 좋아지면서 더욱 고도화된 방식으로 유해 컨텐츠들을 의도적으로 노출하고 있다.
실제 유해 컨텐츠에 노출되면 나타나는 후유증은 상당히 위험하다. 따라서, 유해 컨텐츠로부터 사용자들을 보호하기 위해 유해 컨텐츠를 관리하고 노출되지 않게 처리할 필요가 있다.
한국등록특허 제10-0907172 (2009.07.02)호는 동영상 유통 환경에서 유해 동영상의 다단계 차단 시스템 및 방법에 관한 것으로, 동영상 컨텐츠에서 추출된 이미지를 병합하여 요약 이미지를 생성하고 상기 요약 이미지를 분석하여 유해 동영상을 검출하는 필터링 관리자, 및 상기 동영상 컨텐츠를 시청하는 소비자의 반응 정보를 분석하여 유해 동영상을 검출하고 유해 동영상에 해당하는 상기 동영상 컨텐츠의 정보를 상기 필터링 관리자에 전송하는 평가 분석 서버를 포함하는 것을 특징으로 하여, 동영상의 제작, 유통 및 소비 과정 전반에 걸쳐 유해 동영상을 효율적으로 차단할 수 있으며, 피드백을 통하여 앞 단계에서 검출되지 않은 유해 동영상을 검출하는 것이 가능하고, 또한 동영상의 내용에 기반한 필터링 방법을 사용하므로 UCC 등의 동영상에 있어서도 효율적으로 유해 동영상을 차단할 수 있는 이점이 있다.
한국등록특허 제10-0797600 (2008.01.17)호는 유해 동영상 파일의 이용 제한 방법에 관한 것으로, 인터넷을 통하여 수집되는 각각의 동영상 파일들에 대해 유해성 여부를 검증하여 유해 동영상 파일을 식별할 수 있는 식별자와 메타정보를 추출하여 서버의 DB에 저장하는 유해 동영상 DB 구축단계, 상기 유해 동영상 DB 구축단계에서 구축된 유해 동영상 DB를 사용자 컴퓨터에 전송하는 유해 동영상 DB 전송단계, 사용자 컴퓨터 내의 동영상 파일을 검색하여 상기 유해 동영상 DB와 비교하여 유해 동영상 파일 목록인 블랙리스트를 구축하는 사용자별 블랙리스트 구축 단계, 및 사용자가 사용자 컴퓨터에서 이용하려고 하는 동영상 파일에 대해 상기 사용자별 블랙리스트와 상기 유해 동영상 DB를 순차적으로 검색하여 유해 동영상 파일인 경우 그 이용을 차단하는 유해 동영상 파일 이용 차단 단계를 포함하여 이루어지고, 그리고 상기 유해 동영상 파일을 암호화시켜 사용자 컴퓨터에 저장하는 유해 동영상 파일 암호화 단계를 포함하는 것을 특징으로 하는 유해 동영상 파일의 이용 제한 방법을 제공한다.
한국등록특허 제10-0907172 (2009.07.02) 한국등록특허 제10-0797600 (2008.01.17)호
본 발명의 일 실시예는 업로드되는 컨텐츠의 메타데이터에 대해 신뢰성을 확보하여 컨텐츠 재생시 메타데이터를 통해 컨텐츠의 유해성을 확인하고 차단할 수 있는 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법을 제공하고자 한다.
본 발명의 일 실시예는 컨텐츠를 제작하여 업로드하는 단계에서 컨텐츠에 대해 유해성 여부를 검사하고 메타데이터에 검사결과를 반영하여 업로드함으로써 컨텐츠의 유해 정도를 객관적으로 메타데이터에 표시하여 안전하게 관리 배포할 수 있는 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법을 제공하고자 한다.
본 발명의 일 실시예는 다운로드 또는 스트리밍으로 컨텐츠 재생시 사용자 정보와 해당 컨텐츠의 신뢰성이 확보된 메타데이타를 통해 유해성을 확인할 수 있으며 컨텐츠에 메타데이터가 없거나 메타데이터에 대해 신뢰성 확보가 안된 경우 실시간으로 유해성 여부를 검사하고 유해성이 있다고 판단된 콘텐츠를 차단할 수 있는 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법을 제공하고자 한다.
실시예들 중에서, 메타데이터를 이용한 유해 컨텐츠 관리 장치는 컨텐츠에 대해 유해성 여부를 검사하고 상기 컨텐츠의 메타데이터에 검사결과를 반영하여 관리 서버에 업로드하는 게시자 단말, 상기 게시자 단말이 업로드한 컨텐츠의 메타데이터를 분석하여 유해성을 확인하는 구독자 단말, 및 상기 게시자 단말로부터 업로드 된 컨텐츠를 등록하고 상기 구독자 단말에서 요청한 컨텐츠를 다운로드 또는 스트리밍 제공하는 관리 서버를 포함한다.
상기 게시자 단말은 컨텐츠 입력부, 상기 컨텐츠 입력부에 입력된 컨텐츠의 유해성 여부를 판단하는 유해성 판단부, 상기 컨텐츠 입력부에 입력된 컨텐츠의 메타데이터에 적어도 상기 유해성 판단부에서 판단된 유해 정도에 기초한 상영등급 및 등록 사이트 주소를 추가하여 상기 메타데이터를 재구성하는 메타데이터 재구성부, 및 상기 재구성된 메타데이터와 함께 상기 입력된 컨텐츠의 등록을 상기 관리 서버에 요청하는 컨텐츠 출력부를 포함할 수 있다.
상기 유해성 판단부는 상기 입력된 컨텐츠를 일정 배속으로 재생하여 상기 컨텐츠의 유해성 여부를 판단하고 의심스러운 장면이 있거나 판단이 애매한 경우에 상기 재생 배속을 조절하여 재검사할 수 있다.
상기 메타데이터 재구성부는 상기 유해성 판단에 따른 상기 컨텐츠의 객관적인 상영등급을 결정하고 결정된 상기 상영등급, 게시자의 이메일주소, 아이디, IP 주소, 게시 날짜, 유해성 검사 날짜, 등록한 웹사이트 주소, 저작권 보호 여부 중 적어도 하나 이상을 포함하는 메타 정보를 상기 메타데이터에 추가하여 재구성할 수 있다.
상기 구독자 단말은 상기 관리 서버로부터 다운로드 받은 컨텐츠를 저장하는 컨텐츠 저장부, 상기 관리 서버로부터 스트리밍 되는 컨텐츠의 메타데이터를 분석하여 상기 메타데이터의 신뢰성을 확인하는 메타데이터 분석부, 상기 관리 서버로부터 스트리밍 되는 컨텐츠에 대해 상기 메타데이터 분석부를 통해 상기 메타데이터의 신뢰성이 확인되면 상기 메타데이터와 구독자 정보를 토대로 해당 컨텐츠의 유해성을 판단하고, 상기 메타데이터의 신뢰성이 확인되지 않거나 상기 메타데이터가 없는 스트리밍 되는 상기 컨텐츠 또는 상기 컨텐츠 저장부에 저장된 컨텐츠에 대해 실시간으로 유해성 검사를 통해 유해성 여부를 판단하는 유해성 판단부, 및 상기 컨텐츠 중 유해성 판단 기준을 만족하는 컨텐츠를 표시하는 컨텐츠 표시부를 포함할 수 있다.
상기 메타데이터 분석부는 스트리밍 되는 상기 컨텐츠로부터 메타데이터를 취득하고 취득된 상기 메타데이터에 포함된 해당 컨텐츠의 등록 웹사이트 주소와 스트리밍되는 웹사이트 주소의 일치 여부를 비교하여 상기 메타데이터의 신뢰성을 확인하고, 상기 유해성 판단부는 상기 메타데이터의 신뢰성이 확인되면 상기 메타데이터에 포함된 해당 컨텐츠의 상영등급과 구독자 정보에 의한 시청 가능 등급을 토대로 유해성 컨텐츠를 판단할 수 있다.
상기 유해성 판단부는 유해 URL 리스트를 저장하는 로컬DB를 포함하고 사용자가 요청한 컨텐츠의 URL을 상기 로컬DB에 저장된 유해 URL 리스트와 대조하여 유해 URL 등록 여부를 검사하고, 유해 URL로 등록된 경우에는 상기 컨텐츠 표시부를 통해 URL 검사 결과를 표시하고 상기 컨텐츠를 차단할 수 있다.
실시예들 중에서, 메타데이터를 이용한 유해 컨텐츠 관리 방법은 게시자 단말에서 컨텐츠 업로드 시 컨텐츠의 유해성 검사를 통해 업로드 가능여부를 판단하는 단계, 게시자 단말에서 업로드 가능한 경우 상기 컨텐츠의 유해성 검사 결과를 기초로 메타데이터에 상기 컨텐츠의 유해 정도를 표시하는 상영등급, 게시자의 아이디(ID), IP 주소를 포함한 게시자 정보, 등록 웹사이트 주소를 추가하여 메타데이터를 재구성하고 재구성된 메타데이터와 상기 컨텐츠를 관리 서버에 전송하여 업로드하는 단계, 구독자 단말에서 구독자가 요청한 컨텐츠의 URL 검사를 실시하여 유해 URL 등록 여부를 판단하는 단계, 구독자 단말에서 유해 URL로 등록되지 않은 경우 구독자가 요청한 컨텐츠를 다운로드 받아 저장하거나 스트리밍하는 단계, 스트리밍 중인 컨텐츠에 대해 메타데이터에 포함된 컨텐츠의 등록 웹사이트 주소와 스트리밍 되는 컨텐츠의 웹사이트 주소의 일치 여부를 통해 신뢰성을 확인하고 신뢰성이 있으면 상기 메타데이터에 포함된 상영 등급과 구독자 정보를 토대로 컨텐츠의 유해성을 판단하고, 신뢰성이 없거나 상기 메타데이터가 없으면 상기 컨텐츠의 재생 과정에서 실시간으로 유해성 컨텐츠 검사를 통해 유해성을 판단하는 단계, 및 상기 판단결과 안전 컨텐츠인 경우에 정상적으로 재생하고 유해 컨텐츠인 경우에 재생 중단하거나 가려서 표시하는 단계를 포함한다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법은 업로드되는 컨텐츠의 메타데이터에 대해 신뢰성을 확보하여 컨텐츠 재생시 메타데이터를 통해 컨텐츠의 유해성을 확인하고 차단할 수 있다.
본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법은 컨텐츠를 제작하여 업로드하는 단계에서 컨텐츠에 대해 유해성 여부를 검사하고 메타데이터에 검사결과를 반영하여 업로드함으로써 컨텐츠의 메타데이터에 대해 객관성 및 신뢰성을 확보할 수 있고 이를 활용하여 유해 컨텐츠를 효과적으로 차단할 수 있다.
본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법은 다운로드 또는 스트리밍으로 컨텐츠 재생시 사용자 정보와 해당 컨텐츠의 신뢰성이 확보된 메타데이타를 통해 유해성을 확인할 수 있으며 컨텐츠에 메타데이터가 없거나 메타데이터에 대해 신뢰성 확보가 안된 경우 실시간으로 유해성 여부를 검사하고 유해성이 있다고 판단된 콘텐츠를 차단할 수 있다.
도 1은 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치를 개략적으로 도시한 구성도이다.
도 2는 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치의 게시자 단말의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치의 구독자 단말의 구성을 도시한 블록도이다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치의 구동 과정을 도시한 순서도이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치를 개략적으로 도시한 구성도이다.
도 1을 참조하면, 메타데이터를 이용한 유해 컨텐츠 관리 장치(100)는 게시자 단말(110), 구독자 단말(130), 관리 서버(150) 및 데이터베이스(170)를 포함할 수 있다.
게시자 단말(110)은 온라인 게시판 등에 새로운 글, 이미지 또는 동영상 등의 컨텐츠를 업로드하는 컴퓨팅 장치에 해당할 수 있고, 구독자 단말(130)은 게시자 단말(110)에 의해 업로드 된 다양한 컨텐츠들을 온라인 혹은 오프라인 상태에서 재생하여 구독할 수 있는 컴퓨팅 장치에 해당할 수 있다. 게시자 단말(110) 및 구독자 단말(130)은 스마트폰, 노트북 또는 컴퓨터로 구현될 수 있으며, 반드시 이에 한정되지 않고, 태블릿 PC 등 다양한 디바이스로도 구현될 수 있다. 게시자 단말(110) 및 구독자 단말(130)은 관리 서버(150)와 네트워크를 통해 연결될 수 있고, 복수의 게시자 단말(110)들 및 복수의 구독자 단말(130)들과 동시에 연결될 수 있다.
관리 서버(150)는 게시자 단말(110) 및 구독자 단말(130) 각각에서 컨텐츠의 유해성 검사가 이루어지도록 유해성 판단 프로그램을 제공할 수 있다. 관리 서버(150)는 게시자 단말(110) 및 구독자 단말(130)과 유선 네트워크 또는 블루투스, WiFi 등과 같은 무선 네트워크로 연결될 수 있고, 유선 또는 무선 네트워크를 통해 게시자 단말(110) 및 구독자 단말(130)과 통신을 수행할 수 있다. 관리 서버(150)는 데이터베이스(170)와 연동하여 컨텐츠의 유해성을 검사하여 객관성 및 신뢰성을 갖는 메타데이터를 작성하고 메타데이터를 이용하여 유해성을 확인하여 유해 컨텐츠의 게시 및 구독을 차단하는 데 필요한 다양한 정보들을 저장할 수 있다. 한편, 관리 서버(150)는 도 1과 달리, 데이터베이스(170)를 내부에 포함하여 구현될 수 있다.
데이터베이스(170)는 관리 서버(150)가 메타데이터를 이용한 유해 컨텐츠 관리 과정에서 필요한 다양한 정보들을 저장할 수 있다. 예를 들어, 데이터베이스(170)는 게시자 단말(110)에서 업로드한 컨텐츠를 저장할 수 있고, 컨텐츠와 연관된 메타데이터를 저장할 수 있으며, 반드시 이에 한정되지 않고, 컨텐츠의 게시와 구독 및 유해 컨텐츠 판별을 포함하는 일련의 과정에서 다양한 형태로 수집 또는 가공된 정보들을 저장할 수 있다.
도 2는 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치의 게시자 단말의 구성을 도시한 블록도이다.
도 2를 참조하면, 게시자 단말(110)은 게시하고자 하는 컨텐츠를 입력하는 컨텐츠 입력부(210), 유해성 판단부(230), 메타데이터 재구성부(250), 컨텐츠 출력부(270) 및 제어부(290)를 포함할 수 있다.
컨텐츠 입력부(210)는 게시자 단말(110)의 사용자를 통해 컨텐츠를 입력 받는다. 사용자가 컨텐츠를 입력하기 위한 입력 기능을 활성화하면, 컨텐츠를 입력하기 위한 편집기가 오픈된다. 이 편집기를 통해 사용자가 컨텐츠를 입력할 수 있다.
유해성 판단부(230)는 관리 서버(150)로부터 다운로드된 유해성 판단용 프로그램이 저장된다. 유해성 판단용 프로그램은 인공지능 기능이 포함 된 플러그인, 익스텐션, 클래스, 독립 프로그램 등 다양하게 만들 수 있다. 유해성 판단부(230)는 게시자 단말(110)의 사용자로부터 컨텐츠의 입력이 완료되면, 유해성 판단용 프로그램을 통해 해당 컨텐츠의 유해성 여부를 판단한다. 일 실시예에서, 유해성 판단부(230)는 작성된 컨텐츠의 이미지, 그림, 영상, 글자, 소리 등을 인식하여 유해물을 판별할 수 있다. 여기에서, 유해성 판단부(230)는 작성된 컨텐츠의 내용물 인식이 용이한 배속으로 컨텐츠를 재생하여 유해성 여부를 판단할 수 있고 의심스러운 장면이 있거나 정확한 판단을 내리기 애매한 경우에 재생 속도를 조절할 수 있다. 예컨대, 유해성 판단을 위해 기본 12배속 재생하고 애매한 부분의 경우 2배속 혹은 4배속 등으로 속도를 늦추거나 특정 부분으로 되돌아가 재검사를 실시할 수 있다.
일 실시예에서, 유해성 판단부(230)는 유해성 판단 결과 음란물, 폭력 또는 혐오 영상 컨텐츠를 포함한 사이트 관리의 방침에서 벗어났을 경우 해당 컨텐츠의 게시가 금지된다는 안내 문구를 표시하여 게시자 단말(110)의 사용자에게 알린 후 해당 컨텐츠의 게시를 자동으로 차단할 수 있다.
메타데이타 재구성부(250)는 유해성 판단 결과에 기초하여 입력된 컨텐츠의 기존 메타데이터를 편집하여 객관성과 신뢰성을 갖는 메타데이터로 재구성할 수 있다. 예컨대, 입력된 컨텐츠가 mpg, avi, mov 등의 형식으로 저장된 파일의 동영상 컨텐츠일 경우, 영상의 제목, 상영시간, 영상 등급, 제작일 등의 다양한 정보를 담고 있는 메타데이터가 포함될 수 있다. 메타데이터는 영상 플레이어 및 제작 소프트웨어 등에 의하여 등록, 편집, 삭제가 가능하기 때문에 영상 제작자의 주관에 따라 영상물의 등급을 설정할 수 있고 기존 입력된 정보를 변경할 수 있다.
메타데이터 재구성부(250)는 입력된 컨텐츠의 기존 메타데이터에 유해성 판단부(230)의 유해성 판단 결과에 따라 객관적인 정보를 추가하여 메타데이터에 대해 신뢰성을 확보할 수 있다. 일 실시예에서, 메타데이터 재구성부(250)는 기존 메타데이터에 유해성 판단에 따라 결정된 상영등급, 게시자의 이메일주소, 아이디, IP주소, 게시날짜, 유해성 검사 날짜, 업로드시 사용한 웹사이트 주소(등록지), 저작권 보호 여부 등의 다양한 정보를 추가할 수 있다. 여기에서, 메타데이터 재구성부(250)는 기존 메타데이터에 다양한 정보를 추가하여 연관된 해당 컨텐츠의 유해 정도를 객관적으로 정의할 수 있고 게시자 확인이 용이하여 음란/유해 컨텐츠의 제작 및 무단 배포를 근본적으로 방지할 수 있다. 예컨대, 메타데이터 재구성부(250)는 유해성 판단 결과에 따라 성인용, 음란물, 청소년용 등으로 상영등급을 결정할 수 있다.
컨텐츠 출력부(270)는 재구성된 메타데이터와 함께 입력된 컨텐츠의 등록을 관리 서버(150)에 요청하여 관리 서버(150)에 재구성된 메타데이타와 함께 해당 컨텐츠를 저장할 수 있다.
제어부(290)는 게시자 단말(110)에서 컨텐츠를 관리 서버(150)에 등록하는 과정에서 유해물을 검사하여 게시 가능 여부, 게시 가능할 경우 검사결과를 토대로 컨텐츠의 기존 메타데이터를 재구성하여 메타데이터에 신뢰성을 확보한 후 게시될 수 있도록 컨텐츠 입력부(210), 유해성 판단부(230), 메타데이터 재구성부(250) 및 컨텐츠 출력부(270)의 동작을 전반적으로 제어하고 이들 간의 제어 및 데이터 흐름을 관리할 수 있다.
도 3은 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치의 구독자 단말의 구성을 도시한 블록도이다.
도 3을 참조하면, 구독자 단말(130)는 유해성 판단부(310), 컨텐츠 저장부(330), 메타데이터 분석부(350), 컨텐츠 표시부(370) 및 제어부(390)를 포함한다.
유해성 판단부(310)는 관리 서버(150)로부터 다운로드된 유해성 판단용 프로그램이 저장된다. 유해성 판단용 프로그램은 인공지능 기능이 포함된 플러그인, 인스텐션, 클래스, 독립 프로그램 등 다양하게 만들 수 있다. 유해성 판단부(310)는 유해 URL 리스트가 저장되는 로컬DB(311)를 포함할 수 있다.
일 실시예에서, 로컬DB(311)는 유해성 판단용 프로그램 최초 설치시 또는 사용자 요청에 따라 관리 서버(150)로부터 유해 URL 리스트를 제공받아 저장할 수 있다. 여기에서, 로컬DB(311)는 특정된 유해 사이트 주소 목록과 함께 사용자가 방문한 기록을 근거로 유해 컨텐츠가 발견된 사이트 주소를 포함하는 사용자 맞춤형 유해 URL 리스트를 저장할 수 있다. 이로써 유해 URL 리스트의 네트워크 전송을 통한 네트워크 리소스를 줄일 수 있고 관리 서버(150)의 부하 및 용량을 줄일 수 있다. 또한, 유해 URL 리스트가 역으로 공유되는 것을 막을 수 있다. 유해성 판단부(310)는 로컬DB(311)에 저장된 유해 URL 리스트를 토대로 사용자가 컨텐츠 요청한 사이트의 URL 검사를 실시할 수 있다. 이때, 사용자가 컨텐츠 요청한 사이트가 유해 URL로 등록된 사이트가 아닌 경우에 관리 서버(150)로부터 구독자 단말(130)로 해당 컨텐츠를 다운로드 또는 스트리밍(streaming)하여 구독할 수 있다.
컨텐츠 저장부(330)는 관리 서버(150)로부터 다운로드된 컨텐츠를 저장한다. 구독자 단말(130)의 사용자는 컨텐츠 저장부(330)에 저장된 컨텐츠를 오프라인 상에서 구독할 수 있다. 이때, 유해성 판단부(310)는 사용자의 시청 가능 상영등급을 기준으로 실시간으로 유해성 여부를 판단하여 해당 컨텐츠의 재생, 재생중지, 차단 등을 처리할 수 있게 한다.
메타데이터 분석부(350)는 스트리밍으로 컨텐츠를 온라인 상에서 구독하는 경우 해당 컨텐츠에 포함된 메타데이터의 신뢰성을 확인할 수 있다. 메타데이터 분석부(350)는 메타데이터로부터 컨텐츠가 업로드된 웹사이트와 스트리밍된 웹사이트의 주소를 비교하여 신뢰성을 확인할 수 있고, 두 사이트의 주소가 일치할 경우 신뢰성이 있다고 판단할 수 있다.
메타데이터 분석부(350)에서 신뢰성 있는 메타데이터로 확인된 경우, 구독자 단말(130)은 메타데이터에 포함된 컨텐츠의 상영등급과 사용자의 시청 가능 등급을 바탕으로 해당 컨텐츠의 재생 및 차단, 가리기 등을 처리할 수 있다. 메타데이터 분석부(350)에서 메타데이터가 없거나 메타데이터의 신뢰성이 없는 경우로 확인되면, 이때 유해성 판단부(310)는 유해성 판단용 프로그램을 통해 실시간으로 해당 컨텐츠의 유해성 여부를 판단한다.
컨텐츠 표시부(370)는 유해성을 통과한 컨텐츠를 사용자가 구독할 수 있도록 화면에 표시할 수 있다. 컨텐츠 표시부(370)는 사용자의 유해성 판단 기준을 통과한 컨텐츠에 대해서는 정상적으로 표시하고 사용자의 유해성 판단 기준을 통과하지 못한 컨텐츠에 대해서는 다른 컨텐츠로 변경하여 표시할 수 있다. 예컨대, 금지된 용어를 순화된 용어로 변경하거나, 유해성이 있는 이미지를 흐릿하게 처리하거나 하는 등의 과정을 거쳐 컨텐츠를 표시할 수 있다.
제어부(390)는 구독자 단말(130)에서 메타데이터를 이용하여 인터넷에 게시되어 있는 다양한 컨텐츠 중에 사용자 요청한 컨텐츠를 수신하여 유해성을 검사하고 사용자의 요구에 맞는 안전한 컨텐츠를 보여줄 수 있도록 유해성 판단부(310), 컨텐츠 저장부(330), 메타데이터 분석부(350) 및 컨텐츠 표시부(370)의 동작을 전반적으로 제어하고 이들 간의 제어 및 데이터 흐름을 관리할 수 있다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 메타데이타를 이용한 유해 컨텐츠 관리 장치의 구동 과정을 도시한 도면이다.
도 4를 참조하면, 게시자 단말(110)의 컨텐츠 업로드에 따른 유해 컨텐츠 관리 과정을 도시한 것이다.
먼저, 게시자 단말(110)는 컨텐츠와 메타데이터를 입력하고 업로드 요청한다(단계 S410). 일 실시예에서, 게시자 단말(110)의 사용자는 컨텐츠를 제작하여 게시자 단말(110)에 저장할 수 있고, 이때 컨텐츠에 메타데이타를 추가하여 저장할 수 있다. 여기에서, 컨텐츠는 영상파일의 형태일 수 있고 이에 한정되지 않고 이미지, 글, 소리 등의 다양한 형태일 수 있다. 사용자는 영상파일의 컨텐츠의 제작일, 제목, 상영시간, 제작자, 상영등급을 표시하는 정보를 메타데이터의 형태로 생성할 수 있다. 메타데이터에 포함되는 정보는 사용자에 의해 임의 결정될 수 있다. 일 실시예에서, 게시자 단말(110)은 컨텐츠와 메타데이터가 입력되면 메모리에 저장하여 사용자의 추가적인 조작을 방지할 수 있다.
게시자 단말(110)는 입력된 컨텐츠의 유해성 검사를 통해 업로드 가능 여부를 판단한다(단계 S420). 일 실시예에서, 게시자 단말(110)은 관리 서버(150)로부터 유해성 판단용 프로그램을 제공받아 로컬 상에서 컨텐츠의 유해성 검사를 수행할 수 있다. 여기에서, 게시자 단말(110)은 입력된 컨텐츠를 특정 배속으로 재생하여 내용을 인식하고 유해성을 판별한다. 게시자 단말(110)은 입력된 컨텐츠의 유해성 정도가 사이트 관리자의 기준을 벗어난 업로드가 불가능한 경우 입력된 해당 컨텐츠의 게시를 자동으로 차단시킬 수 있다.
게시자 단말(110)는 업로드 가능한 경우 입력된 컨텐츠의 유해성 판단을 기초로 기존 메타데이터를 재구성한다(단계 S430). 일 실시예에서, 게시자 단말(110)은 유해성 판단을 통해 입력된 해당 컨텐츠의 상영 등급을 새롭게 정할 수 있고, 기존 메타데이터에 포함된 상영 등급을 새롭게 정한 상영 등급으로 변경할 수 있다. 예컨대, 상영 등급은 성인용/음란물/청소년용 등의 형식으로 구성할 수 있고, 이에 한정되지 않고 유해성 정도에 따라 보다 세분화할 수도 있다. 여기에서, 게시자 단말(110)은 기존 메타데이터에 사용자 ID, IP 주소 등의 사용자(업로더) 정보, 업로드 날짜, 유해성 검사 날짜, 업로드시 사용한 사이트 주소(등록지) 등을 추가하여 재구성할 수 있다. 게시자 단말(110)은 사용자로부터 메타데이터에 추가할 정보를 입력받을 수도 있다. 예컨대, 사용자로부터 입력된 해당 컨텐츠의 저작권 보호 여부를 입력받아 메타데이터에 추가할 수 있다.
게시자 단말(110)은 입력된 컨텐츠 및 컨텐츠의 구재성된 메타데이터를 관리 서버(150)로 전송하여 업로드 완료한다(단계 S440). 관리 서버(150)는 게시자 단말(110)로부터 업로드되는 컨텐츠 및 메타데이터를 저장하고 인터넷 상에 게시한다.
도 5를 참조하면, 구독자 단말(130)의 컨텐츠 구독 요청에 따른 유해 컨텐츠 관리 과정을 도시한 것이다.
먼저, 사용자는 구독자 단말(130)을 통해 관리 서버(150)에 컨텐츠를 요청할 수 있다(단계 S510). 일 실시예에서, 구독자 단말(130)은 웹브라우저, 앱, IoT 디바이스 등을 통해 원하는 컨텐츠 요청을 할 수 있다. 여기에서, 요청 가능한 컨텐츠는 웹사이트, 이미지, 동영상, 스마트폰 문자 메시지 등 다양하게 포함될 수 있다. 구독자 단말(130)에서 컨텐츠 요청하면, 관리 서버(150)를 통해 유해성 판단 프로그램이 구독자 단말(130)에 다운로드될 수 있다. 또한, 유해 URL 리스트들이 다운로드될 수 있다.
구독자 단말(130)은 사용자가 요청한 컨텐츠에 대해 우선적으로 URL 검사를 실시하여 유해 URL 등록 여부를 판단할 수 있다(단계 S520). 일 실시예에서, 구독자 단말(130)은 유해성 판단부(310)를 통해 로컬DB(311)에 저장된 유해 URL 리스트와 대조하여 오프라인 상태에서 실시간으로 URL 검사를 실시할 수 있다. 여기에서, 로컬DB(311)에는 관리 서버(120)에서 제공되는 공공 유해 URL 리스트와 사용자 개인 성향에 기초하여 등록된 개인 유해 URL 리스트가 함께 저장되어 유해성 판단부(310)는 사용자의 기준에 만족하는 URL 검사를 실시할 수 있다. 물론, 구독자 단말(130)은 관리 서버(150)와 온라인 상태에서 실시간으로 URL 검사를 실시할 수도 있다. URL 검사 결과, 유해 URL로 등록된 경우에는 구독자 단말(130)에 결과를 표시할 수 있다. 이때, 사용자 설정과 본 유해성 판단 프로그램의 분류(기업용, 무료, OEM 등)에 구독자 단말(130)에 표시 내용을 달리 할 수 있다. 예컨대, 본 유해성 판단 프로그램이 개인용인 경우에는 사용자 요청 컨텐츠를 차단하고 안전 사이트로 이동할 수 있고, 기업용인 경우에는 기업고객이 요구한 내용을 대체 표시할 수 있다.
구독자 단말(130)은 URL 검사 결과 유해 URL로 등록되지 않은 경우에는 해당 컨텐츠를 다운로드받아 저장한 후 오프라인 상태에서 구독하거나 스트리밍으로 온라인 상태에서 구독할 수 있다.
구독자 단말(130)은 컨텐츠를 스트리밍으로 온라인 구독하는 경우 스트리밍 중인 컨텐츠의 메타데이터를 분석하여 유해 컨텐츠를 확인할 수 있다(단계 S530). 일 실시예에서, 구독자 단말(130)은 관리 서버(150)로부터 컨텐츠를 스트리밍하는 과정에서 컨텐츠의 메타데이타를 취득할 수 있다. 구독자 단말(130)은 취득한 메타데이터에 포함된 컨텐츠의 등록지 즉, 컨텐츠가 업로드 된 웹사이트의 주소와 컨텐츠가 스트리밍되는 현재 웹사이트의 주소를 비교하여 메타데이타의 신뢰성을 확인할 수 있다. 구독자 단말(130)은 두 주소가 일치하는 경우에 메타데이터의 신뢰성이 확보된 것으로 간주하고 사용자 정보와 메타데이터에 포함된 상영등급을 바탕으로 컨텐츠의 유해성을 판별한다. 예컨대, 사용자의 로그인 정보, 성인인증 등을 통해 사용자의 시청 가능 등급을 확인하여 이를 바탕으로 컨텐츠의 유해성 여부를 판별한다.
구독자 단말(130)은 메타데이터의 신뢰성이 확인되지 않은 경우 혹은 메타데이터가 없는 경우에, 컨텐츠 스트리밍과 동시에 구독자 단말(130)의 화면에 출력하기 전에 실시간으로 유해성 판단 여부를 진행할 수 있다(단계 S540). 일 실시예에서, 구독자 단말(130)은 컨텐츠가 스트리밍되는 웹사이트가 메타데이터에 있는 업로드 된 웹사이트(등록지)와 다를 경우 메타데이터의 신뢰성이 확보되지 않은 경우로 보고 취득한 메타데이타를 무시할 수 있다. 구독자 단말(130)은 유해성 판단부(310)의 유해성 판단용 프로그램을 통해 실시간으로 컨텐츠의 유해성을 검사하며 그에 따라 컨텐츠의 재생을 차단하거나 가리기를 할 수 있다. 구독자 단말(130)은 실시간 유해성 검사에 의하여 취득한 시청 등급 등의 정보를 컨텐츠의 재생 경로와 함께 개인 임시 저장소에 보관하여 캐쉬로 활용할 수 있다. 이 캐쉬로 컨텐츠의 다음 재생 시 차단, 재생 금지 등을 할 수 있다. 일 실시예에서, 구독자 단말(130)은 메타데이터에 저작권 보호 등록된 경우 메타데이터에 등록 웹사이트의 관리자/등록자에게 컨텐츠 재생에 대하여 불법 취득 및 해당 컨텐츠에 대한 저작권 침해 여부를 보고할 수 있다. 일 실시예에서, 구독자 단말(130)은 메타데이터가 없는 경우에 실시간 유해성 검사결과를 관리 서버(150)에 자동 보고하여 해당 컨텐츠의 게시를 방지 및 차단하도록 할 수 있다.
구독자 단말(130)은 다운로드받아 저장된 컨텐츠를 오프라인 상태에서 구독시 실시간으로 유해성 컨텐츠 검사를 실시할 수 있다(단계 S550). 여기에서, 구독자 단말(130)은 유해성 판단부(310)를 통해 개인별 또는 관리자 설정에 따른 시청 가능 상영등급을 고려하여 유해성을 판단할 수 있다.
구독자 단말(130)은 안전 컨텐츠로 판단된 경우에는 화면에 정상적으로 컨텐츠를 표시할 수 있고, 유해 컨텐츠로 판단된 경우에는 해당 컨텐츠의 재생을 중단하여 화면 출력을 전면 차단하거나 화면에 기준에 어긋나는 부분을 가려서 표시할 수 있다(단계 S560).
상술한 바와 같이, 게시자 단말을 통해 오프라인 상태에서 실시간으로 유해성 컨텐츠를 검사하여 검사결과를 컨텐츠의 메타데이터에 반영시킴으로써 메타데이터의 신뢰성을 확보하여 안전하게 컨텐츠를 관리 및 배포할 수 있는 효과가 있다.
메타데이터가 없거나 메타데이터의 신뢰성이 확보되지 않은 컨텐츠에 대해서는 인공지능을 활용한 실시간 유해성 검사를 통해 유해 컨텐츠를 차단할 수 있고, 우회 경로를 통한 접근 시에 실시간 음란 영상 채팅이 시작되면 실시간 영상 검사하여 접속을 차단할 수 있다.
메타데이터에 저작권 보호 등록을 포함하여 컨텐츠의 등록지와 다른 웹사이트에서 컨텐츠가 재생되는 경우 불법 취득 및 해당 컨텐츠에 대한 저작권 침해 여부를 보고하여 저작권 관리를 할 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 메타데이터를 이용한 유해 컨텐츠 관리 장치
110: 게시자 단말 130: 구독자 단말
150: 관리 서버 170: 데이터베이스
210: 컨텐츠 입력부 230: 유해성 판단부
250: 메타데이터 재구성부 270: 컨텐츠 출력부
290: 제어부
310: 유해성 판단부 311: 로컬DB
330: 컨텐츠 저장부 350: 메타데이터 분석부
370: 컨텐츠 표시부 390: 제어부

Claims (8)

  1. 컨텐츠에 대해 유해성 여부를 검사하고 상기 컨텐츠의 메타데이터에 검사결과를 반영하여 관리 서버에 업로드하는 게시자 단말;
    상기 게시자 단말이 업로드한 컨텐츠의 메타데이터를 분석하여 상기 메타데이터의 신뢰성을 확인하고 이를 토대로 해당 컨텐츠의 유해성을 확인하는 구독자 단말; 및
    상기 게시자 단말로부터 업로드 된 컨텐츠를 등록하고 상기 구독자 단말에서 요청한 컨텐츠를 다운로드 또는 스트리밍 제공하는 관리 서버를 포함하되,
    상기 게시자 단말은
    컨텐츠 입력부;
    상기 관리 서버로부터 유해성 판단용 프로그램을 다운로드 받아 상기 컨텐츠 입력부에 입력된 컨텐츠의 유해성 여부를 판단하는 제1 유해성 판단부;
    상기 컨텐츠 입력부에 입력된 컨텐츠의 메타데이터에 포함된 상영등급을 상기 제1 유해성 판단부에서 판단된 유해 정도에 기초한 객관적인 상영등급으로 변경하고 상기 메타데이터에 게시자의 이메일주소, 아이디, IP 주소, 게시 날짜, 유해성 검사 날짜, 등록 웹사이트 주소 및 저작권 보호 여부 중 적어도 하나 이상을 포함하는 정보를 추가하여 상기 메타데이터를 객관성과 신뢰성을 갖는 메타데이터로 재구성하는 메타데이터 재구성부; 및
    상기 재구성된 메타데이터와 함께 상기 입력된 컨텐츠의 등록을 상기 관리 서버에 요청하는 컨텐츠 출력부를 포함하고,
    상기 구독자 단말은
    상기 관리 서버로부터 다운로드 받은 컨텐츠를 저장하는 컨텐츠 저장부;
    상기 관리 서버로부터 스트리밍 되는 상기 컨텐츠로부터 메타데이터를 취득하고 취득된 상기 메타데이터에 포함된 해당 컨텐츠의 등록 웹사이트 주소와 스트리밍되는 웹사이트 주소의 일치 여부를 비교하여 상기 메타데이터의 신뢰성을 확인하는 메타데이터 분석부;
    상기 관리 서버로부터 스트리밍 되는 컨텐츠에 대해 상기 메타데이터 분석부를 통해 상기 메타데이터의 신뢰성이 확인되면 상기 메타데이터와 구독자 정보를 토대로 해당 컨텐츠의 유해성을 판단하고, 상기 메타데이터의 신뢰성이 확인되지 않거나 상기 메타데이터가 없는 스트리밍 되는 상기 컨텐츠 또는 상기 컨텐츠 저장부에 저장된 컨텐츠에 대해 실시간으로 유해성 검사를 통해 유해성 여부를 판단하는 제2 유해성 판단부; 및
    상기 컨텐츠 중 유해성 판단 기준을 만족하는 컨텐츠를 표시하는 컨텐츠 표시부를 포함하는 것을 특징으로 하는 메타데이터를 이용한 유해 컨텐츠 관리 장치.
  2. 삭제
  3. 제1항에 있어서, 상기 제1 유해성 판단부는
    상기 입력된 컨텐츠를 일정 배속으로 재생하여 상기 컨텐츠의 유해성 여부를 판단하고 의심스러운 장면이 있거나 판단이 애매한 경우에 상기 재생 배속을 조절하여 재검사하는 것을 특징으로 하는 메타데이터를 이용한 유해 컨텐츠 관리 장치.
  4. 삭제
  5. 삭제
  6. 제1항에 있어서, 상기 제2 유해성 판단부는
    상기 메타데이터의 신뢰성이 확인되면 상기 메타데이터에 포함된 해당 컨텐츠의 상영등급과 구독자 정보에 의한 시청 가능 등급을 토대로 유해성 컨텐츠를 판단하는 것을 특징으로 하는 메타데이터를 이용한 유해 컨텐츠 관리 장치.
  7. 제1항에 있어서, 상기 제2 유해성 판단부는
    유해 URL 리스트를 저장하는 로컬DB를 포함하고 사용자가 요청한 컨텐츠의 URL을 상기 로컬DB에 저장된 유해 URL 리스트와 대조하여 유해 URL 등록 여부를 검사하고, 유해 URL로 등록된 경우에는 상기 컨텐츠 표시부를 통해 URL 검사 결과를 표시하고 상기 컨텐츠를 차단하는 것을 특징으로 하는 메타데이터를 이용한 유해 컨텐츠 관리 장치.
  8. 게시자 단말에서 컨텐츠 업로드 시 관리 서버로부터 유해성 판단용 프로그램을 다운로드 받아 컨텐츠의 유해성 검사를 통해 업로드 가능여부를 판단하는 단계;
    게시자 단말에서 업로드 가능한 경우 상기 컨텐츠의 메타데이터에 포함된 상영등급을 상기 컨텐츠의 유해성 검사 결과에 기초한 상영등급으로 변경하고 상기 메타데이터에 게시자의 아이디(ID), IP 주소를 포함한 게시자 정보, 등록 웹사이트 주소를 추가하여 상기 메타데이터를 객관성과 신뢰성을 갖는 메타데이터로 재구성하고 재구성된 메타데이터와 상기 컨텐츠를 관리 서버에 전송하여 업로드하는 단계;
    구독자 단말에서 구독자가 요청한 컨텐츠의 URL 검사를 실시하여 유해 URL 등록 여부를 판단하는 단계;
    구독자 단말에서 유해 URL로 등록되지 않은 경우 구독자가 요청한 컨텐츠를 다운로드 받아 저장하거나 스트리밍하는 단계;
    스트리밍 중인 컨텐츠에 대해 메타데이터에 포함된 컨텐츠의 등록 웹사이트 주소와 스트리밍 되는 컨텐츠의 웹사이트 주소의 일치 여부를 통해 신뢰성을 확인하고 신뢰성이 있으면 상기 메타데이터에 포함된 상영 등급과 구독자 정보를 토대로 컨텐츠의 유해성을 판단하고, 신뢰성이 없거나 상기 메타데이터가 없으면 상기 컨텐츠의 재생 과정에서 실시간으로 유해성 컨텐츠 검사를 통해 유해성을 판단하는 단계; 및
    상기 판단결과 안전 컨텐츠인 경우에 정상적으로 재생하고 유해 컨텐츠인 경우에 재생 중단하거나 가려서 표시하는 단계를 포함하는 메타데이터를 이용한 유해 컨텐츠 관리 방법.
KR1020200072886A 2020-06-16 2020-06-16 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법 KR102213373B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200072886A KR102213373B1 (ko) 2020-06-16 2020-06-16 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법
PCT/KR2021/007068 WO2021256755A1 (ko) 2020-06-16 2021-06-07 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200072886A KR102213373B1 (ko) 2020-06-16 2020-06-16 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법

Publications (1)

Publication Number Publication Date
KR102213373B1 true KR102213373B1 (ko) 2021-02-08

Family

ID=74560068

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200072886A KR102213373B1 (ko) 2020-06-16 2020-06-16 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법

Country Status (2)

Country Link
KR (1) KR102213373B1 (ko)
WO (1) WO2021256755A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102652949B1 (ko) * 2022-11-15 2024-04-01 굿모니터링 주식회사 휴먼어노테이션 기반 영상물 등급 분류 시스템

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102600834B1 (ko) * 2023-08-17 2023-11-10 주식회사 이든엠 웹사이트 통합 관리 시스템

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020027987A (ko) * 2000-10-06 2002-04-15 황금용 음란물 차단방법 및 차단장치
KR100797600B1 (ko) 2007-05-17 2008-01-23 주식회사 플랜티넷 유해 동영상 파일의 이용 제한 방법
KR100907172B1 (ko) 2007-07-11 2009-07-09 에스케이 텔레콤주식회사 동영상 유통 환경에서 유해 동영상의 다단계 차단 시스템및 방법
KR100984395B1 (ko) * 2008-11-03 2010-09-29 인하대학교 산학협력단 영상 특성 분석을 통한 캡슐 내시경 영상 처리 방법
KR20130101645A (ko) * 2012-02-22 2013-09-16 주식회사 팬택 콘텐츠 필터링 장치 및 방법
KR101428037B1 (ko) * 2007-07-03 2014-08-07 엘지전자 주식회사 유해정보 차단 방법 및 시스템
KR20150107509A (ko) * 2014-03-14 2015-09-23 한국과학기술원 온라인 게시판 서버, 온라인 게시판 시스템 및 온라인 게시판의 유해 이미지 표시 제어 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020027987A (ko) * 2000-10-06 2002-04-15 황금용 음란물 차단방법 및 차단장치
KR100797600B1 (ko) 2007-05-17 2008-01-23 주식회사 플랜티넷 유해 동영상 파일의 이용 제한 방법
KR101428037B1 (ko) * 2007-07-03 2014-08-07 엘지전자 주식회사 유해정보 차단 방법 및 시스템
KR100907172B1 (ko) 2007-07-11 2009-07-09 에스케이 텔레콤주식회사 동영상 유통 환경에서 유해 동영상의 다단계 차단 시스템및 방법
KR100984395B1 (ko) * 2008-11-03 2010-09-29 인하대학교 산학협력단 영상 특성 분석을 통한 캡슐 내시경 영상 처리 방법
KR20130101645A (ko) * 2012-02-22 2013-09-16 주식회사 팬택 콘텐츠 필터링 장치 및 방법
KR20150107509A (ko) * 2014-03-14 2015-09-23 한국과학기술원 온라인 게시판 서버, 온라인 게시판 시스템 및 온라인 게시판의 유해 이미지 표시 제어 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102652949B1 (ko) * 2022-11-15 2024-04-01 굿모니터링 주식회사 휴먼어노테이션 기반 영상물 등급 분류 시스템

Also Published As

Publication number Publication date
WO2021256755A1 (ko) 2021-12-23

Similar Documents

Publication Publication Date Title
Thorson et al. YouTube, Twitter and the Occupy movement: Connecting content and circulation practices
US9424402B2 (en) Blocking of unlicensed audio content in video files on a video hosting website
US8249992B2 (en) Digital rights management and audience measurement systems and methods
KR102259730B1 (ko) 인공지능 기반의 유해 컨텐츠 차단 장치
US20100174608A1 (en) Digital rights management and audience measurement systems and methods
Karie et al. Toward a general ontology for digital forensic disciplines
CA2605558A1 (en) Browser enabled video manipulation
CN103229186A (zh) 数字权利管理服务提供方法和设备
KR102213373B1 (ko) 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법
CN105915494A (zh) 防盗链方法及系统
JPWO2009050877A1 (ja) 不適切コンテンツ検出方法および装置、そのコンピュータプログラム、ならびにコンテンツ公開システム
US10587661B2 (en) Method and program for providing content streaming service and managing data statistics of user using QR code
KR101027502B1 (ko) 콘텐츠 관리 시스템 및 방법
Li Dilemma and solution of copyright justice system for health short video under network big data environment monitoring
US20140053233A1 (en) Online media policy platform
EP2573772A1 (en) Automated real time video mashup editor
KR101784131B1 (ko) 메시징 서비스를 이용한 동영상 제공 방법, 동영상 제공을 위한 api 서버 및 스트리밍 서버
KR101899054B1 (ko) 이용권 기반 동영상 제공 방법 및 시스템
CN100589096C (zh) 在专用网络中管理未受保护和受保护的内容的设备和方法
CN112347274B (zh) 网络媒资的推荐方法、系统、计算机设备及存储介质
US20240107114A1 (en) Techniques for dynamically generating media content clips based on key events that occur
Zhang A content-linking-context model and automatic copyright verification in the notice-and-take-down procedures
Hawley et al. Taking the Offensive Against Video Piracy
WO2020250217A1 (en) Method and system for managing, sharing and executing digital content in a controlled manner
Karlgren et al. CHORUS deliverable 3.4: Vision document

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant