WO2021256755A1 - 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법 - Google Patents

메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법 Download PDF

Info

Publication number
WO2021256755A1
WO2021256755A1 PCT/KR2021/007068 KR2021007068W WO2021256755A1 WO 2021256755 A1 WO2021256755 A1 WO 2021256755A1 KR 2021007068 W KR2021007068 W KR 2021007068W WO 2021256755 A1 WO2021256755 A1 WO 2021256755A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
metadata
harmful
harmfulness
unit
Prior art date
Application number
PCT/KR2021/007068
Other languages
English (en)
French (fr)
Inventor
김민석
Original Assignee
김민석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김민석 filed Critical 김민석
Publication of WO2021256755A1 publication Critical patent/WO2021256755A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region

Definitions

  • the present invention relates to harmful content management technology, and more particularly, harmful content management using metadata that can check and block harmfulness of content through metadata when reproducing content by securing reliability for metadata of uploaded content It relates to an apparatus and method.
  • the level of obscene/harmful content is getting deeper and more provocative videos are being created.
  • users' equipment capable of exposing harmful contents are also intentionally exposed to harmful contents in a more sophisticated manner as their performance improves.
  • Patent Document 1 Korean Patent No. 10-0907172 (2009.07.02)
  • Patent Document 2 Korean Patent Registration No. 10-0797600 (Jan. 17, 2008)
  • An embodiment of the present invention is to provide an apparatus and method for managing harmful contents using metadata that can check and block harmfulness of contents through metadata when reproducing contents by securing reliability with respect to metadata of uploaded contents.
  • An object of the present invention is to provide an apparatus and method for managing harmful contents using metadata.
  • An object of the present invention when content is reproduced by downloading or streaming, harmfulness can be checked through user information and metadata for which reliability of the content is secured.
  • An object of the present invention is to provide an apparatus and method for managing harmful content using metadata that can inspect whether or not harmful content is present and block content determined to be harmful.
  • the harmful content management apparatus using metadata checks whether content is harmful, reflects the test result in the metadata of the content, and uploads it to a management server, a publisher terminal that uploads content uploaded by the publisher terminal A subscriber terminal that analyzes data to check harmfulness, and a management server that registers the content uploaded from the publisher terminal and downloads or streams the content requested from the subscriber terminal.
  • the publisher terminal includes a content input unit, a harmfulness determination unit for judging whether the content input to the content input unit is harmful, and at least a screening rating based on the degree of harmfulness determined by the harmfulness determination unit in the metadata of the content inputted to the content input unit; It may include a metadata reconfiguration unit for reconfiguring the metadata by adding a registration site address, and a content output unit for requesting the management server to register the inputted contents together with the reconstructed metadata.
  • the harmfulness determining unit may reproduce the input content at a constant speed to determine whether the content is harmful, and when there is a suspicious scene or if the determination is ambiguous, the re-inspection may be performed by adjusting the reproduction speed.
  • the metadata reconstruction unit determines the objective screening grade of the content according to the harmfulness determination, and among the determined screening grade, publisher's email address, ID, IP address, posting date, harmfulness test date, registered website address, and whether or not copyright is protected Meta information including at least one or more may be added to the metadata to be reconstructed.
  • the subscriber terminal includes a content storage unit for storing the content downloaded from the management server, a metadata analysis unit for analyzing the metadata of the content streamed from the management server to check the reliability of the metadata, and streaming from the management server.
  • a metadata analysis unit for analyzing the metadata of the content streamed from the management server to check the reliability of the metadata
  • streaming from the management server When the reliability of the metadata is confirmed for the content through the metadata analysis unit, the harmfulness of the corresponding content is determined based on the metadata and subscriber information, and the reliability of the metadata is not confirmed or the metadata is not streamed. It may include a harmfulness determination unit that determines whether the content or content stored in the content storage unit is harmful through a harmfulness test in real time, and a content display unit that displays content that satisfies a harmfulness determination criterion among the contents.
  • the metadata analyzer acquires metadata from the streamed content and compares whether the registered website address of the corresponding content included in the obtained metadata matches the streaming website address to confirm the reliability of the metadata, , when the reliability of the metadata is confirmed, the harmfulness determination unit may determine harmful content based on a screening rating of the corresponding content included in the metadata and a viewable rating based on subscriber information.
  • the harmfulness determination unit includes a local DB for storing a list of harmful URLs, and checks whether the harmful URL is registered by comparing the URL of the content requested by the user with the list of harmful URLs stored in the local DB. A URL inspection result may be displayed through the display unit and the content may be blocked.
  • a method for managing harmful content using metadata includes determining whether the content is uploadable through a harmfulness test when uploading content from a publisher terminal, and when uploading content from a publisher terminal, meta data based on the content harmfulness test result if uploadable from the publisher terminal
  • the screening rating indicating the degree of harmfulness of the content By adding the screening rating indicating the degree of harmfulness of the content to the data, the publisher's ID (ID), the publisher information including the IP address, and the registered website address, the metadata is reconstructed and the reconstructed metadata and the content are transferred to the management server Step of transmitting and uploading, determining whether harmful URL is registered by performing URL inspection of the content requested by the subscriber in the subscriber terminal, and downloading and storing or streaming the content requested by the subscriber if it is not registered as harmful URL in the subscriber terminal , for the content being streamed, the reliability is checked through whether the registration website address of the content included in the metadata matches the website address of the streamed content, and if there is reliability, based on the screening rating and
  • the disclosed technology may have the following effects. However, this does not mean that a specific embodiment should include all of the following effects or only the following effects, so the scope of the disclosed technology should not be understood as being limited thereby.
  • the apparatus and method for managing harmful content using metadata can secure reliability with respect to metadata of uploaded contents, and thus check and block harmfulness of contents through metadata when reproducing contents.
  • the content in the step of producing and uploading the content, the content is checked for harmfulness, and the result of the inspection is reflected in the metadata and uploaded, so that the content is stored in the metadata. Objectivity and reliability can be secured, and harmful content can be effectively blocked by using this.
  • harmfulness can be checked through user information and metadata with the reliability of the corresponding content when the content is reproduced by downloading or streaming, and the content contains the metadata. If there is no or reliability of the metadata is not secured, it is possible to check for harmfulness in real time and block content determined to be harmful.
  • FIG. 1 is a block diagram schematically illustrating an apparatus for managing harmful content using metadata according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a configuration of a publisher terminal of an apparatus for managing harmful content using metadata according to an embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating a configuration of a subscriber terminal of an apparatus for managing harmful content using metadata according to an embodiment of the present invention.
  • 4 and 5 are flowcharts illustrating a driving process of an apparatus for managing harmful content using metadata according to an embodiment of the present invention.
  • first and second are for distinguishing one component from another, and the scope of rights should not be limited by these terms.
  • a first component may be termed a second component, and similarly, a second component may also be termed a first component.
  • identification numbers eg, a, b, c, etc. are used for convenience of description, and identification numbers do not describe the order of each step, and each step clearly indicates a specific order in context. Unless otherwise specified, it may occur in a different order from the specified order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
  • the present invention can be embodied as computer-readable codes on a computer-readable recording medium
  • the computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored.
  • Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like.
  • the computer-readable recording medium is distributed in a computer system connected to a network, so that the computer-readable code can be stored and executed in a distributed manner.
  • FIG. 1 is a block diagram schematically illustrating an apparatus for managing harmful content using metadata according to an embodiment of the present invention.
  • the harmful content management apparatus 100 using metadata may include a publisher terminal 110 , a subscriber terminal 130 , a management server 150 , and a database 170 .
  • the publisher terminal 110 may correspond to a computing device for uploading content such as new text, image, or video to an online bulletin board, and the subscriber terminal 130 may upload various contents uploaded by the publisher terminal 110 online or offline. It may correspond to a computing device that can be subscribed to by playing in the state.
  • the publisher terminal 110 and the subscriber terminal 130 may be implemented with a smartphone, a notebook computer, or a computer, but is not limited thereto, and may be implemented with various devices such as a tablet PC.
  • the publisher terminal 110 and the subscriber terminal 130 may be connected to the management server 150 through a network, and may be simultaneously connected to the plurality of publisher terminals 110 and the plurality of subscriber terminals 130 .
  • the management server 150 may provide a harmfulness determination program so that the harmfulness test of the content is performed in each of the publisher terminal 110 and the subscriber terminal 130 .
  • the management server 150 may be connected to the publisher terminal 110 and the subscriber terminal 130 through a wired network or a wireless network such as Bluetooth or WiFi, and the publisher terminal 110 and the subscriber terminal 130 through a wired or wireless network. can communicate with
  • the management server 150 interworks with the database 170 to examine the harmfulness of the contents, creates metadata having objectivity and reliability, and checks the harmfulness using the metadata to block the publication and subscription of harmful contents. information can be stored.
  • the management server 150 may be implemented by including the database 170 therein.
  • the database 170 may store various pieces of information necessary for the management server 150 to manage harmful content using metadata.
  • the database 170 may store the content uploaded by the publisher terminal 110 and may store metadata related to the content, but is not limited thereto, and includes posting and subscribing to the content and determining harmful content.
  • information collected or processed in various forms can be stored.
  • FIG. 2 is a block diagram illustrating a configuration of a publisher terminal of an apparatus for managing harmful content using metadata according to an embodiment of the present invention.
  • the publisher terminal 110 includes a content input unit 210 for inputting content to be published, a harmfulness determination unit 230 , a metadata reconstruction unit 250 , a content output unit 270 , and a control unit 290 . ) may be included.
  • the content input unit 210 receives content through the user of the publisher terminal 110 .
  • an editor for inputting content is opened. This editor allows the user to enter content.
  • the harmfulness determination unit 230 stores the harmfulness determination program downloaded from the management server 150 .
  • Programs for judging harmfulness can be made in various ways, such as plug-ins, extensions, classes, and independent programs that include artificial intelligence functions.
  • the harmfulness determination unit 230 determines whether the corresponding content is harmful through the harmfulness determination program.
  • the harmfulness determination unit 230 may determine harmful substances by recognizing images, pictures, images, letters, sounds, etc. of the created content.
  • the harmfulness determining unit 230 may determine whether the content is harmful by reproducing the content at a double speed at which it is easy to recognize the content, and may adjust the reproduction speed when there is a suspicious scene or it is difficult to make an accurate determination.
  • the basic 12x speed is reproduced, and in the case of an ambiguous part, the speed can be slowed down to 2x or 4x speed, or it can be returned to a specific part and re-inspected.
  • the harmfulness determination unit 230 when the harmfulness determination unit 230 deviates from the policy of site management including pornographic, violent or hateful video content as a result of the harmfulness determination, the publication of the content is prohibited by displaying the notice of the publisher terminal 110 . After notifying the user, you can automatically block the posting of the content.
  • the metadata reconstruction unit 250 may edit the existing metadata of the inputted content based on the harmfulness determination result and reconstruct it into metadata having objectivity and reliability. For example, when the input content is video content of a file stored in a format such as mpg, avi, or mov, metadata containing various information such as title, running time, image rating, and production date of the image may be included. Since the metadata can be registered, edited, and deleted by video players and production software, the video quality can be set according to the supervision of the video producer, and previously input information can be changed.
  • the metadata reconstruction unit 250 may secure reliability of the metadata by adding objective information to the existing metadata of the input content according to the harmfulness determination result of the harmfulness determination unit 230 .
  • the metadata reconstructing unit 250 determines the screening rating determined according to the harmfulness judgment in the existing metadata, the publisher's email address, ID, IP address, publication date, harmfulness check date, and the website address used for uploading (registration). g), you can add various information such as whether or not copyright is protected.
  • the metadata reconstruction unit 250 can objectively define the degree of harmfulness of the related content by adding various information to the existing metadata, and it is easy to check the publisher, thereby fundamentally preventing the production and unauthorized distribution of obscene/harmful content can be prevented
  • the metadata reconstructing unit 250 may determine the screening grade for adult, pornography, youth, etc. according to the harmfulness determination result.
  • the content output unit 270 may request the management server 150 to register the input content together with the reconstructed metadata and store the corresponding content together with the reconstructed metadata in the management server 150 .
  • the control unit 290 inspects harmful substances in the process of registering the content to the management server 150 in the publisher terminal 110 and reconstructs the existing metadata of the content based on the inspection result if it is possible to post and if it is possible to provide reliability in the metadata. Controls the overall operation of the content input unit 210, the harmfulness determination unit 230, the metadata reconfiguration unit 250, and the content output unit 270 so that they can be published after securing and managing the control and data flow between them. can do.
  • FIG. 3 is a block diagram illustrating a configuration of a subscriber terminal of an apparatus for managing harmful content using metadata according to an embodiment of the present invention.
  • the subscriber terminal 130 includes a harmfulness determination unit 310 , a content storage unit 330 , a metadata analysis unit 350 , a content display unit 370 , and a control unit 390 .
  • the harmfulness determination unit 310 stores the harmfulness determination program downloaded from the management server 150 .
  • Programs for judging harmfulness can be made in various ways, such as plug-ins, instances, classes, and independent programs that include artificial intelligence functions.
  • the harmfulness determination unit 310 may include a local DB 311 in which a harmful URL list is stored.
  • the local DB 311 may receive and store a list of harmful URLs from the management server 150 upon initial installation of the harmfulness determination program or according to a user's request.
  • the local DB 311 may store a user-customized harmful URL list including a site address where harmful content is found based on a record of a user's visit together with the specified harmful site address list. Accordingly, network resources through network transmission of the harmful URL list can be reduced, and the load and capacity of the management server 150 can be reduced. In addition, it is possible to prevent the harmful URL list from being shared in reverse.
  • the harmfulness determination unit 310 may inspect the URL of the site from which the user requests the content based on the harmful URL list stored in the local DB 311 . In this case, when the site from which the user requested the content is not a site registered as a harmful URL, the user may subscribe to the content by downloading or streaming the content from the management server 150 to the subscriber terminal 130 .
  • the content storage unit 330 stores content downloaded from the management server 150 .
  • the user of the subscriber terminal 130 may subscribe to the content stored in the content storage unit 330 offline.
  • the harmfulness determination unit 310 determines whether the content is harmful in real time based on the user's viewable screening rating, and enables the reproduction, replay stop, blocking, etc. of the corresponding content to be processed.
  • the metadata analyzer 350 may check the reliability of metadata included in the corresponding content when the content is subscribed online through streaming.
  • the metadata analyzer 350 may check reliability by comparing the addresses of the website where the content is uploaded and the website where the content is streamed from the metadata, and if the addresses of the two sites match, it may be determined that there is reliability.
  • the subscriber terminal 130 plays, blocks, hides, etc. can be processed. If the metadata analysis unit 350 determines that there is no metadata or the metadata is unreliable, the harmfulness determination unit 310 determines whether the corresponding content is harmful in real time through a harmfulness determination program.
  • the content display unit 370 may display content that has passed harmfulness on the screen so that the user can subscribe.
  • the content display unit 370 may normally display content that has passed the user's harmfulness determination standard, and change and display content that does not pass the user's harmfulness determination standard to other content. For example, content may be displayed through a process such as changing a prohibited term to a purified term, blurring a harmful image, or the like.
  • the control unit 390 receives the contents requested by the user from among various contents posted on the Internet by using the metadata from the subscriber terminal 130, inspects the harmfulness, and displays the safe contents that meet the user's needs. ), the content storage unit 330 , the metadata analysis unit 350 , and the content display unit 370 may be generally controlled, and control and data flow between them may be managed.
  • 4 and 5 are diagrams illustrating a driving process of an apparatus for managing harmful content using metadata according to an embodiment of the present invention.
  • FIG. 4 a harmful content management process according to content upload by the publisher terminal 110 is illustrated.
  • the publisher terminal 110 inputs content and metadata and requests upload (step S410).
  • the user of the publisher terminal 110 may create content and store it in the publisher terminal 110 , in which case metadata may be added to the content and stored.
  • the content may be in the form of an image file, but is not limited thereto, and may be in various forms such as images, texts, and sounds.
  • the user may generate information indicating the production date, title, running time, producer, and screening grade of the content of the image file in the form of metadata.
  • Information included in the metadata may be arbitrarily determined by a user.
  • the publisher terminal 110 may prevent additional manipulation by the user by storing the content and metadata in the memory when they are input.
  • the publisher terminal 110 determines whether uploading is possible through the harmfulness test of the inputted content (step S420).
  • the publisher terminal 110 may receive the harmfulness determination program from the management server 150 and perform a harmfulness check of the content locally.
  • the publisher terminal 110 reproduces the input content at a specific double speed to recognize the content and determine the harmfulness.
  • the publisher terminal 110 may automatically block the posting of the inputted content when it is impossible to upload the inputted content because the degree of harmfulness is out of the standard of the site administrator.
  • the publisher terminal 110 reconstructs the existing metadata based on the determination of the harmfulness of the input content (step S430).
  • the publisher terminal 110 may newly determine the screening grade of the input corresponding content through the harmfulness determination, and may change the screening grade included in the existing metadata to the newly determined screening grade.
  • the screening grade may be configured in the form of adult/obscene/juvenile, etc., but is not limited thereto, and may be further subdivided according to the degree of harmfulness.
  • the publisher terminal 110 can be reconfigured by adding user (uploader) information such as user ID and IP address, upload date, harmfulness check date, site address (registration place), etc. have.
  • the publisher terminal 110 may receive information to be added to metadata from a user. For example, it is possible to receive an input from the user whether to protect the copyright of the corresponding content and add it to the metadata.
  • the publisher terminal 110 transmits the input content and the structured metadata of the content to the management server 150 to complete the upload (step S440).
  • the management server 150 stores the content and metadata uploaded from the publisher terminal 110 and publishes it on the Internet.
  • FIG. 5 a harmful content management process according to a content subscription request of the subscriber terminal 130 is illustrated.
  • the user may request content from the management server 150 through the subscriber terminal 130 (step S510).
  • the subscriber terminal 130 may request desired content through a web browser, an app, an IoT device, or the like.
  • the requestable content may be variously included, such as a website, an image, a video, and a smartphone text message.
  • the harmfulness determination program may be downloaded to the subscriber terminal 130 through the management server 150 .
  • harmful URL lists can be downloaded.
  • the subscriber terminal 130 may determine whether to register a harmful URL by preferentially performing a URL check on the content requested by the user (step S520).
  • the subscriber terminal 130 may perform a URL inspection in real time in an offline state by comparing it with a list of harmful URLs stored in the local DB 311 through the harmfulness determination unit 310 .
  • the local DB 311 stores a list of public harmful URLs provided from the management server 120 and a list of personal harmful URLs registered based on a user's personal preference, so that the harmfulness determination unit 310 satisfies the user's criteria.
  • URL inspection can be performed.
  • the subscriber terminal 130 may conduct a URL check in real time with the management server 150 in an online state.
  • the result may be displayed on the subscriber terminal 130 .
  • the content displayed on the subscriber terminal 130 may be different according to the user setting and the classification (for business, free, OEM, etc.) of this harmfulness determination program. For example, if this harmfulness determination program is for personal use, the user's requested content may be blocked and the user can move to a safe site, and in the case of the corporate use, the content requested by a corporate customer can be displayed instead.
  • the subscriber terminal 130 may download and store the corresponding content and then subscribe in an offline state or in an online state through streaming.
  • the subscriber terminal 130 may check harmful content by analyzing the metadata of the streaming content when the content is subscribed online by streaming (step S530).
  • the subscriber terminal 130 may acquire metadata of the content in the process of streaming the content from the management server 150 .
  • the subscriber terminal 130 may check the reliability of the metadata by comparing the registration location of the content included in the acquired metadata, that is, the address of the website where the content is uploaded and the address of the current website where the content is streamed. When the two addresses match, the subscriber terminal 130 considers that the reliability of the metadata is secured, and determines the harmfulness of the content based on the user information and the screening rating included in the metadata. For example, the user's viewable rating is checked through the user's login information and adult authentication, and based on this, it is determined whether the content is harmful.
  • the subscriber terminal 130 may perform a real-time determination of whether or not harmfulness is present before outputting the content to the screen of the subscriber terminal 130 at the same time as the content streaming (step S540). ).
  • the subscriber terminal 130 may ignore the acquired metadata as a case in which the reliability of the metadata is not secured. have.
  • the subscriber terminal 130 may inspect the harmfulness of content in real time through the harmfulness determination program of the harmfulness determination unit 310, and block or hide the reproduction of the content accordingly.
  • the subscriber terminal 130 may use the information such as the viewing rating acquired through the real-time harmfulness test as a cache by storing it in a personal temporary storage along with the reproduction path of the content. With this cache, it is possible to block the next playback of content, prohibit playback, and the like.
  • the subscriber terminal 130 may report illegal acquisition of content to the administrator/registrant of the website registered in the metadata and whether or not copyright is infringed on the content.
  • the subscriber terminal 130 may prevent and block the publication of the corresponding content by automatically reporting the real-time harmfulness test result to the management server 150 when there is no metadata.
  • the subscriber terminal 130 may perform a harmful content check in real time when subscribing the downloaded and stored content in an offline state (step S550).
  • the subscriber terminal 130 may determine the harmfulness through the harmfulness determining unit 310 in consideration of the viewable screening ratings according to individual or administrator settings.
  • the subscriber terminal 130 can display the content normally on the screen when it is determined as safe content, and when it is determined as harmful content, stop playing the content to completely block the screen output or remove the part that does not meet the standards on the screen It can be displayed by covering it (step S560).
  • harmful content can be blocked through real-time harmfulness inspection using artificial intelligence. You can block access.
  • control unit 290 control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Technology Law (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 메타데이터를 이용한 유해 컨텐츠 관리 장치에 관한 것으로, 컨텐츠에 대해 유해성 여부를 검사하고 상기 컨텐츠의 메타데이터에 검사결과를 반영하여 관리 서버에 업로드하는 게시자 단말, 상기 게시자 단말이 업로드한 컨텐츠의 메타데이터를 분석하여 유해성을 확인하는 구독자 단말, 및 상기 게시자 단말로부터 업로드 된 컨텐츠를 등록하고 상기 구독자 단말에서 요청한 컨텐츠를 다운로드 또는 스트리밍 제공하는 관리 서버를 포함한다.

Description

메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법
본 발명은 유해 컨텐츠 관리 기술에 관한 것으로, 보다 상세하게는 업로드되는 컨텐츠의 메타데이터에 대해 신뢰성을 확보하여 컨텐츠 재생시 메타데이터를 통해 컨텐츠의 유해성을 확인하고 차단할 수 있는 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법에 관한 것이다.
음란/유해 컨텐츠 수준은 갈수록 심화되고 더욱 자극적인 영상들이 생성되고 있다. 그리고 인터넷 환경이 좋아지면서 유해 컨텐츠를 노출할 수 있는 사용자들 장비 역시 성능이 더 좋아지면서 더욱 고도화된 방식으로 유해 컨텐츠들을 의도적으로 노출하고 있다.
실제 유해 컨텐츠에 노출되면 나타나는 후유증은 상당히 위험하다. 따라서, 유해 컨텐츠로부터 사용자들을 보호하기 위해 유해 컨텐츠를 관리하고 노출되지 않게 처리할 필요가 있다.
[선행기술문헌]
[특허문헌]
(특허문헌 1) 한국등록특허 제10-0907172 (2009.07.02)
(특허문헌 2) 한국등록특허 제10-0797600 (2008.01.17)호
본 발명의 일 실시예는 업로드되는 컨텐츠의 메타데이터에 대해 신뢰성을 확보하여 컨텐츠 재생시 메타데이터를 통해 컨텐츠의 유해성을 확인하고 차단할 수 있는 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법을 제공하고자 한다.
본 발명의 일 실시예는 컨텐츠를 제작하여 업로드하는 단계에서 컨텐츠에 대해 유해성 여부를 검사하고 메타데이터에 검사결과를 반영하여 업로드함으로써 컨텐츠의 유해 정도를 객관적으로 메타데이터에 표시하여 안전하게 관리 배포할 수 있는 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법을 제공하고자 한다.
본 발명의 일 실시예는 다운로드 또는 스트리밍으로 컨텐츠 재생시 사용자 정보와 해당 컨텐츠의 신뢰성이 확보된 메타데이타를 통해 유해성을 확인할 수 있으며 컨텐츠에 메타데이터가 없거나 메타데이터에 대해 신뢰성 확보가 안된 경우 실시간으로 유해성 여부를 검사하고 유해성이 있다고 판단된 콘텐츠를 차단할 수 있는 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법을 제공하고자 한다.
실시예들 중에서, 메타데이터를 이용한 유해 컨텐츠 관리 장치는 컨텐츠에 대해 유해성 여부를 검사하고 상기 컨텐츠의 메타데이터에 검사결과를 반영하여 관리 서버에 업로드하는 게시자 단말, 상기 게시자 단말이 업로드한 컨텐츠의 메타데이터를 분석하여 유해성을 확인하는 구독자 단말, 및 상기 게시자 단말로부터 업로드 된 컨텐츠를 등록하고 상기 구독자 단말에서 요청한 컨텐츠를 다운로드 또는 스트리밍 제공하는 관리 서버를 포함한다.
상기 게시자 단말은 컨텐츠 입력부, 상기 컨텐츠 입력부에 입력된 컨텐츠의 유해성 여부를 판단하는 유해성 판단부, 상기 컨텐츠 입력부에 입력된 컨텐츠의 메타데이터에 적어도 상기 유해성 판단부에서 판단된 유해 정도에 기초한 상영등급 및 등록 사이트 주소를 추가하여 상기 메타데이터를 재구성하는 메타데이터 재구성부, 및 상기 재구성된 메타데이터와 함께 상기 입력된 컨텐츠의 등록을 상기 관리 서버에 요청하는 컨텐츠 출력부를 포함할 수 있다.
상기 유해성 판단부는 상기 입력된 컨텐츠를 일정 배속으로 재생하여 상기 컨텐츠의 유해성 여부를 판단하고 의심스러운 장면이 있거나 판단이 애매한 경우에 상기 재생 배속을 조절하여 재검사할 수 있다.
상기 메타데이터 재구성부는 상기 유해성 판단에 따른 상기 컨텐츠의 객관적인 상영등급을 결정하고 결정된 상기 상영등급, 게시자의 이메일주소, 아이디, IP 주소, 게시 날짜, 유해성 검사 날짜, 등록한 웹사이트 주소, 저작권 보호 여부 중 적어도 하나 이상을 포함하는 메타 정보를 상기 메타데이터에 추가하여 재구성할 수 있다.
상기 구독자 단말은 상기 관리 서버로부터 다운로드 받은 컨텐츠를 저장하는 컨텐츠 저장부, 상기 관리 서버로부터 스트리밍 되는 컨텐츠의 메타데이터를 분석하여 상기 메타데이터의 신뢰성을 확인하는 메타데이터 분석부, 상기 관리 서버로부터 스트리밍 되는 컨텐츠에 대해 상기 메타데이터 분석부를 통해 상기 메타데이터의 신뢰성이 확인되면 상기 메타데이터와 구독자 정보를 토대로 해당 컨텐츠의 유해성을 판단하고, 상기 메타데이터의 신뢰성이 확인되지 않거나 상기 메타데이터가 없는 스트리밍 되는 상기 컨텐츠 또는 상기 컨텐츠 저장부에 저장된 컨텐츠에 대해 실시간으로 유해성 검사를 통해 유해성 여부를 판단하는 유해성 판단부, 및 상기 컨텐츠 중 유해성 판단 기준을 만족하는 컨텐츠를 표시하는 컨텐츠 표시부를 포함할 수 있다.
상기 메타데이터 분석부는 스트리밍 되는 상기 컨텐츠로부터 메타데이터를 취득하고 취득된 상기 메타데이터에 포함된 해당 컨텐츠의 등록 웹사이트 주소와 스트리밍되는 웹사이트 주소의 일치 여부를 비교하여 상기 메타데이터의 신뢰성을 확인하고, 상기 유해성 판단부는 상기 메타데이터의 신뢰성이 확인되면 상기 메타데이터에 포함된 해당 컨텐츠의 상영등급과 구독자 정보에 의한 시청 가능 등급을 토대로 유해성 컨텐츠를 판단할 수 있다.
상기 유해성 판단부는 유해 URL 리스트를 저장하는 로컬DB를 포함하고 사용자가 요청한 컨텐츠의 URL을 상기 로컬DB에 저장된 유해 URL 리스트와 대조하여 유해 URL 등록 여부를 검사하고, 유해 URL로 등록된 경우에는 상기 컨텐츠 표시부를 통해 URL 검사 결과를 표시하고 상기 컨텐츠를 차단할 수 있다.
실시예들 중에서, 메타데이터를 이용한 유해 컨텐츠 관리 방법은 게시자 단말에서 컨텐츠 업로드 시 컨텐츠의 유해성 검사를 통해 업로드 가능여부를 판단하는 단계, 게시자 단말에서 업로드 가능한 경우 상기 컨텐츠의 유해성 검사 결과를 기초로 메타데이터에 상기 컨텐츠의 유해 정도를 표시하는 상영등급, 게시자의 아이디(ID), IP 주소를 포함한 게시자 정보, 등록 웹사이트 주소를 추가하여 메타데이터를 재구성하고 재구성된 메타데이터와 상기 컨텐츠를 관리 서버에 전송하여 업로드하는 단계, 구독자 단말에서 구독자가 요청한 컨텐츠의 URL 검사를 실시하여 유해 URL 등록 여부를 판단하는 단계, 구독자 단말에서 유해 URL로 등록되지 않은 경우 구독자가 요청한 컨텐츠를 다운로드 받아 저장하거나 스트리밍하는 단계, 스트리밍 중인 컨텐츠에 대해 메타데이터에 포함된 컨텐츠의 등록 웹사이트 주소와 스트리밍 되는 컨텐츠의 웹사이트 주소의 일치 여부를 통해 신뢰성을 확인하고 신뢰성이 있으면 상기 메타데이터에 포함된 상영 등급과 구독자 정보를 토대로 컨텐츠의 유해성을 판단하고, 신뢰성이 없거나 상기 메타데이터가 없으면 상기 컨텐츠의 재생 과정에서 실시간으로 유해성 컨텐츠 검사를 통해 유해성을 판단하는 단계, 및 상기 판단결과 안전 컨텐츠인 경우에 정상적으로 재생하고 유해 컨텐츠인 경우에 재생 중단하거나 가려서 표시하는 단계를 포함한다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법은 업로드되는 컨텐츠의 메타데이터에 대해 신뢰성을 확보하여 컨텐츠 재생시 메타데이터를 통해 컨텐츠의 유해성을 확인하고 차단할 수 있다.
본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법은 컨텐츠를 제작하여 업로드하는 단계에서 컨텐츠에 대해 유해성 여부를 검사하고 메타데이터에 검사결과를 반영하여 업로드함으로써 컨텐츠의 메타데이터에 대해 객관성 및 신뢰성을 확보할 수 있고 이를 활용하여 유해 컨텐츠를 효과적으로 차단할 수 있다.
본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법은 다운로드 또는 스트리밍으로 컨텐츠 재생시 사용자 정보와 해당 컨텐츠의 신뢰성이 확보된 메타데이타를 통해 유해성을 확인할 수 있으며 컨텐츠에 메타데이터가 없거나 메타데이터에 대해 신뢰성 확보가 안된 경우 실시간으로 유해성 여부를 검사하고 유해성이 있다고 판단된 콘텐츠를 차단할 수 있다.
도 1은 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치를 개략적으로 도시한 구성도이다.
도 2는 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치의 게시자 단말의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치의 구독자 단말의 구성을 도시한 블록도이다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치의 구동 과정을 도시한 순서도이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치를 개략적으로 도시한 구성도이다.
도 1을 참조하면, 메타데이터를 이용한 유해 컨텐츠 관리 장치(100)는 게시자 단말(110), 구독자 단말(130), 관리 서버(150) 및 데이터베이스(170)를 포함할 수 있다.
게시자 단말(110)은 온라인 게시판 등에 새로운 글, 이미지 또는 동영상 등의 컨텐츠를 업로드하는 컴퓨팅 장치에 해당할 수 있고, 구독자 단말(130)은 게시자 단말(110)에 의해 업로드 된 다양한 컨텐츠들을 온라인 혹은 오프라인 상태에서 재생하여 구독할 수 있는 컴퓨팅 장치에 해당할 수 있다. 게시자 단말(110) 및 구독자 단말(130)은 스마트폰, 노트북 또는 컴퓨터로 구현될 수 있으며, 반드시 이에 한정되지 않고, 태블릿 PC 등 다양한 디바이스로도 구현될 수 있다. 게시자 단말(110) 및 구독자 단말(130)은 관리 서버(150)와 네트워크를 통해 연결될 수 있고, 복수의 게시자 단말(110)들 및 복수의 구독자 단말(130)들과 동시에 연결될 수 있다.
관리 서버(150)는 게시자 단말(110) 및 구독자 단말(130) 각각에서 컨텐츠의 유해성 검사가 이루어지도록 유해성 판단 프로그램을 제공할 수 있다. 관리 서버(150)는 게시자 단말(110) 및 구독자 단말(130)과 유선 네트워크 또는 블루투스, WiFi 등과 같은 무선 네트워크로 연결될 수 있고, 유선 또는 무선 네트워크를 통해 게시자 단말(110) 및 구독자 단말(130)과 통신을 수행할 수 있다. 관리 서버(150)는 데이터베이스(170)와 연동하여 컨텐츠의 유해성을 검사하여 객관성 및 신뢰성을 갖는 메타데이터를 작성하고 메타데이터를 이용하여 유해성을 확인하여 유해 컨텐츠의 게시 및 구독을 차단하는 데 필요한 다양한 정보들을 저장할 수 있다. 한편, 관리 서버(150)는 도 1과 달리, 데이터베이스(170)를 내부에 포함하여 구현될 수 있다.
데이터베이스(170)는 관리 서버(150)가 메타데이터를 이용한 유해 컨텐츠 관리 과정에서 필요한 다양한 정보들을 저장할 수 있다. 예를 들어, 데이터베이스(170)는 게시자 단말(110)에서 업로드한 컨텐츠를 저장할 수 있고, 컨텐츠와 연관된 메타데이터를 저장할 수 있으며, 반드시 이에 한정되지 않고, 컨텐츠의 게시와 구독 및 유해 컨텐츠 판별을 포함하는 일련의 과정에서 다양한 형태로 수집 또는 가공된 정보들을 저장할 수 있다.
도 2는 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치의 게시자 단말의 구성을 도시한 블록도이다.
도 2를 참조하면, 게시자 단말(110)은 게시하고자 하는 컨텐츠를 입력하는 컨텐츠 입력부(210), 유해성 판단부(230), 메타데이터 재구성부(250), 컨텐츠 출력부(270) 및 제어부(290)를 포함할 수 있다.
컨텐츠 입력부(210)는 게시자 단말(110)의 사용자를 통해 컨텐츠를 입력 받는다. 사용자가 컨텐츠를 입력하기 위한 입력 기능을 활성화하면, 컨텐츠를 입력하기 위한 편집기가 오픈된다. 이 편집기를 통해 사용자가 컨텐츠를 입력할 수 있다.
유해성 판단부(230)는 관리 서버(150)로부터 다운로드된 유해성 판단용 프로그램이 저장된다. 유해성 판단용 프로그램은 인공지능 기능이 포함 된 플러그인, 익스텐션, 클래스, 독립 프로그램 등 다양하게 만들 수 있다. 유해성 판단부(230)는 게시자 단말(110)의 사용자로부터 컨텐츠의 입력이 완료되면, 유해성 판단용 프로그램을 통해 해당 컨텐츠의 유해성 여부를 판단한다. 일 실시예에서, 유해성 판단부(230)는 작성된 컨텐츠의 이미지, 그림, 영상, 글자, 소리 등을 인식하여 유해물을 판별할 수 있다. 여기에서, 유해성 판단부(230)는 작성된 컨텐츠의 내용물 인식이 용이한 배속으로 컨텐츠를 재생하여 유해성 여부를 판단할 수 있고 의심스러운 장면이 있거나 정확한 판단을 내리기 애매한 경우에 재생 속도를 조절할 수 있다. 예컨대, 유해성 판단을 위해 기본 12배속 재생하고 애매한 부분의 경우 2배속 혹은 4배속 등으로 속도를 늦추거나 특정 부분으로 되돌아가 재검사를 실시할 수 있다.
일 실시예에서, 유해성 판단부(230)는 유해성 판단 결과 음란물, 폭력 또는 혐오 영상 컨텐츠를 포함한 사이트 관리의 방침에서 벗어났을 경우 해당 컨텐츠의 게시가 금지된다는 안내 문구를 표시하여 게시자 단말(110)의 사용자에게 알린 후 해당 컨텐츠의 게시를 자동으로 차단할 수 있다.
메타데이타 재구성부(250)는 유해성 판단 결과에 기초하여 입력된 컨텐츠의 기존 메타데이터를 편집하여 객관성과 신뢰성을 갖는 메타데이터로 재구성할 수 있다. 예컨대, 입력된 컨텐츠가 mpg, avi, mov 등의 형식으로 저장된 파일의 동영상 컨텐츠일 경우, 영상의 제목, 상영시간, 영상 등급, 제작일 등의 다양한 정보를 담고 있는 메타데이터가 포함될 수 있다. 메타데이터는 영상 플레이어 및 제작 소프트웨어 등에 의하여 등록, 편집, 삭제가 가능하기 때문에 영상 제작자의 주관에 따라 영상물의 등급을 설정할 수 있고 기존 입력된 정보를 변경할 수 있다.
메타데이터 재구성부(250)는 입력된 컨텐츠의 기존 메타데이터에 유해성 판단부(230)의 유해성 판단 결과에 따라 객관적인 정보를 추가하여 메타데이터에 대해 신뢰성을 확보할 수 있다. 일 실시예에서, 메타데이터 재구성부(250)는 기존 메타데이터에 유해성 판단에 따라 결정된 상영등급, 게시자의 이메일주소, 아이디, IP주소, 게시날짜, 유해성 검사 날짜, 업로드시 사용한 웹사이트 주소(등록지), 저작권 보호 여부 등의 다양한 정보를 추가할 수 있다. 여기에서, 메타데이터 재구성부(250)는 기존 메타데이터에 다양한 정보를 추가하여 연관된 해당 컨텐츠의 유해 정도를 객관적으로 정의할 수 있고 게시자 확인이 용이하여 음란/유해 컨텐츠의 제작 및 무단 배포를 근본적으로 방지할 수 있다. 예컨대, 메타데이터 재구성부(250)는 유해성 판단 결과에 따라 성인용, 음란물, 청소년용 등으로 상영등급을 결정할 수 있다.
컨텐츠 출력부(270)는 재구성된 메타데이터와 함께 입력된 컨텐츠의 등록을 관리 서버(150)에 요청하여 관리 서버(150)에 재구성된 메타데이타와 함께 해당 컨텐츠를 저장할 수 있다.
제어부(290)는 게시자 단말(110)에서 컨텐츠를 관리 서버(150)에 등록하는 과정에서 유해물을 검사하여 게시 가능 여부, 게시 가능할 경우 검사결과를 토대로 컨텐츠의 기존 메타데이터를 재구성하여 메타데이터에 신뢰성을 확보한 후 게시될 수 있도록 컨텐츠 입력부(210), 유해성 판단부(230), 메타데이터 재구성부(250) 및 컨텐츠 출력부(270)의 동작을 전반적으로 제어하고 이들 간의 제어 및 데이터 흐름을 관리할 수 있다.
도 3은 본 발명의 일 실시예에 따른 메타데이터를 이용한 유해 컨텐츠 관리 장치의 구독자 단말의 구성을 도시한 블록도이다.
도 3을 참조하면, 구독자 단말(130)는 유해성 판단부(310), 컨텐츠 저장부(330), 메타데이터 분석부(350), 컨텐츠 표시부(370) 및 제어부(390)를 포함한다.
유해성 판단부(310)는 관리 서버(150)로부터 다운로드된 유해성 판단용 프로그램이 저장된다. 유해성 판단용 프로그램은 인공지능 기능이 포함된 플러그인, 인스텐션, 클래스, 독립 프로그램 등 다양하게 만들 수 있다. 유해성 판단부(310)는 유해 URL 리스트가 저장되는 로컬DB(311)를 포함할 수 있다.
일 실시예에서, 로컬DB(311)는 유해성 판단용 프로그램 최초 설치시 또는 사용자 요청에 따라 관리 서버(150)로부터 유해 URL 리스트를 제공받아 저장할 수 있다. 여기에서, 로컬DB(311)는 특정된 유해 사이트 주소 목록과 함께 사용자가 방문한 기록을 근거로 유해 컨텐츠가 발견된 사이트 주소를 포함하는 사용자 맞춤형 유해 URL 리스트를 저장할 수 있다. 이로써 유해 URL 리스트의 네트워크 전송을 통한 네트워크 리소스를 줄일 수 있고 관리 서버(150)의 부하 및 용량을 줄일 수 있다. 또한, 유해 URL 리스트가 역으로 공유되는 것을 막을 수 있다. 유해성 판단부(310)는 로컬DB(311)에 저장된 유해 URL 리스트를 토대로 사용자가 컨텐츠 요청한 사이트의 URL 검사를 실시할 수 있다. 이때, 사용자가 컨텐츠 요청한 사이트가 유해 URL로 등록된 사이트가 아닌 경우에 관리 서버(150)로부터 구독자 단말(130)로 해당 컨텐츠를 다운로드 또는 스트리밍(streaming)하여 구독할 수 있다.
컨텐츠 저장부(330)는 관리 서버(150)로부터 다운로드된 컨텐츠를 저장한다. 구독자 단말(130)의 사용자는 컨텐츠 저장부(330)에 저장된 컨텐츠를 오프라인 상에서 구독할 수 있다. 이때, 유해성 판단부(310)는 사용자의 시청 가능 상영등급을 기준으로 실시간으로 유해성 여부를 판단하여 해당 컨텐츠의 재생, 재생중지, 차단 등을 처리할 수 있게 한다.
메타데이터 분석부(350)는 스트리밍으로 컨텐츠를 온라인 상에서 구독하는 경우 해당 컨텐츠에 포함된 메타데이터의 신뢰성을 확인할 수 있다. 메타데이터 분석부(350)는 메타데이터로부터 컨텐츠가 업로드된 웹사이트와 스트리밍된 웹사이트의 주소를 비교하여 신뢰성을 확인할 수 있고, 두 사이트의 주소가 일치할 경우 신뢰성이 있다고 판단할 수 있다.
메타데이터 분석부(350)에서 신뢰성 있는 메타데이터로 확인된 경우, 구독자 단말(130)은 메타데이터에 포함된 컨텐츠의 상영등급과 사용자의 시청 가능 등급을 바탕으로 해당 컨텐츠의 재생 및 차단, 가리기 등을 처리할 수 있다. 메타데이터 분석부(350)에서 메타데이터가 없거나 메타데이터의 신뢰성이 없는 경우로 확인되면, 이때 유해성 판단부(310)는 유해성 판단용 프로그램을 통해 실시간으로 해당 컨텐츠의 유해성 여부를 판단한다.
컨텐츠 표시부(370)는 유해성을 통과한 컨텐츠를 사용자가 구독할 수 있도록 화면에 표시할 수 있다. 컨텐츠 표시부(370)는 사용자의 유해성 판단 기준을 통과한 컨텐츠에 대해서는 정상적으로 표시하고 사용자의 유해성 판단 기준을 통과하지 못한 컨텐츠에 대해서는 다른 컨텐츠로 변경하여 표시할 수 있다. 예컨대, 금지된 용어를 순화된 용어로 변경하거나, 유해성이 있는 이미지를 흐릿하게 처리하거나 하는 등의 과정을 거쳐 컨텐츠를 표시할 수 있다.
제어부(390)는 구독자 단말(130)에서 메타데이터를 이용하여 인터넷에 게시되어 있는 다양한 컨텐츠 중에 사용자 요청한 컨텐츠를 수신하여 유해성을 검사하고 사용자의 요구에 맞는 안전한 컨텐츠를 보여줄 수 있도록 유해성 판단부(310), 컨텐츠 저장부(330), 메타데이터 분석부(350) 및 컨텐츠 표시부(370)의 동작을 전반적으로 제어하고 이들 간의 제어 및 데이터 흐름을 관리할 수 있다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 메타데이타를 이용한 유해 컨텐츠 관리 장치의 구동 과정을 도시한 도면이다.
도 4를 참조하면, 게시자 단말(110)의 컨텐츠 업로드에 따른 유해 컨텐츠 관리 과정을 도시한 것이다.
먼저, 게시자 단말(110)는 컨텐츠와 메타데이터를 입력하고 업로드 요청한다(단계 S410). 일 실시예에서, 게시자 단말(110)의 사용자는 컨텐츠를 제작하여 게시자 단말(110)에 저장할 수 있고, 이때 컨텐츠에 메타데이타를 추가하여 저장할 수 있다. 여기에서, 컨텐츠는 영상파일의 형태일 수 있고 이에 한정되지 않고 이미지, 글, 소리 등의 다양한 형태일 수 있다. 사용자는 영상파일의 컨텐츠의 제작일, 제목, 상영시간, 제작자, 상영등급을 표시하는 정보를 메타데이터의 형태로 생성할 수 있다. 메타데이터에 포함되는 정보는 사용자에 의해 임의 결정될 수 있다. 일 실시예에서, 게시자 단말(110)은 컨텐츠와 메타데이터가 입력되면 메모리에 저장하여 사용자의 추가적인 조작을 방지할 수 있다.
게시자 단말(110)는 입력된 컨텐츠의 유해성 검사를 통해 업로드 가능 여부를 판단한다(단계 S420). 일 실시예에서, 게시자 단말(110)은 관리 서버(150)로부터 유해성 판단용 프로그램을 제공받아 로컬 상에서 컨텐츠의 유해성 검사를 수행할 수 있다. 여기에서, 게시자 단말(110)은 입력된 컨텐츠를 특정 배속으로 재생하여 내용을 인식하고 유해성을 판별한다. 게시자 단말(110)은 입력된 컨텐츠의 유해성 정도가 사이트 관리자의 기준을 벗어난 업로드가 불가능한 경우 입력된 해당 컨텐츠의 게시를 자동으로 차단시킬 수 있다.
게시자 단말(110)는 업로드 가능한 경우 입력된 컨텐츠의 유해성 판단을 기초로 기존 메타데이터를 재구성한다(단계 S430). 일 실시예에서, 게시자 단말(110)은 유해성 판단을 통해 입력된 해당 컨텐츠의 상영 등급을 새롭게 정할 수 있고, 기존 메타데이터에 포함된 상영 등급을 새롭게 정한 상영 등급으로 변경할 수 있다. 예컨대, 상영 등급은 성인용/음란물/청소년용 등의 형식으로 구성할 수 있고, 이에 한정되지 않고 유해성 정도에 따라 보다 세분화할 수도 있다. 여기에서, 게시자 단말(110)은 기존 메타데이터에 사용자 ID, IP 주소 등의 사용자(업로더) 정보, 업로드 날짜, 유해성 검사 날짜, 업로드시 사용한 사이트 주소(등록지) 등을 추가하여 재구성할 수 있다. 게시자 단말(110)은 사용자로부터 메타데이터에 추가할 정보를 입력받을 수도 있다. 예컨대, 사용자로부터 입력된 해당 컨텐츠의 저작권 보호 여부를 입력받아 메타데이터에 추가할 수 있다.
게시자 단말(110)은 입력된 컨텐츠 및 컨텐츠의 구재성된 메타데이터를 관리 서버(150)로 전송하여 업로드 완료한다(단계 S440). 관리 서버(150)는 게시자 단말(110)로부터 업로드되는 컨텐츠 및 메타데이터를 저장하고 인터넷 상에 게시한다.
도 5를 참조하면, 구독자 단말(130)의 컨텐츠 구독 요청에 따른 유해 컨텐츠 관리 과정을 도시한 것이다.
먼저, 사용자는 구독자 단말(130)을 통해 관리 서버(150)에 컨텐츠를 요청할 수 있다(단계 S510). 일 실시예에서, 구독자 단말(130)은 웹브라우저, 앱, IoT 디바이스 등을 통해 원하는 컨텐츠 요청을 할 수 있다. 여기에서, 요청 가능한 컨텐츠는 웹사이트, 이미지, 동영상, 스마트폰 문자 메시지 등 다양하게 포함될 수 있다. 구독자 단말(130)에서 컨텐츠 요청하면, 관리 서버(150)를 통해 유해성 판단 프로그램이 구독자 단말(130)에 다운로드될 수 있다. 또한, 유해 URL 리스트들이 다운로드될 수 있다.
구독자 단말(130)은 사용자가 요청한 컨텐츠에 대해 우선적으로 URL 검사를 실시하여 유해 URL 등록 여부를 판단할 수 있다(단계 S520). 일 실시예에서, 구독자 단말(130)은 유해성 판단부(310)를 통해 로컬DB(311)에 저장된 유해 URL 리스트와 대조하여 오프라인 상태에서 실시간으로 URL 검사를 실시할 수 있다. 여기에서, 로컬DB(311)에는 관리 서버(120)에서 제공되는 공공 유해 URL 리스트와 사용자 개인 성향에 기초하여 등록된 개인 유해 URL 리스트가 함께 저장되어 유해성 판단부(310)는 사용자의 기준에 만족하는 URL 검사를 실시할 수 있다. 물론, 구독자 단말(130)은 관리 서버(150)와 온라인 상태에서 실시간으로 URL 검사를 실시할 수도 있다. URL 검사 결과, 유해 URL로 등록된 경우에는 구독자 단말(130)에 결과를 표시할 수 있다. 이때, 사용자 설정과 본 유해성 판단 프로그램의 분류(기업용, 무료, OEM 등)에 구독자 단말(130)에 표시 내용을 달리 할 수 있다. 예컨대, 본 유해성 판단 프로그램이 개인용인 경우에는 사용자 요청 컨텐츠를 차단하고 안전 사이트로 이동할 수 있고, 기업용인 경우에는 기업고객이 요구한 내용을 대체 표시할 수 있다.
구독자 단말(130)은 URL 검사 결과 유해 URL로 등록되지 않은 경우에는 해당 컨텐츠를 다운로드받아 저장한 후 오프라인 상태에서 구독하거나 스트리밍으로 온라인 상태에서 구독할 수 있다.
구독자 단말(130)은 컨텐츠를 스트리밍으로 온라인 구독하는 경우 스트리밍 중인 컨텐츠의 메타데이터를 분석하여 유해 컨텐츠를 확인할 수 있다(단계 S530). 일 실시예에서, 구독자 단말(130)은 관리 서버(150)로부터 컨텐츠를 스트리밍하는 과정에서 컨텐츠의 메타데이타를 취득할 수 있다. 구독자 단말(130)은 취득한 메타데이터에 포함된 컨텐츠의 등록지 즉, 컨텐츠가 업로드 된 웹사이트의 주소와 컨텐츠가 스트리밍되는 현재 웹사이트의 주소를 비교하여 메타데이타의 신뢰성을 확인할 수 있다. 구독자 단말(130)은 두 주소가 일치하는 경우에 메타데이터의 신뢰성이 확보된 것으로 간주하고 사용자 정보와 메타데이터에 포함된 상영등급을 바탕으로 컨텐츠의 유해성을 판별한다. 예컨대, 사용자의 로그인 정보, 성인인증 등을 통해 사용자의 시청 가능 등급을 확인하여 이를 바탕으로 컨텐츠의 유해성 여부를 판별한다.
구독자 단말(130)은 메타데이터의 신뢰성이 확인되지 않은 경우 혹은 메타데이터가 없는 경우에, 컨텐츠 스트리밍과 동시에 구독자 단말(130)의 화면에 출력하기 전에 실시간으로 유해성 판단 여부를 진행할 수 있다(단계 S540). 일 실시예에서, 구독자 단말(130)은 컨텐츠가 스트리밍되는 웹사이트가 메타데이터에 있는 업로드 된 웹사이트(등록지)와 다를 경우 메타데이터의 신뢰성이 확보되지 않은 경우로 보고 취득한 메타데이타를 무시할 수 있다. 구독자 단말(130)은 유해성 판단부(310)의 유해성 판단용 프로그램을 통해 실시간으로 컨텐츠의 유해성을 검사하며 그에 따라 컨텐츠의 재생을 차단하거나 가리기를 할 수 있다. 구독자 단말(130)은 실시간 유해성 검사에 의하여 취득한 시청 등급 등의 정보를 컨텐츠의 재생 경로와 함께 개인 임시 저장소에 보관하여 캐쉬로 활용할 수 있다. 이 캐쉬로 컨텐츠의 다음 재생 시 차단, 재생 금지 등을 할 수 있다. 일 실시예에서, 구독자 단말(130)은 메타데이터에 저작권 보호 등록된 경우 메타데이터에 등록 웹사이트의 관리자/등록자에게 컨텐츠 재생에 대하여 불법 취득 및 해당 컨텐츠에 대한 저작권 침해 여부를 보고할 수 있다. 일 실시예에서, 구독자 단말(130)은 메타데이터가 없는 경우에 실시간 유해성 검사결과를 관리 서버(150)에 자동 보고하여 해당 컨텐츠의 게시를 방지 및 차단하도록 할 수 있다.
구독자 단말(130)은 다운로드받아 저장된 컨텐츠를 오프라인 상태에서 구독시 실시간으로 유해성 컨텐츠 검사를 실시할 수 있다(단계 S550). 여기에서, 구독자 단말(130)은 유해성 판단부(310)를 통해 개인별 또는 관리자 설정에 따른 시청 가능 상영등급을 고려하여 유해성을 판단할 수 있다.
구독자 단말(130)은 안전 컨텐츠로 판단된 경우에는 화면에 정상적으로 컨텐츠를 표시할 수 있고, 유해 컨텐츠로 판단된 경우에는 해당 컨텐츠의 재생을 중단하여 화면 출력을 전면 차단하거나 화면에 기준에 어긋나는 부분을 가려서 표시할 수 있다(단계 S560).
상술한 바와 같이, 게시자 단말을 통해 오프라인 상태에서 실시간으로 유해성 컨텐츠를 검사하여 검사결과를 컨텐츠의 메타데이터에 반영시킴으로써 메타데이터의 신뢰성을 확보하여 안전하게 컨텐츠를 관리 및 배포할 수 있는 효과가 있다.
메타데이터가 없거나 메타데이터의 신뢰성이 확보되지 않은 컨텐츠에 대해서는 인공지능을 활용한 실시간 유해성 검사를 통해 유해 컨텐츠를 차단할 수 있고, 우회 경로를 통한 접근 시에 실시간 음란 영상 채팅이 시작되면 실시간 영상 검사하여 접속을 차단할 수 있다.
메타데이터에 저작권 보호 등록을 포함하여 컨텐츠의 등록지와 다른 웹사이트에서 컨텐츠가 재생되는 경우 불법 취득 및 해당 컨텐츠에 대한 저작권 침해 여부를 보고하여 저작권 관리를 할 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
[부호의 설명]
100: 메타데이터를 이용한 유해 컨텐츠 관리 장치
110: 게시자 단말
130: 구독자 단말
150: 관리 서버
170: 데이터베이스
210: 컨텐츠 입력부
230: 유해성 판단부
250: 메타데이터 재구성부
270: 컨텐츠 출력부
290: 제어부
310: 유해성 판단부
311: 로컬DB
330: 컨텐츠 저장부
350: 메타데이터 분석부
370: 컨텐츠 표시부
390: 제어부

Claims (8)

  1. 컨텐츠에 대해 유해성 여부를 검사하고 상기 컨텐츠의 메타데이터에 검사결과를 반영하여 관리 서버에 업로드하는 게시자 단말;
    상기 게시자 단말이 업로드한 컨텐츠의 메타데이터를 분석하여 유해성을 확인하는 구독자 단말; 및
    상기 게시자 단말로부터 업로드 된 컨텐츠를 등록하고 상기 구독자 단말에서 요청한 컨텐츠를 다운로드 또는 스트리밍 제공하는 관리 서버를 포함하는 메타데이터를 이용한 유해 컨텐츠 관리 장치.
  2. 제1항에 있어서, 상기 게시자 단말은
    컨텐츠 입력부;
    상기 컨텐츠 입력부에 입력된 컨텐츠의 유해성 여부를 판단하는 유해성 판단부;
    상기 컨텐츠 입력부에 입력된 컨텐츠의 메타데이터에 적어도 상기 유해성 판단부에서 판단된 유해 정도에 기초한 상영등급 및 등록 사이트 주소를 추가하여 상기 메타데이터를 재구성하는 메타데이터 재구성부; 및
    상기 재구성된 메타데이터와 함께 상기 입력된 컨텐츠의 등록을 상기 관리 서버에 요청하는 컨텐츠 출력부를 포함하는 것을 특징으로 하는 메타데이터를 이용한 유해 컨텐츠 관리 장치.
  3. 제2항에 있어서, 상기 유해성 판단부는
    상기 입력된 컨텐츠를 일정 배속으로 재생하여 상기 컨텐츠의 유해성 여부를 판단하고 의심스러운 장면이 있거나 판단이 애매한 경우에 상기 재생 배속을 조절하여 재검사하는 것을 특징으로 하는 메타데이터를 이용한 유해 컨텐츠 관리 장치.
  4. 제2항에 있어서, 상기 메타데이터 재구성부는
    상기 유해성 판단에 따른 상기 컨텐츠의 객관적인 상영등급을 결정하고 결정된 상기 상영등급, 게시자의 이메일주소, 아이디, IP 주소, 게시 날짜, 유해성 검사 날짜, 등록한 웹사이트 주소, 저작권 보호 여부 중 적어도 하나 이상을 포함하는 메타 정보를 상기 메타데이터에 추가하여 재구성하는 것을 특징으로 하는 메타데이터를 이용한 유해 컨텐츠 관리 장치.
  5. 제1항에 있어서, 상기 구독자 단말은
    상기 관리 서버로부터 다운로드 받은 컨텐츠를 저장하는 컨텐츠 저장부;
    상기 관리 서버로부터 스트리밍 되는 컨텐츠의 메타데이터를 분석하여 상기 메타데이터의 신뢰성을 확인하는 메타데이터 분석부;
    상기 관리 서버로부터 스트리밍 되는 컨텐츠에 대해 상기 메타데이터 분석부를 통해 상기 메타데이터의 신뢰성이 확인되면 상기 메타데이터와 구독자 정보를 토대로 해당 컨텐츠의 유해성을 판단하고, 상기 메타데이터의 신뢰성이 확인되지 않거나 상기 메타데이터가 없는 스트리밍 되는 상기 컨텐츠 또는 상기 컨텐츠 저장부에 저장된 컨텐츠에 대해 실시간으로 유해성 검사를 통해 유해성 여부를 판단하는 유해성 판단부; 및
    상기 컨텐츠 중 유해성 판단 기준을 만족하는 컨텐츠를 표시하는 컨텐츠 표시부를 포함하는 것을 특징으로 하는 메타데이터를 이용한 유해 컨텐츠 관리 장치.
  6. 제5항에 있어서, 상기 메타데이터 분석부는
    스트리밍 되는 상기 컨텐츠로부터 메타데이터를 취득하고 취득된 상기 메타데이터에 포함된 해당 컨텐츠의 등록 웹사이트 주소와 스트리밍되는 웹사이트 주소의 일치 여부를 비교하여 상기 메타데이터의 신뢰성을 확인하고,
    상기 유해성 판단부는
    상기 메타데이터의 신뢰성이 확인되면 상기 메타데이터에 포함된 해당 컨텐츠의 상영등급과 구독자 정보에 의한 시청 가능 등급을 토대로 유해성 컨텐츠를 판단하는 것을 특징으로 하는 메타데이터를 이용한 유해 컨텐츠 관리 장치.
  7. 제5항에 있어서, 상기 유해성 판단부는
    유해 URL 리스트를 저장하는 로컬DB를 포함하고 사용자가 요청한 컨텐츠의 URL을 상기 로컬DB에 저장된 유해 URL 리스트와 대조하여 유해 URL 등록 여부를 검사하고, 유해 URL로 등록된 경우에는 상기 컨텐츠 표시부를 통해 URL 검사 결과를 표시하고 상기 컨텐츠를 차단하는 것을 특징으로 하는 메타데이터를 이용한 유해 컨텐츠 관리 장치.
  8. 게시자 단말에서 컨텐츠 업로드 시 컨텐츠의 유해성 검사를 통해 업로드 가능여부를 판단하는 단계;
    게시자 단말에서 업로드 가능한 경우 상기 컨텐츠의 유해성 검사 결과를 기초로 메타데이터에 상기 컨텐츠의 유해 정도를 표시하는 상영등급, 게시자의 아이디(ID), IP 주소를 포함한 게시자 정보, 등록 웹사이트 주소를 추가하여 메타데이터를 재구성하고 재구성된 메타데이터와 상기 컨텐츠를 관리 서버에 전송하여 업로드하는 단계;
    구독자 단말에서 구독자가 요청한 컨텐츠의 URL 검사를 실시하여 유해 URL 등록 여부를 판단하는 단계;
    구독자 단말에서 유해 URL로 등록되지 않은 경우 구독자가 요청한 컨텐츠를 다운로드 받아 저장하거나 스트리밍하는 단계;
    스트리밍 중인 컨텐츠에 대해 메타데이터에 포함된 컨텐츠의 등록 웹사이트 주소와 스트리밍 되는 컨텐츠의 웹사이트 주소의 일치 여부를 통해 신뢰성을 확인하고 신뢰성이 있으면 상기 메타데이터에 포함된 상영 등급과 구독자 정보를 토대로 컨텐츠의 유해성을 판단하고, 신뢰성이 없거나 상기 메타데이터가 없으면 상기 컨텐츠의 재생 과정에서 실시간으로 유해성 컨텐츠 검사를 통해 유해성을 판단하는 단계; 및
    상기 판단결과 안전 컨텐츠인 경우에 정상적으로 재생하고 유해 컨텐츠인 경우에 재생 중단하거나 가려서 표시하는 단계를 포함하는 메타데이터를 이용한 유해 컨텐츠 관리 방법.
PCT/KR2021/007068 2020-06-16 2021-06-07 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법 WO2021256755A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200072886A KR102213373B1 (ko) 2020-06-16 2020-06-16 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법
KR10-2020-0072886 2020-06-16

Publications (1)

Publication Number Publication Date
WO2021256755A1 true WO2021256755A1 (ko) 2021-12-23

Family

ID=74560068

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/007068 WO2021256755A1 (ko) 2020-06-16 2021-06-07 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법

Country Status (2)

Country Link
KR (1) KR102213373B1 (ko)
WO (1) WO2021256755A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102600834B1 (ko) * 2023-08-17 2023-11-10 주식회사 이든엠 웹사이트 통합 관리 시스템

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102652949B1 (ko) * 2022-11-15 2024-04-01 굿모니터링 주식회사 휴먼어노테이션 기반 영상물 등급 분류 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020027987A (ko) * 2000-10-06 2002-04-15 황금용 음란물 차단방법 및 차단장치
KR100907172B1 (ko) * 2007-07-11 2009-07-09 에스케이 텔레콤주식회사 동영상 유통 환경에서 유해 동영상의 다단계 차단 시스템및 방법
KR100984395B1 (ko) * 2008-11-03 2010-09-29 인하대학교 산학협력단 영상 특성 분석을 통한 캡슐 내시경 영상 처리 방법
KR20130101645A (ko) * 2012-02-22 2013-09-16 주식회사 팬택 콘텐츠 필터링 장치 및 방법
KR101428037B1 (ko) * 2007-07-03 2014-08-07 엘지전자 주식회사 유해정보 차단 방법 및 시스템
KR20150107509A (ko) * 2014-03-14 2015-09-23 한국과학기술원 온라인 게시판 서버, 온라인 게시판 시스템 및 온라인 게시판의 유해 이미지 표시 제어 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100797600B1 (ko) 2007-05-17 2008-01-23 주식회사 플랜티넷 유해 동영상 파일의 이용 제한 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020027987A (ko) * 2000-10-06 2002-04-15 황금용 음란물 차단방법 및 차단장치
KR101428037B1 (ko) * 2007-07-03 2014-08-07 엘지전자 주식회사 유해정보 차단 방법 및 시스템
KR100907172B1 (ko) * 2007-07-11 2009-07-09 에스케이 텔레콤주식회사 동영상 유통 환경에서 유해 동영상의 다단계 차단 시스템및 방법
KR100984395B1 (ko) * 2008-11-03 2010-09-29 인하대학교 산학협력단 영상 특성 분석을 통한 캡슐 내시경 영상 처리 방법
KR20130101645A (ko) * 2012-02-22 2013-09-16 주식회사 팬택 콘텐츠 필터링 장치 및 방법
KR20150107509A (ko) * 2014-03-14 2015-09-23 한국과학기술원 온라인 게시판 서버, 온라인 게시판 시스템 및 온라인 게시판의 유해 이미지 표시 제어 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102600834B1 (ko) * 2023-08-17 2023-11-10 주식회사 이든엠 웹사이트 통합 관리 시스템

Also Published As

Publication number Publication date
KR102213373B1 (ko) 2021-02-08

Similar Documents

Publication Publication Date Title
WO2012047064A2 (ko) Drm 서비스 제공 방법 및 장치
WO2021256755A1 (ko) 메타데이터를 이용한 유해 컨텐츠 관리 장치 및 방법
US10740442B2 (en) Blocking of unlicensed audio content in video files on a video hosting website
KR102259730B1 (ko) 인공지능 기반의 유해 컨텐츠 차단 장치
US20080249961A1 (en) Digital rights management and audience measurement systems and methods
WO2011059275A2 (en) Method and apparatus for managing data
WO2021085718A1 (ko) 유해 콘텐츠 게시 방지 및 차단 장치
US7523211B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium
WO2021261852A1 (ko) 광고 삽입 기능을 이용한 개인 컨텐츠 판매 방법 및 장치
WO2010137905A2 (en) Multimedia content file management system for and method of using genetic information
WO2021054525A1 (ko) 비디오 플레이어에서 메모를 입력하는 방법 및 그를 이용한 서버
CN116055767A (zh) 视频文件的处理方法、装置、设备及可读存储介质
WO2021045473A1 (ko) 라우드니스 정규화 방법 및 시스템
US10587661B2 (en) Method and program for providing content streaming service and managing data statistics of user using QR code
WO2013041691A1 (en) Automated real time video mashup editor
WO2010114214A1 (ko) 이동식 셋탑 박스 및 멀티미디어 재생 장치
WO2021112308A1 (ko) 채용 면접 서비스를 제공하는 방법 및 서버
WO2015167312A1 (ko) 동영상 처리 장치 및 방법
WO2022164235A1 (ko) 영상 컨텐츠 실시간 유해성 검사 장치 및 방법
WO2016178466A1 (ko) 사용자 행동 분석에 따른 비디오 스트리밍 데이터 전송 방식 결정 방법 및 시스템
WO2023008894A1 (ko) 인공지능 에이전트 기반의 유해 컨텐츠 차단 서비스 플랫폼장치
US20080071886A1 (en) Method and system for internet search
KR20170048118A (ko) 메시징 서비스를 이용한 동영상 제공 방법, 동영상 제공을 위한 api 서버 및 스트리밍 서버
WO2020262768A1 (ko) 블록체인 기반의 저널리즘 서비스 제공 방법 및 장치
Kamada et al. Design of Highly Reliable Data Management Platform and System Prototyping for Vehicle State Management

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21827066

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21827066

Country of ref document: EP

Kind code of ref document: A1