KR102676153B1 - Apparatus and method for blocking real-time harmful content based on artificial intelligence algorithm - Google Patents

Apparatus and method for blocking real-time harmful content based on artificial intelligence algorithm Download PDF

Info

Publication number
KR102676153B1
KR102676153B1 KR1020230036587A KR20230036587A KR102676153B1 KR 102676153 B1 KR102676153 B1 KR 102676153B1 KR 1020230036587 A KR1020230036587 A KR 1020230036587A KR 20230036587 A KR20230036587 A KR 20230036587A KR 102676153 B1 KR102676153 B1 KR 102676153B1
Authority
KR
South Korea
Prior art keywords
data
content
harmful
harmfulness
specific
Prior art date
Application number
KR1020230036587A
Other languages
Korean (ko)
Inventor
김재문
김승완
노정인
Original Assignee
(주)노웨어소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)노웨어소프트 filed Critical (주)노웨어소프트
Priority to KR1020230036587A priority Critical patent/KR102676153B1/en
Application granted granted Critical
Publication of KR102676153B1 publication Critical patent/KR102676153B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/45Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4662Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
    • H04N21/4665Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms involving classification methods, e.g. Decision trees

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • Computational Linguistics (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

인공지능(artificial intelligence, AI) 알고리즘 기반의 실시간 유해 컨텐츠를 차단하는 방법 및 장치가 개시된다. 본 개시의 일 실시예에 따른, 장치에 의해 수행되는 AI 알고리즘 기반의 실시간 유해 컨텐츠를 차단하는 방법은, 사용자에 의해 업로드된 컨텐츠에 포함된 복수의 데이터를 컨텐츠 유형 별로 분류하는 단계; 상기 컨텐츠 유형 별로 분류된 복수의 데이터 각각에 대해 적어도 하나의 유해성 판단 모듈을 적용하여 상기 복수의 데이터 각각의 유해 지수를 산출하는 단계; 상기 복수의 데이터 중 유해 지수가 특정 범위 내에 속하는 특정 데이터를 미리 학습된 AI 모델에 입력하여 상기 특정 데이터가 유해 데이터인지 여부에 대한 정보를 획득하는 단계; 및 상기 획득된 정보에 의해 상기 특정 데이터가 유해 데이터로 식별됨에 기반하여, 상기 컨텐츠를 필터링하는 단계; 및 상기 획득된 정보에 기초하여 상기 특정 데이터의 유해 지수를 상기 특정 범위를 초과한 값으로 출력하도록 상기 적어도 하나의 유해성 판단 모듈을 업데이트하는 단계를 포함할 수 있다.A method and device for blocking harmful content in real time based on an artificial intelligence (AI) algorithm are disclosed. According to an embodiment of the present disclosure, a method of blocking harmful content in real time based on an AI algorithm performed by a device includes classifying a plurality of data included in content uploaded by a user by content type; calculating a harmfulness index of each of the plurality of data by applying at least one harmfulness determination module to each of the plurality of data classified by content type; Obtaining information on whether the specific data is harmful data by inputting specific data whose harmfulness index falls within a certain range among the plurality of data into a pre-trained AI model; and filtering the content based on the specific data being identified as harmful data by the obtained information. and updating the at least one harmfulness determination module to output the harmfulness index of the specific data as a value exceeding the specific range based on the obtained information.

Description

인공지능 알고리즘 기반의 실시간 유해 컨텐츠 차단 장치 및 방법{APPARATUS AND METHOD FOR BLOCKING REAL-TIME HARMFUL CONTENT BASED ON ARTIFICIAL INTELLIGENCE ALGORITHM}Real-time harmful content blocking device and method based on artificial intelligence algorithm {APPARATUS AND METHOD FOR BLOCKING REAL-TIME HARMFUL CONTENT BASED ON ARTIFICIAL INTELLIGENCE ALGORITHM}

본 개시는 유해 컨텐츠 차단 분야에 관한 것으로서, 더욱 상세하게는 인공지능 알고리즘 기반으로 유해 컨텐츠를 실시간으로 차단하는 장치 및 방법에 관한 것이다.This disclosure relates to the field of blocking harmful content, and more specifically, to a device and method for blocking harmful content in real time based on an artificial intelligence algorithm.

정보 통신 기술이 기하 급수적으로 발전함에 따라, 아동/청소년을 포함한 국민 대다수가 다양한 온라인 서비스를 이용하여 멀티미디어 콘텐츠를 손쉽게 생산 및 공유할 수 있게 되었다. As information and communication technology develops exponentially, the majority of citizens, including children and adolescents, can easily produce and share multimedia content using various online services.

상술한 바와 같이 고도로 정보화된 환경에서 불특정 다수에 의해 선정성 및 폭력성이 짙은 유해 성인물이 UCC, 블로그, 웹하드, P2P, 인스턴트 메시징 어플리케이션 등의 다양한 온라인 서비스를 통해 무단 유포되고 있다는 문제점이 존재한다. 이로 인해 개인 프라이버시의 침해 및 청소년 성범죄가 급증하고 있으며 이를 방지하기 위한 다양한 방법들이 고안되고 있다.As mentioned above, there is a problem that in a highly informationized environment, harmful adult material containing sexual profanity and violence is being distributed without permission by an unspecified number of people through various online services such as UCC, blogs, web hard, P2P, and instant messaging applications. As a result, violations of personal privacy and juvenile sexual crimes are rapidly increasing, and various methods are being devised to prevent this.

기존에는 검수자가 업로드된 복수의 동영상의 썸네일을 통해 유해성을 1차적으로 검수하였다. 검수자는 복수의 동영상 중 1차 검수를 통해 유해성이 인지된 특정 콘텐츠를 재생한 후 최종적으로 유해 동영상을 판별하였다. Previously, inspectors first checked for harmfulness through thumbnails of multiple uploaded videos. The inspector played specific content that was recognized as harmful through the first inspection among multiple videos, and finally identified the harmful video.

다만, 동영상과 같은 멀티미디어 컨텐츠의 수가 폭발적으로 증가함에 따라 위와 같은 검수 방법은 관리 비용의 증대로 서비스 사업자의 부담이 급증한다는 문제점이 존재한다.However, as the number of multimedia contents such as videos increases explosively, the above inspection method has a problem in that the burden on service providers increases rapidly due to an increase in management costs.

또한, 해당 검수 방법은 1차적으로 동영상의 배포 및 재생을 허용한다는 점에서 해당 동영상이 노출되는 시간이 반드시 존재한다는 문제점이 존재한다.In addition, since this inspection method primarily allows distribution and playback of videos, there is a problem that there is always a time when the video is exposed.

공개특허공보 제10-2014-0025113호, 2014.03.04Public Patent Publication No. 10-2014-0025113, 2014.03.04

본 개시는 상술된 문제점을 해결하기 위해 안출된 것으로서, 본 개시의 목적은 인공지능 알고리즘 기반의 실시간 유해 컨텐츠 차단 장치 및 방법을 제공함에 있다.The present disclosure was designed to solve the above-described problems, and the purpose of the present disclosure is to provide a real-time harmful content blocking device and method based on an artificial intelligence algorithm.

또한, 본 개시의 목적은 미디어 콘텐츠(예로, 영상 컨텐츠, 이미지 컨텐츠, 텍스트 컨텐츠 등) 상의 선정성 및/또는 폭력성의 정도를 판별하여 유해한 콘텐츠를 차단하는 장치 및 방법을 제공함에 있다.Additionally, the purpose of the present disclosure is to provide a device and method for blocking harmful content by determining the level of sensationality and/or violence in media content (eg, video content, image content, text content, etc.).

본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.

본 개시의 일 실시예에 따른, 장치에 의해 수행되는, 인공지능(artificial intelligence, AI) 알고리즘 기반의 실시간 유해 컨텐츠를 차단하는 방법은, 사용자에 의해 업로드된 컨텐츠에 포함된 복수의 데이터를 컨텐츠 유형 별로 분류하는 단계; 상기 컨텐츠 유형 별로 분류된 복수의 데이터 각각에 대해 적어도 하나의 유해성 판단 모듈을 적용하여 상기 복수의 데이터 각각의 유해 지수를 산출하는 단계; 상기 복수의 데이터 중 유해 지수가 특정 범위 내에 속하는 특정 데이터를 미리 학습된 AI 모델에 입력하여 상기 특정 데이터가 유해 데이터인지 여부에 대한 정보를 획득하는 단계; 및 상기 획득된 정보에 의해 상기 특정 데이터가 유해 데이터로 식별됨에 기반하여, 상기 컨텐츠를 필터링하는 단계; 및 상기 획득된 정보에 기초하여 상기 특정 데이터의 유해 지수를 상기 특정 범위를 초과한 값으로 출력하도록 상기 적어도 하나의 유해성 판단 모듈을 업데이트하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, a method of blocking harmful content in real time based on an artificial intelligence (AI) algorithm performed by a device includes dividing a plurality of data included in content uploaded by a user into a content type. Classifying by star; calculating a harmfulness index of each of the plurality of data by applying at least one harmfulness determination module to each of the plurality of data classified by content type; Obtaining information on whether the specific data is harmful data by inputting specific data whose harmfulness index falls within a certain range among the plurality of data into a pre-trained AI model; and filtering the content based on the specific data being identified as harmful data by the obtained information. and updating the at least one harmfulness determination module to output the harmfulness index of the specific data as a value exceeding the specific range based on the obtained information.

그리고, 상기 컨텐츠 유형은, 이미지 데이터, 오디오 데이터, 텍스트 데이터, 및 메타 데이터를 포함하고, 상기 분류하는 단계는, 상기 컨텐츠로부터 이미지 데이터, 오디오 데이터, 텍스트 데이터, 및 메타 데이터 중의 적어도 하나를 추출하여 분류하는 단계를 포함할 수 있다.And, the content type includes image data, audio data, text data, and metadata, and the classifying step includes extracting at least one of image data, audio data, text data, and metadata from the content. It may include a classification step.

그리고, 상기 적어도 하나의 유해성 판단 모듈은, 상기 이미지 데이터의 유해 지수를 산출하는 모듈, 상기 오디오 데이터의 유해 지수를 산출하는 모듈, 상기 텍스트 데이터의 유해 지수를 산출하는 모듈, 및 상기 메타 데이터의 유해 지수를 산출하는 모듈 중의 적어도 하나를 포함할 수 있다.And, the at least one harmfulness determination module includes a module for calculating a harmfulness index of the image data, a module for calculating a harmfulness index of the audio data, a module for calculating a harmfulness index of the text data, and a module for calculating the harmfulness index of the metadata. It may include at least one of the modules that calculate the exponent.

그리고, 상기 컨텐츠로부터 상기 텍스트 데이터를 추출하는 단계는, 상기 이미지 데이터에 텍스트 영역을 식별하는 단계; 및 상기 텍스트 영역이 수평 형태가 되도록 상기 이미지 데이터를 회전한 후, 상기 이미지 데이터 상의 상기 텍스트 데이터를 추출하는 단계를 포함할 수 있다.And, extracting the text data from the content includes identifying a text area in the image data; and rotating the image data so that the text area becomes horizontal, and then extracting the text data from the image data.

그리고, 상기 방법은, 상기 복수의 데이터 중 적어도 하나의 컨텐츠 유형의 데이터의 유해 지수가 상기 특정 범위를 초과함에 기반하여, 상기 컨텐츠를 유해 컨텐츠로 식별하고 상기 컨텐츠를 필터링하는 단계를 더포함할 수 있다.And, the method may further include identifying the content as harmful content and filtering the content based on the harmfulness index of data of at least one content type among the plurality of data exceeding the specific range. there is.

그리고, 상기 정보를 획득하는 단계는, 상기 복수의 데이터 중 상기 특정 데이터를 제외한 나머지 컨텐츠 유형의 데이터의 유해 지수가 상기 특정 범위 미만이고 상기 특정 데이터의 유해 지수가 상기 특정 범위 내의 값인 것으로 식별됨에 기반하여, 상기 특정 데이터를 상기 미리 학습된 AI 모델에 입력하여 상기 특정 데이터가 유해 데이터인지 여부에 대한 정보를 획득하는 단계를 포함할 수 있다.And, the step of obtaining the information is based on identifying that the harmfulness index of data of the remaining content types, excluding the specific data, among the plurality of data is less than the specific range and that the harmfulness index of the specific data is within the specific range. Thus, it may include the step of inputting the specific data into the pre-trained AI model to obtain information on whether the specific data is harmful data.

그리고, 상기 미리 학습된 AI 모델은, 상기 적어도 하나의 유해성 판단 모듈을 통해 유해 컨텐츠로 검출된 적어도 하나의 컨텐츠에 기초하여 추가 학습될 수 있다.And, the pre-trained AI model may be further trained based on at least one content detected as harmful content through the at least one harmfulness determination module.

그리고, 상기 방법은, 상기 컨텐츠 유형 별로 분류된 복수의 데이터 각각의 유해 지수 및 상기 특정 데이터가 유해 컨텐츠임을 나타내는 UI(user interface)를 제공하는 단계를 더 포함할 수 있다.Additionally, the method may further include providing a harmful index for each of the plurality of data classified by content type and a user interface (UI) indicating that the specific data is harmful content.

본 개시의 일 실시예에 따른, 인공지능(artificial intelligence, AI) 알고리즘 기반의 실시간 유해 컨텐츠를 차단하는 장치는, 적어도 하나의 메모리; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 적어도 하나의 메모리; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 사용자에 의해 업로드된 컨텐츠에 포함된 복수의 데이터를 컨텐츠 유형 별로 분류하고, 상기 컨텐츠 유형 별로 분류된 복수의 데이터 각각의 유해 지수를 산출하는 유해성 판단 모듈; 및 상기 복수의 데이터 중 유해 지수가 특정 범위 내에 속하는 특정 데이터를 미리 학습된 AI 모델에 입력하여 상기 특정 데이터가 유해 데이터인지 여부에 대한 정보를 획득하고, 상기 획득된 정보에 의해 상기 특정 데이터가 유해 데이터로 식별됨에 기반하여, 상기 컨텐츠를 필터링하고, 및 상기 획득된 정보에 기초하여 상기 특정 데이터의 유해 지수를 상기 특정 범위를 초과한 값으로 출력하도록 상기 적어도 하나의 유해성 판단 모듈을 업데이트하는 AI 모델 추론 모듈을 포함할 수 있다.According to an embodiment of the present disclosure, an apparatus for blocking harmful content in real time based on an artificial intelligence (AI) algorithm includes at least one memory; and at least one processor, wherein the at least one processor includes at least one memory; and at least one processor, wherein the at least one processor classifies a plurality of data included in content uploaded by a user by content type, and calculates a harmful index for each of the plurality of data classified by content type. a hazard judgment module; and inputting specific data whose harmful index falls within a certain range among the plurality of data into a pre-trained AI model to obtain information on whether the specific data is harmful data, and determining whether the specific data is harmful based on the obtained information. An AI model that filters the content based on identification as data, and updates the at least one harmfulness determination module to output a harmfulness index of the specific data as a value exceeding the specific range based on the obtained information. May include an inference module.

그리고, 상기 유해성 판단 모듈은, 상기 컨텐츠로부터 이미지 데이터, 오디오 데이터, 텍스트 데이터, 및 메타 데이터 중의 적어도 하나를 추출하여 분류할 수 있다.Additionally, the harmfulness determination module may extract and classify at least one of image data, audio data, text data, and metadata from the content.

그리고, 상기 유해성 판단 모듈, 상기 이미지 데이터에 텍스트 영역을 식별하고; 및 상기 텍스트 영역이 수평 형태가 되도록 상기 이미지 데이터를 회전한 후, 상기 이미지 데이터 상의 상기 텍스트 데이터를 추출할 수 있다.And, the harmfulness determination module identifies a text area in the image data; And after rotating the image data so that the text area becomes horizontal, the text data on the image data can be extracted.

그리고, 상기 AI 모델 추론 모듈은, 상기 복수의 데이터 중 적어도 하나의 컨텐츠 유형의 데이터의 유해 지수가 상기 특정 범위를 초과함에 기반하여, 상기 컨텐츠를 유해 컨텐츠로 식별하고 상기 컨텐츠를 필터링할 수 있다.Additionally, the AI model inference module may identify the content as harmful content and filter the content based on the harmfulness index of at least one content type of data among the plurality of data exceeding the specific range.

그리고, 상기 적어도 하나의 프로세서는, 상기 복수의 데이터 중 상기 특정 데이터를 제외한 나머지 컨텐츠 유형의 데이터의 유해 지수가 상기 특정 범위 미만이고 상기 특정 데이터의 유해 지수가 상기 특정 범위 내의 값인 것으로 식별됨에 기반하여, 상기 특정 데이터를 상기 미리 학습된 AI 모델에 입력하여 상기 특정 데이터가 유해 데이터인지 여부에 대한 정보를 획득할 수 있다.And, the at least one processor is based on identifying that the harmfulness index of data of the remaining content types, excluding the specific data, among the plurality of data is less than the specific range and that the harmfulness index of the specific data is within the specific range. , information on whether the specific data is harmful data can be obtained by inputting the specific data into the pre-trained AI model.

그리고, 상기 적어도 하나의 프로세서는, UI(user interface) 생성 모듈을 포함하고, 상기 UI 생성 모듈은, 상기 컨텐츠 유형 별로 분류된 복수의 데이터 각각의 유해 지수 및 상기 특정 데이터가 유해 컨텐츠임을 나타내는 UI(user interface)를 제공할 수 있다.In addition, the at least one processor includes a user interface (UI) generation module, and the UI generation module is configured to determine a harmfulness index of each of the plurality of data classified by content type and a UI (UI) indicating that the specific data is harmful content. user interface) can be provided.

이 외에도, 본 개시를 구현하기 위한 실행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 더 제공될 수 있다.In addition, a computer program stored in a computer-readable recording medium for execution to implement the present disclosure may be further provided.

이 외에도, 본 개시를 구현하기 위한 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition, a computer-readable recording medium recording a computer program for executing a method for implementing the present disclosure may be further provided.

본 개시의 다양한 실시예에 의해, 인공지능 알고리즘 기반의 실시간 유해 컨텐츠 차단 장치 및 방법이 제공될 수 있다.According to various embodiments of the present disclosure, a real-time harmful content blocking device and method based on an artificial intelligence algorithm may be provided.

또한, 본 개시의 다양한 실시예에 의해, 미디어 콘텐츠 상의 선정성 및/또는 폭력성의 정도를 판별하여 유해한 콘텐츠를 차단하는 장치 및 방법이 제공될 수 있다.In addition, according to various embodiments of the present disclosure, an apparatus and method for blocking harmful content by determining the degree of sensationality and/or violence in media content can be provided.

본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below.

도 1은 본 개시의 일 실시예에 따른, 인공지능 알고리즘 기반의 실시간 유해 컨텐츠 차단 시스템을 간략히 도시한 도면이다.
도 2는 본 개시의 일 실시예에 따른, 인공지능 알고리즘 기반의 실시간 유해 컨텐츠 차단하는 장치의 구성을 도시한 블록도이다.
도 3은 본 개시의 일 실시예에 따른, 인공지능 알고리즘 기반의 실시간 유해 컨텐츠 차단하는 플로우를 나타내는 도면이다.
도 4는 본 개시의 일 실시예에 따른, 장치가 컨텐츠로부터 복수의 유형의 데이터를 추출하는 과정을 설명하기 위한 도면이다.
도 5a 및 도 5b는 본 개시의 일 실시예에 따른, 장치가 이미지 데이터로부터 텍스트 데이터를 추출하는 과정을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시예에 따른, 인공지능 알고리즘 기반의 실시간 유해 컨텐츠 차단 방법을 설명하기 위한 순서도이다.
1 is a diagram briefly illustrating a real-time harmful content blocking system based on an artificial intelligence algorithm according to an embodiment of the present disclosure.
Figure 2 is a block diagram showing the configuration of a device for blocking harmful content in real time based on an artificial intelligence algorithm, according to an embodiment of the present disclosure.
Figure 3 is a diagram illustrating a flow for blocking harmful content in real time based on an artificial intelligence algorithm, according to an embodiment of the present disclosure.
FIG. 4 is a diagram illustrating a process in which a device extracts multiple types of data from content, according to an embodiment of the present disclosure.
5A and 5B are diagrams for explaining a process in which a device extracts text data from image data, according to an embodiment of the present disclosure.
Figure 6 is a flowchart for explaining a real-time method of blocking harmful content based on an artificial intelligence algorithm, according to an embodiment of the present disclosure.

본 개시 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 개시가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 개시가 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다. Like reference numerals refer to like elements throughout this disclosure. This disclosure does not describe all elements of the embodiments, and general content or overlapping content between embodiments in the technical field to which this disclosure pertains is omitted. The term 'part, module, member, block' used in the specification may be implemented as software or hardware, and depending on the embodiment, a plurality of 'part, module, member, block' may be implemented as a single component, or It is also possible for one 'part, module, member, or block' to include multiple components.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be “connected” to another part, this includes not only direct connection but also indirect connection, and indirect connection includes connection through a wireless communication network. do.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Additionally, when a part is said to “include” a certain component, this means that it may further include other components, rather than excluding other components, unless specifically stated to the contrary.

명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when a member is said to be located “on” another member, this includes not only cases where a member is in contact with another member, but also cases where another member exists between the two members.

제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다. Terms such as first and second are used to distinguish one component from another component, and the components are not limited by the above-mentioned terms.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly makes an exception.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다. The identification code for each step is used for convenience of explanation. The identification code does not explain the order of each step, and each step may be performed differently from the specified order unless a specific order is clearly stated in the context. there is.

이하 첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the operating principle and embodiments of the present disclosure will be described with reference to the attached drawings.

본 명세서에서 '본 개시에 따른 장치'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 본 개시에 따른 장치는, 컴퓨터, 서버 장치 및 휴대용 단말기를 모두 포함하거나, 또는 어느 하나의 형태가 될 수 있다.In this specification, 'device according to the present disclosure' includes all various devices that can perform computational processing and provide results to the user. For example, the device according to the present disclosure may include all of a computer, a server device, and a portable terminal, or may take the form of any one.

여기에서, 상기 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함할 수 있다.Here, the computer may include, for example, a laptop, desktop, laptop, tablet PC, slate PC, etc. equipped with a web browser.

본 개시에 따른 인공지능과 관련된 기능은 프로세서와 메모리를 통해 동작된다. 프로세서는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공지능 전용 프로세서일 수 있다. 하나 또는 복수의 프로세서는, 메모리에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공지능 전용 프로세서인 경우, 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다.Functions related to artificial intelligence according to the present disclosure are operated through a processor and memory. The processor may consist of one or multiple processors. At this time, one or more processors may be a general-purpose processor such as a CPU, AP, or DSP (Digital Signal Processor), a graphics-specific processor such as a GPU or VPU (Vision Processing Unit), or an artificial intelligence-specific processor such as an NPU. One or more processors control input data to be processed according to predefined operation rules or artificial intelligence models stored in memory. Alternatively, when one or more processors are dedicated artificial intelligence processors, the artificial intelligence dedicated processors may be designed with a hardware structure specialized for processing a specific artificial intelligence model.

기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/ 또는 시스템을 통해 이루어 질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도 형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.Predefined operation rules or artificial intelligence models are characterized by being created through learning. Here, being created through learning means that the basic artificial intelligence model is learned using a large number of learning data by a learning algorithm, thereby creating a predefined operation rule or artificial intelligence model set to perform the desired characteristics (or purpose). It means burden. This learning may be accomplished in the device itself that performs the artificial intelligence according to the present disclosure, or may be accomplished through a separate server and/or system. Examples of learning algorithms include supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but are not limited to the examples described above.

인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들 (weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경 망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다. 인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.An artificial intelligence model may be composed of multiple neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and neural network calculation is performed through calculation between the calculation result of the previous layer and the plurality of weights. Multiple weights of multiple neural network layers can be optimized by the learning results of the artificial intelligence model. For example, a plurality of weights may be updated so that loss or cost values obtained from the artificial intelligence model are reduced or minimized during the learning process. Artificial neural networks may include deep neural networks (DNN), for example, Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN), or Deep Q-Networks, etc., but are not limited to the examples described above.

본 개시의 예시적인 실시예에 따르면, 프로세서는 인공지능을 구현할 수 있다. 인공지능이란 사람의 신경세포(biological neuron)를 모사하여 기계가 학습하도록 하는 인공신경망(Artificial Neural Network) 기반의 기계 학습법을 의미한다. 인공지능의 방법론에는 학습 방식에 따라 훈련데이터로서 입력데이터와 출력데이터가 같이 제공됨으로써 문제(입력데이터)의 해답(출력데이터)이 정해져 있는 지도학습(supervised learning), 및 출력데이터 없이 입력데이터만 제공되어 문제(입력데이터)의 해답(출력데이터)이 정해지지 않는 비지도학습(unsupervised learning), 및 현재의 상태(State)에서 어떤 행동(Action)을 취할 때마다 외부 환경에서 보상(Reward)이 주어지는데, 이러한 보상을 최대화하는 방향으로 학습을 진행하는 강화학습(reinforcement learning)으로 구분될 수 있다. 또한, 인공지능의 방법론은 학습 모델의 구조인 아키텍처에 따라 구분될 수도 있는데, 널리 이용되는 딥러닝 기술의 아키텍처는, 합성곱 신경망(CNN; Convolutional Neural Network), 순환신경망(RNN; Recurrent Neural Network), 트랜스포머(Transformer), 생성적 대립 신경망(GAN; generative adversarial networks) 등으로 구분될 수 있다.According to an exemplary embodiment of the present disclosure, a processor may implement artificial intelligence. Artificial intelligence refers to a machine learning method based on an artificial neural network that allows machines to learn by imitating human biological neurons. Methodology of artificial intelligence includes supervised learning, in which the answer (output data) to the problem (input data) is determined by providing input data and output data together as training data according to the learning method, and only input data is provided without output data. In unsupervised learning, in which the solution (output data) to the problem (input data) is not determined, and a reward is given from the external environment whenever an action is taken in the current state, , It can be divided into reinforcement learning, which conducts learning in the direction of maximizing these rewards. In addition, artificial intelligence methodologies can be divided according to the architecture, which is the structure of the learning model. The widely used architecture of deep learning technology is convolutional neural network (CNN) and recurrent neural network (RNN). , Transformer, generative adversarial networks (GAN), etc.

본 장치와 시스템은 인공지능 모델을 포함할 수 있다. 인공지능 모델은 하나의 인공지능 모델일 수 있고, 복수의 인공지능 모델로 구현될 수도 있다. 인공지능 모델은 뉴럴 네트워크(또는 인공 신경망)로 구성될 수 있으며, 기계학습과 인지과학에서 생물학의 신경을 모방한 통계학적 학습 알고리즘을 포함할 수 있다. 뉴럴 네트워크는 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 뉴럴 네트워크의 뉴런은 가중치 또는 바이어스의 조합을 포함할 수 있다. 뉴럴 네트워크는 하나 이상의 뉴런 또는 노드로 구성된 하나 이상의 레이어(layer)를 포함할 수 있다. 예시적으로, 장치는 input layer, hidden layer, output layer를 포함할 수 있다. 장치를 구성하는 뉴럴 네트워크는 뉴런의 가중치를 학습을 통해 변화시킴으로써 임의의 입력(input)으로부터 예측하고자 하는 결과(output)를 추론할 수 있다.The devices and systems may include artificial intelligence models. An artificial intelligence model may be a single artificial intelligence model or may be implemented as multiple artificial intelligence models. Artificial intelligence models may be composed of neural networks (or artificial neural networks) and may include statistical learning algorithms that mimic biological neurons in machine learning and cognitive science. A neural network can refer to an overall model in which artificial neurons (nodes), which form a network through the combination of synapses, change the strength of the synapse connection through learning and have problem-solving capabilities. Neurons in a neural network can contain combinations of weights or biases. A neural network may include one or more layers consisting of one or more neurons or nodes. By way of example, a device may include an input layer, a hidden layer, and an output layer. The neural network that makes up the device can infer the result (output) to be predicted from arbitrary input (input) by changing the weight of neurons through learning.

프로세서는 뉴럴 네트워크를 생성하거나, 뉴럴 네트워크를 훈련(train, 또는 학습(learn)하거나, 수신되는 입력 데이터를 기초로 연산을 수행하고, 수행 결과를 기초로 정보 신호(information signal)를 생성하거나, 뉴럴 네트워크를 재훈련(retrain)할 수 있다. 뉴럴 네트워크의 모델들은 GoogleNet, AlexNet, VGG Network 등과 같은 CNN(Convolution Neural Network), R-CNN(Region with Convolution Neural Network), RPN(Region Proposal Network), RNN(Recurrent Neural Network), S-DNN(Stacking-based deep Neural Network), S-SDNN(State-Space Dynamic Neural Network), Deconvolution Network, DBN(Deep Belief Network), RBM(Restrcted Boltzman Machine), Fully Convolutional Network, LSTM(Long Short-Term Memory) Network, Classification Network 등 다양한 종류의 모델들을 포함할 수 있으나 이에 제한되지는 않는다. 프로세서는 뉴럴 네트워크의 모델들에 따른 연산을 수행하기 위한 하나 이상의 프로세서를 포함할 수 있다. 예를 들어 뉴럴 네트워크는 심층 뉴럴 네트워크 (Deep Neural Network)를 포함할 수 있다.The processor creates a neural network, trains or learns a neural network, performs calculations based on received input data, generates an information signal based on the results, or generates a neural network. The network can be retrained. Neural network models include CNN (Convolution Neural Network), R-CNN (Region with Convolution Neural Network), RPN (Region Proposal Network), and RNN, such as GoogleNet, AlexNet, and VGG Network. (Recurrent Neural Network), S-DNN (Stacking-based deep Neural Network), S-SDNN (State-Space Dynamic Neural Network), Deconvolution Network, DBN (Deep Belief Network), RBM (Restrcted Boltzman Machine), Fully Convolutional Network , LSTM (Long Short-Term Memory) Network, Classification Network, etc., but the processor may include one or more processors for performing operations according to neural network models. For example, a neural network may include a deep neural network.

뉴럴 네트워크는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), 퍼셉트론(perceptron), 다층 퍼셉트론(multilayer perceptron), FF(Feed Forward), RBF(Radial Basis Network), DFF(Deep Feed Forward), LSTM(Long Short Term Memory), GRU(Gated Recurrent Unit), AE(Auto Encoder), VAE(Variational Auto Encoder), DAE(Denoising Auto Encoder), SAE(Sparse Auto Encoder), MC(Markov Chain), HN(Hopfield Network), BM(Boltzmann Machine), RBM(Restricted Boltzmann Machine), DBN(Depp Belief Network), DCN(Deep Convolutional Network), DN(Deconvolutional Network), DCIGN(Deep Convolutional Inverse Graphics Network), GAN(Generative Adversarial Network), LSM(Liquid State Machine), ELM(Extreme Learning Machine), ESN(Echo State Network), DRN(Deep Residual Network), DNC(Differentiable Neural Computer), NTM(Neural Turning Machine), CN(Capsule Network), KN(Kohonen Network) 및 AN(Attention Network)를 포함할 수 있으나 이에 한정되는 것이 아닌 임의의 뉴럴 네트워크를 포함할 수 있음은 통상의 기술자가 이해할 것이다.Neural networks include CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), perceptron, multilayer perceptron, FF (Feed Forward), RBF (Radial Basis Network), DFF (Deep Feed Forward), and LSTM. (Long Short Term Memory), GRU (Gated Recurrent Unit), AE (Auto Encoder), VAE (Variational Auto Encoder), DAE (Denoising Auto Encoder), SAE (Sparse Auto Encoder), MC (Markov Chain), HN (Hopfield) Network), BM (Boltzmann Machine), RBM (Restricted Boltzmann Machine), DBN (Depp Belief Network), DCN (Deep Convolutional Network), DN (Deconvolutional Network), DCIGN (Deep Convolutional Inverse Graphics Network), GAN (Generative Adversarial Network) ), Liquid State Machine (LSM), Extreme Learning Machine (ELM), Echo State Network (ESN), Deep Residual Network (DRN), Differential Neural Computer (DNC), Neural Turning Machine (NTM), Capsule Network (CN), Those skilled in the art will understand that it may include any neural network, including, but not limited to, KN (Kohonen Network) and AN (Attention Network).

본 개시의 예시적인 실시예에 따르면, 프로세서는 GoogleNet, AlexNet, VGG Network 등과 같은 CNN(Convolution Neural Network), R-CNN(Region with Convolution Neural Network), RPN(Region Proposal Network), RNN(Recurrent Neural Network), S-DNN(Stacking-based deep Neural Network), S-SDNN(State-Space Dynamic Neural Network), Deconvolution Network, DBN(Deep Belief Network), RBM(Restrcted Boltzman Machine), Fully Convolutional Network, LSTM(Long Short-Term Memory) Network, Classification Network, Generative Modeling, eXplainable AI, Continual AI, Representation Learning, AI for Material Design, 자연어 처리를 위한 BERT, SP-BERT, MRC/QA, Text Analysis, Dialog System, GPT-3, GPT-4, 비전 처리를 위한 Visual Analytics, Visual Understanding, Video Synthesis, ResNet 데이터 지능을 위한 Anomaly Detection, Prediction, Time-Series Forecasting, Optimization, Recommendation, Data Creation 등 다양한 인공지능 구조 및 알고리즘을 이용할 수 있으며, 이에 제한되지 않는다. According to an exemplary embodiment of the present disclosure, the processor may support a Convolution Neural Network (CNN), a Region with Convolution Neural Network (R-CNN), a Region Proposal Network (RPN), a Recurrent Neural Network (RNN), such as GoogleNet, AlexNet, VGG Network, etc. ), S-DNN (Stacking-based deep Neural Network), S-SDNN (State-Space Dynamic Neural Network), Deconvolution Network, DBN (Deep Belief Network), RBM (Restrcted Boltzman Machine), Fully Convolutional Network, LSTM (Long Short-Term Memory) Network, Classification Network, Generative Modeling, eXplainable AI, Continual AI, Representation Learning, AI for Material Design, BERT for natural language processing, SP-BERT, MRC/QA, Text Analysis, Dialog System, GPT-3 , GPT-4, Visual Analytics for vision processing, Visual Understanding, Video Synthesis, and Anomaly Detection, Prediction, Time-Series Forecasting, Optimization, Recommendation, and Data Creation for ResNet data intelligence. , but is not limited to this.

이하, 첨부된 도면을 참조하여 본 개시의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the attached drawings.

도 1은 본 개시의 일 실시예에 따른, 인공지능 알고리즘 기반의 실시간 유해 컨텐츠 차단 시스템을 간략히 도시한 도면이다.1 is a diagram briefly illustrating a real-time harmful content blocking system based on an artificial intelligence algorithm according to an embodiment of the present disclosure.

도 1에 도시된 바와 같이, 인공지능 알고리즘 기반의 실시간 유해 컨텐츠 차단 시스템(1000)은, 장치(100), 복수의 사용자가 이용하는 단말 장치(200-1, 200-2, ... 200-N)(N은 2 이상의 자연수) 및 데이터 서버(301)를 포함할 수 있다.As shown in FIG. 1, the real-time harmful content blocking system 1000 based on an artificial intelligence algorithm includes a device 100 and a terminal device 200-1, 200-2, ... 200-N used by a plurality of users. ) (N is a natural number of 2 or more) and a data server 301.

도 1에서 장치(100)는 데스크톱(desktop)으로 구현된 경우를 개시하고 있으며 복수의 사용자가 이용하는 단말 장치(200-1, 200-2, ... 200-N)는 스마트폰으로 구현된 경우를 개시하고 있으나, 이에 제한되는 것은 아니다. In FIG. 1, the device 100 is implemented as a desktop, and the terminal devices 200-1, 200-2, ... 200-N used by multiple users are implemented as smartphones. is disclosed, but is not limited thereto.

일 예로, 장치(100) 및 복수의 사용자가 이용하는 단말 장치(200-1, 200-2, ... 200-N)는 다양한 유형의 전자 장치(예로, 노트북, 데스크톱, 랩톱(laptop), 태블릿 PC, 슬레이트 PC 장치, 서버 장치 등)로 구현될 수 있으며, 하나 이상의 유형의 장치가 연결된 장치 군으로도 구현될 수 있다.As an example, the device 100 and the terminal devices 200-1, 200-2, ... 200-N used by a plurality of users are various types of electronic devices (e.g., laptops, desktops, laptops, tablets). It can be implemented as a PC, slate PC device, server device, etc.), and can also be implemented as a group of devices where one or more types of devices are connected.

시스템(1000)에 포함된 장치(100) 및 복수의 사용자가 이용하는 단말 장치(200-1, 200-2, ... 200-N)는 네트워크(W)를 통해 통신을 수행할 수 있다. The device 100 included in the system 1000 and the terminal devices 200-1, 200-2, ... 200-N used by a plurality of users can communicate through the network (W).

여기서, 네트워크(W)는 유선 네트워크와 무선 네트워크를 포함할 수 있다. 예를 들어, 네트워크는 근거리 네트워크(LAN: Local Area Network), 도시권 네트워크(MAN: Metropolitan Area Network), 광역 네트워크(WAN: Wide Area Network) 등의 다양한 네트워크를 포함할 수 있다.Here, the network W may include a wired network and a wireless network. For example, the network may include various networks such as a local area network (LAN), a metropolitan area network (MAN), and a wide area network (WAN).

또한, 네트워크(W)는 공지의 월드 와이드 웹(WWW: World Wide Web)을 포함할 수도 있다. 그러나, 본 개시의 실시예에 따른 네트워크(W)는 상기 열거된 네트워크에 국한되지 않고, 공지의 무선 데이터 네트워크나 공지의 전화 네트워크, 공지의 유무선 텔레비전 네트워크를 적어도 일부로 포함할 수도 있다.Additionally, the network W may include the known World Wide Web (WWW). However, the network (W) according to an embodiment of the present disclosure is not limited to the networks listed above, and may include at least some of a known wireless data network, a known telephone network, and a known wired and wireless television network.

장치(100)는 인공지능(artificial intelligence, AI) 알고리즘에 기초하여 실시간으로 유해 컨텐츠를 차단하는 동작을 수행할 수 있다. 추가적으로, 장치(100)는 인공지능 알고리즘에 기초하여 실시간 유해 컨텐츠를 차단할 수 있는 웹 기반 및/또는 어플리케이션 기반의 소프트웨어를 생성/실행할 수 있다. The device 100 may perform an operation to block harmful content in real time based on an artificial intelligence (AI) algorithm. Additionally, the device 100 may create/execute web-based and/or application-based software that can block harmful content in real time based on artificial intelligence algorithms.

복수의 사용자가 이용하는 단말 장치(200-1, 200-2, ... 200-N)는 장치(100)에 의해 생성된 웹 기반 및/또는 어플리케이션 기반의 소프트웨어를 실행할 수 있다. 따라서, 본 개시에서 장치(100)에 의해 실행되는 인공지능 알고리즘 기반의 실시간 유해 컨텐츠 차단 방법은 복수의 사용자가 이용하는 단말 장치(200-1, 200-2, ... 200-N) 역시 실행할 수 있다.Terminal devices 200-1, 200-2, ... 200-N used by a plurality of users may execute web-based and/or application-based software created by the device 100. Therefore, the real-time harmful content blocking method based on an artificial intelligence algorithm executed by the device 100 in the present disclosure can also be executed on terminal devices 200-1, 200-2, ... 200-N used by multiple users. there is.

장치(100)는 사용자로부터 업로드된 컨텐츠로부터 복수의 컨텐츠 유형의 데이터를 추출 및 분류할 수 있다. 장치(100)는 분류된 복수의 유형의 데이터를 유해성 판단 모듈을 통해 1차적으로 필터링할 수 있다. 장치(100)는 복수의 유형의 데이터 중 유해 데이터인지 확실하지 않는 특정 데이터를 AI 모델에 입력하여 특정 데이터가 유해한지 여부를 식별할 수 있다. 여기서, 해당 AI 모델은 데이터 서버(301)에 포함된 학습 데이터에 기초하여 학습될 수 있다.The device 100 may extract and classify data of multiple content types from content uploaded by a user. The device 100 may primarily filter a plurality of types of classified data through a hazard determination module. The device 100 may identify whether the specific data is harmful by inputting specific data that is not certain whether it is harmful data among a plurality of types of data into an AI model. Here, the corresponding AI model may be learned based on training data included in the data server 301.

이와 관련된 동작은 도 2 내지 도 6을 참조하여 구체적으로 설명하도록 한다.Operations related to this will be described in detail with reference to FIGS. 2 to 6.

도 2는 본 개시의 일 실시예에 따른, 인공지능 알고리즘 기반의 실시간 유해 컨텐츠를 차단하는 장치의 구성을 도시한 블록도이다.Figure 2 is a block diagram showing the configuration of a device for blocking harmful content in real time based on an artificial intelligence algorithm, according to an embodiment of the present disclosure.

도 2에 도시된 바와 같이, 장치(100)는 메모리(110), 통신 모듈(120), 디스플레이(130), 및 프로세서(140)를 포함할 수 있다.As shown in FIG. 2 , device 100 may include memory 110, communication module 120, display 130, and processor 140.

메모리(110)는 프로세서(140)가 각종 동작을 수행하기 위한 하나 이상의 인스트럭션(instruction)을 저장할 수 있다. 메모리(110)는 장치(100)의 다양한 기능을 지원하는 데이터와, 프로세서(140)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 학습 데이터, 사용자로부터 입력된 음성/텍스트 데이터 등)을 저장할 수 있다.The memory 110 may store one or more instructions for the processor 140 to perform various operations. The memory 110 may store data supporting various functions of the device 100 and a program for the operation of the processor 140, and may store input/output data (e.g., learning data, input from the user). voice/text data, etc.) can be stored.

메모리(110)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 110 is a flash memory type, hard disk type, solid state disk type, SDD type (Silicon Disk Drive type), and multimedia card micro type. ), card-type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable programmable read) -only memory), PROM (programmable read-only memory), magnetic memory, magnetic disk, and optical disk may include at least one type of storage medium.

통신 모듈(120)는 외부 장치(예로, 데이터 서버 또는/및 사용자가 이용하는 단말 장치 등)와의 통신이 가능하게 하는 회로를 포함하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 통신 모듈(120)는 방송 수신 모듈, 유선통신 모듈, 무선통신 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다. 통신 모듈(120)는 외부 장치로부터 모니터링 데이터를 수신할 수 있다.The communication module 120 may include one or more components including circuits that enable communication with external devices (eg, data servers and/or terminal devices used by users, etc.). For example, the communication module 120 may include at least one of a broadcast reception module, a wired communication module, a wireless communication module, a short-range communication module, and a location information module. The communication module 120 may receive monitoring data from an external device.

디스플레이(130)는 장치(100)에서 처리되는 정보(예를 들어, 학습 데이터, 컨텐츠로부터 추출된 데이터, 컨텐츠 유형 별로 분류된 복수의 데이터 각각의 유해 지수가 포함된 UI 등)를 표시(출력)한다. The display 130 displays (outputs) information processed by the device 100 (e.g., learning data, data extracted from content, UI including the harmfulness index of each of a plurality of data classified by content type, etc.) do.

예를 들어, 디스플레이는 본 장치(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.For example, the display may display execution screen information of an application running on the device 100, or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information.

프로세서(140)는 메모리(110)에 저장된 하나 이상의 인스트럭션(instruction)을 실행함으로써 인공지능 알고리즘 기반의 실시간 유해 컨텐츠를 차단할 수 있다. 즉, 프로세서(140)는 장치(100)의 각 구성 요소를 이용하여 전반적인 동작 및 기능을 제어할 수 있다. 이때, 메모리(110)와 프로세서(140)는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리(110)와 프로세서(140)는 단일 칩으로 구현될 수도 있다.The processor 140 can block harmful content in real time based on an artificial intelligence algorithm by executing one or more instructions stored in the memory 110. That is, the processor 140 can control overall operations and functions using each component of the device 100. At this time, the memory 110 and the processor 140 may each be implemented as separate chips. Alternatively, the memory 110 and processor 140 may be implemented as a single chip.

프로세서(140)는 유해성 판단 모듈(140-1), AI 모델 학습 모듈(140-2), AI 모델 추론 모듈(140-3), 및 UI 생성 모듈(140-4)을 포함할 수 있다. 유해성 판단 모듈(140-1), AI 모델 학습 모듈(140-2), AI 모델 추론 모듈(140-3), 및 UI 생성 모듈(140-4) 각각은 프로세서(140)에 의해 제어될 수 있다.The processor 140 may include a hazard determination module 140-1, an AI model learning module 140-2, an AI model inference module 140-3, and a UI creation module 140-4. Each of the hazard determination module 140-1, the AI model learning module 140-2, the AI model inference module 140-3, and the UI creation module 140-4 may be controlled by the processor 140. .

유해성 판단 모듈(140-1)은 사용자로부터 업로드된 컨텐츠에 포함된 복수의 유형의 컨텐츠가 유해한지 여부를 검출 및 필터링할 수 있다.The harmfulness determination module 140-1 can detect and filter whether multiple types of content included in content uploaded by a user are harmful.

도 3을 참조하면, 사용자로부터 업로드된 컨텐츠(300)는 텍스트 데이터(300-1), 이미지 데이터(300-2), 오디오 데이터(300-3), 영상 데이터(300-4), 및 메타 데이터(300-5) 중의 적어도 하나로 구성될 수 있다. Referring to FIG. 3, the content 300 uploaded by the user includes text data 300-1, image data 300-2, audio data 300-3, video data 300-4, and meta data. It may consist of at least one of (300-5).

유해성 판단 모듈(140-1)은 텍스트 데이터(300-1), 이미지 데이터(300-2), 오디오 데이터(300-3), 영상 데이터(300-4), 및 메타 데이터(300-5) 중의 적어도 하나에 대해 자동 필터링(310)을 수행할 수 있다. The hazard determination module (140-1) includes text data (300-1), image data (300-2), audio data (300-3), video data (300-4), and metadata (300-5). Automatic filtering (310) can be performed on at least one.

일 예로, 유해성 판단 모듈(140-1)은 텍스트 데이터(300-1), 이미지 데이터(300-2), 오디오 데이터(300-3), 영상 데이터(300-4), 및 메타 데이터(300-5) 중의 적어도 하나 각각에 대한 유해 지수를 산출할 수 있다. 여기서, 유해 지수는 해당 데이터의 유해함을 수치화한 것이다. As an example, the hazard determination module 140-1 includes text data 300-1, image data 300-2, audio data 300-3, video data 300-4, and metadata 300-1. 5) The hazard index can be calculated for each of at least one of the following. Here, the harmful index quantifies the harmfulness of the data.

일 예로, 유해성 판단 모듈(140-1)은 텍스트 데이터(300-1)에 대해서 자연어 처리(natural language processing)를 수행함으로써 텍스트 데이터(300-1)에 비속어 및/또는 폭력적이거나 선정적인 문구가 포함되어 있는지 여부를 식별할 수 있다. 텍스트 데이터(300-1)에 비속어 및/또는 폭력적이거나 선정적인 문구가 포함되어 있을 경우, 유해성 판단 모듈(140-1)은 텍스트 데이터(300-1)에 대해 높은 유해 지수를 책정할 수 있다.As an example, the harmfulness determination module 140-1 performs natural language processing on the text data 300-1 to include profanity and/or violent or suggestive phrases in the text data 300-1. It is possible to identify whether it is in place or not. If the text data 300-1 contains profanity and/or violent or sensational phrases, the harmfulness determination module 140-1 may set a high harmfulness index for the text data 300-1.

즉, 유해성 판단 모듈(140-1)은 텍스트 데이터(300-1) 상에 유해 문구가 존재하는지 여부를 검출한 후 이를 반영하여 유해 지수를 산출할 수 있다.That is, the harmfulness determination module 140-1 can detect whether a harmful phrase exists in the text data 300-1 and then calculate the harmfulness index by reflecting this.

또 다른 예로, 유해성 판단 모듈(140-1)은 이미지 데이터(300-2) 및/또는 영상 데이터(300-4) 상에 폭력적이거나 선정적인 영역이 포함되어 있는지 여부를 검출할 수 있다. 이미지 데이터(300-2) 및/또는 영상 데이터(300-4) 상에 폭력적이거나 선정적인 영역이 포함되어 있을 경우, 유해성 판단 모듈(140-1)은 이미지 데이터(300-2) 및/또는 영상 데이터(300-4)에 대해 높은 유해 지수를 책정할 수 있다.As another example, the harmfulness determination module 140-1 may detect whether the image data 300-2 and/or the video data 300-4 contain violent or sensational areas. If the image data 300-2 and/or the video data 300-4 contain violent or sensational areas, the harmfulness determination module 140-1 may use the image data 300-2 and/or the video data. A high hazard index can be assigned to the data (300-4).

또 다른 예로, 유해성 판단 모듈(140-1)은 이미지 데이터(300-2) 및/또는 영상 데이터(300-4) 상에 텍스트 데이터를 추출하고, 추출된 텍스트 데이터에 대한 유해 지수를 산출할 수 있다.As another example, the hazard determination module 140-1 may extract text data on the image data 300-2 and/or video data 300-4 and calculate a hazard index for the extracted text data. there is.

일 예로, 도 5a를 참조하면, 유해성 판단 모듈(140-1)은 이미지 데이터(530)에 텍스트 영역(510, 520)을 검출/식별할 수 있다. 이 때, 유해성 판단 모듈(140-1)은 텍스트 영역(510, 520)뿐만 아니라 텍스트 바운드리(boundary)까지 검출/식별할 수 있다. 텍스트 영역(510, 520)이 수평 방향이 아니므로, 장치는 텍스트 영역(510, 520)이 수평 형태가 되도록 이미지 데이터(530)를 회전한 후 텍스트를 검출할 수 있다.As an example, referring to FIG. 5A , the hazard determination module 140-1 may detect/identify text areas 510 and 520 in image data 530. At this time, the harmfulness determination module 140-1 can detect/identify not only the text areas 510 and 520 but also the text boundary. Since the text areas 510 and 520 are not horizontal, the device may rotate the image data 530 so that the text areas 510 and 520 are horizontal and then detect the text.

또 다른 예로, 유해성 판단 모듈(140-1)은 오디오 데이터(300-3)에 비속어 및/또는 폭력적이거나 선정적인 문구가 포함되어 있는지 여부를 식별할 수 있다. 우선, 유해성 판단 모듈(140-1)은 오디오 데이터(300-3)에 대해 STT(speech-to-text) 알고리즘을 적용하여 오디오 데이터(300-3)에 대응되는 텍스트 데이터를 획득할 수 있다. 유해성 판단 모듈(140-1)은 텍스트 데이터에 자연어 처리를 수행함으로써 해당 텍스트 데이터에 폭력적이거나 선정적인 문구가 포함되어 있는지 여부를 식별할 수 있다.As another example, the harmfulness determination module 140-1 may identify whether the audio data 300-3 includes profanity and/or violent or suggestive phrases. First, the harmfulness determination module 140-1 may obtain text data corresponding to the audio data 300-3 by applying a speech-to-text (STT) algorithm to the audio data 300-3. The harmfulness determination module 140-1 can identify whether the text data contains violent or sensational phrases by performing natural language processing on the text data.

추가적으로 또는 대안적으로, 도 4에 도시된 바와 같이, 유해성 판단 모듈(140-1)은 사용자로부터 업로드된 컨텐츠에서 텍스트 데이터, 이미지 데이터/영상 데이터, 오디오 데이터, 및 메타 데이터를 추출/분류할 수 있다.Additionally or alternatively, as shown in FIG. 4, the harmfulness determination module 140-1 may extract/classify text data, image data/video data, audio data, and metadata from content uploaded by the user. there is.

일 예로, 사용자로부터 원격 수업한 영상이 업로드됨에 기반하여, 장치는 해당 영상으로부터 이미지/영상 데이터, 오디오 데이터 및 메타 데이터를 추출/분류할 수 있다. 또 다른 예로, 사용자로부터 메타버스 관련 데이터가 업로드됨에 기반하여, 장치는 메타버스 관련 데이터에서 오디오 데이터 및 텍스트 데이터를 추출할 수 있다.For example, based on a video taught remotely by a user being uploaded, the device may extract/classify image/video data, audio data, and metadata from the video. As another example, based on metaverse-related data being uploaded by a user, the device may extract audio data and text data from the metaverse-related data.

유해성 판단 모듈(140-1)은 복수의 데이터 중 적어도 하나의 컨텐츠 유형의 데이터의 유해 지수가 특정 범위를 초과함에 기반하여, 컨텐츠를 유해 컨텐츠로 식별하고 해당 컨텐츠를 필터링할 수 있다.The harmfulness determination module 140-1 may identify content as harmful content and filter the content based on the harmfulness index of data of at least one content type among the plurality of data exceeding a specific range.

유해성 판단 모듈(140-1)은 각 컨텐츠 유형 별로 유해 지수를 산출하는 복수의 모듈로 구성될 수 있다. 즉, 유해성 판단 모듈(140-1)은 텍스트 데이터 유해성 판단 모듈, 이미지 데이터 유해성 판단 모듈, 오디오 데이터 유해성 판단 모듈, 영상 데이터 유해성 판단 모듈, 및 메타 데이터 유해성 판단 모듈을 포함할 수 있다.The harmfulness determination module 140-1 may be composed of a plurality of modules that calculate the harmfulness index for each content type. That is, the harmfulness determination module 140-1 may include a text data harmfulness determining module, an image data harmfulness determining module, an audio data harmfulness determining module, an image data harmfulness determining module, and a metadata harmfulness determining module.

텍스트 데이터 유해성 판단 모듈, 이미지 데이터 유해성 판단 모듈, 오디오 데이터 유해성 판단 모듈, 영상 데이터 유해성 판단 모듈, 및 메타 데이터 유해성 판단 모듈 각각은 대응되는 컨텐츠 유형의 데이터 상에 유해한 부분이 존재하는지 여부를 자동으로 검출하도록 설정될 수 있다.Each of the text data harmfulness judgment module, image data harmfulness judgment module, audio data harmfulness judgment module, video data harmfulness judgment module, and metadata harmfulness judgment module automatically detects whether harmful parts exist in data of the corresponding content type. It can be set to do so.

추가적으로 또는 대안적으로, 유해성 판단 모듈(140-1)은 미리 등록된 유해 컨텐츠와 새롭게 입력된 컨텐츠 간의 유사도를 산출할 수 있다. 미리 등록된 유해 컨텐츠와 새롭게 입력된 컨텐츠 간의 유사도가 높을수록, 유해성 판단 모듈(140-1)은 새로 입력된 컨텐츠의 유해 지수를 높은 값으로 산출할 수 있다.Additionally or alternatively, the harmfulness determination module 140-1 may calculate the degree of similarity between pre-registered harmful content and newly input content. The higher the similarity between the pre-registered harmful content and the newly input content, the higher the harmfulness determination module 140-1 can calculate the harmfulness index of the newly input content.

AI 모델 학습 모듈(140-2)은 특정 데이터가 유해 데이터인지 여부에 대한 정보를 출력하도록 AI 모델을 학습시킬 수 있다. AI 모델 학습 모듈(140-2)은 적어도 하나의 유해성 판단 모듈을 통해 유해 컨텐츠로 검출된 적어도 하나의 컨텐츠에 기초하여 추가적으로 AI 모델을 학습시킬 수 있다.The AI model learning module 140-2 can train an AI model to output information about whether specific data is harmful data. The AI model learning module 140-2 may additionally learn an AI model based on at least one content detected as harmful content through at least one harmfulness determination module.

AI 모델 추론 모듈(140-3)은 특정 데이터를 AI 모델에 입력함으로써 특정 데이터가 유해 데이터인지 여부에 대한 정보를 획득할 수 있다. 즉, AI 모델 추론 모듈(140-3)은 학습된 AI 모델을 활용할 수 있다.The AI model inference module 140-3 can obtain information about whether specific data is harmful data by inputting specific data into the AI model. That is, the AI model inference module 140-3 can utilize the learned AI model.

일 예로, 도 3을 참조하면, AI 모델 학습 모듈(140-2)은 유해성 판단 모듈(140-1)을 통해 유해 컨텐츠로 검출된 적어도 하나의 컨텐츠 및/또는 유해 컨텐츠로 검출된 적어도 하나의 데이터가 제거(330)된 컨텐츠에 기초하여 AI 모델(320)을 추가적으로 학습시킬 수 있다.As an example, referring to FIG. 3, the AI model learning module 140-2 may store at least one content detected as harmful content and/or at least one data detected as harmful content through the harmfulness determination module 140-1. The AI model 320 can be additionally trained based on the content that has been removed (330).

또 다른 예로, AI 모델 학습 모듈(140-2)은 AI 모델(320)을 통해 무해 컨텐츠라고 식별된 컨텐츠에 기초하여 추가적으로 AI 모델을 학습시킬 수 있다.As another example, the AI model learning module 140-2 may additionally learn an AI model based on content identified as harmless content through the AI model 320.

유해성 판단 모듈(140-1)은 AI 모델(320)로부터 출력된 정보에 기초하여 업데이트될 수 있다. 즉, AI 모델(320)이 출력한 특정 컨텐츠가 유해 컨텐츠 또는 무해 컨텐츠인지 여부를 나타내는 정보에 기초하여 유해성 판단 모듈(140-1)은 업데이트될 수 있다.The hazard determination module 140-1 may be updated based on information output from the AI model 320. That is, the harmfulness determination module 140-1 may be updated based on information indicating whether the specific content output by the AI model 320 is harmful content or harmless content.

AI 모델 추론 모듈(140-3)은 AI 모델(320)에 특정 데이터(예로, 유해 데이터인지 여부가 확실하지 않은 데이터)를 입력하여 특정 데이터가 유해 데이터인지 무해 데이터인지 여부에 대한 정보를 획득할 수 있다.The AI model inference module 140-3 inputs specific data (e.g., data that is not certain whether it is harmful data) into the AI model 320 to obtain information about whether the specific data is harmful data or harmless data. You can.

특정 데이터가 유해 데이터인 경우, 프로세서(140)는 특정 데이터 또는/및 특정 데이터가 포함된 컨텐츠를 제거(360)할 수 있다. 특정 데이터가 무해 데이터인 경우, 프로세서(140)는 사용자에게 특정 데이터를 포함하는 컨텐츠를 제공할 수 있다.If the specific data is harmful data, the processor 140 may remove the specific data or/and content containing the specific data (360). If the specific data is harmless data, the processor 140 may provide content including the specific data to the user.

AI 모델은 각 컨텐츠 유형 별로 입력된 데이터가 유해 데이터인지 여부에 대한 정보를 출력하는 복수의 AI 모델로 구성될 수 있다. 즉, AI 모델은 텍스트 데이터에 대응되는 AI 모델, 이미지 데이터에 대응되는 AI 모델, 오디오 데이터 AI에 대응되는 모델, 영상 데이터에 대응되는 AI 모델, 및 메타 데이터에 대응되는 AI 모델을 포함할 수 있다.The AI model may be composed of multiple AI models that output information on whether the input data for each content type is harmful data. That is, the AI model may include an AI model corresponding to text data, an AI model corresponding to image data, a model corresponding to audio data AI, an AI model corresponding to video data, and an AI model corresponding to metadata. .

일 예로, 텍스트 데이터에 대응되는 AI 모델은 인코더(Encoder)-디코더(Decoder) 구조를 통해 High-level Semantic 특징을 학습할 수 있다. 인코더와 디코더 사이에 멀티-스케일 특징 통합을 적용하여 특징 맵(feature map)을 결합할 수 있다. 텍스트 데이터에 대응되는 AI 모델은 텍스트 영역 뿐만 아니라 텍스트 바운드리를 함께 학습할 수 있다. For example, an AI model corresponding to text data can learn high-level semantic features through an encoder-decoder structure. Multi-scale feature integration can be applied between the encoder and decoder to combine feature maps. The AI model corresponding to text data can learn not only the text area but also the text boundary.

이미지 데이터에 대응되는 AI 모델 및/또는 오디오에 대응되는 AI 모델은 하나 이상의 CNN 레이어 및/또는 LSTM 레이어로 구성될 수 있다.The AI model corresponding to image data and/or the AI model corresponding to audio may be composed of one or more CNN layers and/or LSTM layers.

UI 생성 모듈(140-4)은 컨텐츠 유형 별로 분류된 복수의 데이터 각각의 유해 지수 및 특정 데이터가 유해 컨텐츠임을 나타내는 UI를 생성할 수 있다.The UI creation module 140-4 may generate a UI indicating the harmfulness index of each of the plurality of data classified by content type and that the specific data is harmful content.

도 6은 본 개시의 일 실시예에 따른, 인공지능 알고리즘 기반의 실시간 유해 컨텐츠를 차단하는 방법을 설명하기 위한 순서도이다.Figure 6 is a flowchart illustrating a method for blocking harmful content in real time based on an artificial intelligence algorithm, according to an embodiment of the present disclosure.

장치는 사용자에 의해 업로드된 컨텐츠에 포함된 복수의 데이터를 컨텐츠 유형 별로 분류할 수 있다(S610).The device can classify a plurality of data included in content uploaded by the user by content type (S610).

여기서 컨텐츠 유형은, 이미지 데이터, 오디오 데이터, 텍스트 데이터, 및 메타 데이터로 구분될 수 있다. 장치는 사용자로부터 업로드된 컨텐츠로부터 이미지 데이터, 오디오 데이터, 텍스트 데이터, 및 메타 데이터 중의 적어도 하나를 추출하여 분류할 수 있다.Here, content types can be divided into image data, audio data, text data, and meta data. The device may extract and classify at least one of image data, audio data, text data, and metadata from content uploaded by the user.

일 예로, 장치는 컨텐츠에 포함된 이미지 데이터에서 텍스트 영역을 식별할 수 있다. 장치는 텍스트 영역이 수평 형태가 되도록 이미지 데이터를 회전한 후, 이미지 데이터 상의 텍스트 데이터를 추출할 수 있다.As an example, the device can identify a text area in image data included in content. The device may rotate the image data so that the text area becomes horizontal and then extract text data on the image data.

장치는 컨텐츠 유형 별로 분류된 복수의 데이터 각각에 대해 적어도 하나의 유해성 판단 모듈을 적용하여 복수의 데이터 각각의 유해 지수를 산출할 수 있다(S620).The device may calculate the harmfulness index of each of the plurality of data by applying at least one harmfulness determination module to each of the plurality of data classified by content type (S620).

여기서, 적어도 하나의 유해성 판단 모듈은, 이미지 데이터의 유해 지수를 산출하는 모듈, 오디오 데이터의 유해 지수를 산출하는 모듈, 텍스트 데이터의 유해 지수를 산출하는 모듈, 및 메타 데이터의 유해 지수를 산출하는 모듈 중의 적어도 하나를 포함할 수 있다.Here, the at least one harmfulness determination module includes a module for calculating the harmfulness index of image data, a module for calculating the harmfulness index of audio data, a module for calculating the harmfulness index of text data, and a module for calculating the harmfulness index of metadata. It may include at least one of the following.

즉, 컨텐츠로부터 이미지 데이터 및 텍스트 데이터가 추출/분류될 경우, 장치는 이미지 데이터에 대해 이미지 데이터에 대응되는 유해성 판단 모듈을 적용하고, 텍스트 데이터에 대해 텍스트 데이터에 대응되는 유해성 판단 모듈을 적용할 수 있다.In other words, when image data and text data are extracted/classified from content, the device can apply the harmfulness judgment module corresponding to the image data to the image data, and the harmfulness judgment module corresponding to the text data to the text data. there is.

복수의 데이터 중 적어도 하나의 컨텐츠 유형의 데이터의 유해 지수가 특정 범위를 초과함에 기반하여, 장치는 컨텐츠를 유해 컨텐츠로 식별하고 컨텐츠를 필터링할 수 있다. 즉, 컨텐츠에서 하나의 유형의 데이터의 유해 지수가 특정 범위를 초과하는 경우(즉, 해당 유형의 데이터가 유해 데이터인 경우), 장치는 컨텐츠를 유해 컨텐츠로 검출하고 필터링할 수 있다.Based on the harmful index of data of at least one content type among the plurality of data exceeding a specific range, the device may identify the content as harmful content and filter the content. That is, if the harmful index of one type of data in the content exceeds a certain range (i.e., if the data of that type is harmful data), the device can detect and filter the content as harmful content.

장치는 복수의 데이터 중 유해 지수가 특정 범위 내에 속하는 특정 데이터를 미리 학습된 AI 모델에 입력하여 상기 특정 데이터가 유해 데이터인지 여부에 대한 정보를 획득할 수 있다(S630). 여기서, 특정 범위는 미리 정의된 범위일 수 있으나 장치에 의해 변경될 수 있다.The device can obtain information about whether the specific data is harmful data by inputting specific data whose harmful index falls within a certain range among the plurality of data into a pre-trained AI model (S630). Here, the specific range may be a predefined range, but may be changed by the device.

구체적으로, 복수의 데이터 중 특정 데이터를 제외한 나머지 컨텐츠 유형의 데이터의 유해 지수가 특정 범위 미만이고 특정 데이터의 유해 지수가 특정 범위 내의 값인 것으로 식별됨에 기반하여, 장치는 특정 데이터를 미리 학습된 AI 모델에 입력하여 특정 데이터가 유해 데이터인지 여부에 대한 정보를 획득할 수 있다.Specifically, based on the fact that the harmfulness index of the data of the remaining content types excluding the specific data among the plurality of data is identified as being less than a certain range and the harmfulness index of the specific data being identified as being within a certain range, the device uses the specific data as a pre-trained AI model. You can obtain information about whether specific data is harmful data by entering it in .

특정 데이터의 유해 지수가 특정 범위 내에 속한다는 것은 특정 데이터가 유해 데이터인지 여부가 확실하지 않다는 것을 의미할 수 있다. 즉, 유해성 판단 모듈에 의해 특정 데이터의 유해 여부가 명확히 판단되지 않을 경우, 장치는 특정 데이터를 미리 학습된 AI 모델에 입력하여 유해 여부를 나타내는 정보를 획득할 수 있다.The fact that the hazard index of specific data falls within a certain range may mean that it is unclear whether the specific data is hazardous data. In other words, if the harmfulness determination module does not clearly determine whether specific data is harmful, the device can input the specific data into a pre-trained AI model to obtain information indicating whether it is harmful.

획득된 정보에 의해 특정 데이터가 유해 데이터로 식별됨에 기반하여, 장치는 해당 컨텐츠를 필터링할 수 있다(S640).Based on the obtained information identifying specific data as harmful data, the device can filter the corresponding content (S640).

그리고, 장치는 AI 모델에 의해 획득된 정보에 기초하여 특정 데이터의 유해 지수를 특정 범위를 초과한 값으로 출력하도록 적어도 하나의 유해성 판단 모듈을 업데이트할 수 있다(S650). 즉, 장치는 AI 모델을 통해 획득된 결과에 기초하여 유해성 판단 모듈을 업데이트할 수 있다.Additionally, the device may update at least one hazard determination module to output the hazard index of specific data as a value exceeding a specific range based on information acquired by the AI model (S650). That is, the device can update the hazard determination module based on the results obtained through the AI model.

추가적으로 또는 대안적으로, 장치는 적어도 하나의 유해성 판단 모듈을 통해 유해 컨텐츠로 검출된 적어도 하나의 컨텐츠에 기초하여 AI 모델을 추가 학습할 수 있다.Additionally or alternatively, the device may further learn an AI model based on at least one content detected as harmful content through at least one harmfulness determination module.

그리고, 장치는 컨텐츠 유형 별로 분류된 복수의 데이터 각각의 유해 지수 및 상기 특정 데이터가 유해 컨텐츠임을 나타내는 UI(user interface)를 사용자에게 제공할 수 있다.Additionally, the device may provide the user with a harmful index for each of a plurality of data classified by content type and a user interface (UI) indicating that the specific data is harmful content.

또 다른 예로, 획득된 정보에 의해 특정 데이터가 무해 데이터로 식별됨에 기반하여, 장치는 컨텐츠를 그대로 제공할 수 있다. 이 때, 장치는 컨텐츠를 구성하는 하나 이상의 유형의 데이터에 대해 산출된 유해 지수가 포함된 UI를 추가적으로 제공할 수 있다.As another example, based on the specific data being identified as harmless data by the acquired information, the device may provide the content as is. At this time, the device may additionally provide a UI including a hazard index calculated for one or more types of data constituting the content.

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium that stores instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may create program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. Computer-readable recording media include all types of recording media storing instructions that can be decoded by a computer. For example, there may be Read Only Memory (ROM), Random Access Memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, etc.

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 개시가 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the attached drawings. A person skilled in the art to which this disclosure pertains will understand that the present disclosure may be practiced in forms different from the disclosed embodiments without changing the technical idea or essential features of the present disclosure. The disclosed embodiments are illustrative and should not be construed as limiting.

100 : 장치
110 : 메모리
120 : 통신 모듈
130 : 디스플레이
140 : 프로세서
100: device
110: memory
120: communication module
130: display
140: processor

Claims (16)

장치에 의해 수행되는, 인공지능(artificial intelligence, AI) 알고리즘 기반의 실시간 유해 컨텐츠를 차단하는 방법에 있어서, 상기 방법은:
사용자에 의해 업로드된 컨텐츠에 포함된 복수의 데이터를 컨텐츠 유형 별로 분류하는 단계;
상기 컨텐츠 유형 별로 분류된 복수의 데이터 각각에 대해 적어도 하나의 유해성 판단 모듈을 적용하여 상기 복수의 데이터 각각의 유해 지수를 산출하는 단계;
상기 복수의 데이터 중 유해 지수가 특정 범위 내에 속하는 특정 데이터를 미리 학습된 AI 모델에 입력하여 상기 특정 데이터가 유해 데이터인지 여부에 대한 정보를 획득하는 단계; 및
상기 획득된 정보에 의해 상기 특정 데이터가 유해 데이터로 식별됨에 기반하여, 상기 컨텐츠를 필터링하는 단계; 및
상기 획득된 정보에 기초하여 상기 특정 데이터의 유해 지수를 상기 특정 범위를 초과한 값으로 출력하도록 상기 적어도 하나의 유해성 판단 모듈을 업데이트하는 단계를 포함하고,
상기 컨텐츠 유형은, 이미지 데이터, 오디오 데이터, 텍스트 데이터, 및 메타 데이터를 포함하고,
상기 분류하는 단계는,
상기 컨텐츠로부터 이미지 데이터, 오디오 데이터, 텍스트 데이터, 및 메타 데이터 중의 적어도 하나를 추출하여 분류하는 단계를 포함하고,
상기 적어도 하나의 유해성 판단 모듈은,
상기 이미지 데이터의 유해 지수를 산출하는 모듈, 상기 오디오 데이터의 유해 지수를 산출하는 모듈, 상기 텍스트 데이터의 유해 지수를 산출하는 모듈, 및 상기 메타 데이터의 유해 지수를 산출하는 모듈 중의 적어도 하나를 포함하고,
상기 정보를 획득하는 단계는,
상기 복수의 데이터 중 상기 특정 데이터를 제외한 나머지 컨텐츠 유형의 데이터의 유해 지수가 상기 특정 범위 미만이고 상기 특정 데이터의 유해 지수가 상기 특정 범위 내의 값인 것으로 식별되어 상기 특정 데이터의 유해 여부가 명확히 판단되지 않을 경우, 상기 특정 데이터를 상기 미리 학습된 AI 모델에 입력하여 상기 특정 데이터가 유해 데이터인지 여부에 대한 정보를 획득하는 단계를 포함하고,
상기 복수의 데이터 중 적어도 하나의 컨텐츠 유형의 데이터의 유해 지수가 상기 특정 범위를 초과함에 기반하여, 상기 컨텐츠를 유해 컨텐츠로 식별하고 상기 컨텐츠를 필터링하는 단계를 더 포함하고,
상기 미리 학습된 AI 모델은,
상기 적어도 하나의 유해성 판단 모듈을 통해 유해 컨텐츠로 검출된 적어도 하나의 컨텐츠, 상기 유해 컨텐츠로 검출된 적어도 하나의 데이터가 제거된 컨텐츠 및 상기 AI 모델을 통해 무해 컨텐츠라고 식별된 컨텐츠 중 적어도 하나에 기초하여 추가 학습되고,
상기 적어도 하나의 유해성 판단 모듈은 상기 AI 모델이 출력한 특정 컨텐츠가 유해 컨텐츠 또는 무해 컨텐츠인지 여부를 나타내는 정보에 기초하여 업데이트되는, 방법.
In a method of blocking harmful content in real time based on an artificial intelligence (AI) algorithm performed by a device, the method includes:
Classifying a plurality of data included in content uploaded by a user by content type;
calculating a harmfulness index of each of the plurality of data by applying at least one harmfulness determination module to each of the plurality of data classified by content type;
Obtaining information on whether the specific data is harmful data by inputting specific data whose harmfulness index falls within a certain range among the plurality of data into a pre-trained AI model; and
filtering the content based on the specific data being identified as harmful data by the obtained information; and
Comprising the step of updating the at least one harmfulness determination module to output a harmfulness index of the specific data as a value exceeding the specific range based on the obtained information,
The content type includes image data, audio data, text data, and metadata,
The classification step is,
Extracting and classifying at least one of image data, audio data, text data, and metadata from the content,
The at least one hazard determination module,
At least one of a module for calculating a harmfulness index of the image data, a module for calculating a harmfulness index of the audio data, a module for calculating a harmfulness index of the text data, and a module for calculating a harmfulness index of the metadata; ,
The step of obtaining the information is,
Among the plurality of data, except for the specific data, the harmfulness index of the data of the remaining content types is less than the specific range, and the harmfulness index of the specific data is identified as being within the specific range, so whether the specific data is harmful cannot be clearly determined. In this case, inputting the specific data into the pre-trained AI model to obtain information on whether the specific data is harmful data,
Further comprising identifying the content as harmful content and filtering the content based on the harmfulness index of data of at least one content type among the plurality of data exceeding the specific range,
The pre-trained AI model is,
Based on at least one of at least one content detected as harmful content through the at least one harmful content, content from which at least one data detected as harmful content has been removed, and content identified as harmless content through the AI model. Additional learning is achieved,
The method wherein the at least one harmfulness determination module is updated based on information indicating whether the specific content output by the AI model is harmful content or harmless content.
삭제delete 삭제delete 제1항에 있어서,
상기 컨텐츠로부터 상기 텍스트 데이터를 추출하는 단계는,
상기 이미지 데이터에 텍스트 영역을 식별하는 단계; 및
상기 텍스트 영역이 수평 형태가 되도록 상기 이미지 데이터를 회전한 후, 상기 이미지 데이터 상의 상기 텍스트 데이터를 추출하는 단계를 포함하는, 방법.
According to paragraph 1,
The step of extracting the text data from the content includes:
identifying a text area in the image data; and
A method comprising rotating the image data so that the text area is in a horizontal form, and then extracting the text data on the image data.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 컨텐츠 유형 별로 분류된 복수의 데이터 각각의 유해 지수 및 상기 특정 데이터가 유해 컨텐츠임을 나타내는 UI(user interface)를 제공하는 단계를 더 포함하는, 방법.
According to paragraph 1,
The method further includes providing a harmful index for each of the plurality of data classified by content type and a user interface (UI) indicating that the specific data is harmful content.
인공지능(artificial intelligence, AI) 알고리즘 기반의 실시간 유해 컨텐츠를 차단하는 장치에 있어서, 상기 장치는:
적어도 하나의 메모리; 및
적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는,
사용자에 의해 업로드된 컨텐츠에 포함된 복수의 데이터를 컨텐츠 유형 별로 분류하고,
상기 컨텐츠 유형 별로 분류된 복수의 데이터 각각의 유해 지수를 산출하는 유해성 판단 모듈; 및
상기 복수의 데이터 중 유해 지수가 특정 범위 내에 속하는 특정 데이터를 미리 학습된 AI 모델에 입력하여 상기 특정 데이터가 유해 데이터인지 여부에 대한 정보를 획득하고
상기 획득된 정보에 의해 상기 특정 데이터가 유해 데이터로 식별됨에 기반하여, 상기 컨텐츠를 필터링하고, 및
상기 획득된 정보에 기초하여 상기 특정 데이터의 유해 지수를 상기 특정 범위를 초과한 값으로 출력하도록 상기 적어도 하나의 유해성 판단 모듈을 업데이트하는 AI 모델 추론 모듈을 포함하고,
상기 컨텐츠 유형은, 이미지 데이터, 오디오 데이터, 텍스트 데이터, 및 메타 데이터를 포함하고,
상기 유해성 판단 모듈은,
상기 컨텐츠로부터 이미지 데이터, 오디오 데이터, 텍스트 데이터, 및 메타 데이터 중의 적어도 하나를 추출하여 분류하고,
상기 적어도 하나의 유해성 판단 모듈은,
상기 이미지 데이터의 유해 지수를 산출하는 모듈, 상기 오디오 데이터의 유해 지수를 산출하는 모듈, 상기 텍스트 데이터의 유해 지수를 산출하는 모듈, 및 상기 메타 데이터의 유해 지수를 산출하는 모듈 중의 적어도 하나를 포함하고,
상기 AI 모델 추론 모듈은,
상기 복수의 데이터 중 상기 특정 데이터를 제외한 나머지 컨텐츠 유형의 데이터의 유해 지수가 상기 특정 범위 미만이고 상기 특정 데이터의 유해 지수가 상기 특정 범위 내의 값인 것으로 식별되어 상기 특정 데이터의 유해 여부가 명확히 판단되지 않을 경우, 상기 특정 데이터를 상기 미리 학습된 AI 모델에 입력하여 상기 특정 데이터가 유해 데이터인지 여부에 대한 정보를 획득하고,
상기 AI 모델 추론 모듈은,
상기 복수의 데이터 중 적어도 하나의 컨텐츠 유형의 데이터의 유해 지수가 상기 특정 범위를 초과함에 기반하여, 상기 컨텐츠를 유해 컨텐츠로 식별하고 상기 컨텐츠를 필터링하고,
상기 미리 학습된 AI 모델은,
상기 적어도 하나의 유해성 판단 모듈을 통해 유해 컨텐츠로 검출된 적어도 하나의 컨텐츠, 상기 유해 컨텐츠로 검출된 적어도 하나의 데이터가 제거된 컨텐츠 및 상기 AI 모델을 통해 무해 컨텐츠라고 식별된 컨텐츠 중 적어도 하나에 기초하여 추가 학습되고,
상기 적어도 하나의 유해성 판단 모듈은 상기 AI 모델이 출력한 특정 컨텐츠가 유해 컨텐츠 또는 무해 컨텐츠인지 여부를 나타내는 정보에 기초하여 업데이트되는, 장치.
In a device that blocks harmful content in real time based on an artificial intelligence (AI) algorithm, the device:
at least one memory; and
Contains at least one processor,
The at least one processor,
Classifies multiple data included in content uploaded by the user by content type,
a harmfulness determination module that calculates a harmfulness index for each of the plurality of data classified by content type; and
Among the plurality of data, input specific data whose harmful index falls within a certain range into a pre-trained AI model to obtain information on whether the specific data is harmful data;
Filtering the content based on the specific data being identified as harmful data by the obtained information, and
An AI model inference module that updates the at least one harmfulness determination module to output a harmfulness index of the specific data as a value exceeding the specific range based on the obtained information,
The content type includes image data, audio data, text data, and metadata,
The hazard determination module is,
Extracting and classifying at least one of image data, audio data, text data, and metadata from the content,
The at least one hazard determination module,
At least one of a module for calculating a harmful index of the image data, a module for calculating a harmful index of the audio data, a module for calculating a harmful index of the text data, and a module for calculating a harmful index of the meta data; ,
The AI model inference module is,
Among the plurality of data, except for the specific data, the harmfulness index of the data of the remaining content types is less than the specific range, and the harmfulness index of the specific data is identified as being within the specific range, so whether the specific data is harmful cannot be clearly determined. In this case, inputting the specific data into the pre-trained AI model to obtain information on whether the specific data is harmful data,
The AI model inference module is,
Based on the harmful index of data of at least one content type among the plurality of data exceeding the specific range, identifying the content as harmful content and filtering the content,
The pre-trained AI model is,
Based on at least one of at least one content detected as harmful content through the at least one harmfulness determination module, content from which at least one data detected as harmful content has been removed, and content identified as harmless content through the AI model. Additional learning is achieved,
The at least one harmfulness determination module is updated based on information indicating whether the specific content output by the AI model is harmful content or harmless content.
삭제delete 삭제delete 제9항에 있어서,
상기 유해성 판단 모듈은,
상기 이미지 데이터에 텍스트 영역을 식별하고; 및
상기 텍스트 영역이 수평 형태가 되도록 상기 이미지 데이터를 회전한 후, 상기 이미지 데이터 상의 상기 텍스트 데이터를 추출하는, 장치.
According to clause 9,
The hazard determination module is,
identify a text area in the image data; and
A device for rotating the image data so that the text area becomes horizontal and then extracting the text data on the image data.
삭제delete 삭제delete 삭제delete 제9항에 있어서,
상기 적어도 하나의 프로세서는, UI(user interface) 생성 모듈을 포함하고,
상기 UI 생성 모듈은,
상기 컨텐츠 유형 별로 분류된 복수의 데이터 각각의 유해 지수 및 상기 특정 데이터가 유해 컨텐츠임을 나타내는 UI(user interface)를 제공하는, 장치.
According to clause 9,
The at least one processor includes a user interface (UI) creation module,
The UI creation module is,
An apparatus that provides a harmful index for each of the plurality of data classified by content type and a user interface (UI) indicating that the specific data is harmful content.
KR1020230036587A 2023-03-21 2023-03-21 Apparatus and method for blocking real-time harmful content based on artificial intelligence algorithm KR102676153B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230036587A KR102676153B1 (en) 2023-03-21 2023-03-21 Apparatus and method for blocking real-time harmful content based on artificial intelligence algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230036587A KR102676153B1 (en) 2023-03-21 2023-03-21 Apparatus and method for blocking real-time harmful content based on artificial intelligence algorithm

Publications (1)

Publication Number Publication Date
KR102676153B1 true KR102676153B1 (en) 2024-06-19

Family

ID=91712422

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230036587A KR102676153B1 (en) 2023-03-21 2023-03-21 Apparatus and method for blocking real-time harmful content based on artificial intelligence algorithm

Country Status (1)

Country Link
KR (1) KR102676153B1 (en)

Similar Documents

Publication Publication Date Title
US10891524B2 (en) Method and an apparatus for evaluating generative machine learning model
US11768866B2 (en) Dark web content analysis and identification
Hossain et al. Automatic driver distraction detection using deep convolutional neural networks
KR20190111278A (en) Electronic device and Method for controlling the electronic device thereof
US11360927B1 (en) Architecture for predicting network access probability of data files accessible over a computer network
US20240029436A1 (en) Action classification in video clips using attention-based neural networks
US20200134455A1 (en) Apparatus and method for training deep learning model
US20210279525A1 (en) Hierarchy-preserving learning for multi-label classification
KR20200010131A (en) Electronic apparatus and control method thereof
Meedeniya Deep learning: A beginners' guide
JP2022120775A (en) On-device activity recognition
KR102598077B1 (en) Method and apparatus for protecting copyright based on artificial intelligence algorithm
CN116269223A (en) Alzheimer's disease prediction method, device, equipment and storage medium
Vinod et al. Natural disaster prediction by using image based deep learning and machine learning
KR102676153B1 (en) Apparatus and method for blocking real-time harmful content based on artificial intelligence algorithm
KR102618061B1 (en) Method and apparatus for filtering harmful content using artificial intelligence-based sentiment analysis
US20230342108A1 (en) Enhanced computing device representation of audio
KR102618060B1 (en) Apparatus and method for filtering profanity based on artificial intelligence algorithm
KR102598072B1 (en) Apparatus and method for providing service for preventing personal information exposure based on artificial intelligence algorithm
Taha et al. InspectorNet: Transformer network for violence detection in animated cartoon
Rodrigues et al. Recognizing Emotions from Voice: A Prototype
KR102635950B1 (en) Apparatus and method for performing blockchain-based content authentication service
KR102453919B1 (en) Method, device and system for verifying of guide soundtrack related to cultural content based on artificial intelligence
Kaur et al. Applications of Machine Learning and Deep Learning
Sagar et al. Artificial Intelligence: Making Machines Learn