KR20070008210A - 유해 멀티미디어 정보 차단 방법 및 장치 - Google Patents

유해 멀티미디어 정보 차단 방법 및 장치 Download PDF

Info

Publication number
KR20070008210A
KR20070008210A KR1020050063266A KR20050063266A KR20070008210A KR 20070008210 A KR20070008210 A KR 20070008210A KR 1020050063266 A KR1020050063266 A KR 1020050063266A KR 20050063266 A KR20050063266 A KR 20050063266A KR 20070008210 A KR20070008210 A KR 20070008210A
Authority
KR
South Korea
Prior art keywords
harmful
information
multimedia
feature
classification model
Prior art date
Application number
KR1020050063266A
Other languages
English (en)
Inventor
정치윤
한승완
최수길
남택용
장종수
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020050063266A priority Critical patent/KR20070008210A/ko
Priority to US11/397,581 priority patent/US20070016576A1/en
Publication of KR20070008210A publication Critical patent/KR20070008210A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6209Protecting access to data via a platform, e.g. using keys or access control rules to a single file or object, e.g. in a secure envelope, encrypted and accessed using a key, or with access control rules appended to the object itself
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/606Protecting data by securing the transmission between two devices or processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/85Protecting input, output or interconnection devices interconnection devices, e.g. bus-connected or in-line devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 유해 멀티미디어 정보 차단 방법 및 장치에 관한 것으로, 본 발명에 따른 유해 멀티미디어 정보 차단 장치는, 유해 등급이 사전에 알려진 멀티미디어 학습 정보를 분석하여 특징을 추출한 후 기계 학습을 적용하여 유해 정보 분류 모델을 생성하는 유해 정보 분류 모델 학습부와, 상기 유해 정보 분류 모델을 사용하여 멀티미디어 입력 정보의 유해 등급을 판단하는 유해 정보 등급 분류부 및 상기 판단된 멀티미디어 입력 정보의 유해 등급이 기 설정 범위에 포함되는 경우 상기 멀티미디어 입력 정보를 차단하는 유해 정보 차단부를 포함하여, 유해 멀티미디어 정보의 데이터베이스가 무한정 증가하는 것을 방지할 수 있고, 유해성 판단에 소요되는 시간을 줄일 수 있게 된다.

Description

유해 멀티미디어 정보 차단 방법 및 장치{Method and apparatus for blocking the objectionable multimedia information}
도 1은 본 발명의 바람직한 일 실시예에 따른 유해 멀티미디어 정보 차단 장치에 대한 블록도이다.
도 2는 도 1의 유해 정보 분류 모델 학습부와 유해 정보 분류 모델을 보다 구체적으로 나타낸 일 예이다.
도 3은 도 1의 유해 정보 분류 모델 학습부와 유해 정보 분류 모델을 보다 구체적으로 나타낸 일 예이다.
도 4는 도 1의 유해 정보 등급 분류부를 보다 구체적으로 나타낸 일 예이다.
도 5는 도 1의 유해 정보 등급 분류부를 보다 구체적으로 나타낸 일 예이다.
도 6은 도 1의 유해 정보 차단부에서 결과 정보를 피드백을 통해 유해 정보 분류 모델 학습부로 보내는 것을 나타낸 도면이다.
도 7은 본 발명의 바람직한 일 실시예에 따른 유해 멀티미디어 정보 차단 방법에 대한 흐름도이다.
본 발명은 유해 멀티미디어 정보 차단 방법 및 장치에 관한 것으로, 더욱 상세하게는 기계 학습을 사용하여 적은 용량의 저장 공간에서 빠르고 정확하게 유해 멀티미디어 정보를 차단하는 방법 및 장치에 관한 것이다.
최근 개인용 컴퓨터와 인터넷이 확산됨에 따라, 월드 와이드 웹 (World Wide Web: 이하, "웹"이라고 한다), 파일 전송 프로토콜(File Transfer Protocol), 전자메일(E-Mail) 등의 네트워크 기반의 서비스 사용이 계속해서 증가하고 있다.
특히 인터넷은 정보의 바다라고 불릴 정도로 다양한 정보들이 존재하고 사용하기도 편리하여, 어린 아이들을 포함하여 많은 사람들의 일상 생활 일부가 되어 사회적, 경제적, 학문적인 측면에 있어서 긍정적인 면을 제공한다. 그러나 이러한 긍정적인 면에 반하여, 인터넷의 개방성, 상호연결성, 익명성의 특징을 이용해 무분별하게 유포되는 유해 정보는 심각한 사회 문제로 대두되고 있다. 특히 가치 판단력이 떨어지는 어린 아이들에게는 정서적 악영향을 끼칠 수 있다. 그러므로 사회적 약자인 어린 아이들 또는 원치 않는 사람들이 유해 정보에 노출되지 않도록 유해 정보를 차단하는 방법이 필요하다.
종래에 인터넷에서 유통되는 유해 멀티미디어 정보 차단 기술은 주로 정보의 내용과는 상관없이 인터넷의 주소나 전송된 데이터의 부가적인 정보인 대표 이름, 저장 위치 등을 분석하여 유해성 여부를 판별하였다. 이때 사용된 유해성 여부 판별 방법으로는 유해 정보의 이름, 유해 정보의 저장 위치 등을 데이터베이스로 저장한 후 유해 정보로 의심되는 멀티미디어 정보를 저장된 데이터베이스와 직접 비교 또는 축약된 특징값을 통한 간접 비교가 주를 이룬다.
그러나 이와 같은 방법은 유해 정보의 내용 자체를 반영하지 못하기 때문에 유해 정보에 대한 차단율이 낮고 과차단율이 높은 단점을 갖는다. 이러한 문제점을 해결하기 위해 인터넷에 유통되는 정보의 내용과 유해 정보의 데이터베이스를 비교하여 유해 정보 여부를 판단하는 방법이 등장하게 되었다. 하지만, 유해 정보의 데이터베이스에 의존하여 유해 정보 여부를 판단하는 방법은 유해 정보가 늘어남에 따라 데이터베이스의 크기가 계속 증가하고, 데이터베이스가 증가함에 따라서 유해 정보를 판단하는데 소요되는 시간이 증가하는 문제점이 있다.
상기와 같은 문제점을 피하기 위해 대표성을 갖는 유해 정보만을 데이터베이스로 유지하는 방법이 제안되었다. 이와 같은 방법은 유해 멀티미디어 정보로부터 특징을 추출하고, 추출된 유해 정보 특징들의 데이터베이스를 만들어서 유해성 여부를 판별하는 방법이다. 그러나 이러한 방법은 유해성 판별을 위해 유해 정보의 데이터베이스를 사용하기 때문에, 유해 정보가 늘어남에 따라서 데이터베이스의 크기가 한정 없이 커지는 문제뿐만 아니라 데이터베이스의 크기가 커지면서 유해성 판단에 소요되는 시간이 증가하는 문제점을 가지고 있다. 또한, 대표성을 갖는 유해 정보의 선택이 인위적으로 수행되므로 선택된 유해 정보의 실제 대표성을 확신할 수 없을 뿐만 아니라, 사람의 눈에 의해 유사하게 보이더라도 컴퓨터에서는 다르게 표현되는 멀티미디어의 특성으로 인하여 사람에 의해 선택된 유해 정보는 대표성이 떨어져 유해 정보 분류 성능이 저하된다는 문제점이 있다.
본 발명이 이루고자 하는 기술적 과제는, 멀티미디어 학습 정보로부터 MPEG- 7 특징 및 비표준 특징을 추출하고, 추출된 특징들에 대해 기계 학습을 수행하여 유해 정보의 공통적인 특징을 반영하는 유해 정보 분류 모델을 생성하며, 생성된 유해 정보 분류 모델을 이용하여 입력되는 멀티미디어 정보의 유해 등급을 분류하고 차단하는 방법 및 장치를 제공하는 것이다.
또한, 본 발명이 이루고자 하는 기술적 과제는, 입력되는 멀티미디어 정보의 유해 등급 분류를 기 구축된 유해 정보의 데이터베이스에 의존하지 않고, 멀티미디어 학습 정보의 공통된 특징들에 대한 기계 학습 결과인 유해 정보 분류 모델을 통하여 수행하고, 유해 정보 분류 결과를 이용한 재학습을 통해 적응적인 유해 정보 분류 모델을 생성하여 입력되는 멀티미디어 정보를 효과적으로 차단하는 방법 및 장치를 제공하는 것이다.
상기 기술적 과제를 해결하기 위한 본 발명에 따른 유해 멀티미디어 정보 차단 장치는, 유해 등급이 사전에 알려진 멀티미디어 학습 정보를 분석하여 특징을 추출한 후 기계 학습을 적용하여 유해 정보 분류 모델을 생성하는 유해 정보 분류 모델 학습부; 상기 유해 정보 분류 모델을 사용하여 멀티미디어 입력 정보의 유해 등급을 판단하는 유해 정보 등급 분류부; 및 상기 판단된 멀티미디어 입력 정보의 유해 등급이 기 설정 범위에 포함되는 경우 상기 멀티미디어 입력 정보를 차단하는 유해 정보 차단부를 포함하는 것을 특징으로 가진다.
상기 기술적 과제를 해결하기 위한 본 발명에 따른 유해 멀티미디어 정보 차단 방법은, (a) 유해 등급이 사전에 알려진 멀티미디어 학습 정보를 분석하여 특징 을 추출한 후 기계 학습을 적용하여 유해 정보 분류 모델을 생성하는 단계; (b) 상기 생성된 유해 정보 분류 모델을 전송받아 입력되는 멀티미디어 입력 정보의 유해 등급을 판단하는 단계; 및 (c) 상기 (b)단계에서 판단된 멀티미디어 입력 정보의 유해 등급이 기 설정 범위에 포함되는 경우 상기 멀티미디어 입력 정보를 차단하는 단계를 포함하는 것을 특징으로 가진다.
이하에서, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세히 설명한다.
도 1은 본 발명의 바람직한 일 실시예에 따른 유해 멀티미디어 정보 차단 장치에 대한 블록도이다. 도 1을 참조하면, 본 발명에 따른 유해 멀티미디어 정보 차단 장치는 유해 정보 분류 모델 학습부(120), 유해 정보 등급 분류부(150) 및 유해 정보 차단부(160)를 포함하여 구성된다. 유해 정보 분류 모델 학습부(120)는 특징 추출기(122)와 기계 학습기(124)를 포함하여 구성되고, 유해 정보 등급 분류부(150)는 특징 추출기(152)와 유해성 등급기(154)를 포함하여 구성된다.
유해 정보 분류 모델 학습부(120)의 특징 추출기(122)는 유해 정도(등급)가 사전에 알려진 멀티미디어 학습 정보(110)를 입력받는다. 유해 정보 분류 모델 학습부(120)의 특징 추출기(122)는 멀티미디어 학습 정보(110)를 분석하여 MPEG-7 특징 및 비표준 멀티미디어 특징을 추출하고, 이렇게 추출된 특징들은 기계 학습기(124)에 의해 학습되고 그 결과로 유해 정보의 공통적인 특징을 반영하는 유해 정보 분류 모델(130)이 생성된다.
여기에서, 본 발명은 데이터베이스에 기반하여 유해성을 판단하는 방식이 아 니라 기계 학습기(124)를 이용한 기계 학습 기반의 멀티미디어의 유해성 판단 방식이다. 즉, 멀티미디어 정보의 유해성 여부를 판단함에 있어서 유해 멀티미디어 정보의 데이터베이스를 사용하지 않고, 유해 정도가 사전에 알려진 멀티미디어 학습 정보의 특징을 추출하고, 추출된 특징을 기계 학습기(124)에 의해 학습하여 얻어진 유해 정보 분류 모델을 사용한다.
유해 정보의 대표적이고 공통된 특징을 반영하는 유해 정보 분류 모델을 사용하게 되면 종래 데이테베이스에 기반하여 유해성을 판단하는 방법과 달리 유해 멀티미디어 정보가 증가하더라도 비교할 정보량과 분류 모델의 크기가 증가하지 않으며, 새롭게 출현하는 유사한 유형의 유해 멀티미디어 정보에 대한 유해 판단율이 높다.
그리고, 데이터베이스 기반의 유해성 판단 방법에 비해 유해성 여부를 판단하는데 소요되는 시간이 줄어드는 특징이 있다.
또한, 다양한 많은 유형의 입력되는 멀티미디어 정보에 대해 기계 학습을 수행하고 유해성을 판단하여 임계값을 자동으로 결정하기 때문에, 수동으로 임계값을 결정했던 종래의 방법보다 향상된 유해성 판단 능력을 갖출 수 있게 된다.
생성된 유해 정보 분류 모델(130)은 유해 정보 등급 분류부(150)의 유해성 등급기(154)에 의해 멀티미디어 입력 정보(140)의 유해 등급을 판별하기 위해 사용된다. 이때, 유해성 등급기(154)의 입력으로는 멀티미디어 입력 정보(140)가 직접 입력되는 것이 아니라 유해 정보 등급 분류부(150)의 특징 추출기(152)에 의해 추출된 멀티미디어 입력 정보(140)의 MPEG-7 특징 및 비표준 멀티미디어 특징이다.
유해 정보 차단부(160)는 유해성 등급기(154)의 등급 판단 결과에 따라 멀티미디어 입력 정보(140)를 차단한다.
보다 구체적으로, 유해 정보 차단부(160)는 유해 정보 등급 분류부(150)로부터 입력받은 멀티미디어 입력 정보의 유해 등급이 기 설정된 범위에 포함되는지 여부를 통하여 유해 멀티미디어 입력 정보의 차단을 결정하게 된다.
또한, 유해 정보 차단부(160)는 유해 정보 차단 결과 정보를 유해 정보 분류 모델(130)의 성능 향상을 위해 유해 정보 분류 모델 학습부(120)에 피드백시켜 재학습이 수행될 수 있도록 한다. 이러한 피드백을 이용한 재학습은 적응적인 유해 정보 분류 모델(130)을 생성할 수 있기 때문에 유해 멀티미디어 입력 정보 분류 성능을 지속적으로 향상시킬 수 있다.
상기에서 살펴본 바와 같이, 유해 정보 분류 모델 학습부(120)의 특징 추출기(122)는 유해 등급을 사전에 알고 있는 멀티미디어 학습 정보(110)를 분석하여 각각의 멀티미디어의 내용을 대표할 수 있는 멀티미디어 특징 및 비표준 멀티미디어 특징들을 추출한다. 보다 구체적으로 멀티미디어 특징으로는 MPEG-7 특징 및 비표준 멀티미디어 특징으로는 비표준 MPEG-7 특징들을 추출한다.
MPEG-7 특징은 MPEG(Moving Picture Experts Group)에서 멀티미디어 데이터의 검색을 용이하게 하기 위해서 정의한 이미지, 동영상 데이터를 축약해서 표현하는 형태를 의미한다. 예를 들면, 이미지의 경우 색상(Color), 텍스쳐(Texture) 및 형태(Shape) 등이 특징이 될 수 있다. 그리고, 비표준 MPEG-7 특징은 MPEG-7에서 정의된 특징 이외의 모든 것을 말한다.
추출될 수 있는 멀티미디어의 특징들로는 국제 표준인 MPEG-7 기술자들, 그리고 비표준 멀티미디어 특징으로는 멀티미디어의 내용을 표현하기 위해 사용되는 기술자들이 이용될 수 있다.
MPEG-7 기술자는 MPEG-7 특징을 입력 데이터로부터 추출하여 숫자 벡터 형태로 표현하는 것을 말하며, MPEG-7 특징의 구체적인 값을 의미한다. 구체적으로 예를 들어, 원본 이미지 데이터의 경우 이미지 각 픽셀 당 레드(Red), 그린(Green) 및 블루(Blue) 값을 모두 가지고 있는데, 원본 이미지에 색상에 관한 특징을 추출하여 이미지 데이터를 R 값의 평균, G 값의 평균 및 B 값의 평균과 같이 세 개의 숫자로만 표현한다고 하면 MPEG-7 특징은 컬러이고, MPEG-7 기술자들은 R 값의 평균, G 값의 평균 및 B 값의 평균이다.
멀티미디어 학습 정보와 멀티미디어 입력 정보를 포함하는 멀티미디어 정보로부터 추출된 특징들은 음성, 이미지 및 동영상 정보 등의 다양한 형태를 가지며, 이들로부터 추출된 하나의 특징은 다음 수학식 1과 같이 표현된다.
Figure 112005037915475-PAT00001
여기에서,
Figure 112005037915475-PAT00002
는 임의의 멀티미디어 정보에 대한 음성, 이미지 및 동영상 정보등의 한 특징값(
Figure 112005037915475-PAT00003
)을 나타내며,
Figure 112005037915475-PAT00004
개의 구성 요소를 갖는다.
유해 등급을 분류하기 위해서 사용되는 특징
Figure 112005037915475-PAT00005
Figure 112005037915475-PAT00006
개의 특징값으로 이 루어질 수 있다. 그리고 각 특징값은
Figure 112005037915475-PAT00007
개의 구성 요소(각 특징값이 다른 개수의 구성 요소를 가질 수 있지만, 표현의 편의를 위하여 여기에서는 각 특징값이 같은 개수의 구성 요소를 갖는다고 가정한다)로 이루어졌다고 하면, 특징
Figure 112005037915475-PAT00008
Figure 112005037915475-PAT00009
x
Figure 112005037915475-PAT00010
의 행렬 형태로 표시되며, 다음 수학식 2와 같이 (
Figure 112005037915475-PAT00011
x
Figure 112005037915475-PAT00012
) x 1의 형태로 표시될 수 있다.
Figure 112005037915475-PAT00013
위와 같은 특징
Figure 112005037915475-PAT00014
는 유해 정보 분류 모델(130)을 만들기 위해 기계 학습기(124)의 입력값 또는 유해 등급 판단을 위해 유해 정보 등급 분류부(150)의 유해성 등급기(154)의 입력값으로 사용된다.
멀티미디어 학습 정보(110)로부터 특징 추출기(122)에 의해 추출된 특징
Figure 112005037915475-PAT00015
는 기계 학습기(124)의 입력값으로 사용되며, 기계 학습기(124)는 특징
Figure 112005037915475-PAT00016
를 입력 받아서 유해 정보의 등급을 구분할 수 있는 분류 모델을 생성하게 된다.
분류 모델은 다음 수학식 3과 수학식 4를 통해 나타낼 수 있다.
Figure 112005037915475-PAT00017
Figure 112005037915475-PAT00018
수학식 3에서
Figure 112005037915475-PAT00019
는 분류 모델
Figure 112005037915475-PAT00020
를 구성하는 등급 경계 벡터,
Figure 112005037915475-PAT00021
는 등급 경계 벡터와 특징
Figure 112005037915475-PAT00022
사이의 차이값,
Figure 112005037915475-PAT00023
는 가중치,
Figure 112005037915475-PAT00024
보정값,
Figure 112005037915475-PAT00025
는 멀티미디어 학습 정보(110)의 특징
Figure 112005037915475-PAT00026
가 미리 정해진 등급
Figure 112005037915475-PAT00027
(유해 또는 무해)에 해당되는 점수를 의미한다. 여기에서,
Figure 112005037915475-PAT00028
가 클수록 특징
Figure 112005037915475-PAT00029
Figure 112005037915475-PAT00030
등급에 속할 가능성이 높다. 기계 학습을 통해 얻어진 유해 정보 분류 모델(130)은 유해 정보 등급 분류부(150)로 전달되어 멀티미디어 입력 정보의 유해 등급을 판단하는데 사용된다.
유해 정보 등급 분류부(150)의 특징 추출기(152)는 멀티미디어 입력 정보(140)로부터 상기 수학식 2와 같은 특징
Figure 112005037915475-PAT00031
를 추출하고, 유해성 등급기(154)는 특징
Figure 112005037915475-PAT00032
를 전송받은 유해 정보 분류 모델(130)에 입력하여 상기 수학식 3과 같은
Figure 112005037915475-PAT00033
의 값을 계산한다. 멀티미디어 입력 정보(140)는 상기 수학식 4와 같이 가장 큰 값의
Figure 112005037915475-PAT00034
를 가지는 등급
Figure 112005037915475-PAT00035
에 결정된다. 결정된 등급이 유해 등급에 속하면 멀티미디어 입력 정보(140)는 유해 정보 차단부(160)에 의해 차단된다.
도 2는 도 1의 유해 정보 분류 모델 학습부와 유해 정보 분류 모델을 보다 구체적으로 나타낸 일 예이다. 도 2를 참조하면, 멀티미디어 학습 정보(110)는 다수개의 유해 정보 분류 모델 학습부로 구성된 유해 정보 분류 모델 학습부(120)의 입력으로 사용되어 다수개의 유해 정보 분류 모델(130)들을 생성한다. 각각의 유해 정보 분류 모델 학습부(120)는 멀티미디어 학습 정보(110)에 대해 독립적인 특징 추출기와 기계 학습기를 사용해서 각각의 유해 정보 분류 모델(130)들을 생성한다.
보다 구체적으로, 제 1 유해 정보 분류 모델 학습부(1201)는 멀티미디어 학습 정보(110)에 대해 독립적인 제 1 특징 추출기(1221)와 제 1 기계 학습기(1241)를 사용해서 제 1 유해 정보 분류 모델(1301)을 생성한다.
그리고, 제 2 유해 정보 분류 모델 학습부(1202)는 멀티미디어 학습 정보(110)에 대해 독립적인 제 2 특징 추출기(1222)와 제 2 기계 학습기(1242)를 사용해서 제 2 유해 정보 분류 모델(1302)을 생성한다.
또한, 제 m 유해 정보 분류 모델 학습부(120m)는 멀티미디어 학습 정보(110)에 대해 독립적인 제 m 특징 추출기(122m)과 제 m 기계 학습기(124m)를 사용해서 제 m 유해 정보 분류 모델(130m)을 생성한다.
도 3은 도 1의 유해 정보 분류 모델 학습부와 유해 정보 분류 모델을 보다 구체적으로 나타낸 일 예이다. 도 3을 참조하면, 멀티미디어 학습 정보(110)는 한 개의 유해 정보 분류 모델 학습부(120)의 입력으로 사용되어 한 개의 유해 정보 분류 모델(130)을 생성한다. 유해 정보 분류 모델 학습부(120)는 멀티미디어 학습 정보(110)로부터 다양한 특징을 추출하기 위해 다수개의 특징 추출기(1221', 1222', ..., 122m')을 사용할 수 있고, 다수개의 특징 추출기(1221', 1222', ..., 122m')에 의해 추출된 특징은 한 개의 기계 학습기(124)의 입력으로 사용되어 한 개의 유해 정보 분류 모델(130)을 생성한다.
도 4는 도 1의 유해 정보 등급 분류부를 보다 구체적으로 나타낸 일 예이다. 도 4를 참조하면, 멀티미디어 입력 정보(140)는 유해 정보 등급 분류부(150)에 전달되어 제 1 특징 추출기(1521), 제 2 특징 추출기(1522), ... 및 제 m 특징 추출기(152m)에 의해 상기 수학식 2와 같은 특징
Figure 112005037915475-PAT00036
들이 추출되고, 제 1 유해성 등급기(1541), 제 2 유해성 등급기(1542), ... 및 제 m 유해성 급기(154m)는 특징
Figure 112005037915475-PAT00037
들을 입력으로 하여 상기 수학식 3과 같은
Figure 112005037915475-PAT00038
의 값들과 상기 수학식 4와 같이 등급
Figure 112005037915475-PAT00039
들이 계산된다.
제 1 유해성 등급기(1541), 제 2 유해성 등급기(1542), ... 및 제 m 유해성 급기(154m)의 결과인 등급
Figure 112005037915475-PAT00040
는 통합 유해성 등급기(156)에 전달되고, 통합 유해성 등급기(156)는 사전에 정의된 정책에 따라 최종 등급
Figure 112005037915475-PAT00041
를 결정한다.
여기에서, 도 4에서 유해 정보 등급 분류부(150)의 제 1 특징 추출기(1521), 제 2 특징 추출기(1522), ... 및 제 m 특징 추출기(152m)는 도 2의 유해 정보 분류 모델 학습부(120)를 구성하는 제 1 특징 추출기(1221), 제 2 특징 추출기(1222), ... 및 제 m 특징 추출기(122m)와 동일한 것이 사용되어야 한다. 그리고, 제 1 유해성 등급기(1541), 제 2 유해성 등급기(1542), ... 및 제 m 유해성 등급기(154m)는 각각 도 2의 제 1 유해 정보 분류 모델(1301), 제 2 유해 정보 분류 모델(1302), ... 및 제 m 유해 정보 분류 모델(130m)을 전송받아 사용하여야 한다.
통합 유해성 등급기(156)에 의해 최종 등급
Figure 112005037915475-PAT00042
가 유해 등급으로 결정되면, 멀티미디어 입력 정보(140)는 유해 정보 차단부(160)에 의해 차단된다.
도 5는 도 1의 유해 정보 등급 분류부를 보다 구체적으로 나타낸 일 예이다. 도 5를 참조하면, 멀티미디어 입력 정보(140)는 유해 정보 등급 분류부(150)의 제 1 특징 추출기(1521), 제 2 특징 추출기(1522), ... 및 제 m 특징 추출기(152m)에 의해 상기 수학식 2와 같은 특징
Figure 112005037915475-PAT00043
가 추출되고, 유해성 등급기(154)에 의해 수학식 3과 같은
Figure 112005037915475-PAT00044
의 값과 상기 수학식 4와 같이 등급
Figure 112005037915475-PAT00045
가 결정된다.
여기에서, 도 5에서 유해 정보 등급 분류부(150)의 제 1 특징 추출기(1521), 제 2 특징 추출기(1522), ... 및 제 m 특징 추출기(152m)는 도 3의 유해 정보 분류 모델 학습부(120)를 구성하는 제 1 특징 추출기(1221'), 제 2 특징 추출기(1222'), ... 및 제 m 특징 추출기(122m')와 동일한 것이 사용되어야 한다. 그리고, 유해성 등급기(154)는 도 3의 유해 정보 분류 모델(130)을 전송받아 사용하여야 한다.
유해성 등급기(154)에 의해 등급
Figure 112005037915475-PAT00046
가 유해 등급으로 결정되면, 멀티미디어 입력 정보(140)는 유해 정보 차단부(160)에 의해 차단된다.
도 6은 도 1의 유해 정보 차단부에서 결과 정보를 피드백을 통해 유해 정보 분류 모델 학습부로 보내는 것을 나타낸 도면이다. 도 6을 참조하면, 멀티미디어 입력 정보(140)에 대해 유해 정보 등급 분류부(150)는 유해 정보 분류 모델(130)을 사용하여 유해 여부를 판단하고, 유해로 판단된 멀티미디어 입력 정보(140)는 유해 정보 차단부(160)에 의해 차단된다. 유해 정보 차단부(160)는 그 결과를 유해 정보 분류 모델 학습부(120)에 피드백하여, 재학습을 수행한 후 새로운 유해 정보 분류 모델(130)을 생성한다. 새롭게 생성된 유해 정보 분류 모델(130)는 유해 정보 등급 분류부(150)에 반영되기 위해 전달된다.
도 7은 본 발명의 바람직한 일 실시예에 따른 유해 멀티미디어 정보 차단 방법에 대한 흐름도이다. 도 7을 참조하면, 먼저, 유해 정도(등급)가 사전에 알려진 멀티미디어 학습 정보를 분석하여 특징을 추출한다(S700). 여기에서 특징은 MPEG-7 특징 및 비표준 멀티미디어 특징으로 이루어진다.
다음으로, 단계S700에서 추출된 특징을 기계 학습시켜 유해 정보 분류 모델을 생성한다(S710). 유해 정보 분류 모델은 단계S700에서 추출된 특징들을 기계 학습기를 통하여 학습하고 그 학습결과로써 생성된다.
다음으로, 단계S710에서 생성된 유해 정보 분류 모델을 멀티미디어 입력 정보에 대한 유해 정보 등급을 분류하는 기능을 수행하는 곳으로 전송한다(S720). 여기에서, 유해 정보 등급을 분류하는 기능을 수행하는 곳은 유해 정보 등급 분류부라고 할 수 있다.
다음으로, 유해 여부를 판단하고자 하는 멀티미디어 입력 정보를 분석하여 특징을 추출한다(S730).
다음으로, 단계S730에서 추출된 특징을 상기 단계S720에서 전송받은 유해 정보 분류 모델에 입력하여 유해 등급를 판단한다(S740).
다음으로, 단계S740에서 판단된 유해 등급이 기 설정된 범위에 포함된다고 판단되는 경우, 즉 유해 멀티미디어 입력 정보라고 판단되는 경우 멀티미디어 입력 정보를 차단한다(S750). 여기에서, 멀티미디어 입력 정보를 차단하는 경우에 차단 결과 정보를 피드백하는 것을 더 포함할 수 있다.
도 7에서 미설명된 부분은 도 1내지 도 6을 참조하기로 한다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD_ROM, 자기테이프, 플로피디스크 및 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.
이상에서와 같이 도면과 명세서에서 최적 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
본 발명의 유해 멀티미디어 정보 차단 방법 및 장치에 따르면, 멀티미디어 정보의 유해 여부 판단에 기계 학습을 이용함으로써 유해 정보의 데이터베이스가 무한정 증가하는 것을 방지할 수 있고, 판단에 소요되는 시간을 줄일 수 있다. 그럼으로써, 적은 용량의 저장 공간을 사용하면서도 빠르고 정확하게 유해 멀티미디어 정보를 분류하여 차단할 수 있다.
그리고, 본 발명의 유해 멀티미디어 정보 차단 방법 및 장치는 기계 학습으로부터 유해 정보 분류 모델을 생성함에 있어, 다양한 유형에 대한 데이터 학습과 자동 계산을 통해 얻어진 최적화된 임계값을 사용하기 때문에 유해 정보 판단의 정확도를 향상 시킬 수 있다.
또한, 본 발명의 유해 멀티미디어 정보 차단 방법 및 장치는 피드백을 이용한 재학습을 통해 적응적인 분류 모델을 생성하여 분류 성능을 지속적으로 향상시킬 수 있다.
상기에서 설명한 본 발명의 유해 멀티미디어 정보 차단 방법 및 장치는 휴대용 멀티미디 재생 장치(MP3, PMP 등), 핸드폰 및 PDA에 적용될 수 있다.

Claims (23)

  1. 유해 등급이 사전에 알려진 멀티미디어 학습 정보를 분석하여 특징을 추출한 후 기계 학습을 적용하여 유해 정보 분류 모델을 생성하는 유해 정보 분류 모델 학습부;
    상기 유해 정보 분류 모델을 사용하여 멀티미디어 입력 정보의 유해 등급을 판단하는 유해 정보 등급 분류부; 및
    상기 판단된 멀티미디어 입력 정보의 유해 등급이 기 설정 범위에 포함되는 경우 상기 멀티미디어 입력 정보를 차단하는 유해 정보 차단부를 포함하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 장치.
  2. 제 1 항에 있어서,
    상기 멀티미디어 학습 정보를 분석하여 추출한 특징은 멀티미디어 특징 및/또는 비표준 멀티미디어 특징인 것을 특징으로 하는 유해 멀티미디어 정보 차단 장치.
  3. 제 1 항에 있어서, 상기 유해 정보 분류 모델 학습부는
    상기 멀티미디어 학습 정보를 분석하여 특징을 추출하는 특징 추출기; 및
    상기 특징 추출기에서 추출된 특징을 기계 학습시켜 유해 정보 분류 모델을 생성하는 기계 학습기;로 이루어지는 것을 특징으로 하는 유해 멀티미디어 정보 차 단 장치.
  4. 제 3 항에 있어서,
    상기 특징 추출기는 다수개로 이루어지고, 상기 다수개의 특징 추출기 각각은 상기 멀티미디어 학습 정보에 대하여 기 설정된 방식에 해당되는 특징을 추출하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 장치.
  5. 제 4 항에 있어서,
    상기 기계 학습기는 다수개로 이루어지고, 상기 다수개의 특징 추출기 각각으로부터 추출된 특징을 입력받아 다수개의 유해 정보 분류 모델을 생성하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 장치.
  6. 제 4 항에 있어서,
    상기 기계 학습기는 한 개로 이루어지고, 상기 다수개의 특징 추출기 각각으로부터 추출된 특징을 입력받아 한 개의 유해 정보 분류 모델을 생성하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 장치.
  7. 제 1 항에 있어서, 상기 유해 정보 등급 분류부는
    상기 멀티미디어 입력 정보를 분석하여 특징을 추출하는 특징 추출기; 및
    상기 유해 정보 분류 모델을 전송받고, 상기 특징 추출기에서 추출된 특징을 상기 유해 정보 분류 모델에 입력하여 유해 등급을 판단하는 유해성 등급기;로 이루어지는 것을 특징으로 하는 유해 멀티미디어 정보 차단 장치.
  8. 제 7 항에 있어서,
    상기 특징 추출기는 다수개로 이루어지고, 상기 다수개의 특징 추출기 각각은 상기 멀티미디어 입력 정보에 대하여 기 설정된 방식에 해당되는 특징을 추출하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 장치.
  9. 제 7 항 또는 제 8 항에 있어서,
    상기 특징 추출기는 상기 유해 정보 분류 모델 학습부에서 상기 멀티미디어 학습 정보를 분석하여 특징을 추출하는 방식과 동일하게 상기 멀티미디어 입력 정보를 분석하여 특징을 추출하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 장치.
  10. 제 8 항에 있어서,
    상기 유해성 등급기는 다수개로 이루어져 다수개의 유해 정보 분류 모델을 입력받고, 상기 다수개의 특징 추출기 각각으로부터 추출된 특징들을 상기 다수개의 유해 정보 분류 모델에 입력하여 다수개의 유해 등급들을 판단하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 장치.
  11. 제 10 항에 있어서,
    상기 다수개의 유해 등급들을 입력받아 최종적인 유해 등급을 판단하는 통합 유해성 등급기를 더 포함하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 장치.
  12. 제 8 항에 있어서,
    상기 유해성 등급기는 한 개로 이루어져 한 개의 유해 정보 분류 모델을 입력받고, 상기 다수개의 특징 추출기 각각으로부터 추출된 특징들을 상기 유해 정보 분류 모델에 입력하여 유해 등급을 판단하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 장치.
  13. 제 1 항에 있어서,
    상기 유해 정보 차단부는 상기 멀티미디어 입력 정보의 차단 여부에 대한 결과 정보를 상기 유해 정보 분류 모델 학습부에 피드백하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 장치.
  14. (a) 유해 등급이 사전에 알려진 멀티미디어 학습 정보를 분석하여 특징을 추출한 후 기계 학습을 적용하여 유해 정보 분류 모델을 생성하는 단계;
    (b) 상기 생성된 유해 정보 분류 모델을 전송받아 입력되는 멀티미디어 입력 정보의 유해 등급을 판단하는 단계; 및
    (c) 상기 (b)단계에서 판단된 멀티미디어 입력 정보의 유해 등급이 기 설정 범위에 포함되는 경우 상기 멀티미디어 입력 정보를 차단하는 단계를 포함하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 방법.
  15. 제 14 항에 있어서,
    상기 멀티미디어 학습 정보를 분석하여 추출한 특징은 멀티미디어 특징 및/또는 비표준 멀티미디어 특징인 것을 특징으로 하는 유해 멀티미디어 정보 차단 방법.
  16. 제 14 항에 있어서, 상기 (a)단계는
    (a1) 상기 멀티미디어 학습 정보를 분석하여 특징을 추출하는 단계; 및
    (a2) 상기 추출된 특징을 기계 학습시켜 유해 정보 분류 모델을 생성하는 단계;로 이루어지는 것을 특징으로 하는 유해 멀티미디어 정보 차단 방법.
  17. 제 16 항에 있어서,
    상기 (a1)단계에서는 상기 멀티미디어 학습 정보에 대하여 기 설정된 방식에 따라 다수개의 특징들을 추출하고,
    상기 (a2)단계에서는 상기 각각의 특징들을 입력받아 기계 학습시켜 다수개의 유해 정보 분류 모델들을 생성하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 방법.
  18. 제 16 항에 있어서,
    상기 (a1)단계에서는 상기 멀티미디어 학습 정보에 대하여 기 설정된 방식에 따라 다수개의 특징들을 추출하고,
    상기 (a2)단계에서는 상기 각각의 특징들을 입력받아 기계 학습시켜 한 개의 유해 정보 분류 모델을 생성하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 방법.
  19. 제 14 항에 있어서, 상기 (b)단계는
    (b1) 상기 (a)단계에서 생성된 유해 정보 분류 모델을 전송받는 단계;
    (b2) 상기 멀티미디어 입력 정보를 분석하여 특징을 추출하는 단계; 및
    (b3) 상기 (b2)단계에서 추출된 특징을 상기 유해 정보 분류 모델에 입력하여 상기 멀티미디어 입력 정보의 유해 등급을 판단하는 단계;로 이루어지는 것을 특징으로 하는 유해 멀티미디어 정보 차단 방법.
  20. 제 19 항에 있어서,
    상기 (b2)단계에서는 상기 멀티미디어 입력 정보에 대하여 기 설정된 방식에 따라 다수개의 특징을 추출하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 방법.
  21. 제 19 항 또는 제 20 항에 있어서,
    상기 (b2)단계에서 특징을 추출하는 방식은 상기 (a)단계에서 상기 멀티미디어 학습 정보를 분석하여 특징을 추출하는 방식과 동일한 것을 특징으로 하는 유해 멀티미디어 정보 차단 방법.
  22. 제 20 항에 있어서,
    상기 (b1)단계에서는 상기 (a)단계에서 생성된 다수개의 유해 정보 분류 모델을 전송받되,
    상기 (b3)단계는 상기 각각의 특징을 상기 다수개의 유해 정보 분류 모델에 각각 입력하여 다수개의 유해 등급들을 판단하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 방법.
  23. 제 22 항에 있어서,
    상기 (b3)단계 이후에 상기 다수개의 유해 등급들을 입력받아 최종적인 유해 등급을 판단하는 단계를 더 포함하는 것을 특징으로 하는 유해 멀티미디어 정보 차단 방법.
KR1020050063266A 2005-07-13 2005-07-13 유해 멀티미디어 정보 차단 방법 및 장치 KR20070008210A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020050063266A KR20070008210A (ko) 2005-07-13 2005-07-13 유해 멀티미디어 정보 차단 방법 및 장치
US11/397,581 US20070016576A1 (en) 2005-07-13 2006-04-03 Method and apparatus for blocking objectionable multimedia information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050063266A KR20070008210A (ko) 2005-07-13 2005-07-13 유해 멀티미디어 정보 차단 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20070008210A true KR20070008210A (ko) 2007-01-17

Family

ID=37662850

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050063266A KR20070008210A (ko) 2005-07-13 2005-07-13 유해 멀티미디어 정보 차단 방법 및 장치

Country Status (2)

Country Link
US (1) US20070016576A1 (ko)
KR (1) KR20070008210A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101064952B1 (ko) * 2009-11-23 2011-09-16 한국전자통신연구원 신체 관심영역 탐지 방법 및 장치
KR101496632B1 (ko) * 2010-11-04 2015-03-03 한국전자통신연구원 안심 콘텐츠 서비스를 위한 시스템 및 이를 위한 방법
KR102093275B1 (ko) * 2019-05-23 2020-03-25 (주)지란지교시큐리티 악성코드 감염 유도정보 판별 시스템, 프로그램이 기록된 저장매체 및 방법
KR20200133644A (ko) * 2019-05-20 2020-11-30 (주)지란지교시큐리티 악성 멀티미디어 파일을 분류하는 인공지능 기반 장치, 방법 및 그 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록매체
KR20220079284A (ko) * 2020-12-04 2022-06-13 채진호 창작물 등급 분류 장치 및 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110066676A (ko) * 2009-12-11 2011-06-17 한국전자통신연구원 피부색과 얼굴 정보 기반 유해 멀티미디어 차단 장치 및 방법
US20110150328A1 (en) * 2009-12-21 2011-06-23 Electronics And Telecommunications Research Institute Apparatus and method for blockiing objectionable image on basis of multimodal and multiscale features
KR102158747B1 (ko) * 2019-10-30 2020-09-22 김민석 유해 콘텐츠 게시 방지 및 차단 장치

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6266664B1 (en) * 1997-10-01 2001-07-24 Rulespace, Inc. Method for scanning, analyzing and rating digital information content
US6687696B2 (en) * 2000-07-26 2004-02-03 Recommind Inc. System and method for personalized search, information filtering, and for generating recommendations utilizing statistical latent class models
US7466873B2 (en) * 2005-06-29 2008-12-16 Xerox Corporation Artifact removal and quality assurance system and method for scanned images

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101064952B1 (ko) * 2009-11-23 2011-09-16 한국전자통신연구원 신체 관심영역 탐지 방법 및 장치
US8620091B2 (en) 2009-11-23 2013-12-31 Electronics And Telecommunications Research Institute Method and apparatus for detecting specific external human body parts from texture energy maps of images by performing convolution
KR101496632B1 (ko) * 2010-11-04 2015-03-03 한국전자통신연구원 안심 콘텐츠 서비스를 위한 시스템 및 이를 위한 방법
KR20200133644A (ko) * 2019-05-20 2020-11-30 (주)지란지교시큐리티 악성 멀티미디어 파일을 분류하는 인공지능 기반 장치, 방법 및 그 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록매체
KR102093275B1 (ko) * 2019-05-23 2020-03-25 (주)지란지교시큐리티 악성코드 감염 유도정보 판별 시스템, 프로그램이 기록된 저장매체 및 방법
KR20220079284A (ko) * 2020-12-04 2022-06-13 채진호 창작물 등급 분류 장치 및 방법
KR20230010794A (ko) * 2020-12-04 2023-01-19 채진호 인공지능을 이용한 창작물 등급 분류 장치 및 방법

Also Published As

Publication number Publication date
US20070016576A1 (en) 2007-01-18

Similar Documents

Publication Publication Date Title
CN109697416B (zh) 一种视频数据处理方法和相关装置
US10740885B2 (en) Object based image processing
KR20070008210A (ko) 유해 멀티미디어 정보 차단 방법 및 장치
CN110832533B (zh) 用于生成用户偏好内容的对抗式方法和系统
CN111738357B (zh) 垃圾图片的识别方法、装置及设备
US9749710B2 (en) Video analysis system
CN111310026A (zh) 一种基于人工智能的涉黄涉恐监测方法
CN102236796A (zh) 数字视频不良内容的分类方法和系统
CN113989583A (zh) 一种互联网恶意流量检测方法及系统
CN109992781B (zh) 文本特征的处理方法、装置和存储介质
CN109583228B (zh) 一种隐私信息管理方法、装置和系统
KR20220005548A (ko) 이미지 처리 방법 및 장치
CN103744974A (zh) 局部兴趣点选取的方法及设备
CN112435035A (zh) 数据的审核方法、装置及设备
CN111259245B (zh) 作品推送方法、装置及存储介质
KR20110066676A (ko) 피부색과 얼굴 정보 기반 유해 멀티미디어 차단 장치 및 방법
CN110489955B (zh) 应用于电子设备的图像处理、装置、计算设备、介质
CN111444362A (zh) 恶意图片拦截方法、装置、设备和存储介质
CN102902674A (zh) 服务群组分类方法和系统
CN109977738B (zh) 一种视频场景分割判断方法、智能终端及存储介质
CN111859022A (zh) 封面生成方法、电子设备及计算机可读存储介质
US11363064B2 (en) Identifying spam using near-duplicate detection for text and images
CN116261009A (zh) 智能转化影视受众的视频检测方法、装置、设备及介质
CN114882557A (zh) 一种人脸识别方法和装置
CN115690918A (zh) 构建活体识别模型和活体识别的方法、装置、设备及介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application