KR102432824B1 - Method for Detecting Harmful Streaming Video in Smart Device, Smart Device and Terminal for Machine Learning - Google Patents

Method for Detecting Harmful Streaming Video in Smart Device, Smart Device and Terminal for Machine Learning Download PDF

Info

Publication number
KR102432824B1
KR102432824B1 KR1020200051956A KR20200051956A KR102432824B1 KR 102432824 B1 KR102432824 B1 KR 102432824B1 KR 1020200051956 A KR1020200051956 A KR 1020200051956A KR 20200051956 A KR20200051956 A KR 20200051956A KR 102432824 B1 KR102432824 B1 KR 102432824B1
Authority
KR
South Korea
Prior art keywords
neural network
harmful
streaming
smart device
network model
Prior art date
Application number
KR1020200051956A
Other languages
Korean (ko)
Other versions
KR20210133411A (en
Inventor
이성희
신일홍
이남경
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020200051956A priority Critical patent/KR102432824B1/en
Publication of KR20210133411A publication Critical patent/KR20210133411A/en
Application granted granted Critical
Publication of KR102432824B1 publication Critical patent/KR102432824B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • H04N21/45455Input to filtering algorithms, e.g. filtering a region of the image applied to a region of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

실시예는 스트리밍 서버로부터 수신된 스트리밍 영상을 재생시키는 스마트 기기에서의 유해 스트리밍 영상 검출 방법이 개시된다. 스마트 기기에서의 유해 스트리밍 영상 검출 방법은, 스트리밍 영상으로부터 이미지 프레임을 순차적으로 추출하는 단계, 추출된 이미지 프레임의 유해성 여부를 미리 학습된 신경망 모델을 기반으로 검사하는 단계 및 이미지 프레임의 유해성 여부에 따라 선택적으로 스트리밍 영상의 재생을 차단하는 단계를 포함한다. The embodiment discloses a harmful streaming image detection method in a smart device that plays a streaming image received from a streaming server. A harmful streaming image detection method in a smart device includes the steps of sequentially extracting image frames from streaming images, examining whether the extracted image frames are harmful based on a pre-trained neural network model, and depending on whether the image frames are harmful and selectively blocking playback of the streaming video.

Description

스마트 기기에서의 유해 스트리밍 영상 검출 방법, 스마트 기기 및 기계 학습 단말{Method for Detecting Harmful Streaming Video in Smart Device, Smart Device and Terminal for Machine Learning}Method for Detecting Harmful Streaming Video in Smart Device, Smart Device and Terminal for Machine Learning

본 발명은 영상물의 유해성 여부를 검사하는 기술에 관한 것이다. The present invention relates to a technique for inspecting whether an image is harmful.

스마트 기기의 보급과 고속 이동 통신 기술의 발전으로 언제 어디서나 실시간으로 동영상 스트리밍 서비스 제공이 가능해졌다. 이에 따라 미디어 소비 환경은 PC 뿐만 아니라 스마트 기기를 이용해서 VoD, 실시간 개인 방송 및 동영상 기반 SNS 등의 서비스를 이용하는 환경으로 진화하고 있다. With the spread of smart devices and the development of high-speed mobile communication technology, it has become possible to provide real-time video streaming services anytime, anywhere. Accordingly, the media consumption environment is evolving into an environment that uses services such as VoD, real-time personal broadcasting, and video-based SNS using smart devices as well as PCs.

그런데, 이러한 미디어 서비스 사용 환경 변화는 미디어 소비의 다양성 및 편의성을 제공할 수 있다는 이점이 있는 반면, 음란물, 폭력물 등을 포함하는 유해물을 유통할 수 있는 채널을 또한 다양화되고 있다. 즉, 이러한 다양한 채널을 통해 유해물의 실시간 제작 송출이 가능해지면서, 불법적인 유해물의 배포 및 청소년의 이용을 방지하는 것이 더더욱 어려워지고 있다. However, such a change in the media service usage environment has the advantage of providing diversity and convenience in media consumption, while also diversifying channels for distributing harmful substances including pornography and violence. That is, as the real-time production and transmission of harmful substances is possible through these various channels, it is becoming more and more difficult to prevent the distribution of illegal substances and the use of juveniles.

종래에 인터넷 유해물 차단을 위한 방안으로, 유해 웹사이트를 차단하는 기술과 금칙어가 포함된 영상 검색을 필터링하는 키워드 기반 차단 기술이 개발된 바 있다. 그러나, 이러한 종래의 차단 기술을 우회하여 유해물을 배포 및 이용하는 것이 가능할 뿐만 아니라, 차단의 오류 발생률 또한 높은 것으로 보고되고 있다. Conventionally, as a method for blocking harmful Internet substances, a technology for blocking harmful websites and a keyword-based blocking technology for filtering an image search containing a forbidden word have been developed. However, it is reported that it is possible to distribute and use harmful substances by bypassing the conventional blocking technology, and the error rate of blocking is also high.

이러한 종래 기술의 단점을 보완하기 위해 동영상의 내용을 기반으로 유해물을 식별하는 해시 목록 기반 차단 기술, 특징 기반 차단 기술 그리고 내용 기반 차단 기술이 개발되었다. In order to compensate for the shortcomings of the prior art, hash list-based blocking technology, feature-based blocking technology, and content-based blocking technology for identifying harmful substances based on the contents of a video have been developed.

이 중, 해시 목록 기반 차단 기술은 유해물로부터 생성된 요약 정보(해시)를 DB화하고, 향후 식별 대상이 되는 영상의 요약 정보(해시)를 계산하여 DB에 저장된 데이터들과 비교하는 방식이다. 그런데, 이러한 방식에서는 DB의 지속적 업데이트가 요구되고, 영상이 변형될 경우 요약 정보 또한 상이하므로 식별이 어려워진다. Among them, the hash list-based blocking technology is a method of converting summary information (hash) generated from harmful substances into a DB, calculating summary information (hash) of an image to be identified in the future, and comparing it with data stored in the DB. However, in this method, continuous updating of the DB is required, and when the image is deformed, the summary information is also different, making it difficult to identify.

특징 기반 차단 기술은 DNA라고 불리는 유해 영상의 특징 정보들을 추출하여 DB를 구축하고 향후 식별 대상이 되는 영상의 DNA와 DB를 비교하여 유해물을 검출한다. 이러한 특징 기반 차단 기술은 DB 목록에 포함된 유해물에 대해서는 일부 변형된 유해물도 검출이 가능한 장점이 있으나, 전술한 해시 목록 기반 차단 기술과 마찬가지로 DB의 지속적 업데이트가 요구되며, 실시간으로 유해물이 제작 배포되는 개인 방송에 대한 대응은 용이하지 않다. The feature-based blocking technology extracts characteristic information of harmful images called DNA to build a DB, and detects harmful substances by comparing the DNA and DB of images to be identified in the future. This feature-based blocking technology has the advantage of being able to detect even some modified harmful substances for harmful substances included in the DB list. It is not easy to respond to personal broadcasting.

더욱이, 사용자 업로드 및 실시간 개인 방송 영상의 폭증으로 인해 모든 영상에 대해서 DB를 구축하는 것은 현실적으로 불가능하기 때문에 스트리밍 서비스 사업자들은 모니터링 요원을 고용하여 유해 영상을 검출하고 있다. 그러나 이러한 방식은 검출 효율이 떨어질 뿐만 아니라, 모니터링 요원의 정신적 건강 문제 및 인력 고용에 따른 고 비용을 고려할 때 바람직한 방식이 아니다. Moreover, because it is practically impossible to build a DB for all images due to the explosion of user uploads and real-time personal broadcasting images, streaming service providers employ monitoring personnel to detect harmful images. However, this method is not preferable in view of the low detection efficiency, mental health problems of monitoring personnel, and high cost of hiring personnel.

한국등록특허 10-1237469호Korean Patent No. 10-1237469

실시예는 스트리밍 동영상의 유해성을 수동으로 검사함에 따른 모니터링 요원의 정신 건강 및 고 비용 발생의 문제를 해결하는 데 그 목적이 있다. The embodiment aims to solve the problems of mental health and high cost of monitoring personnel due to manually examining the harmfulness of streaming video.

실시예는 폭증하는 스트리밍 동영상에 대한 실시간 유해성 검사를 가능하게 하는 데 그 목적이 있다. The embodiment has an object to enable real-time harmfulness inspection for an explosion of streaming video.

실시예는 스트리밍 동영상의 유해성을 검사하기 위한 별도의 검출 장비 구축 및 운용 비용없이 스트리밍 영상을 수신하는 스마트 기기에서 직접 검사하도록 하는 데 그 목적이 있다. The purpose of the embodiment is to directly inspect a smart device that receives a streaming video without the cost of constructing and operating a separate detection device for inspecting the harmfulness of the streaming video.

실시예는 스마트 기기에서 스트리밍 영상의 서비스 품질 저하없이 스트리밍 동영상의 유해성을 실시간으로 검사할 수 있도록 하는 데 그 목적이 있다. An object of the embodiment is to enable a smart device to inspect the harmfulness of a streaming video in real time without degrading the service quality of the streaming video.

실시예에 따른 스트리밍 서버로부터 수신된 스트리밍 영상을 재생시키는 스마트 기기에서의 유해 스트리밍 영상 검출 방법은, 스트리밍 영상으로부터 이미지 프레임을 순차적으로 추출하는 단계와, 추출된 이미지 프레임의 유해성 여부를 미리 학습된 신경망 모델을 기반으로 검사하는 단계 및 이미지 프레임의 유해성 여부에 따라 선택적으로 스트리밍 영상의 재생을 차단하는 단계를 포함한다.A method for detecting harmful streaming images in a smart device that reproduces a streaming image received from a streaming server according to an embodiment comprises the steps of sequentially extracting image frames from a streaming image, and a neural network trained in advance to determine whether the extracted image frames are harmful. It includes the step of checking based on the model and the step of selectively blocking the playback of the streaming video according to whether the image frame is harmful.

이때, 신경망 모델은, 기계 학습 단말에 의해 생성된 것으로, 기계 학습 단말로부터 미리 다운로드된 것일 수 있다.In this case, the neural network model is generated by the machine learning terminal and may be downloaded in advance from the machine learning terminal.

이때, 기계 학습 단말은, 유해 이미지 및 비 유해 이미지를 포함하는 훈련 데이터로 학습된 제1 신경망 모델을 생성하고, 생성된 제1 신경망 모델을 경량화하여 제2 신경망 모델을 생성하되, 신경망 모델은, 제2 신경망 모델일 수 있다.At this time, the machine learning terminal generates a first neural network model trained with training data including a harmful image and a non-toxic image, and generates a second neural network model by lightening the generated first neural network model, the neural network model, It may be a second neural network model.

이때, 신경망 모델은, 콘볼루셔널 신경망(Convolutional Neural Network, CNN) 기반의 이미지 분류 신경망일 수 있다.In this case, the neural network model may be an image classification neural network based on a convolutional neural network (CNN).

실시예에 따른 스마트 기기에서의 유해 스트리밍 영상 검출 방법은, 검사하는 단계 이후에, 유해성이 존재하는 이미지 프레임의 개수에 기반하여 스트리밍 영상의 유해성을 판단하는 단계를 더 포함하고, 차단하는 단계는, 스트리밍 영상의 유해성 판단 결과를 기반으로 수행될 수 있다. The method for detecting harmful streaming video in a smart device according to an embodiment further includes, after the step of checking, determining the harmfulness of the streaming image based on the number of image frames in which the harmfulness exists, and the blocking step includes: It may be performed based on the result of determining the harmfulness of the streaming video.

이때, 실시예에 따른 스마트 기기에서의 유해 스트리밍 영상 검출 방법은, 스트리밍 영상의 유해성 판단 결과를 기반으로 경고 메시지를 표출하는 단계를 더 포함할 수 있다.In this case, the method for detecting a harmful streaming image in a smart device according to an embodiment may further include displaying a warning message based on a result of determining the harmfulness of the streaming image.

이때, 실시예에 따른 스마트 기기에서의 유해 스트리밍 영상 검출 방법은, 스트리밍 영상의 유해성 판단 결과를 기반으로 대체 영상을 표출하는 단계를 더 포함할 수 있다.In this case, the method for detecting a harmful streaming image in a smart device according to an embodiment may further include displaying an alternative image based on a result of determining the harmfulness of the streaming image.

한편, 추출하는 단계는, 소정 추출 주기로 이미지 프레임을 추출하되, 추출 주기는, 이미지 프레임의 유해성 여부, CPU 점유율 및 배터리 잔량 중 적어도 하나에 따라, 실시간으로 변경될 수 있다.Meanwhile, the extracting may include extracting an image frame at a predetermined extraction cycle, and the extraction cycle may be changed in real time according to at least one of whether the image frame is harmful, CPU occupancy, and remaining battery power.

이때, 추출 주기는, 이미지 프레임이 유해한 것으로 검사된 경우, 이전보다 작게 조절될 수 있다.In this case, the extraction period may be adjusted to be smaller than before when the image frame is checked as harmful.

이때, 추출 주기는, CPU 점유율이 소정 임계치 이상인 경우 또는 배터리 잔량이 소정 임계치 이하인 경우, 이전보다 길어질 수 있다.In this case, the extraction period may be longer than before when the CPU occupancy is greater than or equal to a predetermined threshold or when the remaining battery capacity is less than or equal to a predetermined threshold.

실시예에 따른 기계 학습 단말은, 적어도 하나의 프로그램이 기록된 메모리와, 네트워크 인터페이스 및 프로그램을 실행하는 프로세서를 포함하며, 프로그램은 유해 이미지 프레임 및 비 유해 이미지 프레임을 획득하고, 획득된 이미지 프레임 및 비 유해 이미지 프레임이 라벨링된 훈련 데이터를 생성하고, 신경망을 구성하고, 훈련 데이터로 제1 신경망 모델을 학습시켜 파라미터를 최적화하고, 최적화된 제1 신경망 모델을 경량화하여 제2 신경망 모델을 생성할 수 있다. A machine learning terminal according to an embodiment includes a memory in which at least one program is recorded, a network interface and a processor for executing the program, wherein the program acquires a harmful image frame and a non-harmful image frame, and the obtained image frame and Generating training data labeled with non-harmful image frames, constructing a neural network, optimizing parameters by training a first neural network model with training data, and lightweighting the optimized first neural network model to generate a second neural network model have.

이때, 프로그램은, 네트워크 인터페이스를 통해 적어도 하나의 스마트 기기로부터의 요청에 따라 제2 신경망 모델을 다운로드 시킬 수 있다. In this case, the program may download the second neural network model according to a request from at least one smart device through the network interface.

실시예에 따른 스마트 기기는, 적어도 하나의 프로그램 및 미리 학습된 신경망 모델이 기록된 메모리와, 스트리밍 서버로부터 네트워크를 통해 스트리밍 영상을 수신하는 네트워크 인터페이스와, 스트리밍 영상이 재생되는 인터페이스 출력부 및 프로그램을 실행하는 프로세서를 포함하며, 프로그램은 스트리밍 영상으로부터 이미지 프레임을 순차적으로 추출하고, 추출된 이미지 프레임의 유해성 여부를 미리 학습된 신경망 모델을 기반으로 검사하고, 이미지 프레임의 유해성 여부에 따라 선택적으로 스트리밍 영상의 재생을 차단할 수 있다. A smart device according to an embodiment includes a memory in which at least one program and a pre-trained neural network model are recorded, a network interface for receiving a streaming image from a streaming server through a network, an interface output unit and a program through which the streaming image is reproduced It includes a processor that executes, wherein the program sequentially extracts image frames from the streaming image, checks whether the extracted image frame is harmful based on a pre-trained neural network model, and selectively streams the image frame according to whether the image frame is harmful may block playback.

이때, 신경망 모델은, 유해 이미지 및 비 유해 이미지를 포함하는 훈련 데이터로 학습된 제1 신경망 모델이 경량화된 제2 신경망 모델일 수 있다. In this case, the neural network model may be a second neural network model in which the first neural network model learned from training data including the harmful image and the non-toxic image is lightened.

이때, 신경망 모델은, 콘볼루셔널 신경망(Convolutional Neural Network, CNN) 기반의 이미지 분류 신경망일 수 있다. In this case, the neural network model may be an image classification neural network based on a convolutional neural network (CNN).

한편, 프로그램은, 유해성이 존재하는 이미지 프레임의 개수에 기반하여 스트리밍 영상의 유해성을 판단하고, 스트리밍 영상의 재생을 차단함에 있어, 스트리밍 영상의 유해성 판단 결과를 기반으로 수행할 수 있다. Meanwhile, the program may determine the harmfulness of the streaming image based on the number of image frames in which the harmfulness exists and block playback of the streaming image based on the result of determining the harmfulness of the streaming image.

이때, 프로그램은, 스트리밍 영상의 유해성 판단 결과를 기반으로 경고 메시지를 표출할 수 있다.In this case, the program may express a warning message based on the result of determining the harmfulness of the streaming video.

이때, 프로그램은, 스트리밍 영상의 유해성 판단 결과를 기반으로 대체 영상을 표출할 수 있다. In this case, the program may express an alternative image based on the result of determining the harmfulness of the streaming image.

한편, 프로그램은, 이미지 프레임을 순차적으로 추출함에 있어, 소정 추출 주기로 이미지 프레임을 추출하되, 추출 주기는, 이미지 프레임이 유해한 것으로 검사된 경우, 이전보다 작게 조절될 수 있다. On the other hand, when the program sequentially extracts the image frames, the image frames are extracted at a predetermined extraction cycle, but the extraction cycle may be adjusted to be smaller than before when the image frame is checked to be harmful.

이때, 추출 주기는, CPU 점유율이 소정 임계치 이상인 경우 또는 배터리 잔량이 소정 임계치 이하인 경우, 이전보다 길어질 수 있다. In this case, the extraction period may be longer than before when the CPU occupancy is greater than or equal to a predetermined threshold or when the remaining battery capacity is less than or equal to a predetermined threshold.

실시예에 따라 인공 지능 기반으로 스트리밍 동영상의 유해성을 검사함으로써, 모니터링 요원의 정신 건강 및 고 비용 발생의 문제를 해결할 수 있다. According to an embodiment, by examining the harmfulness of streaming video based on artificial intelligence, it is possible to solve the problems of mental health and high cost of monitoring personnel.

실시예에 따라, 폭증하는 스트리밍 동영상에 대한 실시간 유해성 검사를 가능하게 할 수 있다.According to the embodiment, it is possible to enable real-time harmfulness inspection of the explosive streaming video.

실시예에 따라, 스트리밍 동영상의 유해성을 검사하기 위한 별도의 검출 장비 구축 및 운용 비용없이 스트리밍 영상을 수신하는 스마트 기기에서 직접 검사하도록 할 수 있다. According to an embodiment, the smart device receiving the streaming video may directly test it without the cost of constructing and operating a separate detection device for testing the harmfulness of the streaming video.

실시예에 따라, 스마트 기기에서 스트리밍 영상의 서비스 품질 저하없이 스트리밍 동영상의 유해성을 실시간으로 검사할 수 있다. 즉, 스마트 기기의 처리 성능 및 배터리 상태에 따라 이미지 추출 주기를 조절함으로써, 서비스의 끊김이 없을 뿐만 아니라, 유해성 검사에 따른 추가적인 배터리 소모를 감소시킬 수 있다. According to an embodiment, the smart device may inspect the harmfulness of the streaming video in real time without degrading the service quality of the streaming video. That is, by adjusting the image extraction cycle according to the processing performance and battery state of the smart device, there is no interruption in service and additional battery consumption due to the harmfulness test can be reduced.

도 1은 실시예에 따른 유해 스트리밍 영상 검출 시스템의 개략적인 블록 구성도이다.
도 2는 실시예에 따른 스마트 기기에서의 유해 스트리밍 영상 검출 방법을 설명하기 위한 순서도이다.
도 3은 도 2에 도시된 스트리밍 영상의 유해성 판단 단계(S330)를 설명하기 위한 순서도이다.
도 4는 실시예에 따른 유해성 여부에 따른 추출 주기 조절하는 동작을 설명하기 위한 순서도이다.
도 5는 실시예에 따라 추출 주기에 따른 이미지 프레임 추출을 설명하기 위한 예시도이다.
도 6은 실시예에 따른 배터리 잔량에 따른 추출 주기 조절하는 동작을 설명하기 위한 순서도이다.
도 7은 실시예에 따른 CPU 점유율에 따른 추출 주기 조절하는 동작을 설명하기 위한 순서도이다.
도 8은 본 발명의 실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.
1 is a schematic block diagram of a system for detecting harmful streaming images according to an embodiment.
2 is a flowchart illustrating a method for detecting harmful streaming video in a smart device according to an embodiment.
3 is a flowchart for explaining the harmfulness determination step ( S330 ) of the streaming video shown in FIG. 2 .
4 is a flowchart for explaining an operation of adjusting an extraction period according to whether harmfulness is present according to an embodiment.
5 is an exemplary diagram for explaining image frame extraction according to an extraction cycle according to an embodiment.
6 is a flowchart illustrating an operation of adjusting an extraction period according to a remaining battery amount according to an embodiment.
7 is a flowchart illustrating an operation of adjusting an extraction period according to CPU occupancy according to an embodiment.
8 is a block diagram illustrating a computer system according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있다.Although "first" or "second" is used to describe various elements, these elements are not limited by the above terms. Such terms may only be used to distinguish one component from another. Accordingly, the first component mentioned below may be the second component within the spirit of the present invention.

본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.The terminology used herein is for the purpose of describing the embodiment and is not intended to limit the present invention. In this specification, the singular also includes the plural, unless specifically stated otherwise in the phrase. As used herein, “comprises” or “comprising” implies that the stated component or step does not exclude the presence or addition of one or more other components or steps.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used herein may be interpreted with meanings commonly understood by those of ordinary skill in the art to which the present invention pertains. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly specifically defined.

이하에서는, 도 1 내지 도 8을 참조하여 실시예에 따른 스마트 기기에서의 유해 스트리밍 영상 검출 방법 및 스마트 기기, 기계 학습 단말이 상세히 설명된다.Hereinafter, a method for detecting harmful streaming video in a smart device, a smart device, and a machine learning terminal according to an embodiment will be described in detail with reference to FIGS. 1 to 8 .

도 1은 실시예에 따른 유해 스트리밍 영상 검출 시스템의 개략적인 블록 구성도이다. 1 is a schematic block diagram of a system for detecting harmful streaming images according to an embodiment.

도 1을 참조하면, 유해 스트리밍 영상 검출 시스템은 스트리밍 서버(10), 기계 학습 단말(100) 및 스마트 기기(200)가 유/무선 네트워크를 통해 연동된다. Referring to FIG. 1 , in the harmful streaming image detection system, the streaming server 10 , the machine learning terminal 100 , and the smart device 200 are linked through a wired/wireless network.

스트리밍 서버(10)는 적어도 하나의 스마트 기기(200)에 영상 스트리밍 서비스를 제공한다. The streaming server 10 provides a video streaming service to at least one smart device 200 .

기계 학습 단말(100)의 학습 엔진(110)은 유해 이미지 및 비 유해 이미지를 포함하는 훈련 데이터로 학습된 제1 신경망 모델(120)을 생성한다. The learning engine 110 of the machine learning terminal 100 generates the first neural network model 120 trained with training data including harmful images and non-harmful images.

즉, 학습 엔진(110)은 제1 신경망 모델(120)에서 출력된 값과 라벨링된 정답값을 손실 함수(Loss function) 또는 비용 함수(Cost Function)에 대입하여 오차를 구한다. 그런 후, 학습 엔진(110)의 비용함수(cost function)를 최소화하는 방향으로 역전파(Backpropagation) 알고리즘을 통해서 훈련 파라미터(Training Parameter)를 갱신한다. That is, the learning engine 110 obtains an error by substituting the value output from the first neural network model 120 and the labeled correct answer value into a loss function or a cost function. Thereafter, the training parameter is updated through a backpropagation algorithm in a direction to minimize the cost function of the learning engine 110 .

이때, 신경망은 콘볼루셔널 신경망(Convolutional Neural Network, CNN) 기반의 이미지 분류 신경망일 수 있다. 일 예로, 모바일 단말을 위해 설계된 모바일(MobileNet)일 수 있다. 그러나, 이는 일 실시 예일 뿐, 본 발명은 이에 한정되지 않는다. 즉, 제1 신경망 모델(120)은 다양한 학습 알고리즘으로 구현될 수 있다. In this case, the neural network may be an image classification neural network based on a convolutional neural network (CNN). As an example, it may be a mobile (MobileNet) designed for a mobile terminal. However, this is only an example, and the present invention is not limited thereto. That is, the first neural network model 120 may be implemented with various learning algorithms.

이때, 기계 학습 단말(100)은 경량 모델 변환부(130)를 더 포함하는데, 경량 모델 변환부(130)는 생성된 제1 신경망 모델(120)을 경량화하여 제2 신경망 모델(220)을 생성한다. 이를 통해, 제2 신경망 모델(220)은 제1 신경망 모델(120)보다 그 파일 사이즈가 작아지고, 검출 속도가 빨라질 수 있다. 여기서, 경량 모델 변환부(130)는 텐서 플로우 라이트 변환기(Tensor Flow(TF) Lite Converter)일 수 있다. In this case, the machine learning terminal 100 further includes a lightweight model conversion unit 130 , which lightens the generated first neural network model 120 to generate a second neural network model 220 . do. Through this, the file size of the second neural network model 220 may be smaller than that of the first neural network model 120 , and the detection speed may be increased. Here, the lightweight model converter 130 may be a Tensor Flow (TF) Lite Converter.

여기서, 경량화 알고리즘을 간단히 설명하면, 모델 저장 포맷 변경 단계, 양자화(Quantization) 단계 및 가지치기(Pruning) 단계를 포함할 수 있다. 이때, 모델 저장 포맷 변경 단계에서는 제한된 컴퓨팅 자원과 메모리 자원에서 효율적으로 동작하도록 모델 저장 포맷을 변경한다. 예컨대, 모델 저장 포맷은 Flatbuffer일 수 있다.Here, a brief description of the lightweight algorithm may include a model storage format change step, a quantization step, and a pruning step. In this case, in the step of changing the model storage format, the model storage format is changed to efficiently operate in limited computing resources and memory resources. For example, the model storage format may be Flatbuffer.

이때, 양자화(Quantization) 단계에서는 모델의 매개 변수를 나타내는 데 사용되는 숫자의 정밀도를 줄인다. 즉, 이를 통해 정확도가 감소하는 대신 모델의 사이즈를 줄이고 검출 속도를 향상시킬 수 있다. At this time, in the quantization step, the precision of the numbers used to represent the parameters of the model is reduced. That is, it is possible to reduce the size of the model and improve the detection speed at the cost of decreasing accuracy.

이때, 가지치기(Pruning) 단계에서는 모델의 파라미터 중 추론에 기여도가 낮은 것들을 제거하여, 모델의 크기를 줄이는데 유리할 수 있다. 한편, 기계 학습 단말(100)은 네트워크 인터페이스를 통해 적어도 하나의 스마트 기기(200)로부터의 요청에 따라 제2 신경망 모델(220)을 다운로드시킨다. In this case, in the pruning step, it may be advantageous to reduce the size of the model by removing those having a low contribution to inference among parameters of the model. Meanwhile, the machine learning terminal 100 downloads the second neural network model 220 according to a request from at least one smart device 200 through a network interface.

이때, 기계 학습 단말(100)은 스트리밍 서버(10)를 통해 스마트 기기(200)에 스트리밍 서비스를 제공하는 서비스 사업자에 의해 운영될 수 있다. 따라서, 제2 신경망 모델(220)은 서비스 사업자가 제공하는 스트리밍 서비스 앱(App)에 탑재되어 스마트 기기(200)에 제공될 수 있다. In this case, the machine learning terminal 100 may be operated by a service provider that provides a streaming service to the smart device 200 through the streaming server 10 . Accordingly, the second neural network model 220 may be installed in a streaming service App provided by a service provider and provided to the smart device 200 .

스마트 기기(200)는 스트리밍 서버(10)로부터 수신되는 스트리밍 영상을 재생할 수 있는 장치일 수 있다. The smart device 200 may be a device capable of playing a streaming image received from the streaming server 10 .

실시예에 따라, 스마트 기기(200)은 이미지 추출부(210), 신경망 모델(220) 및 서비스 제어부(240)를 포함할 수 있다. 부가적으로, 추론부(230)를 더 포함할 수 있다. According to an embodiment, the smart device 200 may include an image extraction unit 210 , a neural network model 220 , and a service control unit 240 . Additionally, it may further include an inference unit 230 .

이미지 추출부(210)는 스트리밍 영상으로부터 이미지 프레임을 순차적으로 추출한다. 이때, 이미지 추출부(210)는 스트리밍 영상의 모든 이미지 프레임을 추출하는 것이 아니라, 소정 추출 주기로 이미지 프레임을 추출할 수 있다. 이때, 이미지 프레임의 추출 주기는 미리 설정된 일정 주기일 수도 있고, 가변될 수도 있다. 이에 대한 상세한 설명은 도 4 내지 도 7을 참조하여 후술하기로 한다. The image extraction unit 210 sequentially extracts image frames from the streaming video. In this case, the image extraction unit 210 may extract image frames at a predetermined extraction cycle, rather than extracting all image frames of the streaming video. In this case, the extraction period of the image frame may be a predetermined period or may be variable. A detailed description thereof will be described later with reference to FIGS. 4 to 7 .

신경망 모델(220)은 추출된 이미지 프레임의 유해성 여부를 검사한다. 이때, 유해성 검사 모델(220)은 유해 이미지 및 비 유해 이미지를 포함하는 훈련 데이터로 학습된 제1 신경망 모델(120)이 경량화된 제2 신경망 모델(220)일 수 있다. The neural network model 220 checks whether the extracted image frame is harmful. In this case, the harmfulness test model 220 may be a second neural network model 220 in which the first neural network model 120 learned from training data including harmful images and non-toxic images is lightweight.

서비스 제어부(240)는 이미지 프레임의 유해성 여부에 따라 선택적으로 스트리밍 영상의 재생을 차단한다. The service control unit 240 selectively blocks playback of the streaming image according to whether the image frame is harmful.

추론부(230)는 유해성 검사 모델(220)과 서비스 제어부(240) 사이에 위치하여, 유해성이 존재하는 이미지 프레임의 개수에 기반하여 스트리밍 영상의 유해성을 판단할 수 있다. 이로써, 신경망 모델(10)을 통한 인식 오류를 줄일 수 있다. 이에 대한 상세한 설명은 도 3을 참조하여 후술하기로 한다. The inference unit 230 may be located between the harmfulness test model 220 and the service control unit 240 to determine the harmfulness of the streaming video based on the number of image frames in which the harmfulness exists. Accordingly, it is possible to reduce a recognition error through the neural network model 10 . A detailed description thereof will be described later with reference to FIG. 3 .

이때, 서비스 제어부(240)는 스트리밍 영상의 재생을 차단함에 있어, 추론부(230)에 의한 스트리밍 영상의 유해성 판단 결과를 기반으로 수행할 수 있다. In this case, the service control unit 240 may block playback of the streaming image based on the result of determining the harmfulness of the streaming image by the inference unit 230 .

이때, 서비스 제어부(240)는 스트리밍 영상의 유해성 판단 결과를 기반으로 경고 메시지를 표출할 수도 있다. 예컨대, 스트리밍 영상이 유해한 것으로 판단된 경우, 서비스 제어부(240)는 자동으로 스트리밍 영상을 차단하지 않고, 스트리밍 영상이 유해함을 알려 스마트 기기 사용자가 스스로 스트리밍 영상을 중단하도록 할 수 있다. 또는, 성인 사용자가 자녀들과 함께 스트리밍 영상을 시청하는 경우, 자녀들에게 노출되지 못하도록 조치를 취하도록 할 수도 있다. 또는, 스트리밍 영상이 아직 유해한 것으로 판정되지는 않았지만, 유해성이 존재하는 이미지 프레임의 개수가 임계치에 근접하게 되는 경우, 서비스 제어부(240)는 사전에 스트리밍 영상이 유해 가능성이 크다는 메시지를 출력할 수도 있다. In this case, the service control unit 240 may display a warning message based on the result of determining the harmfulness of the streaming video. For example, when it is determined that the streaming video is harmful, the service control unit 240 does not automatically block the streaming video, but informs that the streaming video is harmful so that the smart device user can stop the streaming video by themselves. Alternatively, when an adult user watches a streaming video with their children, measures may be taken to prevent exposure to the children. Alternatively, although the streaming video has not yet been determined to be harmful, when the number of image frames in which the harmfulness exists approaches the threshold, the service control unit 240 may output a message indicating that the streaming video is highly harmful in advance. .

이때, 서비스 제어부(240)는 스트리밍 영상의 유해성 판단 결과를 기반으로 대체 영상을 표출할 수도 있다. In this case, the service control unit 240 may display an alternative image based on the result of determining the harmfulness of the streaming image.

이때, 스트리밍 영상의 재생 동작과 신경망 모델 기반으로 스트리밍 영상의 유해성을 추론하는 동작은 각각 병렬적으로 동시에 이루어질 수 있다. In this case, the operation of reproducing the streaming image and the operation of inferring the harmfulness of the streaming image based on the neural network model may be performed in parallel and at the same time.

즉, 신경망 모델 기반으로 스트리밍 영상의 유해성을 추론 동작을 거친 후, 순차적으로 스트리밍 영상이 재생된다면 스트리밍 서비스가 지연되는 문제가 발생할 수 있다. 따라서, 실시예에서는 스트리밍 영상을 재생함과 아울러 별도로 스트리밍 영상으로부터 이미지 프레임을 추출하여 신경망 모델 기반으로 유해성 여부가 추론되어, 유해성 추론 결과에 따라 재생되고 있는 스트리밍 영상을 차단 또는 대체하거나, 스트리밍 영상이 재생되고 있는 중에 경고 메시지가 출력되도록 할 수 있다. That is, if the streaming video is sequentially reproduced after inferring the harmfulness of the streaming video based on the neural network model, the streaming service may be delayed. Therefore, in the embodiment, by extracting an image frame from the streaming image separately while playing the streaming image, whether harmfulness is inferred based on the neural network model, blocking or replacing the playing streaming image according to the harmfulness inference result, or the streaming image is A warning message can be output during playback.

이때, 스트리밍 영상의 유해성을 추론 동작은 쓰레드, GPU 등을 이용해서 다른 모듈, 예컨대 재생 모듈과 동시에 동작을 하며, 추론이 종료될 경우 종료 여부를 알려 추론 결과를 시스템이 활용할 수 있도록 한다. 한편, 전술한 바와 같이, 이미지 추출부(210)는 이미지 프레임을 순차적으로 추출함에 있어, 그 추출 주기는 가변될 수 있다. 이를 위해, 추론부(230)는 스케줄러(231)를 더 포함하여, 추출 주기를 실시간 산출하여, 이미지 추출부(210)에 피드백한다. In this case, the operation of deducing the harmfulness of the streaming video operates at the same time with other modules, for example, the playback module, using a thread, GPU, etc., and when the inference is finished, it notifies whether the inference is terminated so that the system can utilize the inference result. Meanwhile, as described above, when the image extraction unit 210 sequentially extracts image frames, the extraction period may be varied. To this end, the inference unit 230 further includes a scheduler 231 , calculates the extraction period in real time, and feeds it back to the image extraction unit 210 .

이때, 추출 주기는, 이미지 프레임의 유해성 여부, CPU 점유율 및 배터리 잔량 중 적어도 하나에 따라, 실시간으로 변경될 수 있다. In this case, the extraction period may be changed in real time according to at least one of whether the image frame is harmful, CPU occupancy, and battery remaining.

즉, 추출 주기는, 이미지 프레임이 유해한 것으로 검사된 경우, 이전보다 작게 조절될 수 있다. 즉, 유해 스트리밍 영상일 가능성이 큰 경우에만 이미지 프레임이 짧은 주기로 추출되도록 하고, 유해 스트리밍 영상일 가능성이 작은 경우에는 이미지 프레임이 긴 주기로 추출되도록 하여, 신경망 모델(220) 및 추론부(230)의 불필요한 부하를 감소시킬 수 있다. That is, the extraction period can be adjusted to be smaller than before when the image frame is checked as harmful. That is, the image frame is extracted with a short cycle only when the possibility of the harmful streaming image is high, and when the possibility of the harmful streaming image is small, the image frame is extracted with a long cycle, so that the neural network model 220 and the inference unit 230 are Unnecessary load can be reduced.

이때, 추출 주기는, CPU 점유율이 소정 임계치 이상인 경우 또는 배터리 잔량이 소정 임계치 이하인 경우, 이전보다 길어질 수 있다. 즉, 스마트 기기(200)의 스트리밍 영상의 유해성 검사로 인한 CPU 점유율 및 배터리 소모로 인해 스트리밍 영상의 서비스 품질이 저하되는 것을 방지하기 위함이다. In this case, the extraction period may be longer than before when the CPU occupancy is greater than or equal to a predetermined threshold or when the remaining battery capacity is less than or equal to a predetermined threshold. That is, this is to prevent deterioration of the service quality of the streaming video due to CPU occupancy and battery consumption due to the harmfulness test of the streaming video of the smart device 200 .

도 2는 실시예에 따른 스마트 기기에서의 유해 스트리밍 영상 검출 방법을 설명하기 위한 순서도이다. 여기서, 전술한 내용과 중복되는 내용은 생략하기로 한다. 2 is a flowchart illustrating a method for detecting harmful streaming video in a smart device according to an embodiment. Here, the content overlapping with the above-described content will be omitted.

도 2를 참조하면, 실시예에 따른 스마트 기기에서의 유해 스트리밍 영상 검출 방법은, 스트리밍 영상으로부터 이미지 프레임을 순차적으로 추출하는 단계(S310)와, 추출된 이미지 프레임의 유해성 여부를 미리 학습된 신경망 모델을 기반으로 검사하는 단계(S320) 및 이미지 프레임의 유해성 여부에 따라 선택적으로 스트리밍 영상의 재생을 차단하는 단계(S340)를 포함한다.Referring to FIG. 2 , the method for detecting harmful streaming images in a smart device according to an embodiment includes the steps of sequentially extracting image frames from a streaming image ( S310 ), and a neural network model pre-trained to determine whether the extracted image frames are harmful. It includes a step of checking based on ( S320 ) and a step of selectively blocking playback of a streaming video according to whether the image frame is harmful ( S340 ).

이때, 실시예에 따른 스마트 기기에서의 유해 스트리밍 영상 검출 방법은, 검사하는 단계(S320) 이후에, 유해성이 존재하는 이미지 프레임의 개수에 기반하여 스트리밍 영상의 유해성을 판단하는 단계(S330)를 더 포함할 수 있다. 이에 대한 상세한 설명은 도 3을 참조하여 후술하기로 한다. At this time, the harmful streaming image detection method in the smart device according to the embodiment further includes a step (S330) of determining the harmfulness of the streaming image based on the number of image frames in which the harmfulness exists after the step of checking (S320) may include A detailed description thereof will be described later with reference to FIG. 3 .

이때, 차단하는 단계(S340)는, 스트리밍 영상의 유해성 판단 결과를 기반으로 수행될 수 있다. 또한, 도면에는 도시되어 있지 않지만, 스트리밍 영상의 유해성 판단 결과를 기반으로 경고 메시지를 표출하는 단계를 더 포함할 수 있다. 또한, 도면에는 도시되어 있지 않지만, 스트리밍 영상의 유해성 판단 결과를 기반으로 대체 영상을 표출하는 단계를 더 포함할 수 있다.In this case, the blocking step ( S340 ) may be performed based on the result of determining the harmfulness of the streaming video. In addition, although not shown in the drawings, the method may further include displaying a warning message based on the result of determining the harmfulness of the streaming video. In addition, although not shown in the drawings, the method may further include displaying an alternative image based on the result of determining the harmfulness of the streaming image.

한편, 추출하는 단계(S310)에서, 소정 추출 주기로 이미지 프레임을 추출할 수 있다. 이때, 추출 주기는, 이미지 프레임의 유해성 여부, CPU 점유율 및 배터리 잔량 중 적어도 하나에 따라, 실시간으로 변경될 수 있다. 이때, 추출 주기는, 이미지 프레임이 유해한 것으로 검사된 경우, 이전보다 작게 조절될 수 있다. 이때, 추출 주기는, CPU 점유율이 소정 임계치 이상인 경우 또는 배터리 잔량이 소정 임계치 이하인 경우, 이전보다 길어질 수 있다. 이에 대한 상세한 설명은 도 4 내지 도 7을 참조하여 후술하기로 한다. Meanwhile, in the extraction step ( S310 ), the image frame may be extracted at a predetermined extraction cycle. In this case, the extraction period may be changed in real time according to at least one of whether the image frame is harmful, CPU occupancy, and battery remaining. In this case, the extraction period may be adjusted to be smaller than before when the image frame is checked as harmful. In this case, the extraction period may be longer than before when the CPU occupancy is greater than or equal to a predetermined threshold or when the remaining battery capacity is less than or equal to a predetermined threshold. A detailed description thereof will be described later with reference to FIGS. 4 to 7 .

도 3은 도 2에 도시된 스트리밍 영상의 유해성 판단 단계(S330)를 설명하기 위한 순서도이다. 3 is a flowchart for explaining the harmfulness determination step ( S330 ) of the streaming video shown in FIG. 2 .

도 3을 참조하면, 장치(200)는 이미지 프레임의 유해성 검사 결과가 출력됨에 따라, 분석된 연속적인 이미지 프레임들의 개수(K)를 '1'만큼 증가시킨다(S331). Referring to FIG. 3 , as the harmfulness test result of the image frame is output, the apparatus 200 increases the number K of the analyzed consecutive image frames by '1' (S331).

그런 후, 장치(200)는 K번째 이미지 프레임에 유해성이 존재하는지 확인한다(S332). Then, the device 200 checks whether harmfulness exists in the K-th image frame (S332).

S332의 확인 결과 이미지 프레임에 유해성이 존재하지 않을 경우, 장치(200)는 검사 대상 이미지 프레임의 개수(K)가 미리 정해진 소정 개수(N)에 도달했는지 판단(S333)하고, 판단 결과에 따라 선택적으로 검사 대상 이미지 프레임의 개수(K)를 초기화(S334)한 후, S310 단계로 진행한다. 즉, 미리 정해진 소정 개수(N)마다 이미지 프레임의 유해성 판단이 이루어지는 것이다. If there is no harmfulness in the image frame as a result of the check in S332, the device 200 determines whether the number (K) of the image frame to be inspected has reached a predetermined number (N) in advance (S333), and selects according to the determination result After initializing (S334) the number (K) of the image frame to be inspected, the process proceeds to step S310. That is, the harmfulness of the image frame is determined every predetermined number (N).

반면, S332의 확인 결과 이미지 프레임에 유해성이 존재할 경우, 장치(200)는 유해성이 존재하는 이미지 프레임의 개수(M)를 '1' 증가시킨다(S335). On the other hand, if harmfulness exists in the image frame as a result of checking S332, the device 200 increases the number (M) of image frames in which the harmfulness exists by '1' (S335).

그런 후, 장치(200)는 검사 대상 이미지 프레임의 개수(K)가 미리 정해진 소정 개수(N)에 도달했는지 판단한다(S336). Then, the apparatus 200 determines whether the number (K) of the image frame to be examined has reached a predetermined number (N) in advance (S336).

S336의 판단 결과 검사 대상 이미지 프레임의 개수(K)가 미리 정해진 소정 개수(N)보다 작을 경우, 장치(200)는 S310을 다시 수행한다.If it is determined in S336 that the number (K) of the image frames to be inspected is less than the predetermined number (N), the apparatus 200 performs S310 again.

반면, S336의 판단 결과 검사 대상 이미지 프레임의 개수(K)가 미리 정해진 소정 개수(N)일 경우, 장치(200)는 유해성이 존재하는 이미지 프레임의 개수(M)가 임계값(th absc ) 이상인지를 판단한다(S337). On the other hand, if it is determined in S336 that the number (K) of image frames to be inspected is a predetermined number (N), the apparatus 200 determines that the number (M) of image frames in which harmfulness exists is equal to or greater than the threshold ( th absc ). It is determined whether it is recognized (S337).

S337의 판단 결과 유해 이미지 프레임들의 개수(M)이 임계값(th absc ) 이상일 경우, 장치(200)는 스트리밍 동영상을 유해한 것으로 판단한다(S338). If it is determined in S337 that the number M of harmful image frames is equal to or greater than the threshold th absc , the device 200 determines that the streaming video is harmful (S338).

반면, S337의 판단 결과 유해 이미지 프레임들의 개수(M)이 임계(th absc ) 값 이상이 아닐 경우, 장치(200)는 유해 이미지 프레임들의 개수(M) 및 대상 이미지 프레임의 개수(K)를 초기화(S339)한 후, S310으로 진행한다. On the other hand, if it is determined in S337 that the number M of harmful image frames is not equal to or greater than the threshold th absc value, the device 200 initializes the number M of harmful image frames and the number K of target image frames. After (S339), the process proceeds to S310.

도 4는 실시예에 따른 유해성 여부에 따른 추출 주기 조절하는 동작을 설명하기 위한 순서도이고, 도 5는 실시예에 따라 추출 주기에 따른 이미지 프레임 추출을 설명하기 위한 예시도이다. 4 is a flowchart for explaining an operation of adjusting an extraction period according to whether harmfulness is present according to an embodiment, and FIG. 5 is an exemplary diagram for explaining image frame extraction according to an extraction period according to an embodiment.

도 4를 참조하면, 스케줄러(231)는 유해성이 존재하는 이미지 프레임의 발생 여부를 판단한다(S411). Referring to FIG. 4 , the scheduler 231 determines whether a harmful image frame is generated ( S411 ).

S411의 판단 결과 이미지 프레임의 유해성이 존재할 경우, 스케줄러(231)는 추출 주기를 감소시킨다(S412). 즉, 이미지 프레임의 유해성이 존재하는 것으로 검사되면 스트리밍 영상이 유해물일 가능성이 크므로, 도 5에 도시된 바와 같이 이미지 프레임을 짧은 주기(T1)으로 추출하여 검출 속도를 증가시켜야 한다. As a result of the determination in S411, if the image frame is harmful, the scheduler 231 reduces the extraction period (S412). That is, if it is checked that the harmfulness of the image frame is present, the streaming image is highly likely to be harmful. As shown in FIG. 5 , it is necessary to extract the image frame with a short period T1 to increase the detection speed.

반면, S411의 판단 결과 이미지 프레임의 유해성이 존재하지 않을 경우, 스케줄러(231)는 추출 주기를 감소시킨다(S413). 즉, 이미지 프레임의 유해성이 존재하지 않을 경우 스트리밍 영상이 유해물이 아닐 가능성이 크므로, 도 5에 도시된 바와 같이 이미지 프레임을 긴 주기(T2)으로 추출하여 검출 속도를 감소시켜야 한다. 즉, 불필요한 추론에 의한 스마트 기기의 CPU 부하 및 배터리 소모를 줄여 스트리밍 서비스의 품질이 저하되는 것을 방지할 수 있다. On the other hand, if it is determined in S411 that there is no harmfulness of the image frame, the scheduler 231 reduces the extraction period (S413). That is, if there is no harmfulness of the image frame, there is a high possibility that the streaming image is not harmful. As shown in FIG. 5 , the detection speed should be reduced by extracting the image frame with a long period T2. That is, it is possible to prevent deterioration of the quality of the streaming service by reducing the CPU load and battery consumption of the smart device due to unnecessary inference.

도 6은 실시예에 따른 배터리 잔량에 따른 추출 주기 조절하는 동작을 설명하기 위한 순서도이다.6 is a flowchart illustrating an operation of adjusting an extraction period according to a remaining battery amount according to an embodiment.

도 6을 참조하면, 스케줄러(231)는 스마트 기기의 배터리 잔량이 충분한지를 확인한다(S421). Referring to FIG. 6 , the scheduler 231 checks whether the battery level of the smart device is sufficient ( S421 ).

S421의 판단 결과 스마트 기기의 배터리 잔량이 충분할 경우, 스케줄러(231)는 추출 주기를 감소시킨다(S422). 반면, S411의 판단 결과 스마트 기기의 배터리 잔량이 충분하지 않을 경우, 스케줄러(231)는 추출 주기를 증가시킨다(S213). 즉, 배터리 잔량이 충분하지 않을 경우, 스트리밍 영상의 유해물 검사를 위한 배터리 소모로 스트리밍 서비스의 품질이 저하되는 것을 막기 위함이다. If it is determined in S421 that the remaining battery power of the smart device is sufficient, the scheduler 231 decreases the extraction period (S422). On the other hand, if it is determined in S411 that the remaining battery power of the smart device is insufficient, the scheduler 231 increases the extraction period (S213). That is, when the remaining battery power is insufficient, this is to prevent the quality of the streaming service from being deteriorated due to battery consumption for inspection of harmful substances in the streaming video.

도 7은 실시예에 따른 CPU 점유율에 따른 추출 주기 조절하는 동작을 설명하기 위한 순서도이다.7 is a flowchart illustrating an operation of adjusting an extraction period according to CPU occupancy according to an embodiment.

도 7을 참조하면, 스케줄러(231)는 CPU 점유율이 소정 임계치 이상인지를 판단한다(S431). Referring to FIG. 7 , the scheduler 231 determines whether the CPU occupancy is equal to or greater than a predetermined threshold ( S431 ).

S431의 판단 결과 스마트 기기의 CPU 점유율이 충분할 경우, 스케줄러(231)는 추출 주기를 감소시킨다(S432). 반면, S431의 판단 결과 스마트 기기의 배터리 잔량이 충분하지 않을 경우, 스케줄러(231)는 추출 주기를 감소시킨다(S433).If the CPU occupancy of the smart device is sufficient as a result of the determination in S431, the scheduler 231 reduces the extraction period (S432). On the other hand, if it is determined in S431 that the remaining battery power of the smart device is insufficient, the scheduler 231 reduces the extraction period (S433).

전술한 기계 학습 단말(100) 및 스마트 기기(200)의 구성 및 동작은 도 8에 도시된 컴퓨터 시스템으로 구현될 수 있다. 전술한 바와 같이, 학습 장치(100) 및 자동 기보 생성 장치(200)는 하나의 컴퓨터 시스템 상에서 구현될 수도 있고, 후술할 네트워크 인터페이스(1060)를 통해 상호간에 통신 가능하도록 별도의 컴퓨터 시스템으로 구현될 수도 있다. The configuration and operation of the machine learning terminal 100 and the smart device 200 described above may be implemented by the computer system shown in FIG. 8 . As described above, the learning apparatus 100 and the automatic notation generating apparatus 200 may be implemented on one computer system, and may be implemented as a separate computer system to be able to communicate with each other through a network interface 1060 to be described later. may be

도 8은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.8 is a block diagram illustrating a computer system according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시예는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템에서 구현될 수 있다. 도 8에 도시된 바와 같이, 컴퓨터 시스템(1000)은 버스(1020)를 통하여 서로 통신하는 하나 이상의 프로세서(1010), 메모리(1030), 사용자 인터페이스 입력 장치(1040), 사용자 인터페이스 출력 장치(1050) 및 스토리지(1060)를 포함할 수 있다. 또한, 컴퓨터 시스템(1000)은 네트워크(1080)에 연결되는 네트워크 인터페이스(1070)를 더 포함할 수 있다. 프로세서(1010)는 중앙 처리 장치 또는 메모리(1030)나 스토리지(1060)에 저장된 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(1030) 및 스토리지(1060)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리(1030)는 ROM(1031)이나 RAM(1032)을 포함할 수 있다. Referring to FIG. 8 , an embodiment of the present invention may be implemented in a computer system such as a computer-readable recording medium. As shown in FIG. 8 , the computer system 1000 includes one or more processors 1010 , a memory 1030 , a user interface input device 1040 , and a user interface output device 1050 that communicate with each other via a bus 1020 . and storage 1060 . In addition, computer system 1000 may further include a network interface 1070 coupled to network 1080 . The processor 1010 may be a central processing unit or a semiconductor device that executes processing instructions stored in the memory 1030 or the storage 1060 . The memory 1030 and the storage 1060 may be various types of volatile or non-volatile storage media. For example, the memory 1030 may include a ROM 1031 or a RAM 1032 .

이상에서와 같이 본 발명에 따른 스마트 기기에서의 유해 스트리밍 영상 검출 방법, 스마트 기기 및 기계 학습 단말은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, in the method for detecting harmful streaming video in a smart device, the smart device and the machine learning terminal according to the present invention, the configuration and method of the embodiments described above are not limitedly applicable, but the embodiments are All or part of each of the embodiments may be selectively combined and configured so that various modifications may be made.

이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described above with reference to the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can implement the present invention in other specific forms without changing its technical spirit or essential features. You will understand that there is Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

10: 스트리밍 서버
100: 기계 학습 단말 110: 학습 엔진
120: 유해성 검사 모델 130: 경량 모델 변환부
200: 스마트 기기 210: 이미지 추출부
220: 유해성 검사 모델 230: 추론부
230: 스케줄러 240: 서비스 제어부
10: Streaming Server
100: machine learning terminal 110: learning engine
120: hazard test model 130: lightweight model conversion unit
200: smart device 210: image extraction unit
220: hazard test model 230: reasoning unit
230: scheduler 240: service control unit

Claims (20)

스트리밍 서버로부터 수신된 스트리밍 영상을 재생시키는 스마트 기기에서의 유해 스트리밍 영상 검출 방법에 있어서,
스트리밍 영상으로부터 이미지 프레임을 순차적으로 추출하는 단계;
추출된 이미지 프레임의 유해성 여부를 미리 학습된 신경망 모델을 기반으로 검사하는 단계; 및
이미지 프레임의 유해성 여부에 따라 선택적으로 스트리밍 영상의 재생을 차단하는 단계를 포함하되,
신경망 모델은,
외부의 기계 학습 단말이 생성한 제1 신경망 모델이 경량화된 제2 신경망 모델이고,
추출하는 단계는,
소정 추출 주기로 이미지 프레임을 추출하되,
추출 주기는,
이미지 프레임의 유해성 여부, CPU 점유율 및 배터리 잔량 중 적어도 하나에 따라, 실시간으로 변경되는,
스마트 기기에서의 유해 스트리밍 영상 검출 방법.
In the method for detecting harmful streaming video in a smart device that plays a streaming video received from a streaming server,
sequentially extracting image frames from the streaming video;
examining whether the extracted image frame is harmful based on a pre-trained neural network model; and
Including the step of selectively blocking the playback of the streaming video according to whether the image frame is harmful,
The neural network model is
The first neural network model generated by the external machine learning terminal is a lightweight second neural network model,
The extraction step is
Extracting an image frame at a predetermined extraction cycle,
The extraction cycle is
changed in real time according to at least one of whether the image frame is harmful, CPU occupancy, and remaining battery power;
A method for detecting harmful streaming video in a smart device.
제1 항에 있어서, 신경망 모델은,
기계 학습 단말에 의해 생성된 것으로,
기계 학습 단말로부터 미리 다운로드된 것인, 스마트 기기에서의 유해 스트리밍 영상 검출 방법.
The method of claim 1, wherein the neural network model comprises:
As generated by a machine learning terminal,
A method of detecting harmful streaming video in a smart device, which is downloaded in advance from a machine learning terminal.
제2 항에 있어서, 기계 학습 단말은,
유해 이미지 및 비 유해 이미지를 포함하는 훈련 데이터로 학습된 제1 신경망 모델을 생성하고,
생성된 제1 신경망 모델을 경량화하여 제2 신경망 모델을 생성하되,
신경망 모델은,
제2 신경망 모델인, 스마트 기기에서의 유해 스트리밍 영상 검출 방법.
The method of claim 2, wherein the machine learning terminal comprises:
generating a first neural network model trained with training data including harmful images and non-harmful images;
Create a second neural network model by lightening the generated first neural network model,
The neural network model is
A second neural network model, a method for detecting harmful streaming images in a smart device.
제1항에 있어서, 신경망 모델은,
콘볼루셔널 신경망(Convolutional Neural Network, CNN) 기반의 이미지 분류신경망 알고리즘을 기반으로 생성되는 것인, 스마트 기기에서의 유해 스트리밍 영상 검출 방법.
The method of claim 1 , wherein the neural network model comprises:
Convolutional Neural Network (CNN)-based image classification neural network algorithm that is generated based on, a harmful streaming image detection method in a smart device.
제1 항에 있어서,
검사하는 단계 이후에, 유해성이 존재하는 이미지 프레임의 개수에 기반하여 스트리밍 영상의 유해성을 판단하는 단계를 더 포함하고,
차단하는 단계는,
스트리밍 영상의 유해성 판단 결과를 기반으로 수행되는, 스마트 기기에서의 유해 스트리밍 영상 검출 방법.
The method of claim 1,
After the step of checking, further comprising the step of determining the harmfulness of the streaming image based on the number of image frames in which the harmfulness exists,
The steps to block
A method for detecting harmful streaming images in a smart device, which is performed based on the result of determining the harmfulness of the streaming image.
제5 항에 있어서,
스트리밍 영상의 유해성 판단 결과를 기반으로 경고 메시지를 표출하는 단계를 더 포함하는, 스마트 기기에서의 유해 스트리밍 영상 검출 방법.
6. The method of claim 5,
The method for detecting harmful streaming video in a smart device further comprising the step of displaying a warning message based on the result of determining the harmfulness of the streaming video.
제5 항에 있어서,
스트리밍 영상의 유해성 판단 결과를 기반으로 대체 영상을 표출하는 단계를 더 포함하는, 스마트 기기에서의 유해 스트리밍 영상 검출 방법.
6. The method of claim 5,
A method for detecting harmful streaming images in a smart device, further comprising the step of expressing an alternative image based on the harmfulness determination result of the streaming image.
삭제delete 제1 항에 있어서, 추출 주기는,
이미지 프레임이 유해한 것으로 검사된 경우, 이전보다 작게 조절되는, 스마트 기기에서의 유해 스트리밍 영상 검출 방법.
The method of claim 1, wherein the extraction period is
When the image frame is inspected as harmful, the method for detecting harmful streaming video in a smart device is adjusted to be smaller than before.
제1 항에 있어서, 추출 주기는,
CPU 점유율이 소정 임계치 이상인 경우 또는 배터리 잔량이 소정 임계치 이하인 경우, 이전보다 길어지는 스마트 기기에서의 유해 스트리밍 영상 검출 방법.
The method of claim 1, wherein the extraction period is
A method of detecting harmful streaming images in a smart device that takes longer than before when the CPU occupancy is greater than or equal to a predetermined threshold or when the remaining battery is less than or equal to a predetermined threshold.
적어도 하나의 프로그램이 기록된 메모리;
네트워크 인터페이스; 및
프로그램을 실행하는 프로세서를 포함하며,
프로그램은
유해 이미지 및 비 유해 이미지를 포함하는 훈련 데이터로 학습된 제1 신경망 모델을 생성하고, 생성된 제1 신경망 모델을 경량화하여 제2 신경망 모델을 생성하되,
신경망 모델을 경량화하기 위해,
모델 저장 포맷을 변경하는 단계,
모델의 매개 변수를 나타내는 숫자의 정밀도를 줄이는 양자화 단계; 및
추론의 기여도에 따라 모델의 파라미터들에서 선별하여 제거하는 가지치기 단계를 수행하는, 기계 학습 단말.
a memory in which at least one program is recorded;
network interface; and
a processor for executing a program;
the program
Generate a first neural network model trained with training data including harmful images and non-toxic images, and lighten the generated first neural network model to generate a second neural network model,
In order to lighten the neural network model,
changing the model storage format;
a quantization step that reduces the precision of numbers representing parameters of the model; and
A machine learning terminal that performs a pruning step of selecting and removing model parameters according to the contribution of inference.
제11 항에 있어서, 프로그램은,
네트워크 인터페이스를 통해 적어도 하나의 스마트 기기로부터의 요청에 따라 제2 신경망 모델을 다운로드시키는, 기계 학습 단말.
12. The method of claim 11, wherein the program comprises:
A machine learning terminal for downloading a second neural network model according to a request from at least one smart device via a network interface.
적어도 하나의 프로그램 및 미리 학습된 신경망 모델이 기록된 메모리;
스트리밍 서버로부터 네트워크를 통해 스트리밍 영상을 수신하는 네트워크 인터페이스;
스트리밍 영상이 재생되는 인터페이스 출력부; 및
프로그램을 실행하는 프로세서를 포함하며,
프로그램은
스트리밍 영상으로부터 이미지 프레임을 순차적으로 추출하고,
추출된 이미지 프레임의 유해 여부를 미리 학습된 신경망 모델을 기반으로 검사하고,
이미지 프레임의 유해성 여부에 따라 선택적으로 스트리밍 영상의 재생을 차단하되,
신경망 모델은,
외부의 기계 학습 단말이 생성한 제1 신경망 모델이 경량화된 제2 신경망 모델이고,
프로그램은,
소정 추출 주기로 이미지 프레임을 추출하되,
추출 주기는,
이미지 프레임의 유해성 여부, CPU 점유율 및 배터리 잔량 중 적어도 하나에 따라, 실시간으로 변경되는, 스마트 기기.
a memory in which at least one program and a pre-trained neural network model are recorded;
a network interface for receiving a streaming image from a streaming server through a network;
an interface output unit for playing a streaming video; and
a processor for executing a program;
the program
sequentially extracting image frames from streaming video,
Inspects whether the extracted image frame is harmful based on a pre-trained neural network model,
Selectively blocks the playback of streaming video according to the harmfulness of the image frame,
The neural network model is
The first neural network model generated by the external machine learning terminal is a lightweight second neural network model,
program,
Extracting an image frame at a predetermined extraction cycle,
The extraction cycle is
A smart device that changes in real time according to at least one of whether the image frame is harmful, CPU occupancy, and remaining battery power.
제13 항에 있어서, 신경망 모델은,
유해 이미지 및 비 유해 이미지를 포함하는 훈련 데이터로 학습된 제1 신경망 모델이 경량화된 제2 신경망 모델인, 스마트 기기.
The method of claim 13, wherein the neural network model comprises:
A smart device, wherein the first neural network model trained with training data including harmful images and non-harmful images is a lightweight second neural network model.
제13항에 있어서, 신경망 모델은,
콘볼루셔널 신경망(Convolutional Neural Network, CNN) 기반의 이미지 분류신경망인, 스마트 기기.
The method of claim 13, wherein the neural network model comprises:
A smart device, an image classification neural network based on a convolutional neural network (CNN).
제13 항에 있어서, 프로그램은,
유해성이 존재하는 이미지 프레임의 개수에 기반하여 스트리밍 영상의 유해성을 판단하고,
스트리밍 영상의 재생을 차단함에 있어, 스트리밍 영상의 유해성 판단 결과를 기반으로 수행하는, 스마트 기기.
14. The method of claim 13, wherein the program
Determining the harmfulness of the streaming video based on the number of image frames in which the harmfulness exists,
In blocking the playback of the streaming video, a smart device that is performed based on the result of determining the harmfulness of the streaming video.
제16 항에 있어서, 프로그램은,
스트리밍 영상의 유해성 판단 결과를 기반으로 경고 메시지를 표출하는, 스마트 기기.
17. The method of claim 16, wherein the program comprises:
A smart device that displays a warning message based on the harmfulness judgment result of the streaming video.
제16 항에 있어서, 프로그램은,
스트리밍 영상의 유해성 판단 결과를 기반으로 대체 영상을 표출하는, 스마트 기기.
17. The method of claim 16, wherein the program comprises:
A smart device that displays an alternative video based on the harmfulness judgment result of the streaming video.
제13 항에 있어서, 프로그램은,
이미지 프레임을 순차적으로 추출함에 있어, 소정 추출 주기로 이미지 프레임을 추출하되,
추출 주기는,
이미지 프레임이 유해한 것으로 검사된 경우, 이전보다 작게 조절되는, 스마트 기기.
14. The method of claim 13, wherein the program
In sequentially extracting image frames, the image frames are extracted at a predetermined extraction cycle,
The extraction cycle is
A smart device that is scaled smaller than before if the image frame is checked as harmful.
제13 항에 있어서, 추출 주기는,
CPU 점유율이 소정 임계치 이상인 경우 또는 배터리 잔량이 소정 임계치 이하인 경우, 이전보다 길어지는 스마트 기기.
14. The method of claim 13, wherein the extraction period is:
A smart device that takes longer than before when the CPU occupancy is greater than or equal to a predetermined threshold or when the remaining battery level is less than or equal to a predetermined threshold.
KR1020200051956A 2020-04-29 2020-04-29 Method for Detecting Harmful Streaming Video in Smart Device, Smart Device and Terminal for Machine Learning KR102432824B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200051956A KR102432824B1 (en) 2020-04-29 2020-04-29 Method for Detecting Harmful Streaming Video in Smart Device, Smart Device and Terminal for Machine Learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200051956A KR102432824B1 (en) 2020-04-29 2020-04-29 Method for Detecting Harmful Streaming Video in Smart Device, Smart Device and Terminal for Machine Learning

Publications (2)

Publication Number Publication Date
KR20210133411A KR20210133411A (en) 2021-11-08
KR102432824B1 true KR102432824B1 (en) 2022-08-17

Family

ID=78497230

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200051956A KR102432824B1 (en) 2020-04-29 2020-04-29 Method for Detecting Harmful Streaming Video in Smart Device, Smart Device and Terminal for Machine Learning

Country Status (1)

Country Link
KR (1) KR102432824B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102574353B1 (en) * 2021-11-10 2023-09-01 광운대학교 산학협력단 Device Resource-based Adaptive Frame Extraction and Streaming Control System and method for Blocking Obscene Videos in Mobile devices
KR102395846B1 (en) * 2021-11-19 2022-05-10 ㈜노웨어소프트 Filtering system of digital contents and control method therof
CN114157912A (en) * 2021-11-26 2022-03-08 瑞森网安(福建)信息科技有限公司 Cloud video playing method and application thereof in image projection
CN114157884A (en) * 2021-12-02 2022-03-08 瑞森网安(福建)信息科技有限公司 Efficient cloud video cross-device screen projection method and system and storage medium
KR102529170B1 (en) * 2022-10-31 2023-05-03 주식회사 아이비주얼컴퍼니 Art wall system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101062672B1 (en) * 2010-01-05 2011-09-06 (주)필링크 Harmful video detection device and method
KR101237469B1 (en) 2011-05-12 2013-02-26 재단법인 서울호서직업전문학교 Method and apparatus for automatically detecting pornographic image, and computer readable medium thereof
KR20150092546A (en) * 2014-02-05 2015-08-13 한국전자통신연구원 Harmless frame filter and apparatus for harmful image block having the same, method for filtering harmless frame
KR20160107417A (en) * 2015-03-03 2016-09-19 한국전자통신연구원 Method and apparatus for detecting harmful video
KR102194956B1 (en) * 2018-10-01 2020-12-24 주식회사 이루온 System and method for blocking harmful content

Also Published As

Publication number Publication date
KR20210133411A (en) 2021-11-08

Similar Documents

Publication Publication Date Title
KR102432824B1 (en) Method for Detecting Harmful Streaming Video in Smart Device, Smart Device and Terminal for Machine Learning
CN112749608B (en) Video auditing method, device, computer equipment and storage medium
US10733452B2 (en) Brand safety in video content
CN110784759B (en) Bullet screen information processing method and device, electronic equipment and storage medium
CN111382623B (en) Live broadcast auditing method, device, server and storage medium
CN111541910A (en) Video barrage comment automatic generation method and system based on deep learning
CN111310041B (en) Image-text publishing method, model training method and device and storage medium
CN111125429B (en) Video pushing method, device and computer readable storage medium
CN112995690B (en) Live content category identification method, device, electronic equipment and readable storage medium
CN110968689A (en) Training method of criminal name and law bar prediction model and criminal name and law bar prediction method
CN111479130A (en) Video positioning method and device, electronic equipment and storage medium
CN112231497A (en) Information classification method and device, storage medium and electronic equipment
CN114863221A (en) Training method, device, system, equipment and storage medium for detection model
CN115865483A (en) Abnormal behavior analysis method and device based on machine learning
Sani et al. SMASH: A supervised machine learning approach to adaptive video streaming over HTTP
CN112202849A (en) Content distribution method, content distribution device, electronic equipment and computer-readable storage medium
CN116861258B (en) Model processing method, device, equipment and storage medium
CN112733809B (en) Intelligent image identification method and system for natural protection area monitoring system
CN115905613A (en) Audio and video multitask learning and evaluation method, computer equipment and medium
US20230186631A1 (en) Browser-based frame extraction method and system
CN112464857A (en) Video classification model training and video classification method, device, medium and equipment
CN110659561A (en) Optimization method and device of internet riot and terrorist video identification model
CN118018777A (en) Video auditing method, device, equipment and storage medium
RU2807642C1 (en) Method and device, server and data media for moderating live broadcast
US20240048807A1 (en) Leveraging insights from real-time media stream in delayed versions

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant