KR20210115442A - 신고 평가 장치 및 그것의 동작 방법 - Google Patents

신고 평가 장치 및 그것의 동작 방법 Download PDF

Info

Publication number
KR20210115442A
KR20210115442A KR1020200031244A KR20200031244A KR20210115442A KR 20210115442 A KR20210115442 A KR 20210115442A KR 1020200031244 A KR1020200031244 A KR 1020200031244A KR 20200031244 A KR20200031244 A KR 20200031244A KR 20210115442 A KR20210115442 A KR 20210115442A
Authority
KR
South Korea
Prior art keywords
report
algorithm
censorship
information
reliability
Prior art date
Application number
KR1020200031244A
Other languages
English (en)
Inventor
안상일
신범준
서석준
변형민
채민균
Original Assignee
주식회사 하이퍼커넥트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이퍼커넥트 filed Critical 주식회사 하이퍼커넥트
Priority to KR1020200031244A priority Critical patent/KR20210115442A/ko
Priority to EP21162085.1A priority patent/EP3879841A1/en
Priority to US17/199,766 priority patent/US11677904B2/en
Priority to JP2021040065A priority patent/JP7275181B2/ja
Publication of KR20210115442A publication Critical patent/KR20210115442A/ko
Priority to KR1020220017749A priority patent/KR102503049B1/ko
Priority to US18/311,160 priority patent/US20230276025A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/008Reliability or availability analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06Q50/50
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/212Monitoring or handling of messages using filtering or selective blocking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/22Arrangements for supervision, monitoring or testing
    • H04M3/2281Call monitoring, e.g. for law enforcement purposes; Call tracing; Detection or prevention of malicious calls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4627Rights management associated to the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1822Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/50Telephonic communication in combination with video communication

Abstract

신고 평가 장치의 신고 평가 방법은 적어도 하나 이상의 클라이언트 단말기로부터 리포트(report)를 수신하는 단계, 수신된 리포트의 카테고리(category)를 판단하는 단계, 카테고리에 대응하는 학습 모델(training model)을 호출(recall)하는 단계, 학습 모델을 통해 리포트의 신뢰도를 평가하는 단계, 및 신뢰도에 관한 정보를 생성하여 출력하는 단계를 포함할 수 있다.

Description

신고 평가 장치 및 그것의 동작 방법{REPORT EVALUATION DEVICE AND OPERATING METHOD THEREOF}
기재된 실시예는 영상 통화 중에 부적절한 콘텐츠에 노출되는 것을 방지할 수 있는 신고 평가 장치 및 그것의 동작 방법에 관한 것이다.
통신 기술이 발전되고 전자 장치가 소형화됨에 따라 개인용 단말기가 일반 소비자에게 널리 보급되고 있다. 특히 최근에는 스마트폰 또는 스마트 태블릿과 같은 휴대용 개인 단말기가 널리 보급되고 있다. 대부분의 단말기는 이미지 촬영 기술을 포함하고 있다. 사용자는 단말기를 이용하여 다양한 콘텐츠를 포함하는 이미지를 촬영할 수 있다.
영상 통화를 기반으로 하는 다양한 종류의 영상 통화 서비스가 존재한다. 예를 들어, 랜덤 영상 채팅 서비스는 랜덤 영상 채팅 서비스 이용 요청을 한 사용자의 단말을 랜덤 영상 채팅 서비스를 이용하는 사용자들 중 무작위로 선정된 사용자의 단말과 연결시켜주는 서비스이다.
사용자가 상대방과 서로 영상 통화를 할 때, 사용자는 상대방으로부터의 부적절한 영상 또는 음성에 노출될 수 있다. 사용자가 자신이 원하지 않는 부적절한 영상 또는 음성에 노출된 경우 사용자는 성적 수치심 또는 불쾌함을 느낄 수 있다.
기재된 실시예에 따르면 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 부적절한 영상 또는 음성에 노출되는 것을 방지할 수 있는 신고 평가 장치 및 그것의 동작 방법이 제공될 수 있다.
또한, 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 영상에 의해 느낄 수 있는 성적 수치심 또는 불쾌함을 방지할 수 있는 신고 평가 장치 및 그것의 동작 방법이 제공될 수 있다.
또한, 사용자 간의 건전한 영상 통화를 유도할 수 있는 단말기 및 그것의 동작 방법이 제공될 수 있다.
본 발명의 실시예에 따른 신고 평가 장치의 신고 평가 방법은 적어도 하나 이상의 클라이언트 단말기로부터 리포트(report)를 수신하는 단계, 수신된 리포트의 카테고리(category)를 판단하는 단계, 카테고리에 대응하는 학습 모델(training model)을 호출(recall)하는 단계, 학습 모델을 통해 리포트의 신뢰도를 평가하는 단계, 및 신뢰도에 관한 정보를 생성하여 출력하는 단계를 포함할 수 있다.
또는, 리포트는 영상 정보, 텍스트 정보 또는 음성 정보를 포함할 수 있다.
또는, 신고 평가 방법은 복수의 클라이언트 단말기들 사이에 영상 통화 세션을 수립하는 단계를 더 포함하고,
리포트를 수신하는 단계는 복수의 클라이언트 단말기들 중 적어도 하나의 클라이언트 단말기로부터 리포트를 수신할 수 있다.
또는, 신고 평가 방법은 학습 모델에 독립적으로 미리 설정된 기준에 따라 수신된 리포트의 신뢰도를 평가하는 단계, 및 평가 결과에 대응하여 연관된 학습 모델을 업데이트 하는 단계를 더 포함할 수 있다.
또는, 리포트는 부적절한 영상 콘텐츠에 대한 정보, 부적절한 텍스트 콘텐츠에 대한 정보 또는 부적절한 소리 콘텐츠에 대한 정보를 포함할 수 있다.
또는, 학습 모델은 소리 검열 알고리즘, 영상 검열 알고리즘, 텍스트 검열 알고리즘 또는 제스쳐(gesture) 검열 알고리즘 중 하나에 대응할 수 있다.
본 발명의 실시예에 따른 신고 평가 장치는 적어도 하나 이상의 클라이언트 단말기로부터 리포트(report)를 수신하는 리포트 수신부, 적어도 하나 이상의 학습 모델(training model)을 저장하는 학습 모델 저장부, 및 수신된 리포트의 카테고리(category)를 판단하고, 적어도 하나 이상의 학습 모델 중 카테고리에 대응하는 학습 모델을 호출(recall)하고, 학습 모델을 통해 리포트의 신뢰도를 평가하는 신뢰도 평가부를 포함하고, 신뢰도 평가부는 신뢰도에 관한 정보를 생성하여 출력할 수 있다.
또는, 리포트는 영상 정보 또는 음성 정보를 포함할 수 있다.
또는, 리포트 수신부는 서로 영상 통화 세션을 수립한 복수의 클라이언트 단말기들 중 적어도 하나의 클라이언트 단말기로부터 리포트를 수신할 수 있다.
또는, 신뢰도 평가부는 학습 모델에 독립적으로 미리 설정된 기준에 따라 수신된 리포트의 신뢰도를 평가하고, 평가 결과에 대응하여 연관된 학습 모델을 업데이트하여 학습 모델 저장부에 저장할 수 있다.
또는, 리포트는 부적절한 영상 콘텐츠에 대한 정보 또는 부적절한 소리 콘텐츠에 대한 정보를 포함할 수 있다.
또는, 적어도 하나 이상의 학습 모델은 각각 소리 검열 알고리즘, 영상 검열 알고리즘, 텍스트 검열 알고리즘 또는 제스쳐(gesture) 검열 알고리즘 중 하나에 대응할 수 있다.
기재된 실시예에 따른 신고 평가 장치 및 그것의 동작 방법은 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 부적절한 영상 또는 음성에 노출되는 것을 방지할 수 있다.
또한, 신고 평가 장치 및 그것의 동작 방법은 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 영상에 의해 느낄 수 있는 성적 수치심 또는 불쾌함을 방지할 수 있다.
또한, 신고 평가 장치 및 그것의 동작 방법은 사용자 간의 건전한 영상 통화를 유도할 수 있다.
도 1은 본 발명에 따른 신고 평가 장치가 동작하는 환경을 개략적으로 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 신고 평가 장치(100)의 구성을 개략적으로 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 신고를 평가하는 방법을 설명하기 위한 순서도이다.
도 4는 본 발명의 실시예에 따른 리포트의 신뢰도를 평가하는 알고리즘을 보여주는 도면이다.
도 5는 본 발명의 실시예에 따른 신고 평가 장치의 구성을 개략적으로 나타내는 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1구성요소는 본 발명의 기술적 사상 내에서 제2구성요소일 수도 있다.
본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
도 1은 본 발명에 따른 신고 평가 장치가 동작하는 환경을 개략적으로 나타내는 도면이다.
도 1을 참조하면, 제1 단말기(10), 및 제2 단말기(20)가 동작하는 환경은 서버(30) 및 서버(30)와 서로 연결된 제1 단말기(10), 및 제2 단말기(20)를 포함할 수 있다. 설명의 편의를 위해 도 1에는 두 개의 단말기, 즉 제1 단말기(10), 및 제2 단말기(20) 만을 도시하고 있으나, 두 개 보다 더 많은 수의 단말기가 포함될 수 있다. 추가될 수 있는 단말기에 대하여, 특별히 언급될 설명을 제외하고, 제1 단말기(10), 및 제2 단말기(20)에 대한 설명이 적용될 수 있다.
서버(30)는 통신망에 연결될 수 있다. 서버(30)는 상기 통신망을 통해 외부의 다른 장치와 서로 연결될 수 있다. 서버(30)는 서로 연결된 다른 장치에 데이터를 전송하거나 상기 다른 장치로부터 데이터를 수신할 수 있다.
서버(30)와 연결된 통신망은 유선 통신망, 무선 통신망, 또는 복합 통신망을 포함할 수 있다. 통신망은 3G, LTE, 또는 LTE-A 등과 같은 이동 통신망을 포함할 수 있다. 통신망은 와이파이(Wi-Fi), UMTS/GPRS, 또는 이더넷(Ethernet) 등과 같은 유선 또는 무선 통신망을 포함할 수 있다. 통신망은 마그네틱 보안 전송(MST, Magnetic Secure Transmission), RFID(Radio Frequency Identification), NFC(Near Field Communication), 지그비(ZigBee), Z-Wave, 블루투스(Bluetooth), 저전력 블루투스(BLE, Bluetooth Low Energy), 또는 적외선 통신(IR, InfraRed communication) 등과 같은 근거리 통신망을 포함할 수 있다. 통신망은 근거리 네트워크(LAN, Local Area Network), 도시권 네트워크(MAN, Metropolitan Area Network), 또는 광역 네트워크(WAN, Wide Area Network) 등을 포함할 수 있다.
서버(30)는 제1 단말기(10), 및 제2 단말기(20) 중 적어도 하나로부터 데이터를 수신할 수 있다. 서버(30)는 제1 단말기(10), 및 제2 단말기(20) 중 적어도 하나로부터 수신된 데이터를 이용하여 연산을 수행할 수 있다. 서버(30)는 연산 결과를 제1 단말기(10), 및 제2 단말기(20) 중 적어도 하나에 전송할 수 있다.
서버(30)는 제1 단말기(10), 및 제2 단말기(20) 중 적어도 하나의 단말기로부터 중개 요청을 수신할 수 있다. 서버(30)는 중개 요청을 전송한 단말기를 선택할 수 있다. 예를 들어, 서버(30)는 제1 단말기(10), 및 제2 단말기(20)를 선택할 수 있다.
서버(30)는 제1 단말기(10), 및 제2 단말기(20) 중 적어도 하나로부터 데이터를 수신할 수 있다. 서버(30)는 제1 단말기(10), 및 제2 단말기(20) 중 적어도 하나로부터 수신된 데이터를 이용하여 연산을 수행할 수 있다. 서버(30)는 상기 연산 결과를 제1 단말기(10), 및 제2 단말기(20) 중 적어도 하나에 전송할 수 있다.
서버(30)는 제1 단말기(10), 및 제2 단말기(20) 중 적어도 하나의 단말기로부터 중개 요청을 수신할 수 있다. 서버(30)는 중개 요청을 전송한 기를 선택할 수 있다. 예를 들어, 서버(30)는 제1 단말기(10), 및 제2 단말기(20)를 선택할 수 있다.
제1 단말기(10)에 대한 연결 정보는 예를 들어, 제1 단말기(10)의 아이피(IP) 주소 및 포트(port) 번호를 포함할 수 있다. 제2 단말기(20)에 대한 연결 정보를 수신한 제1 단말기(10)는 상기 수신된 연결 정보를 이용하여 제2 단말기(20)에의 연결을 시도할 수 있다.
제1 단말기(10)의 제2 단말기(20)에의 연결 시도 또는 제2 단말기(20)의 제1 단말기(10)에의 연결 시도가 성공함으로써, 제1 단말기(10) 및 제2 단말기(20) 사이의 영상 통화 세션이 수립될 수 있다. 상기 영상 통화 세션을 통해 제1 단말기(10)는 제2 단말기(20)에 영상 또는 소리를 전송할 수 있다. 제1 단말기(10)는 영상 또는 소리를 디지털 신호로 인코딩하고, 상기 인코딩 된 결과물을 제2 단말기(20)에 전송할 수 있다.
또한, 영상 통화 세션을 통해 제1 단말기(10)는 제2 단말기(20)로부터 영상 또는 소리를 수신할 수 있다. 제1 단말기(10)는 디지털 신호로 인코딩 된 영상 또는 소리를 수신하고, 상기 수신된 영상 또는 소리를 디코딩할 수 있다.
상기 영상 통화 세션을 통해 제2 단말기(20)는 제1 단말기(10)에 영상 또는 소리를 전송할 수 있다. 또한, 상기 영상 통화 세션을 통해 제2 단말기(20)는 제1 단말기(10)로부터 영상 또는 소리를 수신할 수 있다. 이로써, 제1 단말기(10)의 사용자 및 제2 단말기(20)의 사용자는 서로 영상 통화를 할 수 있다.
제2 단말기(20)로부터 수신된 영상, 텍스트 또는 소리에서 제1 단말기(10)의 사용자가 부적절한 콘텐츠를 감지하는 경우, 신고를 진행할 수 있다. 마찬가지로, 제1 단말기(10)로부터 수신된 영상, 텍스트 또는 소리에서 제2 단말기(20)의 사용자가 부적절한 콘텐츠를 감지하는 경우, 신고를 진행할 수 있다.
예를 들어, 텍스트 또는 소리에 포함된 부적절한 콘텐츠는 욕설, 모욕, 인종차별, 명예훼손, 외설, 성희롱, 증오언설(hate speech), 폭력, 학대, 위협 중에서 적어도 하나에 대응할 수 있다.
또는, 영상에 포함된 부적절한 콘텐츠는 욕 제스처, 모욕 제스처, 인종차별 제스처, 성적 콘텐츠, 알몸 노출(nudity), 성기, 성행위, 비위생적 콘텐츠, 반사회적 콘텐츠, 반인륜적 콘텐츠, 불법 행위, 범죄 행위, 증오범죄(hate crime), 폭력 행위, 학대 행위, 혐오성(hateful) 콘텐츠, 또는 위협성 콘텐츠 중 적어도 하나에 대응할 수 있다.
제1 단말기(10), 및 제2 단말기(20)는, 예를 들어, 데스크탑 컴퓨터, 랩탑 컴퓨터, 스마트폰, 스마트 태블릿, 스마트 워치, 이동 단말, 디지털 카메라, 웨어러블 디바이스(wearable device), 또는 휴대용 전자기기 등일 수 있다. 제1 단말기(10), 및 제2 단말기(20)는 프로그램 또는 애플리케이션을 실행할 수 있다. 제1 단말기(10), 및 제2 단말기(20) 각각은 서로 동일한 종류의 장치일 수 있고, 서로 다른 종류의 장치일 수도 있다.
도 2는 본 발명의 실시예에 따른 신고 평가 장치(100)의 구성을 개략적으로 나타내는 도면이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 신고 평가 장치(100)는 리포트 수신부(110), 신뢰도 평가부(120), 및 학습 모델 저장부(130)를 포함할 수 있다. 신고 평가 장치(100)는 도 1을 참조하여 설명한 복수의 단말기(10, 20) 또는 서버(30)를 통해 구성될 수 있다.
리포트 수신부(110)는 제1 단말기(10) 또는 제2 단말기(20) 중 적어도 하나로부터 리포트(report)를 수신할 수 있다.
몇몇 실시예로서, 제1 단말기(10) 및 제2 단말기(20) 사이에는 영상 통화 세션이 수립될 수 있다. 영상 통화 세션 중에 제1 단말기(10) 또는 제2 단말기(20)의 사용자가 상대방으로부터 수신되는 영상, 텍스트 또는 소리에서 부적절한 콘텐츠를 감지하는 경우, 신고를 수행할 수 있다. 부적절한 콘텐츠가 포함된 영상, 텍스트 또는 소리를 수신한 사용자가 신고를 하면 리포트가 생성될 수 있다.
리포트는 부적절한 영상 콘텐츠에 대한 정보, 부적절한 텍스트 콘텐츠에 대한 정보 또는 부적절한 소리 콘텐츠에 대한 정보를 포함할 수 있다.
부적절한 영상 콘텐츠에 대한 정보는 신고를 수행한 단말기에 신고 시점을 기준으로 소정 시간 녹화된 영상 및 신고 이유에 대한 정보를 포함할 수 있다. 또는, 부적절한 텍스트 콘텐츠에 대한 정보는 신고를 수행한 단말기에 신고 시점을 기준으로 소정 시간 수신된 텍스트 및 신고 이유에 대한 정보를 포함할 수 있다. 또는, 부적절한 소리 콘텐츠에 대한 정보는 신고를 수행한 단말기에 신고 시점을 기준으로 소정 시간 녹음된 소리 및 신고 이유에 대한 정보를 포함할 수 있다.
리포트 수신부(110)는 수신된 리포트를 신뢰도 평가부(120)에 제공할 수 있다.
신뢰도 평가부(120)는 리포트 수신부(110)로부터 리포트를 수신할 수 있다. 신뢰도 평가부(120)는 수신된 리포트의 카테고리(category)분류할 수 있다. 몇몇 실시예로서, 카테고리는 영상, 텍스트, 및 소리로 분류될 수 있다.
신뢰도 평가부(120)는 리포트의 카테고리에 대응하는 학습 모델(training model)을 학습 모델 저장부(130)로부터 호출(call)할 수 있다. 신뢰도 평가부(120)는 학습 모델을 통해 리포트의 신뢰도를 평가할 수 있다.
신뢰도 평가부(120)는 신뢰도에 관한 정보를 생성하여 출력할 수 있다. 출력된 신뢰도에 관한 정보는 부적절한 요소를 포함하는 영상, 텍스트 또는 소리를 제공한 단말기의 사용자를 모니터링하는 모니터링 서버(미도시)에 출력될 수 있다.
학습 모델 저장부(130)는 적어도 하나 이상의 검열 알고리즘을 포함할 수 있다. 몇몇 실시예로서, 학습 모델 저장부(130)는 소리 검열 알고리즘, 영상 검열 알고리즘, 텍스트 검열 알고리즘 또는 제스쳐(gesture) 검열 알고리즘을 포함할 수 있다.
학습 모델 저장부(130)는 신뢰도 평가부(120)로부터 호출 요청이 수신되면, 호출에 대응하는 검열 알고리즘을 제공할 수 있다.
도 3은 본 발명의 일 실시예에 따른 신고를 평가하는 방법을 설명하기 위한 순서도이다.
도 2 및 도 3을 참조하면, S110 단계에서, 신고 평가 장치(100)는 제1 단말기(10) 또는 제2 단말기(20) 중 적어도 하나로부터 리포트(report)를 수신할 수 있다.
영상 통화 세션 중에 제1 단말기(10) 또는 제2 단말기(20)의 사용자가 상대방으로부터 수신되는 영상, 텍스트 또는 소리에서 부적절한 콘텐츠를 감지하는 경우, 신고를 수행할 수 있다. 부적절한 콘텐츠가 포함된 영상, 텍스트 또는 소리를 수신한 사용자가 신고를 하면 리포트가 생성될 수 있다.
리포트는 부적절한 영상 콘텐츠에 대한 정보, 부적절한 텍스트 콘텐츠에 대한 정보 또는 부적절한 소리 콘텐츠에 대한 정보를 포함할 수 있다.
부적절한 영상 콘텐츠에 대한 정보는 신고를 수행한 단말기에 신고 시점을 기준으로 소정 시간동안 녹화되 영상 및 신고 이유에 대한 정보를 포함할 수 있다. 또는, 부적절한 텍스트 콘텐츠에 대한 정보는 신고를 수행한 단말기에 신고 시점을 기준으로 소정 시간동안 수신된 텍스트 및 신고 이유에 대한 정보를 포함할 수 있다. 또는, 부적절한 소리 콘텐츠에 대한 정보는 신고를 수행한 단말기에 신고 시점을 기준으로 소정 시간동안 녹음된 소리 및 신고 이유에 대한 정보를 포함할 수 있다.
S120 단계에서, 신고 평가 장치(100)는 리포트의 카테고리를 분류할 수 있다.
신뢰도 평가부(120)는 리포트 수신부(110)로부터 리포트를 수신할 수 있다. 신뢰도 평가부(120)는 수신된 리포트의 카테고리(category)를 분류할 수 있다. 몇몇 실시예로서, 카테고리는 영상, 텍스트, 및 소리로 분류될 수 있다.
예를 들어, 리포트가 부적절한 영상 콘텐츠에 대한 정보를 포함한 경우, 신고 평가 장치(100)는 영상 카테고리로 분류할 수 있다. 또는, 리포트가 부적절한 텍스트 콘텐츠에 대한 정보를 포함하는 경우, 신고 평가 장치(100)는 텍스트 카테고리로 분류할 수 있다. 또는 리포트가 부적절한 소리 콘텐츠에 대한 정보를 포함하는 경우, 신고 평가 장치(100)는 소리 카테고리로 분류할 수 있다.
S130 단계에서, 신고 평가 장치(100)는 분류된 카테고리에 대응하는 학습 모델을 호출할 수 있다.
신고 평가 장치(100)는 적어도 하나 이상의 검열 알고리즘을 포함할 수 있다. 몇몇 실시예로서, 신고 평가 장치(100)는 소리 검열 알고리즘, 영상 검열 알고리즘, 텍스트 검열 알고리즘 또는 제스쳐(gesture) 검열 알고리즘을 포함할 수 있다.
소리 검열 알고리즘, 영상 검열 알고리즘, 텍스트 검열 알고리즘, 및 제스쳐 검열 알고리즘은 각각 인공지능(Artificial Intelligence, AI) 시스템을 통해 생성될 수 있다.
인공지능 시스템은 인간 수준의 지능을 구현하는 컴퓨터 기계가 스스로 학습하고 판단하여 정확도를 높여나가는 시스템이다.
인공지능 시스템은 사용할수록 반복되는 학습에 의해서 산출되는 결과의 정확도가 향상되고 사용자의 의도를 보다 정확하게 반영할 수 있게 되어, 기존의 규정 기반 스마트 시스템은 점차 딥러닝(Deep learning) 기반 인공지능 시스템으로 대체되고 있다.
인공지능 기술은 기계학습을 이용하는 기술이라 할 수 있으며, 딥러닝은 기계학습의 하나의 종류라 할 수 있다. 딥러닝은 입력 데이터들의 특징을 스스로 분류 및 학습하는 알고리즘 기술이다. 그리고, 요소 기술은 딥러닝 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.
검열 알고리즘은 심층 신경망(Deep Neural Network, DNN), 합성곱 신경망(Convolutional Neural Network, CNN), 순환 신경망(Recurrent Neural Network, RNN), R-CNN(Region-based Convolutional Neural Networks), 제한 볼츠만 머신 (Restricted Boltzmann Machine, RBM), 심층 신뢰 신경망 (Deep Belief Network, DBN), 또는 심층 큐 네트워크(Deep Q-Networks) 중에서 적어도 하나 이상을 포함할 수 있다.
몇몇 실시예로서, 검열 알고리즘은 합성곱 신경망(Convolutional Neural Network, CNN)일 수 있다. 검열 알고리즘은 AlexNet, ZFNet, GoogLeNet, VGGNet, ResNet, Inception-ResNet, Inception-v2, Inception-v3, 또는 Inception-v4를 포함할 수 있다.
검열 알고리즘은 적어도 둘 이상의 레이어(layer)를 포함하는 뉴럴 네트워크(neural network)일 수 있다. 기검열 알고리즘은 입력 레이어(input layer) 및 출력 레이어(output layer)를 포함할 수 있다. 검열 알고리즘은 적어도 하나 이상의 은닉 레이어(hidden layer)를 더 포함할 수 있다.
몇몇 실시 예로서, 소리 검열 알고리즘은 특정 소리 및 특정 소리에 부적절한 요소가 포함되어 있는지 여부에 대한 분류 정보를 이용하여 학습(train)된 분류 모델(classification model)일 수 있다. 또는, 영상 검열 알고리즘은 특정 영상 및 특정 영상에 부적절한 요소가 포함되어 있는지 여부에 대한 분류 정보를 이용하여 학습된 분류 모델일 수 있다.
또는, 텍스트 검열 알고리즘은 특정 텍스트 및 특정 텍스트에 부적절한 요소가 포함되어 있는지 여부에 대한 분류 정보를 이용하여 학습된 분류 모델일 수 있다. 또는, 제스쳐 검열 알고리즘은 특정 영상에 부적절한 제스처가 포함되어 있는지 여부에 대한 분류 정보를 이용하여 학습된 분류 모델일 수 있다.
몇몇 실시예로서, 리포트가 영상 카테고리로 분류되는 경우, 신고 평가 장치(100)는 영상 검열 알고리즘, 제스쳐 검열 알고리즘 중 적어도 하나를 호출할 수 있다. 또한, 리포트가 영상 카테고리로 분류로 분류되는 경우, 부적절한 소리 콘텐츠를 포함할 확률이 높기 때문에, 신고 평가 장치(100)는 소리 검열 알고리즘을 호출할 수 있다.
몇몇 실시 예로서, 리포트가 텍스트 카테고리로 분류되는 경우, 신고 평가 장치(100)는 텍스트 검열 알고리즘을 호출할 수 있다.
몇몇 실시 예로서, 리포트가 소리 카테고리로 분류되는 경우, 신고 평가 장치(100)는 소리 검열 알고리즘을 호출할 수 있다. 또한, 리포트가 소리 카테고리로 분류로 분류되는 경우, 부적절한 영상 콘텐츠를 포함할 확률이 높기 때문에, 신고 평가 장치(100)는 영상 검열 알고리즘을 호출할 수 있다.
이는 본 발명을 설명하기 위한 일 실시예일 뿐, 신고 평가 장치(100)는 리포트의 카테고리에 대응하여 영상 검열 알고리즘, 소리 검열 알고리즘, 텍스트 검열 알고리즘 및 제스쳐 검열 알고리즘 중 적어도 하나 이상의 학슴 모델을 호출할 수 있다.
S140 단계에서, 신고 평가 장치(100)는 리포트의 신뢰도를 평가할 수 있다.
신고 평가 장치(100)가 리포트의 신뢰도를 평가하는 방법은 도 4를 참조하여 설명될 수 있다.
도 4는 본 발명의 실시예에 따른 리포트의 신뢰도를 평가하는 알고리즘을 보여주는 도면이다.
도 4를 참조하면, 신고 평가 장치(100)에 수신된 리포트는 부적절한 소리 콘텐츠에 대한 정보를 포함할 수 있다. 리포트는 신고 시점을 기준으로 소정 시간동안 녹음된 소리 및 신고 이유에 대한 정보를 포함할 수 있다.
몇몇 실시예로서 리포트는 6초(start_sec :6)에서 8초(end_sec: 8)동안 녹음된 소리와 부적절한 음성(VERBAL_ABUSE)에 따른 신고 이유를 포함할 수 있다.
신고 평가 장치(100)는 소리 검열 알고리즘을 이용하여 리포트의 신뢰도를 평가할 수 있다. 신고 평가 장치(100)는 소리 검열 알고리즘을 이용하여 녹음된 소리에 “바보(babo)”, “임마(eomma)”, “미친(michin)”, 및 “얌마(yamma)” 등의 욕설이 포함되어 있는지 확인할 수 있다. 욕설의 종류는 본 발명을 설명하기 위한 일 예일 뿐, 소리 검열 알고리즘은 다양한 욕설의 포함 여부를 확인할 수 있다
신고 평가 장치(100)는 녹음된 소리에 포함된 욕설이 “임마(eomma)”일 신뢰도(0.3649329300969839)가 가장 높은 것으로 예측할 수 있다.
신고 평가 장치(100)는 신뢰도를 기반으로 리포트의 재검토 필요 횟수를 결정할 수 있다.
예를 들어, 신뢰도가 “0” 이상이고 “0.8” 미만인 경우, 신고 평가 장치(100)는 리포트의 재검토 필요 횟수를 2회로 결정할 수 있다. 또는, 신뢰도가 “0.8” 이상이고 “0.95” 미만인 경우, 신고 평가 장치(100)는 리포트의 재검토 필요 횟수를 1회로 결정할 수 있다. 또는 신뢰도가 “0.95” 이상이고 “1” 이하인 경우, 리포트의 재검토 필요 횟수를 0회로 결정할 수 있다.
몇몇 실시 예로서, 신고 평가 장치(100)에 수신된 리포트의 신뢰도가 “0.3649329300969839”이므로 재검토 필요 횟수를 2회로 결정할 수 있다.
다시 도 3을 참조하면, 리포트가 부적절한 소리 콘텐츠에 대한 정보를 포함하는 경우, 신뢰도를 평가한 결과는 욕설의 종류, 신뢰도 및 재검토 필요 횟수를 포함할 수 있다. 예를 들어, 욕설의 종류는 “임마(eomma)”이고, 신뢰도는 “0.3649329300969839”이고, 재검토 필요 횟수는 2회일 수 있다.
도 5는 본 발명의 실시예에 따른 신고 평가 장치의 구성을 개략적으로 나타내는 도면이다.
신고 평가 장치(200)는 프로세서(210), 및 메모리(220)를 포함할 수 있다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면, 도 5에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다.
신고 평가 장치(200)는 도 2에 도시된 신고 평가 장치(100)와 유사 또는 동일할 수 있다. 신고 평가 장치(100)에 포함된 리포트 수신부(110), 및 신뢰도 평가부(120)는 프로세서(210)에 포함될 수 있다.
프로세서(210)는 신고 평가 장치(200)의 전체적인 동작을 제어하며, CPU 등과 같은 적어도 하나의 프로세서를 포함할 수 있다. 프로세서(210)는 각 기능에 대응되는 특화된 프로세서를 적어도 하나 포함하거나, 하나로 통합된 형태의 프로세서일 수 있다.
메모리(220)는 신고 평가 장치(200)를 제어하는 프로그램, 데이터, 또는 파일을 저장할 수 있다. 메모리(220)는 프로세서(210)에 의해 실행 가능한 명령어들을 저장할 수 있다. 프로세서(210)는 메모리(220)에 저장된 프로그램을 실행시키거나, 메모리(220)에 저장된 데이터 또는 파일을 읽어오거나, 새로운 데이터를 저장할 수 있다. 또한, 메모리(220)는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합으로 저장할 수 있다.
메모리는 소리 검열 알고리즘, 영상 검열 알고리즘, 텍스트 검열 알고리즘 및 제스처 검열 알고리즘을 포함할 수 있다.
프로세서(210)는 제1 단말기(10) 또는 제2 단말기(20) 중 적어도 하나로부터 영상 통화 세션 중에 생성된 리포트(report)를 수신할 수 있다. 리포트는 부적절한 영상 콘텐츠에 대한 정보, 부적절한 텍스트 콘텐츠에 대한 정보 또는 부적절한 소리 콘텐츠에 대한 정보를 포함할 수 있다.
부적절한 영상 콘텐츠에 대한 정보는 신고를 수행한 단말기에 신고 시점에 수신된 영상 및 신고 이유에 대한 정보를 포함할 수 있다. 또는, 부적절한 텍스트 콘텐츠에 대한 정보는 신고를 수행한 단말기에 신고 시점에 수신된 텍스트 및 신고 이유에 대한 정보를 포함할 수 있다. 또는, 부적절한 소리 콘텐츠에 대한 정보는 신고를 수행한 단말기에 신고 시점에 수신된 소리 및 신고 이유에 대한 정보를 포함할 수 있다.
프로세서(210)는 리포트의 카테고리를 분류할 수 있다. 프로세서(210)는 수신된 리포트의 카테고리(category)를 분류할 수 있다. 몇몇 실시예로서, 카테고리는 영상, 텍스트, 및 소리로 분류될 수 있다.
예를 들어, 리포트가 부적절한 영상 콘텐츠에 대한 정보를 포함한 경우, 프로세서(210)는 영상 카테고리로 분류할 수 있다. 또는, 리포트가 부적절한 텍스트 콘텐츠에 대한 정보를 포함하는 경우, 프로세서(210)는 텍스트 카테고리로 분류할 수 있다. 또는 리포트가 부적절한 소리 콘텐츠에 대한 정보를 포함하는 경우, 프로세서(210)는는 소리 카테고리로 분류할 수 있다.
프로세서(210)는 분류된 카테고리에 대응하는 학습 모델을 호출할 수 있다. 프로세서(210)는 메모리(220)에 저장된 소리 검열 알고리즘, 영상 검열 알고리즘, 텍스트 검열 알고리즘 또는 제스쳐(gesture) 검열 알고리즘 중 적어도 하나를 호출할 수 있다.
몇몇 실시예로서, 리포트가 영상 카테고리로 분류되는 경우, 프로세서(210)는 영상 검열 알고리즘, 제스쳐 검열 알고리즘 중 적어도 하나를 호출할 수 있다. 또한, 리포트가 영상 카테고리로 분류로 분류되는 경우, 부적절한 소리 콘텐츠를 포함할 확률이 높기 때문에, 프로세서(210)는 소리 검열 알고리즘을 호출할 수 있다.
몇몇 실시 예로서, 리포트가 텍스트 카테고리로 분류되는 경우, 프로세서(210)는 텍스트 검열 알고리즘을 호출할 수 있다.
몇몇 실시 예로서, 리포트가 소리 카테고리로 분류되는 경우, 프로세서(210)는 소리 검열 알고리즘을 호출할 수 있다. 또한, 리포트가 소리 카테고리로 분류로 분류되는 경우, 부적절한 영상 콘텐츠를 포함할 확률이 높기 때문에, 프로세서(210)는 상기 소리 검열 알고리즘과 함께 영상 검열 알고리즘을 호출할 수 있다.
이는 본 발명을 설명하기 위한 일 실시예일 뿐, 프로세서(210)는 리포트의 카테고리에 대응하여 영상 검열 알고리즘, 소리 검열 알고리즘, 텍스트 검열 알고리즘 및 제스쳐 검열 알고리즘 중 적어도 하나 이상의 학슴 모델을 호출할 수 있다.
프로세서(210)는 리포트의 신뢰도를 평가할 수 있다. 프로세서(210)는 리포트에 부적절한 소리 콘텐츠에 대한 정보가 포함되어 있다고 판단할 수 있다. 리포트는 신고 시점을 기준으로 소정 시간동안 녹음된 소리 및 신고 이유에 대한 정보를 포함할 수 있다.
몇몇 실시예로서 리포트는 6초(start_sec :6)에서 8초(end_sec: 8)동안 녹음된 소리와 부적절한 음성(VERBAL_ABUSE)에 따른 신고 이유를 포함할 수 있다.
프로세서(210)는 소리 검열 알고리즘을 이용하여 리포트의 신뢰도를 평가할 수 있다. 프로세서(210)는 소리 검열 알고리즘을 이용하여 녹음된 소리에 “바보(babo)”, “임마(eomma)”, “미친(michin)”, 및 “얌마(yamma)” 등의 욕설이 포함되어 있는지 확인할 수 있다. 욕설의 종류는 본 발명을 설명하기 위한 일 예일 뿐, 소리 검열 알고리즘은 다양한 욕설의 포함 여부를 확인할 수 있다
프로세서(210)는 녹음된 소리에 포함된 욕설이 “임마(eomma)”일 신뢰도(0.3649329300969839)가 가장 높은 것으로 예측할 수 있다.
프로세서(210)는 신뢰도를 기반으로 리포트의 재검토 필요 횟수를 결정할 수 있다. 예를 들어, 신뢰도가 “0” 이상이고 “0.8” 미만인 경우, 프로세서(210)는 리포트의 재검토 필요 횟수를 2회로 결정할 수 있다. 또는, 신뢰도가 “0.8” 이상이고 “0.95” 미만인 경우, 신고 평가 장치(200)는 리포트의 재검토 필요 횟수를 1회로 결정할 수 있다. 또는 신뢰도가 “0.95” 이상이고 “1” 이하인 경우, 리포트의 재검토 필요 횟수를 0회로 결정할 수 있다.
몇몇 실시 예로서, 프로세서(210)에 수신된 리포트의 신뢰도가 “0.3649329300969839”이므로 재검토 필요 횟수를 2회로 결정할 수 있다.
다시 도 3을 참조하면, 리포트가 부적절한 소리 콘텐츠에 대한 정보를 포함하는 경우, 신뢰도를 평가한 결과는 욕설의 종류, 신뢰도 및 재검토 필요 횟수를 포함할 수 있다. 예를 들어, 욕설의 종류는 “임마(eomma)”이고, 신뢰도는 “0.3649329300969839”이고, 재검토 필요 횟수는 2회일 수 있다.
도 1 내지 도5를 참조하여 설명된 바와 같이, 신고 평가 장치(100, 200)는 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 부적절한 영상 또는 음성에 노출되는 것을 방지할 수 있다.
또한, 신고 평가 장치(100, 200)는 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 영상에 의해 느낄 수 있는 성적 수치심 또는 불쾌함을 방지할 수 있다.
이상에서 설명된 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비 휘발성 매체, 분리형 및 비분리형 매체를 모두 포함할 수 있다.
또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비 휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다.
이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.

Claims (13)

  1. 적어도 하나 이상의 클라이언트 단말기로부터 리포트(report)를 수신하는 단계;
    수신된 상기 리포트의 카테고리(category)를 판단하는 단계;
    상기 카테고리에 대응하는 학습 모델(training model)을 호출(recall)하는 단계;
    상기 학습 모델을 통해 상기 리포트의 신뢰도를 평가하는 단계; 및
    상기 신뢰도에 관한 정보를 생성하여 출력하는 단계;
    를 포함하는 신고 평가 방법.
  2. 제1항에 있어서,
    상기 리포트는 영상 정보, 텍스트 정보 또는 음성 정보를 포함하는 신고 평가 방법.
  3. 제1항에 있어서,
    복수의 클라이언트 단말기들 사이에 영상 통화 세션을 수립하는 단계;
    를 더 포함하고,
    상기 리포트를 수신하는 단계에서는 상기 복수의 클라이언트 단말기들 중 적어도 하나의 클라이언트 단말기로부터 상기 리포트를 수신하는 신고 평가 방법.
  4. 제1항에 있어서,
    상기 학습 모델에 독립적으로 미리 설정된 기준에 따라 수신된 상기 리포트의 신뢰도를 평가하는 단계; 및
    상기 평가 결과에 대응하여 연관된 학습 모델을 업데이트 하는 단계;
    를 더 포함하는 신고 평가 방법.
  5. 제1항에 있어서,
    상기 리포트는 부적절한 영상 콘텐츠에 대한 정보, 부적절한 텍스트 콘텐츠에 대한 정보 또는 부적절한 소리 콘텐츠에 대한 정보를 포함하는 신고 평가 방법.
  6. 제1항에 있어서,
    상기 학습 모델은 소리 검열 알고리즘, 영상 검열 알고리즘, 텍스트 검열 알고리즘 또는 제스쳐(gesture) 검열 알고리즘 중 하나에 대응하는 신고 평가 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 따른 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.
  8. 적어도 하나 이상의 클라이언트 단말기로부터 리포트(report)를 수신하는 리포트 수신부;
    적어도 하나 이상의 학습 모델(training model)을 저장하는 학습 모델 저장부; 및
    수신된 상기 리포트의 카테고리(category)를 판단하고, 상기 적어도 하나 이상의 학습 모델 중 상기 카테고리에 대응하는 학습 모델을 호출(recall)하고, 상기 학습 모델을 통해 상기 리포트의 신뢰도를 평가하는 신뢰도 평가부를 포함하고,
    상기 신뢰도 평가부는 상기 신뢰도에 관한 정보를 생성하여 출력하는 신고 평가 장치.
  9. 제8항에 있어서,
    상기 리포트는 영상 정보 또는 음성 정보를 포함하는 신고 평가 장치.
  10. 제8항에 있어서,
    상기 리포트 수신부는 서로 영상 통화 세션을 수립한 복수의 클라이언트 단말기들 중 적어도 하나의 클라이언트 단말기로부터 상기 리포트를 수신하는 신고 평가 장치.
  11. 제8항에 있어서,
    상기 신뢰도 평가부는 상기 학습 모델에 독립적으로 미리 설정된 기준에 따라 수신된 상기 리포트의 신뢰도를 평가하고,
    상기 평가 결과에 대응하여 연관된 학습 모델을 업데이트하여 상기 학습 모델 저장부에 저장하는 신고 평가 장치.
  12. 제8항에 있어서,
    상기 리포트는 부적절한 영상 콘텐츠에 대한 정보 또는 부적절한 소리 콘텐츠에 대한 정보를 포함하는 신고 평가 장치.
  13. 제8항에 있어서,
    상기 적어도 하나 이상의 학습 모델은 각각 소리 검열 알고리즘, 영상 검열 알고리즘, 텍스트 검열 알고리즘 또는 제스쳐(gesture) 검열 알고리즘 중 하나에 대응하는 신고 평가 장치.
KR1020200031244A 2020-03-13 2020-03-13 신고 평가 장치 및 그것의 동작 방법 KR20210115442A (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020200031244A KR20210115442A (ko) 2020-03-13 2020-03-13 신고 평가 장치 및 그것의 동작 방법
EP21162085.1A EP3879841A1 (en) 2020-03-13 2021-03-11 Report evaluation device and operation method thereof
US17/199,766 US11677904B2 (en) 2020-03-13 2021-03-12 Report evaluation device and operation method thereof
JP2021040065A JP7275181B2 (ja) 2020-03-13 2021-03-12 申告評価装置およびその動作方法
KR1020220017749A KR102503049B1 (ko) 2020-03-13 2022-02-10 신고 평가 장치 및 그것의 동작 방법
US18/311,160 US20230276025A1 (en) 2020-03-13 2023-05-02 Report Evaluation Device and Operation Method Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200031244A KR20210115442A (ko) 2020-03-13 2020-03-13 신고 평가 장치 및 그것의 동작 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220017749A Division KR102503049B1 (ko) 2020-03-13 2022-02-10 신고 평가 장치 및 그것의 동작 방법

Publications (1)

Publication Number Publication Date
KR20210115442A true KR20210115442A (ko) 2021-09-27

Family

ID=74871286

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200031244A KR20210115442A (ko) 2020-03-13 2020-03-13 신고 평가 장치 및 그것의 동작 방법
KR1020220017749A KR102503049B1 (ko) 2020-03-13 2022-02-10 신고 평가 장치 및 그것의 동작 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220017749A KR102503049B1 (ko) 2020-03-13 2022-02-10 신고 평가 장치 및 그것의 동작 방법

Country Status (4)

Country Link
US (2) US11677904B2 (ko)
EP (1) EP3879841A1 (ko)
JP (1) JP7275181B2 (ko)
KR (2) KR20210115442A (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113778454B (zh) * 2021-09-22 2024-02-20 重庆海云捷迅科技有限公司 一种人工智能实验平台的自动评测方法及系统
CN115576957B (zh) * 2022-12-08 2023-04-07 深圳市中政汇智管理咨询有限公司 评价报告的自动生成方法、装置、设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7151826B2 (en) * 2002-09-27 2006-12-19 Rockwell Electronics Commerce Technologies L.L.C. Third party coaching for agents in a communication system
US7564476B1 (en) * 2005-05-13 2009-07-21 Avaya Inc. Prevent video calls based on appearance
KR100907172B1 (ko) 2007-07-11 2009-07-09 에스케이 텔레콤주식회사 동영상 유통 환경에서 유해 동영상의 다단계 차단 시스템및 방법
JP5037692B2 (ja) 2007-10-26 2012-10-03 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー オンラインリソースモニタリング
US7979369B2 (en) * 2008-01-09 2011-07-12 Keibi Technologies, Inc. Classification of digital content by using aggregate scoring
US20120317046A1 (en) * 2011-06-10 2012-12-13 Myslinski Lucas J Candidate fact checking method and system
KR101266410B1 (ko) 2011-06-16 2013-05-22 (주)넷비젼텔레콤 유사 신고 메시지의 평가처리 방법
US9288387B1 (en) * 2012-09-11 2016-03-15 Amazon Technologies, Inc. Content display controls based on environmental factors
US10157435B2 (en) * 2013-08-22 2018-12-18 Todd Bucciarelli System and method for monitoring electronic communications
US9558287B2 (en) * 2013-09-24 2017-01-31 Sap Portals Israel Ltd. Automatic removal of inappropriate content
JP6709589B2 (ja) 2015-06-30 2020-06-17 株式会社マーベラス コミュニケーション装置、コミュニケーションシステムおよびコミュニケーションプログラム
KR20180039402A (ko) * 2016-10-10 2018-04-18 주식회사 하이퍼커넥트 영상 표시 장치 및 영상 표시 방법
KR101932844B1 (ko) 2017-04-17 2018-12-27 주식회사 하이퍼커넥트 영상 통화 장치, 영상 통화 방법 및 영상 통화 중개 방법
KR101967658B1 (ko) 2017-05-27 2019-04-29 주식회사 하이퍼커넥트 영상 통화 장치 및 영상 통화 방법
US10764534B1 (en) * 2017-08-04 2020-09-01 Grammarly, Inc. Artificial intelligence communication assistance in audio-visual composition
GB201713817D0 (en) * 2017-08-29 2017-10-11 Factmata Ltd Fact checking
JP7100513B2 (ja) 2018-06-29 2022-07-13 株式会社エヌケービー 映像審査装置、コンピュータプログラム及び映像審査方法

Also Published As

Publication number Publication date
US20230276025A1 (en) 2023-08-31
JP7275181B2 (ja) 2023-05-17
EP3879841A1 (en) 2021-09-15
JP2021149965A (ja) 2021-09-27
US11677904B2 (en) 2023-06-13
KR102503049B1 (ko) 2023-02-24
US20210289166A1 (en) 2021-09-16
KR20220024339A (ko) 2022-03-03

Similar Documents

Publication Publication Date Title
US11323659B2 (en) Video communication device, video communication method, and video communication mediating method
US11238142B2 (en) Enrollment with an automated assistant
KR102283972B1 (ko) 통신 장치, 서버 및 동작 방법
KR102311603B1 (ko) 단말기 및 그것의 동작 방법
KR102503049B1 (ko) 신고 평가 장치 및 그것의 동작 방법
US11880442B2 (en) Authentication of audio-based input signals
KR101967658B1 (ko) 영상 통화 장치 및 영상 통화 방법
US11704940B2 (en) Enrollment with an automated assistant
KR102282963B1 (ko) 단말기, 서버 및 그것의 동작 방법
KR102287704B1 (ko) 단말기, 그것의 동작 방법 및 컴퓨터 판독 가능한 기록매체
US11606397B2 (en) Server and operating method thereof
CN111950481A (zh) 图像中面部表情量化、识别方法及其装置、设备与介质
CN111756939A (zh) 在线语音控制方法、装置及计算机设备
KR102315211B1 (ko) 단말기 및 그것의 동작 방법
CN116610790B (zh) 应答数据的获取方法、装置、设备和介质
Tran Enhancing Privacy and Security for Voice Assistant Systems
JPWO2020116060A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination