JP2021149965A - 申告評価装置およびその動作方法 - Google Patents

申告評価装置およびその動作方法 Download PDF

Info

Publication number
JP2021149965A
JP2021149965A JP2021040065A JP2021040065A JP2021149965A JP 2021149965 A JP2021149965 A JP 2021149965A JP 2021040065 A JP2021040065 A JP 2021040065A JP 2021040065 A JP2021040065 A JP 2021040065A JP 2021149965 A JP2021149965 A JP 2021149965A
Authority
JP
Japan
Prior art keywords
report
reliability
information
censorship
declaration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021040065A
Other languages
English (en)
Other versions
JP7275181B2 (ja
Inventor
アン サンギル
Sangil Ahn
アン サンギル
シン ボムジュン
Beomjun Shin
シン ボムジュン
ソ ソクジュン
Seokjun Seo
ソ ソクジュン
ビュン ヒョンミン
Hyeongmin Byun
ビュン ヒョンミン
チェ ミンギュン
Mingyun Chae
チェ ミンギュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyperconnect LLC
Original Assignee
Hyperconnect LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyperconnect LLC filed Critical Hyperconnect LLC
Publication of JP2021149965A publication Critical patent/JP2021149965A/ja
Application granted granted Critical
Publication of JP7275181B2 publication Critical patent/JP7275181B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/008Reliability or availability analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/212Monitoring or handling of messages using filtering or selective blocking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/22Arrangements for supervision, monitoring or testing
    • H04M3/2281Call monitoring, e.g. for law enforcement purposes; Call tracing; Detection or prevention of malicious calls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4627Rights management associated to the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1822Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/50Telephonic communication in combination with video communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Technology Law (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephonic Communication Services (AREA)
  • Operations Research (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】申告評価装置およびその動作方法を提供する。【解決手段】申告評価装置の申告評価方法は、少なくとも一つ以上のクライアント端末機からレポート(report)を受信する段階と、受信したレポートのカテゴリー(category)を判断する段階と、カテゴリーに対応する学習モデル(learning model)を呼び出す(recall)段階と、学習モデルを通じてレポートの信頼度を評価する段階と、信頼度に関する情報を生成して出力する段階と、を含むことができる。【選択図】図2

Description

記載された実施例は、映像通話中に不適切なコンテンツにさらされるのを防止できる申告評価装置およびその動作方法に関する。
通信技術が発展し電子装置が小型化されるにつれて、個人用端末機が一般の消費者に広く普及されている。特に最近では、スマートフォンまたはスマートタブレットのような携帯用個人端末機が広く普及されている。大部分の端末機はイメージ撮影技術を含んでいる。使用者は端末機を利用して多様なコンテンツを含むイメージを撮影することができる。
映像通話を基盤とする多様な種類の映像通話サービスが存在する。例えば、ランダム映像チャットサービスは、ランダム映像チャットサービスの利用を要請した使用者の端末を、ランダム映像チャットサービスを利用する使用者のうち無作為で選定された使用者の端末と連結させるサービスである。
使用者が相手と互いに映像通話をする時、使用者は相手からの不適切な映像または音声に露出し得る。使用者が自身が望まない不適切な映像または音声に露出した場合、使用者は性的羞恥心または不快さを覚えかねない。
記載された実施例によると、相手と映像通話をする使用者が相手からの不適切な映像または音声にさらされるのを防止できる、申告評価装置およびその動作方法が提供され得る。
また、相手と映像通話をする使用者が相手からの映像によって感じ得る性的羞恥心または不快さを防止できる、申告評価装置およびその動作方法が提供され得る。
また、使用者間の健全な映像通話を誘導できる端末機およびその動作方法が提供され得る。
本発明の実施例に係る申告評価装置の申告評価方法は、少なくとも一つ以上のクライアント端末機からレポート(report)を受信する段階と、受信したレポートのカテゴリー(category)を判断する段階と、カテゴリーに対応する学習モデル(learning model)を呼び出す(recall)段階と、学習モデルを通じてレポートの信頼度を評価する段階と、信頼度に関する情報を生成して出力する段階と、を含むことができる。
またはレポートは、映像情報、テキスト情報または音声情報を含むことができる。
または申告評価方法は、複数のクライアント端末機の間に映像通話セッションを樹立する段階をさらに含み、レポートを受信する段階は、複数のクライアント端末機のうち少なくとも一つのクライアント端末機からレポートを受信することができる。
または申告評価方法は、学習モデルに独立的にあらかじめ設定された基準により受信したレポートの信頼度を評価する段階、および評価結果に対応して関連した学習モデルをアップデートする段階をさらに含むことができる。
またはレポートは、不適切な映像コンテンツに対する情報、不適切なテキストコンテンツに対する情報または不適切な声コンテンツに対する情報を含むことができる。
または学習モデルは、声検閲アルゴリズム、映像検閲アルゴリズム、テキスト検閲アルゴリズムまたはジェスチャー(gesture)検閲アルゴリズムのうち一つに対応することができる。
本発明の実施例に係る申告評価装置は、少なくとも一つ以上のクライアント端末機からレポート(report)を受信するレポート受信部、少なくとも一つ以上の学習モデル(learning model)を保存する学習モデル保存部、および受信したレポートのカテゴリー(category)を判断し、少なくとも一つ以上の学習モデルのうちカテゴリーに対応する学習モデルを呼び出し(recall)、学習モデルを通じてレポートの信頼度を評価する信頼度評価部を含み、信頼度評価部は信頼度に関する情報を生成して出力することができる。
またはレポートは、映像情報または音声情報を含むことができる。
またはレポート受信部は、互いに映像通話セッションを樹立した複数のクライアント端末機のうち少なくとも一つのクライアント端末機からレポートを受信することができる。
または信頼度評価部は、学習モデルに独立的にあらかじめ設定された基準により受信したレポートの信頼度を評価し、評価結果に対応して関連した学習モデルをアップデートして学習モデル保存部に保存することができる。
またはレポートは、不適切な映像コンテンツに対する情報または不適切な声コンテンツに対する情報を含むことができる。
または少なくとも一つ以上の学習モデルは、それぞれ声検閲アルゴリズム、映像検閲アルゴリズム、テキスト検閲アルゴリズムまたはジェスチャー(gesture)検閲アルゴリズムのうち一つに対応することができる。
記載された実施例に係る申告評価装置およびその動作方法は、相手と映像通話をする使用者が相手からの不適切な映像または音声にさらされるのを防止することができる。
また、申告評価装置およびその動作方法は、相手と映像通話をする使用者が相手からの映像によって感じ得る性的羞恥心または不快さを防止することができる。
また、申告評価装置およびその動作方法は使用者間の健全な映像通話を誘導することができる。
本発明に係る申告評価装置が動作する環境を概略的に示す図面である。 本発明の実施例に係る申告評価装置100の構成を概略的に示す図面である。 本発明の一実施例に係る申告を評価する方法を説明するためのフローチャートである。 本発明の実施例に係るレポートの信頼度を評価するアルゴリズムを示す図面である。 本発明の実施例に係る申告評価装置の構成を概略的に示す図面である。
本発明の利点および特徴、そしてそれらを達成する方法は、添付される図面と共に詳細に後述されている実施例を参照すると明確になるであろう。しかし、本発明は以下で開示される実施例に限定されるものではなく、互いに異なる多様な形態で具現され得、ただし本実施例は本発明の開示を完全なものとし、本発明が属する技術分野における通常の知識を有する者に発明の範疇を完全に知らせるために提供されるものであり、本発明は請求項の範疇によって定義されるのみである。明細書の全体に亘って同一の参照符号は同一の構成要素を指し示す。
たとえ「第1」または「第2」等が多様な構成要素を叙述するために使われても、このような構成要素は前記のような用語によって制限されない。前記のような用語は、単に一つの構成要素を他の構成要素と区別するために使われ得る。したがって、以下で言及される第1構成要素は本発明の技術的思想内で第2構成要素であってもよい。
本明細書で使われた用語は実施例を説明するためのものであり、本発明を制限しようとするものではない。本明細書で、単数型は文面で特に言及しない限り複数型も含む。明細書で使われる「含む(comprises)」または「含む(comprising)」は、言及された構成要素または段階が一つ以上の他の構成要素または段階の存在または追加を排除しないという意味を内包する。
他の定義がない限り、本明細書で使われるすべての用語は本発明が属する技術分野における通常の知識を有する者に共通して理解され得る意味で解釈され得る。また、一般的に使われる辞書に定義されている用語は明白に特に定義されていない限り、理想的にまたは過度に解釈されない。
図1は、本発明に係る申告評価装置が動作する環境を概略的に示す図面である。
図1を参照すると、第1端末機10および第2端末機20が動作する環境は、サーバー30およびサーバー30と互いに連結された第1端末機10および第2端末機20を含むことができる。説明の便宜のために図1には二つの端末機、すなわち第1端末機10および第2端末機20のみを図示しているが、二つより多い数の端末機が含まれ得る。追加され得る端末機に対して、特に言及される説明を除き、第1端末機10および第2端末機20に対する説明が適用され得る。
サーバー30は通信網に連結され得る。サーバー30は前記通信網を通じて外部の他の装置と互いに連結され得る。サーバー30は互いに連結された他の装置にデータを伝送したり前記他の装置からデータを受信することができる。
サーバー30と連結された通信網は有線通信網、無線通信網、または複合通信網を含むことができる。通信網は3G、LTE、またはLTE−Aなどのような移動通信網を含むことができる。通信網はワイファイ(Wi−Fi)、UMTS/GPRS、またはイーサネット(Ethernet)などのような有線または無線通信網を含むことができる。通信網はマグネチックセキュリティ伝送(MST、Magnetic Secure Transmission)、RFID(Radio Frequency Identification)、NFC(Near Field Communication)、ジグビー(ZigBee)、Z−Wave、ブルートゥース(Bluetooth)、低電力ブルートゥース(BLE、Bluetooth Low Energy)、または赤外線通信(IR、InfraRed communication)などのような近距離通信網を含むことができる。通信網は近距離ネットワーク(LAN、Local Area Network)、都市圏ネットワーク(MAN、Metropolitan Area Network)、または広域ネットワーク(WAN、Wide Area Network)等を含むことができる。
サーバー30は、第1端末機10および第2端末機20のうち少なくとも一つからデータを受信することができる。サーバー30は、第1端末機10および第2端末機20のうち少なくとも一つから受信したデータを利用して演算を遂行できる。サーバー30は演算結果を第1端末機10および第2端末機20のうち少なくとも一つに伝送することができる。
サーバー30は第1端末機10および第2端末機20のうち少なくとも一つの端末機から仲介要請を受信することができる。サーバー30は仲介要請を伝送した端末機を選択することができる。例えば、サーバー30は第1端末機10および第2端末機20を選択することができる。
サーバー30は第1端末機10および第2端末機20のうち少なくとも一つからデータを受信することができる。サーバー30は第1端末機10および第2端末機20のうち少なくとも一つから受信したデータを利用して演算を遂行できる。サーバー30は前記演算結果を第1端末機10および第2端末機20のうち少なくとも一つに伝送することができる。
サーバー30は第1端末機10および第2端末機20のうち少なくとも一つの端末機から仲介要請を受信することができる。サーバー30は仲介要請を伝送した端末機を選択することができる。例えば、サーバー30は第1端末機10および第2端末機20を選択することができる。
第1端末機10に対する連結情報は例えば、第1端末機10のIPアドレスおよびポート(port)番号を含むことができる。第2端末機20に対する連結情報を受信した第1端末機10は前記受信した連結情報を利用して第2端末機20への連結を試みることができる。
第1端末機10の第2端末機20への連結試みまたは第2端末機20の第1端末機10への連結試みが成功することによって、第1端末機10および第2端末機20の間の映像通話セッションが樹立され得る。前記映像通話セッションを通じて第1端末機10は第2端末機20に映像または声を伝送することができる。第1端末機10は映像または声をデジタル信号にエンコーディングし、前記エンコーディングされた結果を第2端末機20に伝送することができる。
また、映像通話セッションを通じて第1端末機10は第2端末機20から映像または声を受信することができる。第1端末機10はデジタル信号にエンコーディングされた映像または声を受信し、前記受信した映像または声をデコーディングすることができる。
前記映像通話セッションを通じて第2端末機20は第1端末機10に映像または声を伝送することができる。また、前記映像通話セッションを通じて第2端末機20は第1端末機10から映像または声を受信することができる。これにより、第1端末機10の使用者および第2端末機20の使用者は互いに映像通話をすることができる。
第2端末機20から受信した映像、テキストまたは声から第1端末機10の使用者が不適切なコンテンツを感知する場合、申告を進行することができる。同様に、第1端末機10から受信した映像、テキストまたは声から第2端末機20の使用者が不適切なコンテンツを感知する場合、申告を進行することができる。
例えば、テキストまたは声に含まれた不適切なコンテンツは悪口、侮辱、人種差別、名誉毀損、猥褻、セクハラ、ヘイトスピーチ(hate speech)、暴力、虐待、威嚇のうち少なくとも一つに対応し得る。
または映像に含まれた不適切なコンテンツは悪口ジェスチャー、侮辱ジェスチャー、人種差別ジェスチャー、性的コンテンツ、裸体(nudity)、性器、性行為、非衛生的コンテンツ、反社会的コンテンツ、反倫理的コンテンツ、不法行為、犯罪行為、憎悪犯罪(hate crime)、暴力行為、虐待行為、嫌悪性(hateful)コンテンツ、または威嚇性コンテンツのうち少なくとも一つに対応し得る。
第1端末機10および第2端末機20は、例えば、デスクトップコンピュータ、ラップトップコンピュータ、スマートフォン、スマートタブレット、スマートウォッチ、移動端末、デジタルカメラ、ウェアラブルデバイス(wearable device)、または携帯用電子機器などであり得る。第1端末機10および第2端末機20はプログラムまたはアプリケーションを実行することができる。第1端末機10および第2端末機20それぞれは互いに同種の装置でもよく、互いに異種の装置でもよい。
図2は、本発明の実施例に係る申告評価装置100の構成を概略的に示す図面である。
図2を参照すると、本発明の一実施例に係る申告評価装置100はレポート受信部110、信頼度評価部120、およびモデル保存部(例:学習モデル保存部130を含むことができる。申告評価装置100は図1を参照して説明した複数の端末機10、20またはサーバー30を通じて構成され得る。
レポート受信部110は第1端末機10または第2端末機20のうち少なくとも一つからレポート(report)を受信することができる。
いくつかの実施例として、第1端末機10および第2端末機20の間には映像通話セッションが樹立され得る。映像通話セッション中に第1端末機10または第2端末機20の使用者が相手から受信する映像、テキストまたは声から不適切なコンテンツを感知する場合、申告を遂行できる。不適切なコンテンツが含まれた映像、テキストまたは声を受信した使用者が申告をするとレポートが生成され得る。
レポートは、不適切な映像コンテンツに対する情報、不適切なテキストコンテンツに対する情報または不適切な声コンテンツに対する情報を含むことができる。
不適切な映像コンテンツに対する情報は、申告を遂行した端末機で申告時点を基準として所定時間録画された映像および申告理由に対する情報を含むことができる。または不適切なテキストコンテンツに対する情報は、申告を遂行した端末機で申告時点を基準として所定時間受信したテキストおよび申告理由に対する情報を含むことができる。または不適切な声コンテンツに対する情報は、申告を遂行した端末機で申告時点を基準として所定時間録音された声および申告理由に対する情報を含むことができる。
レポート受信部110は受信したレポートを信頼度評価部120に提供することができる。
信頼度評価部120はレポート受信部110からレポートを受信することができる。信頼度評価部120は受信したレポートのカテゴリー(category)を分類することができる。いくつかの実施例として、カテゴリーは映像、テキスト、および声に分類され得る。
信頼度評価部120はレポートのカテゴリーに対応するモデル(例えば、学習モデル(learning model))を 呼び出して(call)レポートの信頼度を評価することができる。
信頼度評価部120は信頼度に関する情報を生成して出力することができる。出力された信頼度に関する情報は、不適切な要素を含む映像、テキストまたは声を提供した端末機の使用者をモニタリングするモニタリングサーバー(不図示)に出力され得る。
モデル保存部(例:学習モデル保存部130)は少なくとも一つ以上の検閲アルゴリズムを含むことができる。いくつかの実施例として、モデル保存部(例:学習モデル保存部130は声検閲アルゴリズム、映像検閲アルゴリズム、テキスト検閲アルゴリズムまたはジェスチャー(gesture)検閲アルゴリズムを含むことができる。例えば、検閲アルゴリズムは所定のディシジョンツリー機械学習モデルを含むことができる。
モデル保存部(例:学習モデル保存部130)は信頼度評価部120から呼び出し要請が受信されると、呼び出しに対応する検閲アルゴリズムを提供することができる。
例えば、信頼度評価部120はレポート受信部110によって受信されたレポートの属性に対応するモデル(例:学習モデル)を呼び出すことができ、呼び出されたモデルを利用してレポートの信頼度を評価することができる。
一実施例によると、信頼度評価部120はレポートに含まれたコンテンツ(例:映像コンテンツ、テキストコンテンツ、声コンテンツなど)の種類に基づいて、前記コンテンツの種類に対応するモデルを呼び出すことができる。例えば特定のレポートに映像コンテンツが含まれることによってレポートが映像カテゴリーに分類された場合、信頼度評価部120は映像検閲アルゴリズム(および/またはジェスチャーアルゴリズム)を利用して前記レポートの信頼度を評価することができる。例えば、特定のレポートにテキストコンテンツが含まれた場合、信頼度評価部120はテキスト検閲アルゴリズムを利用して前記レポートの信頼度を評価することができる。例えば、特定のレポートに声コンテンツが含まれた場合、信頼度評価部120は声検閲アルゴリズムを利用して前記レポートの信頼度を評価することができる。
他の実施例によると、信頼度評価部120はレポートに含まれた言語の種類に対応するモデルを呼び出すか、またはレポートの生成要請経路に対応するモデルを呼び出して、レポートの信頼度を評価することができる。
例えば信頼度評価部120はレポートに含まれたコンテンツに含まれた言語の種類または申告理由に含まれた言語の種類に対応する検閲アルゴリズムを呼び出すことができる。
例えば信頼度評価部120は使用者申告が遂行された申告経路に基づいて、使用者のニックネームを通じて申告されて生成されたレポートと使用者プロフィールを通じて申告が遂行されて生成されたレポートを区別してそれぞれに対応する検閲アルゴリズムを呼び出すことができる。
一方、レポートの属性に対応するモデルが二つ以上である場合、信頼度評価部120は前記二つ以上のモデルをすべて利用してレポートの信頼度を評価したり、それぞれの属性間の優先順位に基づいて優先順位が高い特定属性に対応するモデルを利用してレポートの信頼度を評価してもよい。
例えば、レポートに映像コンテンツおよびテキストコンテンツが含まれた場合、信頼度評価部120は映像検閲アルゴリズムおよびテキスト検閲アルゴリズムのうち少なくとも一つを利用してレポートの信頼度を評価することができる。例えば、レポートに英語および日本語が含まれた場合、信頼度評価部120は前記英語に対応する検閲アルゴリズムおよび前記日本語に対応する検閲アルゴリズムのうち少なくとも一つを利用してレポートの信頼度を評価することができる。
図3は、本発明の一実施例に係る申告を評価する方法を説明するためのフローチャートである。
図2および図3を参照すると、S110段階で、申告評価装置100は第1端末機10または第2端末機20のうち少なくとも一つからレポート(report)を受信することができる。
映像通話セッション中に第1端末機10または第2端末機20の使用者が相手から受信する映像、テキストまたは声から不適切なコンテンツを感知する場合、申告を遂行できる。不適切なコンテンツが含まれた映像、テキストまたは声を受信した使用者が申告をするとレポートが生成され得る。
レポートは、不適切な映像コンテンツに対する情報、不適切なテキストコンテンツに対する情報または不適切な声コンテンツに対する情報を含むことができる。
不適切な映像コンテンツに対する情報は、申告を遂行した端末機で申告時点を基準として所定時間録画されて映像および申告理由に対する情報を含むことができる。または不適切なテキストコンテンツに対する情報は、申告を遂行した端末機で申告時点を基準として所定時間受信したテキストおよび申告理由に対する情報を含むことができる。または不適切な声コンテンツに対する情報は、申告を遂行した端末機で申告時点を基準として所定時間録音された声および申告理由に対する情報を含むことができる。
S120段階で、申告評価装置100はレポートのカテゴリーを分類することができる。
信頼度評価部120はレポート受信部110からレポートを受信することができる。信頼度評価部120は受信したレポートのカテゴリー(category)を分類することができる。いくつかの実施例として、レポートのカテゴリーは映像、テキスト、および声に対応するカテゴリーを含むことができる。他の実施例において、レポートのカテゴリーは各国の言語に対応するカテゴリーを含むことができる。さらに他の実施例において、レポートのカテゴリーは、各レポートの生成要請経路に対応するカテゴリーを含んでもよい。
例えば、レポートが不適切な映像コンテンツに対する情報を含む場合、申告評価装置100は映像カテゴリーに分類することができる。またはレポートが不適切なテキストコンテンツに対する情報を含む場合、申告評価装置100はテキストカテゴリーに分類することができる。またはレポートが不適切な声コンテンツに対する情報を含む場合、申告評価装置100は声カテゴリーに分類することができる。
S130段階で、申告評価装置100は分類されたカテゴリーに対応するモデル(例:学習モデル)を呼び出すことができる。
申告評価装置100は少なくとも一つ以上の検閲アルゴリズムを含むことができる。いくつかの実施例として、申告評価装置100は声検閲アルゴリズム、映像検閲アルゴリズム、テキスト検閲アルゴリズムまたはジェスチャー(gesture)検閲アルゴリズムを含むことができる。
例えば、映像検閲アルゴリズムは、映像を構成する所定フレーム単位のイメージデータを獲得して前記イメージデータを検閲するアルゴリズムを含むことができる。例えば、映像検閲アルゴリズムは複数のフレームで構成された映像から所定の周期(例:フレーム周期または時間周期)ごとにフレームに対応するイメージを抽出し、抽出されたイメージを検査するアルゴリズムを含むことができる。一方、実施例で所定の周期は設定により異なって決定され得、一例として、映像に対応する使用者情報に基づいて所定の周期を異なるように決定することができる。また、以前フレームで獲得されたイメージの検査結果に基づいて次のフレームを獲得する周期を調節することができる。
声検閲アルゴリズム、映像検閲アルゴリズム、テキスト検閲アルゴリズム、およびジェスチャー検閲アルゴリズムは、それぞれ人工知能(Artificial Intelligence、AI)システムを通じて生成され得る。
人工知能システムは、人間の水準の知能を具現するコンピュータ機械が自ら学習し判断して正確度を高めていくシステムである。
人工知能システムは、使うほど繰り返される学習によって算出される結果の正確度が向上し、使用者の意図をより正確に反映できるようになるため、既存の規定基盤スマートシステムは次第にディープラーニング(Deep learning)基盤人工知能システムに代替されている。
人工知能技術は機械学習を利用する技術と言え、ディープラーニングは機械学習の一種と言える。ディープラーニングは入力データの特徴を自ら分類および学習するアルゴリズム技術である。そして、要素技術はディープラーニングなどの機械学習アルゴリズムを活用して、人間の頭脳の認知、判断などの機能を模写する技術であり、言語的理解、視覚的理解、推論/予測、知識表現、動作制御などの技術分野で構成される。
検閲アルゴリズムは深層神経網(Deep Neural Network、DNN)、合成積神経網(Convolutional Neural Network、CNN)、循環神経網(Recurrent Neural Network、RNN)、R−CNN(Region−based Convolutional Neural Networks)、制限ボルツマンマシン(Restricted Boltzmann Machine、RBM)、深層信頼神経網(Deep Belief Network、DBN)、または深層キューネットワーク(Deep Q−Networks)のうち少なくとも一つ以上を含むことができる。
いくつかの実施例として、検閲アルゴリズムは合成積神経網(Convolutional Neural Network、CNN)であり得る。検閲アルゴリズムはAlexNet、ZFNet、GoogLeNet、VGGNet、ResNet、Inception−ResNet、Inception−v2、Inception−v3、またはInception−v4を含むことができる。
検閲アルゴリズムは少なくとも二つ以上のレイヤー(layer)を含むニューラルネットワーク(neural network)であり得る。前記検閲アルゴリズムは入力レイヤー(input layer)および出力レイヤー(output layer)を含むことができる。検閲アルゴリズムは少なくとも一つ以上の隠れレイヤー(hidden layer)をさらに含むことができる。
ただし、前記のような実施例に限定されるものではなく、多様な実施例に係る検閲アルゴリズムは所定のディシジョンツリーを含むモデルであってもよく、それ以外の他のロジックアルゴリズムモデルに該当してもよい。
いくつかの実施例として、声検閲アルゴリズムは特定の声および特定の声に不適切な要素が含まれているかどうかに対する分類情報を利用して学習(learning)された分類モデル(classification model)であり得る。または映像検閲アルゴリズムは特定映像および特定映像に不適切な要素が含まれているかどうかに対する分類情報を利用して学習された分類モデルであり得る。例えば、映像検閲アルゴリズムは映像から所定のフレーム単位でイメージを獲得し、獲得したイメージを検閲するアルゴリズムを含むことができる。
またはテキスト検閲アルゴリズムは特定テキストおよび特定テキストに不適切な要素が含まれているかどうかに対する分類情報を利用して学習された分類モデルであり得る。またはジェスチャー検閲アルゴリズムは特定映像に不適切なジェスチャーが含まれているかどうかに対する分類情報を利用して学習された分類モデルであり得る。
いくつかの実施例として、レポートが映像カテゴリーに分類される場合、申告評価装置100は映像検閲アルゴリズム、ジェスチャー検閲アルゴリズムのうち少なくとも一つを呼び出すことができる。また、レポートが映像カテゴリーに分類される場合、不適切な声コンテンツを含む確率が高いため、申告評価装置100は声検閲アルゴリズムを呼び出すことができる。
いくつかの実施例として、レポートがテキストカテゴリーに分類される場合、申告評価装置100はテキスト検閲アルゴリズムを呼び出すことができる。
いくつかの実施例として、レポートが声カテゴリーに分類される場合、申告評価装置100は声検閲アルゴリズムを呼び出すことができる。また、レポートが声カテゴリーに分類される場合、不適切な映像コンテンツを含む確率が高いため、申告評価装置100は映像検閲アルゴリズムを呼び出すことができる。
これは本発明を説明するための一実施例に過ぎず、申告評価装置100はレポートのカテゴリーに対応して映像検閲アルゴリズム、声検閲アルゴリズム、テキスト検閲アルゴリズムおよびジェスチャー検閲アルゴリズムのうち少なくとも一つ以上の学習モデルを呼び出すことができる。
S140段階で、申告評価装置100はレポートの信頼度を評価することができる。
申告評価装置100がレポートの信頼度を評価する方法は図4を参照して説明され得る。
図4は、本発明の実施例に係るレポートの信頼度を評価するアルゴリズムを示す図面である。
図4を参照すると、申告評価装置100に受信されたレポートは不適切な声コンテンツに対する情報を含むことができる。レポートは申告時点を基準として所定時間録音された声および申告理由に対する情報を含むことができる。
いくつかの実施例として、レポートは6秒(start_sec:6)から8秒(end_sec:8)の間録音された声と不適切な音声(VERBAL_ABUSE)による申告理由を含むことができる。
申告評価装置100は声検閲アルゴリズムを利用してレポートの信頼度を評価することができる。申告評価装置100は声検閲アルゴリズムを利用して、録音された声に「阿呆(babo)」、「お前(eomma)」、「馬鹿な(michin)」、および「こいつ(yamma)」等の悪口が含まれているかを確認することができる。悪口の種類は本発明を説明するための一例に過ぎず、声検閲アルゴリズムは多様な悪口が含まれているかどうかを確認することができる
申告評価装置100は録音された声に含まれた悪口が「お前(eomma)」である場合の信頼度(0.3649329300969839)が最も高いものと予測することができる。
申告評価装置100は信頼度に基づいてレポートの再検討必要回数を決定することができる。
例えば、信頼度が「0」以上「0.8」未満の場合、申告評価装置100はレポートの再検討必要回数を2回に決定することができる。または信頼度が「0.8」以上「0.95」未満の場合、申告評価装置100はレポートの再検討必要回数を1回に決定することができる。または信頼度が「0.95」以上「1」以下である場合、レポートの再検討必要回数を0回に決定することができる。
いくつかの実施例として、申告評価装置100に受信されたレポートの信頼度が「0.3649329300969839」であるので再検討必要回数を2回に決定することができる。
一方、申告評価装置100は信頼度に基づいて決定されたレポートの再検討必要回数に基づいて、再検討必要回数が1回以上に決定された場合、前記レポートに含まれた情報および前記レポートの信頼度評価結果情報のうち少なくとも一部を一つ以上の外部装置に伝送することができる。例えば外部装置は管理者(agent)に対応する端末機を含むことができる。
例えば、申告評価装置100は、特定のレポートに対する再検討必要回数が1回に決定された場合、前記レポート関連情報(例えば、レポートに含まれた情報およびレポートの信頼度評価結果情報のうち少なくとも一部)を第1管理者(agent)に対応する第1端末機に伝送することができる。これに伴い、前記レポートは第1管理者によって再検討され得、第1管理者に対応する第1端末機からレポート再検討結果が受信され得る。
例えば、申告評価装置100は特定のレポートに対する再検討必要回数が2回に決定された場合、前記レポート関連情報を第1管理者に対応する第1端末機および第2管理者に対応する第2端末機にそれぞれ伝送することができる。これに伴い、前記レポートは互いに異なる管理者(第1管理者および第2管理者)によってそれぞれ再検討され得、第1管理者に対応する第1端末機および第2管理者に対応する第2端末機それぞれからレポート再検討結果が受信され得る。また受信されたレポート再検討の結果に基づいて検閲結果を確認することができる。また、再検討結果が互いに異なる場合、追加的な再検討を遂行するように選択された管理者に対応する端末機にレポート関連情報を伝達することができる。
このように、本開示の多様な実施例によると、レポートの信頼度を評価する主体(例:申告評価装置100の信頼度評価部120)と、レポートの再検討主体(例:第1管理者および/または第2管理者)が互いに異なるように設定されて、より信頼度の高いレポート再検討結果を獲得することができる。
再び図3を参照すると、レポートが不適切な声コンテンツに対する情報を含む場合、信頼度を評価した結果は悪口の種類、信頼度および再検討必要回数を含むことができる。例えば、悪口の種類は「お前(eomma)」であり、信頼度は「0.3649329300969839」であり、再検討必要回数は2回であり得る。
図5は、本発明の実施例に係る申告評価装置の構成を概略的に示す図面である。
申告評価装置200はプロセッサ210およびメモリ220を含むことができる。本実施例と関連した技術分野における通常の知識を有する者であれば、図5に図示された構成要素の他に他の汎用的な構成要素がさらに含まれ得ることが分かる。
申告評価装置200は図2に図示された申告評価装置100と類似または同一でもよい。申告評価装置100に含まれたレポート受信部110および信頼度評価部120はプロセッサ210に含まれ得る。
プロセッサ210は申告評価装置200の全般的な動作を制御し、CPUなどのような少なくとも一つのプロセッサを含むことができる。プロセッサ210は各機能に対応する特化したプロセッサを少なくとも一つ含むか、一つに統合された形態のプロセッサであり得る。
メモリ220は申告評価装置200を制御するプログラム、データ、またはファイルを保存することができる。メモリ220はプロセッサ210により実行可能な命令語を保存することができる。プロセッサ210はメモリ220に保存されたプログラムを実行させたり、メモリ220に保存されたデータまたはファイルを読み込んだり、新しいデータを保存することができる。また、メモリ220はプログラム命令、データファイル、データ構造などを単独でまたは組み合わせで保存することができる。
メモリは声検閲アルゴリズム、映像検閲アルゴリズム、テキスト検閲アルゴリズムおよびジェスチャー検閲アルゴリズムを含むことができる。
プロセッサ210は第1端末機10または第2端末機20のうち少なくとも一つから映像通話セッション中に生成されたレポート(report)を受信することができる。レポートは不適切な映像コンテンツに対する情報、不適切なテキストコンテンツに対する情報または不適切な声コンテンツに対する情報を含むことができる。
不適切な映像コンテンツに対する情報は、申告を遂行した端末機で申告時点で受信された映像および申告理由に対する情報を含むことができる。または不適切なテキストコンテンツに対する情報は、申告を遂行した端末機で申告時点で受信されたテキストおよび申告理由に対する情報を含むことができる。または不適切な声コンテンツに対する情報は、申告を遂行した端末機で申告時点で受信された声および申告理由に対する情報を含むことができる。
プロセッサ210はレポートのカテゴリーを分類することができる。プロセッサ210は受信したレポートのカテゴリー(category)を分類することができる。いくつかの実施例として、カテゴリーは映像、テキスト、および声に分類され得る。
例えば、レポートが不適切な映像コンテンツに対する情報を含む場合、プロセッサ210は映像カテゴリーに分類することができる。またはレポートが不適切なテキストコンテンツに対する情報を含む場合、プロセッサ210はテキストカテゴリーに分類することができる。またはレポートが不適切な声コンテンツに対する情報を含む場合、プロセッサ210は声カテゴリーに分類することができる。
プロセッサ210は分類されたカテゴリーに対応する学習モデルを呼び出すことができる。プロセッサ210はメモリ220に保存された声検閲アルゴリズム、映像検閲アルゴリズム、テキスト検閲アルゴリズムまたはジェスチャー(gesture)検閲アルゴリズムのうち少なくとも一つを呼び出すことができる。
いくつかの実施例として、レポートが映像カテゴリーに分類される場合、プロセッサ210は映像検閲アルゴリズムおよびジェスチャー検閲アルゴリズムのうち少なくとも一つを呼び出すことができる。また、レポートが映像カテゴリーに分類される場合、不適切な声コンテンツを含む確率が高いため、プロセッサ210は声検閲アルゴリズムを呼び出すことができる。一方、映像検閲アルゴリズムは映像を構成する各フレーム単位のイメージのうち少なくとも一部を獲得して前記イメージを検閲(分析)するようにする命令語を含むことができる。
いくつかの実施例として、レポートがテキストカテゴリーに分類される場合、プロセッサ210はテキスト検閲アルゴリズムを呼び出すことができる。
いくつかの実施例として、レポートが声カテゴリーに分類される場合、プロセッサ210は声検閲アルゴリズムを呼び出すことができる。また、レポートが声カテゴリーに分類される場合、不適切な映像コンテンツを含む確率が高いため、プロセッサ210は前記の声検閲アルゴリズムと共に映像検閲アルゴリズムを呼び出すことができる。
これは本発明を説明するための一実施例に過ぎず、プロセッサ210はレポートのカテゴリーに対応して映像検閲アルゴリズム、声検閲アルゴリズム、テキスト検閲アルゴリズムおよびジェスチャー検閲アルゴリズムのうち少なくとも一つ以上の学習モデルを呼び出すことができる。
一方、プロセッサ210はレポートに含まれた言語の種類に基づいて呼び出す検閲アルゴリズム(例:学習モデル)の種類を決定することができる。例えば、プロセッサ210は、レポートに含まれたコンテンツ(例:映像コンテンツ、テキストコンテンツ、声コンテンツなど)に含まれた言語の種類または申告理由に対する情報が記録された言語の種類に基づいて、各言語に対応する検閲アルゴリズムを呼び出すことができる。例えばプロセッサ210は、前記レポートに含まれた言語が韓国語である場合、韓国語を処理する検閲アルゴリズムを利用して前記レポートの信頼度を評価することができるし、前記レポートに含まれた言語がトルコ語である場合には、トルコ語を処理する検閲アルゴリズムを利用して前記レポートの信頼度を評価することができる。
他の例として、プロセッサ210は使用者申告が遂行された申告経路に基づいて呼び出す検閲アルゴリズム(例:学習モデル)の種類を決定することができる。例えば、プロセッサ210は、使用者のニックネームを通じて申告が遂行されることによって生成されたレポートと、使用者のプロフィール(例:自己紹介(BIO、biography)情報)を通じて申告が遂行されることによって生成されたレポートを区分し、それぞれのレポートに対応する異なる検閲アルゴリズムを呼び出すことができる。
このように、言語の種類および申告が遂行された経路のようなコンテクスト情報に応じて適合な検閲モデルを呼び出して検閲を遂行することによって、検閲結果の正確度を向上させることができる。
プロセッサ210はレポートの信頼度を評価することができる。プロセッサ210はレポートに不適切な声コンテンツに対する情報が含まれていると判断することができる。レポートは申告時点を基準として所定時間録音された声および申告理由に対する情報を含むことができる。
いくつかの実施例としてレポートは6秒(start_sec:6)から8秒(end_sec:8)の間録音された声と不適切な音声(VERBAL_ABUSE)による申告理由を含むことができる。
プロセッサ210は声検閲アルゴリズムを利用してレポートの信頼度を評価することができる。プロセッサ210は声検閲アルゴリズムを利用して、録音された声に「阿呆(babo)」、「お前(eomma)」、「馬鹿な(michin)」、および「こいつ(yamma)」等の悪口が含まれているかを確認することができる。悪口の種類は本発明を説明するための一例に過ぎず、声検閲アルゴリズムは多様な悪口が含まれているかどうかを確認することができる
プロセッサ210は録音された声に含まれた悪口が「お前(eomma)」である場合の信頼度(0.3649329300969839)が最も高いものと予測することができる。
プロセッサ210は信頼度に基づいてレポートの再検討必要回数を決定することができる。例えば、信頼度が「0」以上「0.8」未満の場合、プロセッサ210はレポートの再検討必要回数を2回に決定することができる。または信頼度が「0.8」以上「0.95」未満の場合、申告評価装置200はレポートの再検討必要回数を1回に決定することができる。または信頼度が「0.95」以上「1」以下である場合、レポートの再検討必要回数を0回に決定することができる。
いくつかの実施例として、プロセッサ210に受信されたレポートの信頼度が「0.3649329300969839」であるので、再検討必要回数を2回に決定することができる。
再び図3を参照すると、レポートが不適切な声コンテンツに対する情報を含む場合、信頼度を評価した結果は悪口の種類、信頼度および再検討必要回数を含むことができる。例えば、悪口の種類は「お前(eomma)」であり、信頼度は「0.3649329300969839」であり、再検討必要回数は2回であり得る。
図1〜図5を参照して説明された通り、申告評価装置100、200は相手と映像通話をする使用者が相手からの不適切な映像または音声にさらされるのを防止することができる。
また、申告評価装置100、200は相手と映像通話をする使用者が相手からの映像によって感じ得る性的羞恥心または不快さを防止することができる。
以上で説明された実施例は、コンピュータによって実行されるプログラムモジュールのようなコンピュータによって実行可能な命令語を含む記録媒体の形態でも具現され得る。コンピュータ読み取り可能媒体はコンピュータによってアクセスされ得る任意の使用可能媒体であり得、揮発性および不揮発性媒体、分離型および非分離型媒体をすべて含むことができる。
また、コンピュータ読み取り可能媒体はコンピュータ保存媒体を含むことができる。コンピュータ保存媒体はコンピュータ読み取り可能命令語、データ構造、プログラムモジュールまたはその他データのような情報の保存のための任意の方法または技術で具現された揮発性および不揮発性、分離型および非分離型媒体をすべて含むことができる。
以上、添付された図面を参照して本発明の実施例を説明したが、本発明が属する技術分野における通常の知識を有する者は本発明がその技術的思想や必須の特徴を変更することなく他の具体的な形態で実施され得ることが理解できるであろう。したがって、以上で記述した実施例はすべての面において例示的なものであり、限定的ではないものと理解されるべきである。

Claims (15)

  1. 電子装置の申告評価方法であって、
    少なくとも一つ以上のクライアント端末機からレポート(report)を受信する段階と、
    受信した前記レポートのカテゴリー(category)を判断する段階と、
    前記カテゴリーに対応するモデル(model)を呼び出す(recall)段階と、
    前記モデルを通じて前記レポートの信頼度を評価する段階と、
    前記信頼度に関する情報を生成して出力する段階と、を含む、申告評価方法。
  2. 前記レポートは映像情報、テキスト情報または音声情報を含む、請求項1に記載の申告評価方法。
  3. 複数のクライアント端末機の間に映像通話セッションを樹立する段階をさらに含み、
    前記レポートを受信する段階では、前記複数のクライアント端末機のうち少なくとも一つのクライアント端末機から前記レポートを受信する、請求項1に記載の申告評価方法。
  4. 前記モデルに独立的にあらかじめ設定された基準により受信した前記レポートの信頼度を評価する段階と、
    前記評価結果に対応して関連したモデルをアップデートする段階と、をさらに含む、請求項1に記載の申告評価方法。
  5. 前記レポートは、不適切な映像コンテンツに対する情報、不適切なテキストコンテンツに対する情報または不適切な声コンテンツに対する情報を含む、請求項1に記載の申告評価方法。
  6. 前記モデルは声検閲アルゴリズム、映像検閲アルゴリズム、テキスト検閲アルゴリズムまたはジェスチャー(gesture)検閲アルゴリズムのうち一つに対応する、請求項1に記載の申告評価方法。
  7. 請求項1に記載された方法を遂行するためのプログラムが記録された、コンピュータ読み取り可能な不揮発性記録媒体。
  8. 申告評価装置であって、
    少なくとも一つ以上のクライアント端末機からレポート(report)を受信するレポート受信部と、
    少なくとも一つ以上のモデル(model)を保存するモデル保存部と、
    受信した前記レポートのカテゴリー(category)を判断し、前記少なくとも一つ以上のモデルのうち前記カテゴリーに対応するモデルを呼び出し(recall)、前記呼び出されたモデルを通じて前記レポートの信頼度を評価する信頼度評価部と、を含み、
    前記信頼度評価部は前記信頼度に関する情報を生成して出力する、申告評価装置。
  9. 前記レポートは映像情報または音声情報を含む、請求項8に記載の申告評価装置。
  10. 前記レポート受信部は、互いに映像通話セッションを樹立した複数のクライアント端末機のうち少なくとも一つのクライアント端末機から前記レポートを受信する、請求項8に記載の申告評価装置。
  11. 前記信頼度評価部は前記モデルに独立的にあらかじめ設定された基準により受信した前記レポートの信頼度を評価し、
    前記評価結果に対応して関連したモデルをアップデートして前記モデル保存部に保存する、請求項8に記載の申告評価装置。
  12. 前記レポートは不適切な映像コンテンツに対する情報または不適切な声コンテンツに対する情報を含む、請求項8に記載の申告評価装置。
  13. 前記少なくとも一つ以上のモデルは、それぞれ声検閲アルゴリズム、映像検閲アルゴリズム、テキスト検閲アルゴリズムまたはジェスチャー(gesture)検閲アルゴリズムのうち一つに対応する、請求項8に記載の申告評価装置。
  14. 前記レポートのカテゴリーを判断する段階は、
    前記レポートに含まれたコンテンツの種類、前記レポートに対応する言語の種類、または前記レポートの生成要請経路のうちいずれか一つに基づいて、前記レポートのカテゴリーを判断する段階を含む、請求項1に記載の申告評価方法。
  15. 前記信頼度に関する情報に基づいて、前記レポートに含まれた情報および前記レポートの信頼度評価結果情報のうち少なくとも一部を外部装置に伝送する段階をさらに含む、請求項1に記載の申告評価方法。
JP2021040065A 2020-03-13 2021-03-12 申告評価装置およびその動作方法 Active JP7275181B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200031244A KR20210115442A (ko) 2020-03-13 2020-03-13 신고 평가 장치 및 그것의 동작 방법
KR10-2020-0031244 2020-03-13

Publications (2)

Publication Number Publication Date
JP2021149965A true JP2021149965A (ja) 2021-09-27
JP7275181B2 JP7275181B2 (ja) 2023-05-17

Family

ID=74871286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021040065A Active JP7275181B2 (ja) 2020-03-13 2021-03-12 申告評価装置およびその動作方法

Country Status (4)

Country Link
US (2) US11677904B2 (ja)
EP (1) EP3879841A1 (ja)
JP (1) JP7275181B2 (ja)
KR (2) KR20210115442A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113778454B (zh) * 2021-09-22 2024-02-20 重庆海云捷迅科技有限公司 一种人工智能实验平台的自动评测方法及系统
CN115576957B (zh) * 2022-12-08 2023-04-07 深圳市中政汇智管理咨询有限公司 评价报告的自动生成方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502307A (ja) * 2007-10-26 2011-01-20 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー オンラインリソースモニタリング
JP2017016343A (ja) * 2015-06-30 2017-01-19 株式会社マーベラス コミュニケーション装置、コミュニケーションシステムおよびコミュニケーションプログラム
JP2020004248A (ja) * 2018-06-29 2020-01-09 株式会社エヌケービー 映像審査装置、情報処理装置、コンピュータプログラム及び映像審査方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7151826B2 (en) * 2002-09-27 2006-12-19 Rockwell Electronics Commerce Technologies L.L.C. Third party coaching for agents in a communication system
US7564476B1 (en) * 2005-05-13 2009-07-21 Avaya Inc. Prevent video calls based on appearance
KR100907172B1 (ko) 2007-07-11 2009-07-09 에스케이 텔레콤주식회사 동영상 유통 환경에서 유해 동영상의 다단계 차단 시스템및 방법
US7979369B2 (en) * 2008-01-09 2011-07-12 Keibi Technologies, Inc. Classification of digital content by using aggregate scoring
US20120317046A1 (en) * 2011-06-10 2012-12-13 Myslinski Lucas J Candidate fact checking method and system
KR101266410B1 (ko) 2011-06-16 2013-05-22 (주)넷비젼텔레콤 유사 신고 메시지의 평가처리 방법
US9288387B1 (en) * 2012-09-11 2016-03-15 Amazon Technologies, Inc. Content display controls based on environmental factors
US10157435B2 (en) * 2013-08-22 2018-12-18 Todd Bucciarelli System and method for monitoring electronic communications
US9558287B2 (en) * 2013-09-24 2017-01-31 Sap Portals Israel Ltd. Automatic removal of inappropriate content
KR20180039402A (ko) * 2016-10-10 2018-04-18 주식회사 하이퍼커넥트 영상 표시 장치 및 영상 표시 방법
KR101932844B1 (ko) 2017-04-17 2018-12-27 주식회사 하이퍼커넥트 영상 통화 장치, 영상 통화 방법 및 영상 통화 중개 방법
KR101967658B1 (ko) 2017-05-27 2019-04-29 주식회사 하이퍼커넥트 영상 통화 장치 및 영상 통화 방법
US11620566B1 (en) * 2017-08-04 2023-04-04 Grammarly, Inc. Artificial intelligence communication assistance for improving the effectiveness of communications using reaction data
GB201713817D0 (en) * 2017-08-29 2017-10-11 Factmata Ltd Fact checking

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502307A (ja) * 2007-10-26 2011-01-20 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー オンラインリソースモニタリング
JP2017016343A (ja) * 2015-06-30 2017-01-19 株式会社マーベラス コミュニケーション装置、コミュニケーションシステムおよびコミュニケーションプログラム
JP2020004248A (ja) * 2018-06-29 2020-01-09 株式会社エヌケービー 映像審査装置、情報処理装置、コンピュータプログラム及び映像審査方法

Also Published As

Publication number Publication date
US11677904B2 (en) 2023-06-13
JP7275181B2 (ja) 2023-05-17
EP3879841A1 (en) 2021-09-15
KR102503049B1 (ko) 2023-02-24
KR20210115442A (ko) 2021-09-27
US20210289166A1 (en) 2021-09-16
US20230276025A1 (en) 2023-08-31
KR20220024339A (ko) 2022-03-03

Similar Documents

Publication Publication Date Title
US11032421B2 (en) Systems for transitioning telephony-based and in-person servicing interactions to and from an artificial intelligence (AI) chat session
KR102283972B1 (ko) 통신 장치, 서버 및 동작 방법
KR101967658B1 (ko) 영상 통화 장치 및 영상 통화 방법
US20210092222A1 (en) Device and method for suggesting action item
US20230276025A1 (en) Report Evaluation Device and Operation Method Thereof
CN111612070B (zh) 基于场景图的图像描述生成方法及装置
KR20190031167A (ko) 전자 장치 및 이의 제어 방법
US10743104B1 (en) Cognitive volume and speech frequency levels adjustment
US11947592B2 (en) Systems and method of generating custom messages based on rule-based database queries in a cloud platform
KR102287704B1 (ko) 단말기, 그것의 동작 방법 및 컴퓨터 판독 가능한 기록매체
JP2018533105A (ja) モバイルデバイス挙動を分類するために正規化信頼性値を使用すること
KR20190094319A (ko) 음성 추출 필터를 이용하여 음성 제어를 수행하는 인공 지능 장치 및 그 방법
KR102199831B1 (ko) 보이스피싱 방지 시스템, 보이스피싱 방지 방법 및 기록 매체
KR102630820B1 (ko) 메신저 피싱 또는 보이스 피싱을 감지하는 전자 장치 및 그 동작 방법
CN111095208A (zh) 用于提供对设备使用询问的响应的设备和方法
US11785440B2 (en) Public safety system and method
US20220058231A1 (en) Method, Apparatus and System to Keep Out Users From Inappropriate Content During Electronic Communication
US20230089720A1 (en) Systems and methods for providing assistance in an emergency
Montori et al. Texting and Driving Recognition leveraging the Front Camera of Smartphones
CN116610790B (zh) 应答数据的获取方法、装置、设备和介质
CN111953944B (zh) 一种社区守望系统
US20230096129A1 (en) Hologram communication continuity
US20230368798A1 (en) Secure communication system with speaker recognition by voice biometrics for user groups such as family groups
Jelassi et al. YouSOS: A victim-centered multimedia SOS emergency framework
Kalakoti et al. Emergency distress management system for app-based taxi services

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230502

R150 Certificate of patent or registration of utility model

Ref document number: 7275181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150