JP6937440B2 - マイクロ表現を用いて信ぴょう性を決定するコンピュータ化されたシステムおよび方法 - Google Patents

マイクロ表現を用いて信ぴょう性を決定するコンピュータ化されたシステムおよび方法 Download PDF

Info

Publication number
JP6937440B2
JP6937440B2 JP2020537706A JP2020537706A JP6937440B2 JP 6937440 B2 JP6937440 B2 JP 6937440B2 JP 2020537706 A JP2020537706 A JP 2020537706A JP 2020537706 A JP2020537706 A JP 2020537706A JP 6937440 B2 JP6937440 B2 JP 6937440B2
Authority
JP
Japan
Prior art keywords
data
user
question
convolutional neural
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020537706A
Other languages
English (en)
Other versions
JP2021517287A (ja
Inventor
ファン,シャオジュン
Original Assignee
クーパン コーポレイション
クーパン コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クーパン コーポレイション, クーパン コーポレイション filed Critical クーパン コーポレイション
Publication of JP2021517287A publication Critical patent/JP2021517287A/ja
Application granted granted Critical
Publication of JP6937440B2 publication Critical patent/JP6937440B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/03Credit; Loans; Processing thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computer Hardware Design (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Technology Law (AREA)
  • Development Economics (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、一般に、信ぴょう性(authenticity)を判定するためのコンピュータ化されたシステムおよび方法に関する。特に、本開示の実施形態は、人間のユーザの微小表現を使用して信ぴょう性を判定するための、発明的かつ非従来型のシステムに関する。
インターネットが広く普及するにつれて、電子取引は、対面取引に取って代わってきた。電子取引のタイプは、アイテムの購入および金銭の借用を含めて、様々であり得る。対面相互作用なしに取引相手の信ぴょう性を判定することは困難であるため、詐欺を検出する様々な方法が存在する。
しかしながら、信ぴょう性を決定するための既存の方法は、本質的に完全ではない。それらは、取引または信用履歴を使用して申請者の信頼性を評価し、したがって、申請者に関連するデータの小集合に限定される。さらに、トランザクションまたはクレジット履歴をでっちあげることもできるので、判定が正確でない場合がある。この理由のために、既存の方法は、しばしば、取引に従事する人との対面対話または電話会話を必要とする。しかしながら、これを行うことにより、取引のコストが増加し、プロセスが遅延する。したがって、電子的な方法で信ぴょう性を正確に判定するための改善されたシステムおよび方法が必要とされている。
本開示の一態様は、人間のユーザの信ぴょう性を計算する方法に関する。この方法は、少なくとも1つのプロセッサを有するデバイスによって実行され得る。方法は、ネットワークを介して、ユーザデバイスから、前記ユーザデバイスとの接続をインスタンス化する電子的な要求を受信することを有し得る。方法は、質問のデータベースを用いて、前記要求に関する第1の質問を生成することを有してよい。方法は、前記ネットワークを介して、前記生成された質問を前記ユーザデバイスに提供することを有し得る。方法は、前記接続を介して受信される映像データおよび音声データを解析することであって、この解析は、前記映像データから複数の顔表情を抽出することを含む、ことを有し得る。方法は、第1の畳み込みニューラルネットワークを用い、少なくとも1つの抽出された顔表現に基づいて、1以上の所定の感情に対応する第1のデータを計算するとともに、第2の畳み込みニューラルネットワークを用い、少なくとも2つの抽出された顔表現および音声データに基づいて、前記1以上の所定の感情に対応する第2のデータを計算することを有し得る。方法は、前記第1のデータおよび第2のデータを用いて、候補となる感情データを生成することを有し得る。方法は、前記候補となる感情データが所定の感情を予測するか否かを判定することを有し得る。方法は、前記候補となる感情データが前記1以上の所定の感情を予測するかどうかの判断に基づいて、前記第1のデータおよび前記第2のデータを集計するための追加データを収集すべく、第2の質問を生成すること、または、前記ユーザの信ぴょう性を決定し、決定した信ぴょう頼性を使用して前記電子的な要求を決定することを有し得る。
本開示の別の態様は、人間のユーザの信ぴょう性を計算するコンピューティングシステムに関する。システムは、少なくとも1つのプロセッサと、命令を格納した少なくとも1つのメモリと、を備え得る。システムは、ネットワークを介して、ユーザデバイスから、前記ユーザデバイスとの接続をインスタンス化する電子的な要求を受信し得る。システムは、質問のデータベースを用いて、前記要求に関する第1の質問を生成し得る。システムは、前記ネットワークを介して、前記生成された質問を前記ユーザデバイスに提供し得る。システムは、前記接続を介して受信される映像データおよび音声データを解析することであって、この解析は、前記映像データから複数の顔表情を抽出することを含み得る。システムは、第1の畳み込みニューラルネットワークを用い、少なくとも1つの抽出された顔表現に基づいて、1以上の所定の感情に対応する第1のデータを計算するとともに、第2の畳み込みニューラルネットワークを用い、少なくとも2つの抽出された顔表現および音声データに基づいて、前記1以上の所定の感情に対応する第2のデータを計算し得る。システムは、前記第1のデータおよび第2のデータを用いて、候補となる感情データを生成し得る。システムは、前記候補となる感情データが所定の感情を予測するか否かを判定し得る。システムは、前記候補となる感情データが前記1以上の所定の感情を予測するかどうかの判断に基づいて、前記第1のデータおよび前記第2のデータを集計するための追加データを収集すべく、第2の質問を生成すること、または、前記ユーザの信ぴょう性を決定し、決定した信ぴょう頼性を使用して前記ユーザの要求を決定し得る。
本開示のまた別の態様は、ローン申請者の信ぴょう性を計算する方法に関する。方法は、少なくとも1つのプロセッサを有するデバイスによって実行され得る。方法は、ネットワークを介して、ユーザデバイスから、前記ユーザデバイスとのビデオ接続をインスタンス化する電子的な要求を受信し得る。方法は、質問のデータベースを用いて、前記要求に関する第1の質問を生成し得る。方法は、前記ネットワークを介して、前記生成された質問を前記ユーザデバイスに提供し得る。方法は、前記接続を介して受信される映像データおよび音声データを解析することであって、この解析は、前記映像データから複数の顔表情を抽出し得る。方法は、空間畳み込みニューラルネットワークを用い、少なくとも1つの抽出された顔表現に基づいて、1以上の所定の感情に対応する第1のデータを計算するとともに、時間畳み込みニューラルネットワークを用い、少なくとも2つの抽出された顔表現および音声データに基づいて、前記1以上の所定の感情に対応する第2のデータを計算し得る。方法は、前記第1のデータおよび第2のデータを用いて、候補となる感情データを生成し得る。方法は、前記候補となる感情データが所定の感情を予測するか否かを判定し得る。方法は、前記候補となる感情データが所定の感情を予測するかどうかの判断に基づいて、前記第1のデータおよび前記第2のデータを集計するための追加データを収集すべく、第2の質問を生成すること、または、前記ローン申請者の信ぴょう性を決定し、決定した信ぴょう性を使用して前記電子的な要求を決定すること、をし得る。
他のシステム、方法、およびコンピュータ可読媒体も、本明細書で説明される。
開示された実施形態と一致する、偽造検出システム(DDS)と通信するデバイスの例示的なネットワークを示す。 開示された実施形態と一致する、ディープラーニングアルゴリズムエンジン(DLAE)によって実行される例示的な方法のフローチャートである。 開示された実施形態に一致する、クライアント動作に関してDDSによって実行される例示的な機能を示す。 開示された実施形態に一致する、サーバ動作に関してDDSによって実行される例示的な機能を示す。 開示された実施形態と一致する、信ぴょう性を決定するための例示的な方法のフローチャートである。
本開示の実施形態は、人間のユーザの信ぴょう性を判定するように構成されたシステムおよび方法を対象とする。開示された実施形態は、有利には、電子的な方法で微小表現を使用して信ぴょう性を判定することができる。微小表情は、不随意のつかの間の(fleeting)顔の動きを含むことができ、これは、わずか数分の1秒しか続かない。微小表現はまた、微小な目の動きまたは音声の微小な震えを含んでもよい。それらは微妙であり、抑圧や偽造はほとんど不可能である。微小表現は、人々が隠そうとしているかもしれない感情を明らかにすることができるので、微小表現を認識することは、ユーザの信ぴょう性を決定するのに役立つことができる。
一実施形態では、ユーザ装置は、電子要求をサーバに送信することができる。要求に応じて、サーバーはユーザーに対して1つ以上の質問を生成することがある。ユーザデバイスは、生成された質問を受信し、ユーザの質問を表示することができる。ユーザデバイスは、ユーザから回答を受信し、その回答を深層学習アルゴリズムエンジン(DLAE)に送信することができる。DLAEは、2つの畳み込みニューラルネットワーク(CNN)を使用して、ユーザが提供する回答を分析することができる。CNNは、脳が視覚情報を処理する視覚皮質の挙動を模倣するように設計された多層パーセプトロンの生物学的に刺激された変異体である。2つのCNNからの結果は、ユーザの微小表現に関連する感情を予測する単一の分類器に統合される。感情が決定されない場合、サーバーは感情が決定されるまで、より多くの質問を生成する。感情が決定されると、決定された感情を用いてユーザの信ぴょう性が決定されてもよい。ユーザの回答は分析され、システム、例えばデータベースに保存される。
いくつかの実施形態では、ユーザは、ローン申請者であってもよく、記載されたシステムは、銀行のような金融機関によって使用されてもよい。ユーザがローン申請者である場合、システムは、2つのCNNを使用して申請者の回答を分析することによって、申請者の信ぴょう性を判定することができる。2つのCNNは、空間CNNおよび時間CNNを含むことができる。2つのCNNからの結果は、申請者の微小表現に関連する感情を予測する単一の分類器に統合される。本システムおよび方法は、申請者の信ぴょう性を効率的かつ正確に決定し、プロセス全体を電子的に管理することができる。
図1を参照すると、偽造検出システム(DDS)110と通信するデバイスの例示的なネットワークが示されている。図1Aに示すように、DDS 110は、ネットワーク100を介して、ディープ・ラーニング・アルゴリズム・エンジン(DLAE)120およびユーザ・デバイス130A〜130Cと通信することができる。いくつかの実施形態では、DDS 110は、例えばケーブルを使用して、直接接続を介してDLAE 120またはユーザデバイスと通信することができる。
DDS 110は、いくつかの実施形態では、ユーザの信ぴょう性を判定するコンピュータシステムとして実装されてもよい。DDS 110は、単一のコンピュータを備えてもよく、または開示された例に関連する1つ以上のプロセスおよび機能性を実行するために相互運用する複数のコンピュータを含む分散コンピュータシステムとして構成されてもよい。いくつかの実施形態では、DDS 110は、ユーザデバイス130A〜130Cから電子要求を受信すると、ユーザ140に尋ねるための質問を生成する。
図1に示すように、DDS 110は、プロセッサ112およびデータベース114を含むことができる。プロセッサ112は、インテル社製のペンティアムTMファミリーのマイクロプロセッサーやAMDTM社製のチュリオンTMファミリーなど、1つ以上の既知のプロセッシング装置であってもよい。プロセッサ112は、並列処理を同時に実行する単一コアまたは複数コアのプロセッサを構成してもよい。例えば、プロセッサ112は、論理プロセッサを使用して、複数のプロセスを同時に実行し、制御することができる。プロセッサ112は、複数のソフトウェアプロセス、アプリケーション、プログラムなどを実行、制御、実行、操作、格納などする能力を提供するために、仮想マシン技術または他の既知の技術を実装することができる。別の例では、プロセッサ112は、DDS 110が複数のプロセスを同時に実行することを可能にする並列処理機能性を提供するように構成された複数コアプロセッサ配置を含んでもよい。当業者は、本明細書で開示される能力を提供する他のタイプのプロセッサ構成が実装され得ることを理解するであろう。
図1には示されていないが、DDS 110はメモリを含むことができる。メモリは、プロセッサ112によって実行されるとき、既知のオペレーティング・システム機能を実行する1つ以上のオペレーティング・システムを記憶することができる。一例として、オペレーティングシステムは、Microsoft Windows、Unix、Linux、Android、Mac OS、iOS、または他のタイプのオペレーティングシステムを含むことができる。したがって、開示された発明の例は、任意のタイプのオペレーティングシステムを実行するコンピュータシステムで動作し、機能することができる。メモリは、揮発性または不揮発性、磁気、半導体、テープ、光学、取外し可能、取外し不可能、または他のタイプの記憶装置または有形のコンピュータ可読媒体とすることができる。
DDS 110は、少なくとも1つのデータベース114を含むことができる。データベース114は、開示された例に関連する方法およびプロセスを実行するためにプロセッサ112によって使用され得るデータを格納し得る。データベース114は、図1に示すようにDDS 110内に配置されてもよく、あるいは、DDS 110の外部に配置された外部記憶装置内に配置されてもよい。データベース114に記憶されたデータは、ユーザに尋ねる潜在的な質問に関連する情報など、任意の適切なデータを含んでもよい。質問には、任意のユーザに尋ねられる典型的な質問、またはDDS 110と対話するユーザ用にカスタマイズされた質問が含まれることがある。例示的な質問には、「収入は何ですか」、「職業は何ですか」、「現在の住所にどれだけ長く滞在したか」、「電話番号は何ですか」、および「識別番号は何ですか」が含まれ得る。
深層学習アルゴリズムエンジン(DLAE)120は、図1に示すように、DDS 110の外部に配置されてもよい。代替的に、または追加的に、いくつかの実施形態では、DLAE 120は、DDS 110の内側に配置されてもよい。DLAE 120は、2つのCNNを使用してユーザの回答を分析することができる。図2に関して以下で論じるように、いくつかの実施形態では、2つのCNNは、空間CNN 120Aおよび時間CNN 120Bを含むことができる。空間CNN 120Aおよび時間CNNは、既知のニューラルネットワーク、例えば、VGG−16およびResNet 50であってもよい。
空間CNN 120Aは、画像ソースからの顔について事前トレーニングされてもよく、時間CNN 120Bは、ビデオソースを使用して事前トレーニングされてもよい。CNNは、各感情についてラベル付けされたデータを有するデータセットを使用して、1つ以上の所定の感情クラスについてトレーニングされてもよい。そのようなデータセットの1つの既知の例は、ImageNetである。ImageNetは、視覚物体認識ソフトウェア研究に使用するために設計された大きな視覚データセットである。
いくつかの実施形態では、所定の感情は、任意の数の所定の感情クラスを含むことができる。例えば、所定の感情クラスは、幸福、驚き、嫌悪、及び抑圧を含むことができる。トレーニングされたCNNは、感情クラスごとに確立された正解を有することができる。いくつかの実施形態では、CNNがトレーニングされた後、1つまたは複数の追加のデータセットを使用して、確立された正解(ground truth)の精度をチェックすることができる。正解は、ユーザの感情が測定される基準となる標準的な感情である。例えば、ユーザの微小な顔の表情が、幸福のための正解に完全に一致する場合、ユーザは100%幸福である。しかし、ユーザの微小表現が幸福のための地上の真実と一致するのは50%だけならば、ユーザは50%幸福である。2つのCNNからの結果は、ユーザの微小表現に関連する感情を予測する単一の分類器に統合される。
いくつかの実施形態では、ビデオおよびオーディオを含むユーザの描写は、DLAE 120が描写を分析する前に前処理されてもよい。いくつかの実施形態では、DLAE 120は、DLAE 120がユーザを表すビデオを受信した後に、ビデオからフレームを抽出することができる。作成される抽出周波数は、予め決定される。いくつかの実施形態では、DLAE 120は、受信したビデオから10秒ごとにフレームを抽出することができる。正確な画像は、空間CNN 120A及び時間的CNN 120Bを用いて解析することができる。
上述したように、抽出されたフレームを使用して、DLAE 120は、各感情クラスについて、ユーザの顔表現が正解にどの程度類似しているかを決定することができる。例えば、DLAE 120は、空間CNN 120Aを使用して、抽出されたフレーム内の目、まぶた、鼻、口などの位置および動作を分析することができる。例えば、フレームは、確立された正解と比較して、ユーザが30%不安、50%抑制、70%驚き、および20%幸せであることを示すユーザの微小表現を含むことができる。分析された結果は、時間的CNN 120Bの入力として使用されてもよい。時間的CNN 120Bは、時間の経過に伴うユーザの微小表現の変化を分析することができる。いくつかの実施形態では、時間的CNNは、ユーザの頭の揺れ、頭のうなずき、または微小眼球運動を分析することができる。時間的CNN 120Bはまた、音声微小振動を認識することができる。
空間CNN 120Aと時間的CNN 120Bからの結果を組み合わせてもよい。いくつかの実施形態では、DLAE 120は、アンサンブル方法、すなわち、複数の学習アルゴリズムを使用して、2つの結果を組み合わせることができる。いくつかの実施形態では、結合された結果は、ロジスティック回帰モデルを使用してさらに分析されてもよい。
結合された結果120Cに基づいて、DLAE 120は、ユーザの信ぴょう性を決定するために使用されることができるユーザの感情を決定することができる。感情が決定されない場合、DDS 110は、より多くの質問を生成することができる。追加の質問に対する回答は、DLAE 120によってさらに分析することができる。DDS 110は、ユーザの感情が決定されるまで質問を生成し続けることができる。
DDS 110およびDLAE 120は、タブレット130A、モバイルデバイス/PDA 130B、コンピュータ130Cなどのユーザデバイスと通信することができる。ユーザデバイス130A〜130Cは、ディスプレイを含むことができる。ディスプレイは、例えば、液晶ディスプレイ、発光ダイオードスクリーン、有機発光ダイオードスクリーン、タッチスクリーン、および他の公知のディスプレイデバイスを含んでもよい。ディスプレイは、ユーザに様々な情報を表示することができる。例えば、これは、サーバによって生成された質問、またはDLAE 120によって決定された結果を表示することができる。
ユーザデバイス130A〜130Cは、1つまたは複数の入出力(I/O)デバイスを含むことができる。I/Oデバイスは、ユーザデバイス130A〜130Cがユーザ140A〜140Cまたは別のデバイスから情報を送受信することを可能にする1つまたは複数のデバイスを含むことができる。I/Oデバイスは、様々な入出力デバイス、カメラ、マイクロフォン、キーボード、マウスタイプのデバイス、ジェスチャセンサ、アクションセンサ、物理ボタン、口頭入力などを含むことができる。例えば、ユーザは、ユーザデバイス130A〜130Cのカメラおよびマイクロフォンを介して、ユーザの顔のビデオをDDS 110に提供することができる。I/Oデバイスはまた、例えば、ユーザデバイス130A〜130Cとネットワーク100との間の有線または無線接続を確立することによって、DDS 110から情報を送受信するための1つまたは複数の通信モジュール(図示せず)を含むことができる。
ユーザ装置130A〜130Cは、ビデオカメラを備えていてもよく、あるいは、遠隔ビデオカメラに接続されていてもよい。ユーザデバイス130A〜130Cは、ビデオ信号およびオーディオ信号をDDS 110に送信することができる。いくつかの実施形態では、ビデオ信号およびオーディオ信号は、例えば、MPEG−4、MPEG−2、ロスレスコーデック、または他のコーデックを含むコーデックを使用して圧縮され得る。一部の実施形態では、MPEG−4およびMPEG−2を使ってシグナルを圧縮することができる。いくつかの実施形態では、ビデオ信号およびオーディオ信号は、異なるコーデックを使用して別々に符号化および/または圧縮されてもよい。
ユーザ140A〜140Cは、DDS 110に電子要求を提供する任意の人であってもよい。いくつかの実施形態では、ユーザ140A〜140Cは、ローン申請者であってもよい。場合によっては、DDSは、銀行および信用組合などの金融機関によって採用されてもよい。ユーザ140A〜140Cは、ユーザデバイス130A〜130Cを使用して、DDS 110から質問を受信し、DDS 110に回答を提供することができる。申請者の回答は、DLAE 120によって分析することができる。
図2は、開示された実施形態と一致する、ディープラーニングアルゴリズムエンジン(DLAE)によって実行される例示的な方法のフローチャートである。DLAE 120は、ユーザデバイス130A〜130Cを介してユーザ140A〜140Cからロウデータ(raw data)210を受信することができる。ロウデータ210は、1つ以上の質問に応答して、ユーザの回答にビデオおよび/または音声を含むことができる。上で説明したように、ロウデータ210内の表情および音声は、2つの畳み込みニューラルネットワーク(CNN)を使用して分析することができる。
CNNを使用する分析を通して、DLAE 120は、微小表情、微小眼球運動、および音声微小震えなどのユーザの微小表情を検出することができる。上記で説明したように、DLAE 120は、空間CNN 120Aおよび時間CNN 120Bを使用して、ユーザのビデオおよび/またはオーディオを分析することができる。結合された結果を使用して、DLAE 120は、感情を中間結果220として決定することができる。中間結果220は、予め決定された感情にわたる確率分布であってもよい。
いくつかの実施形態では、中間結果を使用して、ユーザの信ぴょう性を判定することができる。信ぴょう性は、決定された感情に基づいてスコア付けされてもよい。スコアがしきい値を上回る場合、ユーザは真実(truthful)であると見なされてもよく、スコアがしきい値を下回る場合、ユーザは真実でない(untruthful)と見なされてもよい。
図3Aは、DDS 110のクライアント側における例示的なモジュールを示す。これらのモジュールは、クライアント対話に関してDDS 110によって実行される機能を例示する。クライアント側とサーバ側の間の分割は説明目的であり、分割はすべての実施形態において要求されるわけではない。DDS 110のクライアント側は、問題ベース対話モジュール300、オーディオ及びビデオ取得モジュール310、並びにオーディオ及びビデオ特徴抽出モジュール320を含むことができる。問題ベース対話モジュール300は、質問生成モジュール302、質問選択モジュール304、問い合わせ決定モジュール306、および問題ヒントモジュール308を含むことができる。
質問生成モジュール302は、ユーザデバイス130A〜130Cから電子要求を受信すると、質問を生成することができる。質問選択モジュール304は、ユーザ140に問い合わせるために、1つ以上の質問を選択することができる。いくつかの実施形態では、質問の生成および質問は、例えば、テキスト質問を提示することによって、またはテキスト音声モジュールを使用することによって、電子的に行うことができる。
質問選択モジュール304は、ユーザに尋ねることができる潜在的な質問を含む適切なデータセットを格納するデータベース114を使用することができる。例えば、データベース114は、ユーザの収入、職業、住所、電話番号、または識別に関する潜在的な質問を含むことができる。ユーザ140A〜140Cのための質問を選択する際に、質問選択モジュール304は、1つまたは複数の以前の質問に対するユーザの以前の回答を含む、ユーザが提供した任意の情報を考慮することができる。いくつかの実施形態では、質問に対するユーザの回答が曖昧である場合、質問選択モジュール304は、次の質問を選択して、質問に対する回答を明確にすることができる。いくつかの実施形態では、質問選択モジュール304は、生成された質問を、その重要性および必要性に従ってランク付けすることができる。
問い合せ決定モジュール306は、DDS 110が、ユーザの感情を決定するためにさらなる質問をする必要があるかどうかを決定することができる。例えば、1つ以上のユーザの以前の回答の分析結果は、ユーザの感情を決定するのに十分ではなく、問い合わせ決定モジュール306は、さらなる質問が必要であることをDDS 110に信号で伝えることができる。
問題ヒントモジュール308は、ユーザの回答が様々な予想される潜在的な回答から予想以上に逸脱したときに、ユーザ140A〜140Cに1つまたは複数のヒントを提供することができる。いくつかの実施形態では、問題ヒントモジュール308は、現在の質問に対する適切な回答を提案するように機能することができる。例えば、DDS 110は、ローン申請者に、「どの月のどの日にローンのための分割払いを支払うか」を尋ねることができる。
ユーザは質問を誤解し、「水曜日」と答えるかもしれない。その場合、DDS 110は問題のヒント308を提供し、「毎月どの日付?」と尋ねてもよい。オーディオおよびビデオ収集モジュール310は、オーディオ/ビデオ符号化モジュール312を含み、サーバモジュール314を保存およびアップロードすることができる。オーディオ/ビデオ符号化モジュール312は、ユーザデバイス130A〜130Cから受信されたロウデータが保存され、DDS 110にアップロードされる前に、それらのロウデータを符号化することができる。コーディングは、ロウデータ210を、DDS 110および/またはDLAE 120によってアクセスされ、修正され、または分析され得る異なるフォーマットに変更し得る。上述したように、コーデックは、MPEG−4、MPEG−2、可逆コーデック、または他のコーデックを含むことができる。保存およびアップロードサーバモジュール314は、符号化されたロウデータをDDS 110に保存することができる。
ユーザのオーディオ及びビデオが保存され、DDS 110にアップロードされた後、オーディオ及びビデオの特徴が抽出され得る。オーディオおよびビデオ特徴抽出モジュール320は、オーディオ特徴モジュール322、ビデオ特徴モジュール324、および特徴データアップロードサーバモジュール326を含み得る。いくつかの実施形態では、オーディオ特徴モジュール332はオーディオデータを抽出することができ、ビデオ特徴モジュール324はビデオデータを抽出することができる。抽出は、所定の周波数で行われてもよい。例えば、オーディオ機能モジュール322およびビデオ機能モジュール324は、受信されたビデオから10秒ごとにオーディオおよび/またはフレームを抽出することができる。正確な画像は、空間CNN 120A及び時間的CNN 120Bを用いて解析することができる。
図3Bは、DDS 110のサーバ側における例示的なモジュールを示す。これらのモジュールは、DLAE 120などのシステム間の内部対話に関してDDS 110によって実行される機能を例示する。上述したように、クライアント側とサーバ側との間の分割は、例示の目的のためであり、分割は、全ての実施形態において必要とされるわけではない。DDS 110におけるサーバ側モジュールは、ストリーミングメディアモジュール330、ビジネスインターフェースモジュール340、オーディオおよびビデオ分析モジュール350、ならびにモデル計算モジュール360を含み得る。
ストリーミング・メディア・モジュール330は、記録および保存モジュール332およびブロードキャスト・モジュール334を含むことができる。オーディオおよびビデオ特徴抽出モジュール320を介して抽出されたデータは、記録および保存モジュール332によって、放送のためにサーバに記録および保存され得る。サーバは、図3Aで抽出されたデータを保存するために使用されるサーバと同じサーバであってもよいが、DDS 110に配置された異なるサーバであってもよい。いくつかの実施形態では、サーバは、DDS 110の外部に配置されてもよい。MPEG−4、MPEG−2、可逆コーデック、または他のビデオコーデックなどのコーデックを使用して、オーディオおよびビデオデータを保存することができる。
放送モジュール334は、記録および保存モジュール332によってサーバに保存されたビデオおよびオーディオデータを放送することができる。上述したように、オーディオ及びビデオは、放送される前に前処理されてもよい。放送334されることによって、記録され、保存されたオーディオおよびビデオは、それらのピクセルデータおよびオプティカルフローデータを空間CNN 120Aおよび時間CNN 120Bに送ることができる。
ビジネス・インターフェース・モジュール340は、問題ベース論理モジュール342およびビジネス・システム・モジュール344を含むことができる。いくつかの実施形態では、ビジネスインターフェースモジュール340は、ビジネスシステムモジュール344とDSS 110および/またはDLAE 120との間の通信を実行することができる。いくつかの実施形態では、ビジネスインターフェースモジュール340は、DLAE 120をビジネスシステム344に接続するためのソフトウェアインターフェースである。ソフトウェアインタフェースは、アプリケーションが通信するために使用する言語とコードである可能性がある。
ビジネスシステムモジュール344は、DLAE 120と通信し、決定されたユーザの信ぴょう性データをDLAE 120から受信することができる。上述したように、信ぴょう性は、決定された感情に基づいてスコア付けされてもよい。いくつかの実施形態では、スコアがしきい値を上回る場合、ユーザは真実であると見なされてもよい。ユーザが決定した信ぴょう性に基づいて、ビジネス・システム・モジュール344は、ビジネス決定、例えば、ローン承認または拒否決定を行うことができる。
問題ベース論理モジュール342は、ビジネス・システム・モジュール344がビジネス決定を行うのを支援することができる。問題ベース論理モジュール342は、ユーザの回答、またはユーザによって提供される任意の追加情報を分析して、ユーザとビジネスを行う価値があるかどうかを判定することができる。例えば、ユーザが、ユーザの収入が平均よりはるかに低いと答えた場合、および/または、ユーザが年間収入の2倍を超える負債を有する場合、ビジネスシステムモジュール344は、ユーザが強力な財務能力を有さない可能性があると判断することができ、これは、ユーザとのビジネスを行う可能性を低下させることができる。
いくつかの実施形態では、ユーザはローン申請者であってもよい。実施形態では、ビジネスシステムモジュール344は、申請者の決定された信ぴょう性に基づいてローン承認決定を行うことができる。ビジネス・インターフェース・モジュール340を介して、ビジネス・システム・モジュール344は、DDS 110および/またはDLAE 120から、決定された申請者の信ぴょう性を受け取ることができる。問題ベース論理モジュール342は、ローン申請者の回答または提出されたローン申込を分析して、申請者の財務能力を評価することができる。評価された申請者の財務能力に基づいて、ビジネスシステムモジュール344は、承認されたローンの金利をさらに決定することもできる。例えば、ビジネス・システム・モジュール344は、より良好な金融能力を有する者に対して、より低い金利を決定することができる。
オーディオおよびビデオ分析モジュール350は、空間CNN 120Aおよび時間120Bを使用して、ブロードキャストされたオーディオおよびビデオデータを分析することができる。オーディオ及びビデオ分析モジュール350は、顔特徴モジュール352及び声紋特徴モジュール354を含むことができる。顔面特徴モジュール352は、2つのCNN、空間CNN 120Aおよび時間CNN 120Bを使用して分析され得る。2つのCNNからの結果は、ユーザの微小表現に関連する感情を予測する単一の結合結果120Cに統合される。声紋特徴モジュール354は、時間的CNN 120Bを使用して、ブロードキャストされたオーディオデータを分析することができる。上述したように、時間的CNNは、スピーチマイクロトレンブリングを検出することができる。
モデル計算モジュール360は、表現分析モジュール362および声紋分析モジュール364を含むことができる。表情分析モジュール362は、顔特徴モデル352から結果を受け取り、ユーザの表情から示されるユーザの感情を計算することができる。声紋分析モジュール362は、声紋特徴354から結果を受信し、ユーザの声の震えから示されるユーザの感情を計算することができる。いくつかの実施形態では、音声は、音声データを含むデータベースを使用してトレーニングされた1つ以上のCNNを使用して分析されてもよい。表現分析モジュール362および声紋分析モジュール364からの計算が組み合わされる。結合された結果に基づいて、モデル計算モジュール360は、ユーザの感情を決定することができる。
図4は、偽装検出方法の一例を示すフローチャートである。偽装検出方法は、ユーザデバイス130A〜130C、偽装検出システム(DDS)110、深層学習アルゴリズムエンジン(DLAE)120、およびデータベース114を含むステップを備えることができる。
ステップ402において、ユーザデバイス130A〜130Cは、ユーザ(例えば、図1のユーザ140A)のための電子要求を生成することができる。いくつかの実施形態では、ユーザ140Aは、ローン申請者であってもよく、電子要求は、申請者がローン申請を提出するときに生成されてもよい。ステップ412において、DDS 110は、要求を受信することができ、ユーザ140A〜140Cのための1つまたは複数の質問を生成することができる。質問は、ユーザの収入、職業、住所、電話番号、または識別に関するものとすることができる。ステップ404において、ユーザデバイス130A〜130Cは、生成された質問をDDS 110から受信し、その質問をユーザデバイス130A〜130C上に表示することができる。
ステップ406において、ユーザデバイス130A〜130Cは、ユーザ140A〜140Cから回答を受信し、その回答をDLAE 120に送信することができる。ステップ422において、DLAE 120は、上記で説明したように、2つのCNNを使用して、受信した応答を分析することができる。ステップ424において、DLAE 120は、分析結果を使用して、ユーザの感情が判定されるかどうかを判定することができる(424)。DLAE 120が感情検出について明確な結果を得ると、感情が決定されたと考えることができる。ステップ432において、分析結果は、DDS 110が将来使用することができるデータベース114に記憶される。
ステップ426において、DLAE 120は、ユーザの感情を決定し、これをユーザ装置130A〜130Cと通信する。図3Bで上述したように、決定された感情は、DDS 110がユーザの信ぴょう性を計算し、最終的にビジネス決定を行うために使用されてもよい。ステップ408において、ユーザデバイス130A〜130Cは、ユーザの電子要求に応答して、決定されたビジネス決定を表示することができる。
ステップ424でユーザの感情が判定されない場合、DLAE 120は、追加の質問が必要であることをDDS 110に信号で伝えることができる。したがって、ステップ412において、DDS 100は、1つまたは複数のさらなる質問を生成することができる。上述したように、ステップ422において、DLAE 120は、ユーザの追加の回答を分析することができる。DDS 110は、DLAE 120がユーザの感情が決定されると決定するまで、追加の質問を生成することができる。分析された回答は、データベース114に記憶されてもよい。上で説明したように、DDS 110は、適応学習能力を有し、ユーザと対話し、ユーザからのより多くのデータを記憶し、顧客が嘘をついているかもしれないことを検出したときにより鋭い質問を生成することができるので、改善することができる。

Claims (20)

  1. 少なくとも1つのプロセッサを有するデバイスによって実行される、人間のユーザの信ぴょう性を計算する方法であって、
    ネットワークを介して、ユーザデバイスから、前記ユーザデバイスとの接続をインスタンス化する電子的な要求を受信すること、
    質問のデータベースを用いて、前記要求に関する第1の質問を生成すること、
    前記ネットワークを介して、前記生成された質問を前記ユーザデバイスに提供すること、
    前記接続を介して受信される映像データおよび音声データを解析することであって、この解析は、前記映像データから複数の顔表を抽出することを含む、こと、
    第1の畳み込みニューラルネットワークを用い、少なくとも1つの抽出された顔表現に基づいて、1以上の所定の感情に対応する第1のデータを計算するとともに、第2の畳み込みニューラルネットワークを用い、少なくとも2つの抽出された顔表現および音声データに基づいて、前記1以上の所定の感情に対応する第2のデータを計算すること、
    前記第1のデータおよび第2のデータを用いて、候補となる感情データを生成すること、
    前記候補となる感情データが所定の感情を予測するか否かを判定すること、
    前記候補となる感情データが前記1以上の所定の感情を予測するかどうかの判断に基づいて、
    前記第1のデータおよび前記第2のデータを集計するための追加データを収集すべく、第2の質問を生成すること、または、
    前記ユーザの信ぴょう性を決定し、決定した信ぴょう性を使用して前記電子的な要求を決定すること、
    を含む、方法。
  2. 前記第1の畳み込みニューラルネットワークは、空間畳み込みニューラルネットワークを含み、
    前記第2の畳み込みニューラルネットワークは、時間畳み込みニューラルネットワークを含む、請求項1に記載の方法。
  3. リソースのデータベースを使用して前記畳み込みニューラルネットワークの少なくとも1つをトレーニングすることをさらに含み、
    前記リソースのデータベースは、前記所定の感情の正解を確立するためにラベル付けされた顔データを含む、請求項1に記載の方法。
  4. 時間補間を使用して前記リソースのデータベースを正規化すること、
    前記正規化されたリソースのデータベースを使用して、前記第1および第2の畳み込みニューラルネットワークの少なくとも1つをトレーニングすること、を含む、請求項3に記載の方法。
  5. 前記2つの畳み込みニューラルネットワークは、前記ユーザのミクロ表現を解析する、請求項1に記載の方法。
  6. 前記時間畳み込みニューラルネットワークは、前記音声データを分析する、請求項2に記載の方法。
  7. 前記1以上の所定の感情は、驚き、嫌悪感または抑圧を含む、請求項1に記載の方法。
  8. 前記第2の質問を生成することは、少なくとも前記第1の質問に対する受信された回答に基づく、請求項1に記載の方法。
  9. 前記人間ユーザはローン申請者である、請求項1に記載の方法。
  10. 人間のユーザの信ぴょう性を計算するコンピューティングシステムであって、
    少なくとも1つのプロセッサと、
    命令を格納した少なくとも1つのメモリと、を備え、
    前記命令は、前記少なくとも1つのプロセッサに、
    ネットワークを介して、ユーザデバイスから、前記ユーザデバイスとの接続をインスタンス化する電子的な要求を受信すること、
    質問のデータベースを用いて、前記要求に関する第1の質問を生成すること、
    前記ネットワークを介して、前記生成された質問を前記ユーザデバイスに提供すること、
    前記接続を介して受信される映像データおよび音声データを解析することであって、この解析は、前記映像データから複数の顔表を抽出することを含む、こと、
    第1の畳み込みニューラルネットワークを用い、少なくとも1つの抽出された顔表現に基づいて、1以上の所定の感情に対応する第1のデータを計算するとともに、第2の畳み込みニューラルネットワークを用い、少なくとも2つの抽出された顔表現および音声データに基づいて、前記1以上の所定の感情に対応する第2のデータを計算すること、
    前記第1のデータおよび第2のデータを用いて、候補となる感情データを生成すること、
    前記候補となる感情データが所定の感情を予測するか否かを判定すること、
    前記候補となる感情データが前記1以上の所定の感情を予測するかどうかの判断に基づいて、
    前記第1のデータおよび前記第2のデータを集計するための追加データを収集すべく、第2の質問を生成すること、または、
    前記ユーザの信ぴょう性を決定し、決定した信ぴょう性を使用して前記ユーザの要求を決定すること、
    を実行させる、コンピューティングシステム。
  11. 前記第1の畳み込みニューラルネットワークは、空間畳み込みニューラルネットワークを含み、
    前記第2の畳み込みニューラルネットワークは、時間畳み込みニューラルネットワークを含む、請求項10に記載のコンピューティングシステム
  12. 前記命令は、前記1以上のプロセッサに、リソースのデータベースを使用して前記畳み込みニューラルネットワークの少なくとも1つをトレーニングすることをさらに実行させ、
    前記リソースのデータベースは、前記所定の感情の正解を確立するためにラベル付けされた顔データを含む、請求項10に記載のコンピューティングシステム
  13. 前記命令は、前記1以上のプロセッサに、
    時間補間を使用して前記リソースのデータベースを正規化すること、
    前記正規化されたリソースのデータベースを使用して、前記第1および第2の畳み込みニューラルネットワークの少なくとも1つをトレーニングすること、を実行させる、請求項12に記載のコンピューティングシステム
  14. 前記2つの畳み込みニューラルネットワークは、前記ユーザのミクロ表現を解析する、請求項10に記載のコンピューティングシステム
  15. 前記時間畳み込みニューラルネットワークは、前記音声データを分析する、請求項11に記載のコンピューティングシステム
  16. 前記1以上の所定の感情は、驚き、嫌悪感または抑圧を含む、請求項10に記載のコンピューティングシステム
  17. 前記第2の質問を生成することは、少なくとも前記第1の質問に対する受信された回答に基づく、請求項10に記載のコンピューティングシステム
  18. 前記人間ユーザはローン申請者である、請求項10に記載のコンピューティングシステム
  19. 前記コンピューティングシステムは、少なくとも7つの質問を前記ユーザに提供する、請求項10に記載のコンピューティングシステム
  20. 少なくとも1つのプロセッサを有するデバイスによって実行される、ローン申請者の信ぴょう性を計算する方法であって、
    ネットワークを介して、ユーザデバイスから、前記ユーザデバイスとのビデオ接続をインスタンス化する電子的な要求を受信すること、
    質問のデータベースを用いて、前記要求に関する第1の質問を生成すること、
    前記ネットワークを介して、前記生成された質問を前記ユーザデバイスに提供すること、
    前記接続を介して受信される映像データおよび音声データを解析することであって、この解析は、前記映像データから複数の顔表を抽出することを含む、こと、
    空間畳み込みニューラルネットワークを用い、少なくとも1つの抽出された顔表現に基づいて、1以上の所定の感情に対応する第1のデータを計算するとともに、時間畳み込みニューラルネットワークを用い、少なくとも2つの抽出された顔表現および音声データに基づいて、前記1以上の所定の感情に対応する第2のデータを計算すること、
    前記第1のデータおよび第2のデータを用いて、候補となる感情データを生成すること、
    前記候補となる感情データが所定の感情を予測するか否かを判定すること、
    前記候補となる感情データが所定の感情を予測するかどうかの判断に基づいて、
    前記第1のデータおよび前記第2のデータを集計するための追加データを収集すべく、第2の質問を生成すること、または、
    前記ローン申請者の信ぴょう性を決定し、決定した信ぴょう性を使用して前記電子的な要求を決定すること、
    を含む、方法。
JP2020537706A 2019-04-12 2020-03-31 マイクロ表現を用いて信ぴょう性を決定するコンピュータ化されたシステムおよび方法 Active JP6937440B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/383,297 US10423773B1 (en) 2019-04-12 2019-04-12 Computerized systems and methods for determining authenticity using micro expressions
US16/383,297 2019-04-12
PCT/IB2020/053049 WO2020208470A1 (en) 2019-04-12 2020-03-31 Computerized systems and methods for determining authenticity using micro expressions

Publications (2)

Publication Number Publication Date
JP2021517287A JP2021517287A (ja) 2021-07-15
JP6937440B2 true JP6937440B2 (ja) 2021-09-22

Family

ID=67988611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020537706A Active JP6937440B2 (ja) 2019-04-12 2020-03-31 マイクロ表現を用いて信ぴょう性を決定するコンピュータ化されたシステムおよび方法

Country Status (8)

Country Link
US (3) US10423773B1 (ja)
JP (1) JP6937440B2 (ja)
KR (2) KR102343777B1 (ja)
AU (2) AU2020260429B2 (ja)
PH (1) PH12020551830A1 (ja)
SG (1) SG11202011490TA (ja)
TW (2) TWI724861B (ja)
WO (1) WO2020208470A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11853891B2 (en) * 2019-03-11 2023-12-26 Sharecare AI, Inc. System and method with federated learning model for medical research applications
US10423773B1 (en) 2019-04-12 2019-09-24 Coupang, Corp. Computerized systems and methods for determining authenticity using micro expressions
US10559145B1 (en) * 2019-07-17 2020-02-11 Abdulaziz Mohammed Almehmadi Systems and methods for providing behavioral based intention detection
EP4053792A4 (en) * 2019-10-30 2022-12-14 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND ARTIFICIAL INTELLIGENCE MODEL MAKING METHOD
CN110909167B (zh) * 2019-11-29 2022-07-01 重庆邮电大学 一种微博文本分类系统
US11151385B2 (en) 2019-12-20 2021-10-19 RTScaleAI Inc System and method for detecting deception in an audio-video response of a user
CN113361297B (zh) * 2020-02-19 2022-07-29 山东大学 一种基于光流与风车模式特征融合的微表情检测方法
US11321447B2 (en) 2020-04-21 2022-05-03 Sharecare AI, Inc. Systems and methods for generating and using anthropomorphic signatures to authenticate users
CN111652159B (zh) * 2020-06-05 2023-04-14 山东大学 基于多层次特征联合的微表情识别方法及系统
US11611554B2 (en) * 2020-06-08 2023-03-21 Hcl Technologies Limited System and method for assessing authenticity of a communication
CN112115779B (zh) * 2020-08-11 2022-05-13 浙江师范大学 可解释性课堂学生情感分析方法、系统、装置及介质
CN112183419B (zh) * 2020-10-09 2022-06-10 福州大学 一种基于光流生成网络和重排序的微表情分类方法
US11899922B2 (en) * 2021-07-27 2024-02-13 Carnegie Mellon University System, method, and device for interactive neurological training
CN113313096B (zh) * 2021-07-30 2021-11-05 平安科技(深圳)有限公司 基于微表情和面相的多维度数据生成方法及其相关设备
CN114245204B (zh) * 2021-12-15 2023-04-07 平安银行股份有限公司 基于人工智能的视频面签方法、装置、电子设备及介质

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US423773A (en) * 1890-03-18 Chemical-feeder
JP4999570B2 (ja) * 2007-06-18 2012-08-15 キヤノン株式会社 表情認識装置及び方法、並びに撮像装置
JP4974788B2 (ja) * 2007-06-29 2012-07-11 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP4914398B2 (ja) * 2008-04-09 2012-04-11 キヤノン株式会社 表情認識装置、撮像装置、方法及びプログラム
JP2010027035A (ja) 2008-06-16 2010-02-04 Canon Inc 個人認証装置及び個人認証方法
US20120204225A1 (en) * 2011-02-08 2012-08-09 Activepath Ltd. Online authentication using audio, image and/or video
US9372976B2 (en) * 2013-03-20 2016-06-21 Dror Bukai Automatic learning multi-modal fraud prevention (LMFP) system
US9294475B2 (en) 2013-05-13 2016-03-22 Hoyos Labs Ip, Ltd. System and method for generating a biometric identifier
JP6467965B2 (ja) * 2015-02-13 2019-02-13 オムロン株式会社 感情推定装置及び感情推定方法
KR101730340B1 (ko) * 2015-06-05 2017-04-27 주식회사 한국리서치 평가 대상에 대한 평가 결과를 정량화하는 방법
US9619723B1 (en) * 2016-02-17 2017-04-11 Hong Kong Applied Science and Technology Research Institute Company Limited Method and system of identification and authentication using facial expression
KR101799874B1 (ko) * 2016-02-22 2017-12-21 한국과학기술연구원 음성/음향 분석 기반 상황 판단 시스템 및 방법
KR102036955B1 (ko) * 2016-03-25 2019-10-25 한국과학기술원 미세 얼굴 다이나믹의 딥 러닝 분석을 통한 미세 표정 인식 방법 및 장치
US10051749B2 (en) 2016-07-24 2018-08-14 Lg Electronics Inc. Display device
JP2018032164A (ja) * 2016-08-23 2018-03-01 株式会社ユニバーサルエンターテインメント 面接システム
US20180075565A1 (en) * 2016-09-13 2018-03-15 Ford Global Technologies, Llc Passenger validation systems and methods
US10691923B2 (en) 2016-09-30 2020-06-23 Intel Corporation Face anti-spoofing using spatial and temporal convolutional neural network analysis
KR101834008B1 (ko) * 2016-11-10 2018-03-05 주식회사 어니스트펀드 음성 데이터 기반 신용평가 장치, 방법 및 컴퓨터 프로그램
EP3571627A2 (en) * 2017-01-19 2019-11-27 Mindmaze Holding S.A. Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system
US10417483B2 (en) * 2017-01-25 2019-09-17 Imam Abdulrahman Bin Faisal University Facial expression recognition
US10733744B2 (en) 2017-05-11 2020-08-04 Kla-Tencor Corp. Learning based approach for aligning images acquired with different modalities
CN108335193A (zh) 2018-01-12 2018-07-27 深圳壹账通智能科技有限公司 全流程信贷方法、装置、设备及可读存储介质
TWM565361U (zh) 2018-04-02 2018-08-11 華南商業銀行股份有限公司 金融交易詐騙偵測防範系統
CN109101933B (zh) 2018-08-21 2021-05-28 重庆乐教科技有限公司 一种基于人工智能的情绪行为可视化分析方法
CN109344781A (zh) 2018-10-11 2019-02-15 上海极链网络科技有限公司 一种基于声音视觉联合特征的视频内表情识别方法
US10423773B1 (en) 2019-04-12 2019-09-24 Coupang, Corp. Computerized systems and methods for determining authenticity using micro expressions

Also Published As

Publication number Publication date
KR20210158376A (ko) 2021-12-30
WO2020208470A1 (en) 2020-10-15
PH12020551830A1 (en) 2021-06-28
SG11202011490TA (en) 2020-12-30
JP2021517287A (ja) 2021-07-15
TWI724861B (zh) 2021-04-11
US20210264011A1 (en) 2021-08-26
AU2020260429B2 (en) 2021-02-25
US10423773B1 (en) 2019-09-24
KR20200120457A (ko) 2020-10-21
TW202044066A (zh) 2020-12-01
TWI773180B (zh) 2022-08-01
TW202134906A (zh) 2021-09-16
US11494477B2 (en) 2022-11-08
US11030294B2 (en) 2021-06-08
KR102457498B1 (ko) 2022-10-21
KR102343777B1 (ko) 2021-12-28
AU2020260429A1 (en) 2020-12-10
AU2021202492A1 (en) 2021-05-20
US20200327213A1 (en) 2020-10-15

Similar Documents

Publication Publication Date Title
JP6937440B2 (ja) マイクロ表現を用いて信ぴょう性を決定するコンピュータ化されたシステムおよび方法
US11259718B1 (en) Systems and methods for automated body mass index calculation to determine value
US10019653B2 (en) Method and system for predicting personality traits, capabilities and suggested interactions from images of a person
US9552535B2 (en) Data acquisition for machine perception systems
US10748217B1 (en) Systems and methods for automated body mass index calculation
US11151385B2 (en) System and method for detecting deception in an audio-video response of a user
US20150371191A1 (en) Model-driven evaluator bias detection
US11997058B2 (en) Systems and methods for generating dynamic conversational responses using trained machine learning models
US11386804B2 (en) Intelligent social interaction recognition and conveyance using computer generated prediction modeling
US20240028967A1 (en) Systems and methods for automatic decision-making with user-configured criteria using multi-channel data inputs
US20210407016A1 (en) Dynamic provisioning of data exchanges based on detected relationships within processed image data
US20230058259A1 (en) System and Method for Video Authentication
US12008329B2 (en) Systems and methods for generating dynamic conversational responses through aggregated outputs of machine learning models
CN115034886A (zh) 一种违约风险预测方法及装置
CA3196711A1 (en) Systems and methods for generating dynamic conversational responses through aggregated outputs of machine learning models
US11651390B1 (en) Cognitively improving advertisement effectiveness

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200925

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210830

R150 Certificate of patent or registration of utility model

Ref document number: 6937440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150