JP2020524315A - モデル訓練方法、装置及びデバイス並びにデータ類似性決定方法、装置及びデバイス - Google Patents
モデル訓練方法、装置及びデバイス並びにデータ類似性決定方法、装置及びデバイス Download PDFInfo
- Publication number
- JP2020524315A JP2020524315A JP2019543107A JP2019543107A JP2020524315A JP 2020524315 A JP2020524315 A JP 2020524315A JP 2019543107 A JP2019543107 A JP 2019543107A JP 2019543107 A JP2019543107 A JP 2019543107A JP 2020524315 A JP2020524315 A JP 2020524315A
- Authority
- JP
- Japan
- Prior art keywords
- user
- user data
- similarity
- data pair
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 110
- 238000000034 method Methods 0.000 title claims abstract description 108
- 238000013145 classification model Methods 0.000 claims abstract description 160
- 238000000605 extraction Methods 0.000 claims description 51
- 238000001514 detection method Methods 0.000 claims description 42
- 230000001815 facial effect Effects 0.000 claims description 24
- 230000008569 process Effects 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 14
- 239000013598 vector Substances 0.000 description 11
- 238000002372 labelling Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000003672 processing method Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000012954 risk control Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002611 ovarian Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000020509 sex determination Effects 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013106 supervised machine learning method Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Databases & Information Systems (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
Abstract
Description
本出願は、コンピュータ技術の分野に関し、より具体的には、モデル訓練方法、装置及びデバイス並びにデータ類似性決定方法、装置及びデバイスに関する。
新規のアイデンティティ検証方法として、顔認識は、ユーザに便利性を提供する一方で、新しいリスクを生み出した。非常によく似た見た目の複数のユーザ(双子など)の場合、顔認識を通じて異なるユーザを効果的に区別することは難しく、それにより、ユーザを正しく識別することが不可能であることによる口座の誤登録及び口座資金の不正流用のリスクが生じる可能性が非常に高くなる。非常によく似た見た目に関与する最も典型的な既知の事例として、双子(特に、一卵性双生児)は、互いに密接な関係にあり、上記のリスクと関連付けられる行動を取る可能性が非常に高い。大量のデータから双子のユーザデータをどのように決定するかは、解決すべき重要な問題となった。
本出願の実施形態の目的は、モデルの迅速な訓練を実装し、モデル訓練効率を高め、資源消費を低減するために、モデル訓練方法、装置及びデバイス並びにデータ類似性決定方法、装置及びデバイスを提供することである。
複数のユーザデータ対を取得することであって、各ユーザデータ対の2つのユーザデータセットのデータフィールドが、同一の部分を有する、取得することと、
各ユーザデータ対に対応するユーザ類似性を取得することであって、ユーザ類似性が、各ユーザデータ対の2つのユーザデータセットに対応するユーザ間の類似性である、取得することと、
各ユーザデータ対に対応するユーザ類似性及び複数のユーザデータ対に従って、プリセット分類モデルを訓練するためのサンプルデータを決定することと、
類似性分類モデルを得るためにサンプルデータに基づいて分類モデルを訓練することと
を含む、モデル訓練方法を提供する。
第1のユーザデータ対に対応するユーザの生物学的特徴を取得することであって、第1のユーザデータ対が、複数のユーザデータ対の任意のユーザデータ対である、取得することと、
第1のユーザデータ対に対応するユーザの生物学的特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定することと
を含む。
第1のユーザデータ対に対応するユーザの生物学的特徴を取得することは、
第1のユーザデータ対に対応するユーザの顔画像を取得することと、
顔画像特徴を得るために顔画像の特徴抽出を実行することと
を含み、それに応じて、第1のユーザデータ対に対応するユーザの生物学的特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定することは、
第1のユーザデータ対に対応するユーザの顔画像特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定すること
を含む。
第1のユーザデータ対に対応するユーザの生物学的特徴を取得することは、
第1のユーザデータ対に対応するユーザの音声データを取得することと、
音声特徴を得るために音声データの特徴抽出を実行することと
を含み、それに応じて、第1のユーザデータ対に対応するユーザの生物学的特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定することは、
第1のユーザデータ対に対応するユーザの音声特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定すること
を含む。
各ユーザデータ対の2つのユーザデータセット間の関連付けられたユーザ特徴を得るために、複数のユーザデータ対の各ユーザデータ対の特徴抽出を実行することと、
各ユーザデータ対のユーザデータ間の関連付けられたユーザ特徴及び各ユーザデータ対に対応するユーザ類似性に従って、分類モデルを訓練するためのサンプルデータを決定することと
を含む。
各ユーザデータ対に対応するユーザ類似性及び予め定められた類似性閾値に従って、複数のユーザデータ対に対応するユーザ特徴から肯定サンプル特徴及び否定サンプル特徴を選択することと、
分類モデルを訓練するためのサンプルデータとして肯定サンプル特徴及び否定サンプル特徴を使用することと
を含む。
検出予定のユーザデータ対を取得することと、
検出予定のユーザ特徴を得るために、検出予定のユーザデータ対の各検出予定のユーザデータセットの特徴抽出を実行することと、
検出予定のユーザ特徴及び事前に訓練された類似性分類モデルに従って、検出予定のユーザデータ対の2つの検出予定のユーザデータセットに対応するユーザ間の類似性を決定することと
を含む、データ類似性決定方法をさらに提供する。
検出予定のユーザデータ対の2つの検出予定のユーザデータセットに対応するユーザ間の類似性が予め定められた類似性分類閾値より大きい場合は、検出予定のユーザデータ対に対応する検出予定のユーザを双子として決定すること
をさらに含む。
複数のユーザデータ対を取得するように構成されたデータ取得モジュールであって、各ユーザデータ対の2つのユーザデータセットのデータフィールドが、同一の部分を有する、データ取得モジュールと、
各ユーザデータ対に対応するユーザ類似性を取得するように構成された類似性取得モジュールであって、ユーザ類似性が、各ユーザデータ対の2つのユーザデータセットに対応するユーザ間の類似性である、類似性取得モジュールと、
各ユーザデータ対に対応するユーザ類似性及び複数のユーザデータ対に従って、プリセット分類モデルを訓練するためのサンプルデータを決定するように構成されたサンプルデータ決定モジュールと、
類似性分類モデルを得るためにサンプルデータに基づいて分類モデルを訓練するように構成されたモデル訓練モジュールと
を含む、モデル訓練装置を提供する。
第1のユーザデータ対に対応するユーザの生物学的特徴を取得するように構成された生物学的特徴取得ユニットであって、第1のユーザデータ対が、複数のユーザデータ対の任意のユーザデータ対である、生物学的特徴取得ユニットと、
第1のユーザデータ対に対応するユーザの生物学的特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定するように構成された類似性取得ユニットと
を含む。
生物学的特徴取得ユニットは、第1のユーザデータ対に対応するユーザの顔画像を取得することと、顔画像特徴を得るために顔画像の特徴抽出を実行することとを行うように構成され、
それに応じて、類似性取得ユニットは、第1のユーザデータ対に対応するユーザの顔画像特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定するように構成される。
生物学的特徴取得ユニットは、第1のユーザデータ対に対応するユーザの音声データを取得することと、音声特徴を得るために音声データの特徴抽出を実行することとを行うように構成され、
それに応じて、類似性取得ユニットは、第1のユーザデータ対に対応するユーザの音声特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定するように構成される。
各ユーザデータ対の2つのユーザデータセット間の関連付けられたユーザ特徴を得るために、複数のユーザデータ対の各ユーザデータ対の特徴抽出を実行するように構成された特徴抽出ユニットと、
各ユーザデータ対の2つのユーザデータセット間の関連付けられたユーザ特徴及び各ユーザデータ対に対応するユーザ類似性に従って、分類モデルを訓練するためのサンプルデータを決定するように構成されたサンプルデータ決定ユニットと
を含む。
検出予定のユーザデータ対を取得するように構成された検出予定データ取得モジュールと、
検出予定のユーザ特徴を得るために、検出予定のユーザデータ対の各検出予定のユーザデータセットの特徴抽出を実行するように構成された特徴抽出モジュールと、
検出予定のユーザ特徴及び事前に訓練された類似性分類モデルに従って、検出予定のユーザデータ対の2つの検出予定のユーザデータセットに対応するユーザ間の類似性を決定するように構成された類似性決定モジュールと
を含む、データ類似性決定装置をさらに提供する。
検出予定のユーザデータ対の2つの検出予定のユーザデータセットに対応するユーザ間の類似性が予め定められた類似性分類閾値より大きい場合は、検出予定のユーザデータ対に対応する検出予定のユーザを双子として決定するように構成された類似性分類モジュール
をさらに含む。
プロセッサと、
コンピュータ実行可能命令を格納するように構成されたメモリであって、コンピュータ実行可能命令が、実行されると、以下の動作、すなわち、
複数のユーザデータ対を取得することであって、各ユーザデータ対の2つのユーザデータセットのデータフィールドが、同一の部分を有する、取得することと、
各ユーザデータ対に対応するユーザ類似性を取得することであって、ユーザ類似性が、各ユーザデータ対の2つのユーザデータセットに対応するユーザ間の類似性である、取得することと、
各ユーザデータ対に対応するユーザ類似性及び複数のユーザデータ対に従って、プリセット分類モデルを訓練するためのサンプルデータを決定することと、
類似性分類モデルを得るためにサンプルデータに基づいて分類モデルを訓練することと
をプロセッサに実行させる、メモリと
を含む、モデル訓練デバイスを提供する。
プロセッサと、
コンピュータ実行可能命令を格納するように構成されたメモリであって、コンピュータ実行可能命令が、実行されると、以下の動作、すなわち、
検出予定のユーザデータ対を取得することと、
検出予定のユーザ特徴を得るために、検出予定のユーザデータ対の各検出予定のユーザデータセットの特徴抽出を実行することと、
検出予定のユーザ特徴及び事前に訓練された類似性分類モデルに従って、検出予定のユーザデータ対の2つの検出予定のユーザデータセットに対応するユーザ間の類似性を決定することと
をプロセッサに実行させる、メモリと
を含む、データ類似性決定デバイスを提供する。
本出願の実施形態又は先行技術の技術的解決法をより明確に説明するため、実施形態又は先行技術の説明において使用するために必要な図面を簡単に紹介する。以下の説明の図面は、本出願の単なるいくつかの実施形態であることは明らかであり、当業者は、創造的な取り組みを行うことなく、これらの図面に従って他の図面をさらに得ることができる。
本出願の実施形態は、モデル訓練方法、装置及びデバイス並びにデータ類似性決定方法、装置及びデバイスを提供する。
図1に示されるように、本出願の実施形態は、モデル訓練方法を提供する。方法は、端末デバイス又はサーバによって実行することができる。端末デバイスは、パーソナルコンピュータ又は同様のものであり得る。サーバは、独立した単一のサーバでも、複数のサーバによって形成されたサーバクラスタでもよい。本出願の実施形態は、モデル訓練効率を高めるためにサーバによって方法が実行される例を使用することによって詳細に説明される。方法は、具体的には、以下のステップを含み得る。
図4に示されるように、本出願の実施形態は、データ類似性決定方法を提供する。方法は、サーバによって実行することも、端末デバイス及びサーバによって連動して実行することもできる。端末デバイスは、パーソナルコンピュータ又は同様のものであり得る。サーバは、独立した単一のサーバでも、複数のサーバによって形成されたサーバクラスタでもよい。本出願の実施形態では、モデル訓練効率を高めるため、サーバによって方法が実行される例を使用することによって詳細な説明が行われる。方法が端末デバイス及びサーバによって連動して実装される事例については、以下の関連コンテンツを参照することができ、本明細書では、詳細を再び説明することはしない。方法は、具体的には、以下のコンテンツを含む。
本出願の実施形態によって提供されるデータ類似性決定方法は、上記で説明されている。同じ概念に基づいて、本出願の実施形態は、図6に示されるように、モデル訓練装置をさらに提供する。
データ取得モジュール601は、複数のユーザデータ対を取得するように構成され、各ユーザデータ対の2つのユーザデータセットのデータフィールドは、同一の部分を有し、
類似性取得モジュール602は、各ユーザデータ対に対応するユーザ類似性を取得するように構成され、ユーザ類似性は、各ユーザデータ対の2つのユーザデータセットに対応するユーザ間の類似性であり、
サンプルデータ決定モジュール603は、各ユーザデータ対に対応するユーザ類似性及び複数のユーザデータ対に従って、プリセット分類モデルを訓練するためのサンプルデータを決定するように構成され、
モデル訓練モジュール604は、類似性分類モデルを得るためにサンプルデータに基づいて分類モデルを訓練するように構成される。
第1のユーザデータ対に対応するユーザの生物学的特徴を取得するように構成された生物学的特徴取得ユニットであって、第1のユーザデータ対が、複数のユーザデータ対の任意のユーザデータ対である、生物学的特徴取得ユニットと、
第1のユーザデータ対に対応するユーザの生物学的特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定するように構成された類似性取得ユニットと
を含む。
生物学的特徴取得ユニットは、第1のユーザデータ対に対応するユーザの顔画像を取得することと、顔画像特徴を得るために顔画像の特徴抽出を実行することとを行うように構成され、
それに応じて、類似性取得ユニットは、第1のユーザデータ対に対応するユーザの顔画像特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定するように構成される。
生物学的特徴取得ユニットは、第1のユーザデータ対に対応するユーザの音声データを取得することと、音声特徴を得るために音声データの特徴抽出を実行することとを行うように構成され、
それに応じて、類似性取得ユニットは、第1のユーザデータ対に対応するユーザの音声特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定するように構成される。
各ユーザデータ対の2つのユーザデータセット間の関連付けられたユーザ特徴を得るために、複数のユーザデータ対の各ユーザデータ対の特徴抽出を実行するように構成された特徴抽出ユニットと、
各ユーザデータ対の2つのユーザデータセット間の関連付けられたユーザ特徴及び各ユーザデータ対に対応するユーザ類似性に従って、分類モデルを訓練するためのサンプルデータを決定するように構成されたサンプルデータ決定ユニットと
を含む。
本出願の実施形態によって提供されるモデル訓練装置は、上記で説明されている。同じ概念に基づいて、本出願の実施形態は、図7に示されるように、データ類似性決定装置をさらに提供する。
検出予定データ取得モジュール701は、検出予定のユーザデータ対を取得するように構成され、
特徴抽出モジュール702は、検出予定のユーザ特徴を得るために、検出予定のユーザデータ対の各検出予定のユーザデータセットの特徴抽出を実行するように構成され、
類似性決定モジュール703は、検出予定のユーザ特徴及び事前に訓練された類似性分類モデルに従って、検出予定のユーザデータ対の2つの検出予定のユーザデータセットに対応するユーザ間の類似性を決定するように構成される。
検出予定のユーザデータ対の2つの検出予定のユーザデータセットに対応するユーザ間の類似性が予め定められた類似性分類閾値より大きい場合は、検出予定のユーザデータ対に対応する検出予定のユーザを双子として決定するように構成された類似性分類モジュール
をさらに含む。
同じ概念に基づいて、本出願の実施形態は、図8に示されるように、モデル訓練デバイスをさらに提供する。
複数のユーザデータ対を取得することであって、各ユーザデータ対の2つのユーザデータセットのデータフィールドが、同一の部分を有する、取得することと、
各ユーザデータ対に対応するユーザ類似性を取得することであって、ユーザ類似性が、各ユーザデータ対の2つのユーザデータセットに対応するユーザ間の類似性である、取得することと、
各ユーザデータ対に対応するユーザ類似性及び複数のユーザデータ対に従って、プリセット分類モデルを訓練するためのサンプルデータを決定することと、
類似性分類モデルを得るためにサンプルデータに基づいて分類モデルを訓練することと
を実行するために、1つ又は複数のプログラムを実行するように構成される。
第1のユーザデータ対に対応するユーザの生物学的特徴を取得することであって、第1のユーザデータ対が、複数のユーザデータ対の任意のユーザデータ対である、取得することと、
第1のユーザデータ対に対応するユーザの生物学的特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定することと
をプロセッサにさらに行わせることができる。
生物学的特徴は、顔画像特徴を含み、
第1のユーザデータ対に対応するユーザの生物学的特徴を取得することは、
第1のユーザデータ対に対応するユーザの顔画像を取得することと、
顔画像特徴を得るために顔画像の特徴抽出を実行することと
を含み、それに応じて、第1のユーザデータ対に対応するユーザの生物学的特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定することは、
第1のユーザデータ対に対応するユーザの顔画像特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定すること
を含むように、プロセッサにさらに動作させることができる。
生物学的特徴は、音声特徴を含み、
第1のユーザデータ対に対応するユーザの生物学的特徴を取得することは、
第1のユーザデータ対に対応するユーザの音声データを取得することと、
音声特徴を得るために音声データの特徴抽出を実行することと
を含み、それに応じて、第1のユーザデータ対に対応するユーザの生物学的特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定することは、
第1のユーザデータ対に対応するユーザの音声特徴に従って、第1のユーザデータ対に対応するユーザ類似性を決定すること
を含むように、プロセッサにさらに動作させることができる。
各ユーザデータ対の2つのユーザデータセット間の関連付けられたユーザ特徴を得るために、複数のユーザデータ対の各ユーザデータ対の特徴抽出を実行することと、
各ユーザデータ対の2つのユーザデータセット間の関連付けられたユーザ特徴及び各ユーザデータ対に対応するユーザ類似性に従って、分類モデルを訓練するためのサンプルデータを決定することと
をプロセッサにさらに行わせることができる。
各ユーザデータ対に対応するユーザ類似性及び予め定められた類似性閾値に従って、複数のユーザデータ対に対応するユーザ特徴から肯定サンプル特徴及び否定サンプル特徴を選択することと、
分類モデルを訓練するためのサンプルデータとして肯定サンプル特徴及び否定サンプル特徴を使用することと
をプロセッサにさらに行わせることができる。
同じ概念に基づいて、本出願の実施形態は、図9に示されるように、データ類似性決定デバイスをさらに提供する。
検出予定のユーザデータ対を取得することと、
検出予定のユーザ特徴を得るために、検出予定のユーザデータ対の各検出予定のユーザデータセットの特徴抽出を実行することと、
検出予定のユーザ特徴及び事前に訓練された類似性分類モデルに従って、検出予定のユーザデータ対の2つの検出予定のユーザデータセットに対応するユーザ間の類似性を決定することと
を実行するために、1つ又は複数のプログラムを実行するように構成される。
検出予定のユーザデータ対の2つの検出予定のユーザデータセットに対応するユーザ間の類似性が予め定められた類似性分類閾値より大きい場合は、検出予定のユーザデータ対に対応する検出予定のユーザを双子として決定すること
をプロセッサにさらに行わせることができる。
Claims (24)
- モデル訓練方法であって、
複数のユーザデータ対を取得することであって、各ユーザデータ対の2つのユーザデータセットのデータフィールドが、同一の部分を有する、取得することと、
各ユーザデータ対に対応するユーザ類似性を取得することであって、前記ユーザ類似性が、各ユーザデータ対の前記2つのユーザデータセットに対応するユーザ間の類似性である、取得することと、
各ユーザデータ対に対応する前記ユーザ類似性及び前記複数のユーザデータ対に従って、プリセット分類モデルを訓練するためのサンプルデータを決定することと、
類似性分類モデルを得るために前記サンプルデータに基づいて前記分類モデルを訓練することと
を含む、モデル訓練方法。 - 各ユーザデータ対に対応するユーザ類似性を前記取得することが、
第1のユーザデータ対に対応するユーザの生物学的特徴を取得することであって、前記第1のユーザデータ対が、前記複数のユーザデータ対の任意のユーザデータ対である、取得することと、
前記第1のユーザデータ対に対応する前記ユーザの前記生物学的特徴に従って、前記第1のユーザデータ対に対応するユーザ類似性を決定することと
を含む、請求項1に記載の方法。 - 前記生物学的特徴が、顔画像特徴を含み、
第1のユーザデータ対に対応するユーザの生物学的特徴を前記取得することが、
前記第1のユーザデータ対に対応する前記ユーザの顔画像を取得することと、
顔画像特徴を得るために前記顔画像の特徴抽出を実行することと
を含み、それに応じて、前記第1のユーザデータ対に対応する前記ユーザの前記生物学的特徴に従って、前記第1のユーザデータ対に対応するユーザ類似性を前記決定することが、
前記第1のユーザデータ対に対応する前記ユーザの前記顔画像特徴に従って、前記第1のユーザデータ対に対応する前記ユーザ類似性を決定すること
を含む、請求項2に記載の方法。 - 前記生物学的特徴が、音声特徴を含み、
第1のユーザデータ対に対応するユーザの生物学的特徴を前記取得することが、
前記第1のユーザデータ対に対応する前記ユーザの音声データを取得することと、
音声特徴を得るために前記音声データの特徴抽出を実行することと
を含み、それに応じて、前記第1のユーザデータ対に対応する前記ユーザの前記生物学的特徴に従って、前記第1のユーザデータ対に対応するユーザ類似性を前記決定することが、
前記第1のユーザデータ対に対応する前記ユーザの前記音声特徴に従って、前記第1のユーザデータ対に対応する前記ユーザ類似性を決定すること
を含む、請求項2に記載の方法。 - 各ユーザデータ対に対応する前記ユーザ類似性及び前記複数のユーザデータ対に従って、分類モデルを訓練するためのサンプルデータを前記決定することが、
各ユーザデータ対の前記2つのユーザデータセット間の関連付けられたユーザ特徴を得るために、前記複数のユーザデータ対の各ユーザデータ対の特徴抽出を実行することと、
各ユーザデータ対の前記ユーザデータ間の前記関連付けられたユーザ特徴及び各ユーザデータ対に対応する前記ユーザ類似性に従って、前記分類モデルを訓練するための前記サンプルデータを決定することと
を含む、請求項1に記載の方法。 - 各ユーザデータ対の前記2つのユーザデータセット間の前記関連付けられたユーザ特徴及び各ユーザデータ対に対応する前記ユーザ類似性に従って、前記分類モデルを訓練するための前記サンプルデータを前記決定することが、
各ユーザデータ対に対応する前記ユーザ類似性及び予め定められた類似性閾値に従って、前記複数のユーザデータ対に対応するユーザ特徴から肯定サンプル特徴及び否定サンプル特徴を選択することと、
前記分類モデルを訓練するための前記サンプルデータとして前記肯定サンプル特徴及び前記否定サンプル特徴を使用することと
を含む、請求項5に記載の方法。 - 前記ユーザ特徴が、世帯登録ディメンション特徴、名前ディメンション特徴、社会的特徴及び興味特徴を含み、前記世帯登録ディメンション特徴が、ユーザアイデンティティ情報の特徴を含み、前記名前ディメンション特徴が、ユーザ名情報の特徴及びユーザ姓の希少度の特徴を含み、前記社会的特徴が、ユーザの社会的関係情報の特徴を含む、請求項6に記載の方法。
- 前記肯定サンプル特徴が、前記否定サンプル特徴と同じ量の特徴を含む、請求項6に記載の方法。
- 前記類似性分類モデルが、二項分類モデルである、請求項1〜8のいずれか一項に記載の方法。
- データ類似性決定方法であって、
検出予定のユーザデータ対を取得することと、
検出予定のユーザ特徴を得るために、前記検出予定のユーザデータ対の各検出予定のユーザデータセットの特徴抽出を実行することと、
前記検出予定のユーザ特徴及び事前に訓練された類似性分類モデルに従って、前記検出予定のユーザデータ対の前記2つの検出予定のユーザデータセットに対応するユーザ間の類似性を決定することと
を含む、データ類似性決定方法。 - 前記検出予定のユーザデータ対の前記2つの検出予定のユーザデータセットに対応する前記ユーザ間の前記類似性が予め定められたの類似性分類閾値より大きい場合は、前記検出予定のユーザデータ対に対応する検出予定のユーザを双子として決定すること
さらに含む、請求項10に記載の方法。 - 複数のユーザデータ対を取得するように構成されたデータ取得モジュールであって、各ユーザデータ対の2つのユーザデータセットのデータフィールドが、同一の部分を有する、データ取得モジュールと、
各ユーザデータ対に対応するユーザ類似性を取得するように構成された類似性取得モジュールであって、前記ユーザ類似性が、各ユーザデータ対の前記2つのユーザデータセットに対応するユーザ間の類似性である、類似性取得モジュールと、
各ユーザデータ対に対応する前記ユーザ類似性及び前記複数のユーザデータ対に従って、プリセット分類モデルを訓練するためのサンプルデータを決定するように構成されたサンプルデータ決定モジュールと、
類似性分類モデルを得るために前記サンプルデータに基づいて前記分類モデルを訓練するように構成されたモデル訓練モジュールと
を含む、モデル訓練装置。 - 前記類似性取得モジュールが、
第1のユーザデータ対に対応するユーザの生物学的特徴を取得するように構成された生物学的特徴取得ユニットであって、前記第1のユーザデータ対が、前記複数のユーザデータ対の任意のユーザデータ対である、生物学的特徴取得ユニットと、
前記第1のユーザデータ対に対応する前記ユーザの前記生物学的特徴に従って、前記第1のユーザデータ対に対応するユーザ類似性を決定するように構成された類似性取得ユニットと
を含む、請求項12に記載の装置。 - 前記生物学的特徴が、顔画像特徴を含み、
前記生物学的特徴取得ユニットが、前記第1のユーザデータ対に対応する前記ユーザの顔画像を取得することと、顔画像特徴を得るために前記顔画像の特徴抽出を実行することとを行うように構成され、
それに応じて、前記類似性取得ユニットが、前記第1のユーザデータ対に対応する前記ユーザの前記顔画像特徴に従って、前記第1のユーザデータ対に対応する前記ユーザ類似性を決定するように構成される、請求項13に記載の装置。 - 前記生物学的特徴が、音声特徴を含み、
前記生物学的特徴取得ユニットが、前記第1のユーザデータ対に対応する前記ユーザの音声データを取得することと、音声特徴を得るために前記音声データの特徴抽出を実行することとを行うように構成され、
それに応じて、前記類似性取得ユニットが、前記第1のユーザデータ対に対応する前記ユーザの前記音声特徴に従って、前記第1のユーザデータ対に対応する前記ユーザ類似性を決定するように構成される、請求項13に記載の装置。 - 前記サンプルデータ決定モジュールが、
各ユーザデータ対の前記2つのユーザデータセット間の関連付けられたユーザ特徴を得るために、前記複数のユーザデータ対の各ユーザデータ対の特徴抽出を実行するように構成された特徴抽出ユニットと、
各ユーザデータ対の前記2つのユーザデータセット間の前記関連付けられたユーザ特徴及び各ユーザデータ対に対応する前記ユーザ類似性に従って、前記分類モデルを訓練するための前記サンプルデータを決定するように構成されたサンプルデータ決定ユニットと
を含む、請求項12に記載の装置。 - 前記サンプルデータ決定ユニットが、各ユーザデータ対に対応する前記ユーザ類似性及び予め定められた類似性閾値に従って、前記複数のユーザデータ対に対応するユーザ特徴から肯定サンプル特徴及び否定サンプル特徴を選択することと、前記分類モデルを訓練するための前記サンプルデータとして前記肯定サンプル特徴及び前記否定サンプル特徴を使用することとを行うように構成される、請求項16に記載の装置。
- 前記ユーザ特徴が、世帯登録ディメンション特徴、名前ディメンション特徴、社会的特徴及び興味特徴を含み、前記世帯登録ディメンション特徴が、ユーザアイデンティティ情報の特徴を含み、前記名前ディメンション特徴が、ユーザ名情報の特徴及びユーザ姓の希少度の特徴を含み、前記社会的特徴が、ユーザの社会的関係情報の特徴を含む、請求項17に記載の装置。
- 前記肯定サンプル特徴が、前記否定サンプル特徴と同じ量の特徴を含む、請求項17に記載の装置。
- 前記類似性分類モデルが、二項分類モデルである、請求項12〜19のいずれか一項に記載の装置。
- データ類似性決定装置であって、
検出予定のユーザデータ対を取得するように構成された検出予定データ取得モジュールと、
検出予定のユーザ特徴を得るために、前記検出予定のユーザデータ対の各検出予定のユーザデータセットの特徴抽出を実行するように構成された特徴抽出モジュールと、
前記検出予定のユーザ特徴及び事前に訓練された類似性分類モデルに従って、前記検出予定のユーザデータ対の前記2つの検出予定のユーザデータセットに対応するユーザ間の類似性を決定するように構成された類似性決定モジュールと
を含む、データ類似性決定装置。 - 前記検出予定のユーザデータ対の前記2つの検出予定のユーザデータセットに対応する前記ユーザ間の前記類似性が予め定められた類似性分類閾値より大きい場合は、前記検出予定のユーザデータ対に対応する検出予定のユーザを双子として決定するように構成された類似性分類モジュール
をさらに含む、請求項21に記載の装置。 - モデル訓練デバイスであって、
プロセッサと、
コンピュータ実行可能命令を格納するように構成されたメモリであって、前記コンピュータ実行可能命令は、実行されると、以下の動作:
複数のユーザデータ対を取得することであって、各ユーザデータ対の2つのユーザデータセットのデータフィールドが、同一の部分を有する、取得することと、
各ユーザデータ対に対応するユーザ類似性を取得することであって、前記ユーザ類似性が、各ユーザデータ対の前記2つのユーザデータセットに対応するユーザ間の類似性である、取得することと、
各ユーザデータ対に対応する前記ユーザ類似性及び前記複数のユーザデータ対に従って、プリセット分類モデルを訓練するためのサンプルデータを決定することと、
類似性分類モデルを得るために前記サンプルデータに基づいて前記分類モデルを訓練することと
を前記プロセッサに実行させる、メモリと
を含む、モデル訓練デバイス。 - データ類似性決定デバイスであって、
プロセッサと、
コンピュータ実行可能命令を格納するように構成されたメモリであって、前記コンピュータ実行可能命令は、実行されると、以下の動作:
検出予定のユーザデータ対を取得することと、
検出予定のユーザ特徴を得るために、前記検出予定のユーザデータ対の各検出予定のユーザデータセットの特徴抽出を実行することと、
前記検出予定のユーザ特徴及び事前に訓練された類似性分類モデルに従って、前記検出予定のユーザデータ対の前記2つの検出予定のユーザデータセットに対応するユーザ間の類似性を決定することと
を前記プロセッサに実行させる、メモリと
を含む、データ類似性決定デバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710592780.7 | 2017-07-19 | ||
CN201710592780.7A CN107609461A (zh) | 2017-07-19 | 2017-07-19 | 模型的训练方法、数据相似度的确定方法、装置及设备 |
PCT/CN2018/096252 WO2019015641A1 (zh) | 2017-07-19 | 2018-07-19 | 模型的训练方法、数据相似度的确定方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020524315A true JP2020524315A (ja) | 2020-08-13 |
JP6883661B2 JP6883661B2 (ja) | 2021-06-09 |
Family
ID=61059789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019543107A Active JP6883661B2 (ja) | 2017-07-19 | 2018-07-19 | モデル訓練方法、装置及びデバイス並びにデータ類似性決定方法、装置及びデバイス |
Country Status (10)
Country | Link |
---|---|
US (2) | US20200012969A1 (ja) |
EP (1) | EP3611657A4 (ja) |
JP (1) | JP6883661B2 (ja) |
KR (1) | KR102349908B1 (ja) |
CN (1) | CN107609461A (ja) |
MY (1) | MY201891A (ja) |
PH (1) | PH12019501851A1 (ja) |
SG (1) | SG11201907257SA (ja) |
TW (1) | TWI735782B (ja) |
WO (1) | WO2019015641A1 (ja) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609461A (zh) * | 2017-07-19 | 2018-01-19 | 阿里巴巴集团控股有限公司 | 模型的训练方法、数据相似度的确定方法、装置及设备 |
CN108399389B (zh) * | 2018-03-01 | 2020-05-08 | 路志宏 | 机器视觉的多机监管系统、方法及客户机、服务器、存储介质 |
CN108427767B (zh) * | 2018-03-28 | 2020-09-29 | 广州市创新互联网教育研究院 | 一种知识主题和资源文件的关联方法 |
WO2019187107A1 (ja) * | 2018-03-30 | 2019-10-03 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
CN108732559B (zh) * | 2018-03-30 | 2021-09-24 | 北京邮电大学 | 一种定位方法、装置、电子设备及可读存储介质 |
CN111027994B (zh) * | 2018-10-09 | 2023-08-01 | 百度在线网络技术(北京)有限公司 | 相似对象确定方法、装置、设备和介质 |
CN111274811B (zh) * | 2018-11-19 | 2023-04-18 | 阿里巴巴集团控股有限公司 | 地址文本相似度确定方法以及地址搜索方法 |
CN111325228B (zh) * | 2018-12-17 | 2021-04-06 | 上海游昆信息技术有限公司 | 一种模型训练方法及装置 |
CN109934275B (zh) * | 2019-03-05 | 2021-12-14 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN111797878A (zh) * | 2019-04-09 | 2020-10-20 | Oppo广东移动通信有限公司 | 数据处理方法、装置、存储介质及电子设备 |
CN111797869A (zh) * | 2019-04-09 | 2020-10-20 | Oppo广东移动通信有限公司 | 模型训练方法、装置、存储介质及电子设备 |
CN110163655B (zh) * | 2019-04-15 | 2024-03-05 | 中国平安人寿保险股份有限公司 | 基于梯度提升树的坐席分配方法、装置、设备及存储介质 |
CN110543636B (zh) * | 2019-09-06 | 2023-05-23 | 出门问问创新科技有限公司 | 一种对话系统的训练数据选择方法 |
CN112488140A (zh) * | 2019-09-12 | 2021-03-12 | 北京国双科技有限公司 | 一种数据关联方法及装置 |
CN110717484B (zh) * | 2019-10-11 | 2021-07-27 | 支付宝(杭州)信息技术有限公司 | 一种图像处理方法和系统 |
CN110852881B (zh) * | 2019-10-14 | 2021-04-27 | 支付宝(杭州)信息技术有限公司 | 风险账户识别方法、装置、电子设备及介质 |
CN110837869A (zh) * | 2019-11-11 | 2020-02-25 | 深圳市商汤科技有限公司 | 图像分类模型训练方法、图像处理方法及装置 |
CN110742595A (zh) * | 2019-11-12 | 2020-02-04 | 中润普达(十堰)大数据中心有限公司 | 基于认知云系统的异常血压监护系统 |
CN111046910A (zh) * | 2019-11-12 | 2020-04-21 | 北京三快在线科技有限公司 | 图像分类、关系网络模型训练、图像标注方法及装置 |
CN111382403A (zh) * | 2020-03-17 | 2020-07-07 | 同盾控股有限公司 | 用户行为识别模型的训练方法、装置、设备及存储介质 |
CN111739517B (zh) * | 2020-07-01 | 2024-01-30 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及介质 |
US11526552B2 (en) * | 2020-08-18 | 2022-12-13 | Lyqness Inc. | Systems and methods of optimizing the use of user questions to identify similarities among a large network of users |
US20220114491A1 (en) * | 2020-10-09 | 2022-04-14 | AquaSys LLC | Anonymous training of a learning model |
CN112015749B (zh) * | 2020-10-27 | 2021-02-19 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护更新业务模型的方法、装置及系统 |
CN112347320A (zh) * | 2020-11-05 | 2021-02-09 | 杭州数梦工场科技有限公司 | 数据表字段的关联字段推荐方法及装置 |
CN112269937B (zh) * | 2020-11-16 | 2024-02-02 | 加和(北京)信息科技有限公司 | 一种计算用户相似度的方法、系统及装置 |
CN112988845B (zh) * | 2021-04-01 | 2021-11-16 | 湖南机械之家信息科技有限公司 | 在大数据业务场景下的数据信息处理方法及信息服务平台 |
EP4099142A4 (en) | 2021-04-19 | 2023-07-05 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE AND METHOD OF OPERATION |
CN113516165B (zh) * | 2021-05-07 | 2023-10-10 | 北京惠朗时代科技有限公司 | 一种基于图像金字塔匹配后验的客户满意度判别方法 |
CN113408208B (zh) * | 2021-06-25 | 2023-06-09 | 成都欧珀通信科技有限公司 | 模型训练方法、信息提取方法、相关装置及存储介质 |
CN114756677B (zh) * | 2022-03-21 | 2023-07-25 | 马上消费金融股份有限公司 | 样本生成方法、文本分类模型的训练方法及文本分类方法 |
CN115497633B (zh) * | 2022-10-19 | 2024-01-30 | 联仁健康医疗大数据科技股份有限公司 | 一种数据处理方法、装置、设备及存储介质 |
CN115604027B (zh) * | 2022-11-28 | 2023-03-14 | 中南大学 | 网络指纹识别模型训练方法、识别方法、设备及存储介质 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7321854B2 (en) * | 2002-09-19 | 2008-01-22 | The Penn State Research Foundation | Prosody based audio/visual co-analysis for co-verbal gesture recognition |
US7308581B1 (en) * | 2003-03-07 | 2007-12-11 | Traffic101.Com | Systems and methods for online identity verification |
US20060117021A1 (en) * | 2004-11-29 | 2006-06-01 | Epic Systems Corporation | Shared account information method and apparatus |
KR20070105826A (ko) * | 2006-04-27 | 2007-10-31 | 삼성전자주식회사 | 공개키 인증시스템 및 그 인증방법 |
EP2038766A4 (en) * | 2006-07-12 | 2009-08-05 | Arbitron Inc | METHOD AND SYSTEMS FOR CONFIRMATION AND BONUS CONFORMITY |
US20080106370A1 (en) * | 2006-11-02 | 2008-05-08 | Viking Access Systems, Llc | System and method for speech-recognition facilitated communication to monitor and control access to premises |
US7696427B2 (en) * | 2006-12-01 | 2010-04-13 | Oracle America, Inc. | Method and system for recommending music |
US20110047163A1 (en) * | 2009-08-24 | 2011-02-24 | Google Inc. | Relevance-Based Image Selection |
US20170330029A1 (en) * | 2010-06-07 | 2017-11-16 | Affectiva, Inc. | Computer based convolutional processing for image analysis |
TWI437501B (zh) * | 2010-11-26 | 2014-05-11 | Egis Technology Inc | 基於生物特徵之身分驗證裝置及其方法 |
US20120142428A1 (en) * | 2010-12-01 | 2012-06-07 | Taktak Labs, Llc | Systems and methods for online, real-time, social gaming |
CN102129574B (zh) * | 2011-03-18 | 2016-12-07 | 广东中星电子有限公司 | 一种人脸认证方法及系统 |
WO2012139269A1 (en) * | 2011-04-11 | 2012-10-18 | Intel Corporation | Tracking and recognition of faces using selected region classification |
CN102663370B (zh) * | 2012-04-23 | 2013-10-09 | 苏州大学 | 一种人脸识别的方法及系统 |
US20140063237A1 (en) * | 2012-09-03 | 2014-03-06 | Transportation Security Enterprises, Inc.(TSE), a Delaware corporation | System and method for anonymous object identifier generation and usage for tracking |
US20140250523A1 (en) * | 2012-10-11 | 2014-09-04 | Carnegie Mellon University | Continuous Authentication, and Methods, Systems, and Software Therefor |
JP5284530B2 (ja) | 2012-11-22 | 2013-09-11 | キヤノン株式会社 | 情報処理方法、情報処理装置 |
WO2014112375A1 (ja) * | 2013-01-17 | 2014-07-24 | 日本電気株式会社 | 話者識別装置、話者識別方法、および話者識別用プログラム |
US9036876B2 (en) * | 2013-05-01 | 2015-05-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for authenticating biometric data |
US9788777B1 (en) * | 2013-08-12 | 2017-10-17 | The Neilsen Company (US), LLC | Methods and apparatus to identify a mood of media |
US20150177842A1 (en) * | 2013-12-23 | 2015-06-25 | Yuliya Rudenko | 3D Gesture Based User Authorization and Device Control Methods |
CN103745242A (zh) * | 2014-01-30 | 2014-04-23 | 中国科学院自动化研究所 | 一种跨设备生物特征识别方法 |
US9836481B2 (en) * | 2014-03-31 | 2017-12-05 | Paypal, Inc. | Image-based retrieval and searching |
US9846885B1 (en) * | 2014-04-30 | 2017-12-19 | Intuit Inc. | Method and system for comparing commercial entities based on purchase patterns |
WO2017024172A1 (en) * | 2015-08-05 | 2017-02-09 | Cronvo Llc | Systems and methods for managing telecommunications |
US10235589B2 (en) * | 2015-09-08 | 2019-03-19 | The Johns Hopkins University | Small maritime target detector |
CN105224623B (zh) * | 2015-09-22 | 2019-06-18 | 北京百度网讯科技有限公司 | 数据模型的训练方法及装置 |
US10027888B1 (en) * | 2015-09-28 | 2018-07-17 | Amazon Technologies, Inc. | Determining area of interest in a panoramic video or photo |
CN105488463B (zh) * | 2015-11-25 | 2019-01-29 | 康佳集团股份有限公司 | 基于人脸生物特征的直系亲属关系识别方法及系统 |
CN105306495B (zh) * | 2015-11-30 | 2018-06-19 | 百度在线网络技术(北京)有限公司 | 用户识别方法和装置 |
US10990658B2 (en) * | 2016-07-11 | 2021-04-27 | Samsung Electronics Co., Ltd. | Method and apparatus for verifying user using multiple biometric verifiers |
US10074371B1 (en) * | 2017-03-14 | 2018-09-11 | Amazon Technologies, Inc. | Voice control of remote device by disabling wakeword detection |
CN107609461A (zh) * | 2017-07-19 | 2018-01-19 | 阿里巴巴集团控股有限公司 | 模型的训练方法、数据相似度的确定方法、装置及设备 |
-
2017
- 2017-07-19 CN CN201710592780.7A patent/CN107609461A/zh active Pending
-
2018
- 2018-05-15 TW TW107116424A patent/TWI735782B/zh active
- 2018-07-19 KR KR1020197023923A patent/KR102349908B1/ko active IP Right Grant
- 2018-07-19 EP EP18836065.5A patent/EP3611657A4/en active Pending
- 2018-07-19 JP JP2019543107A patent/JP6883661B2/ja active Active
- 2018-07-19 WO PCT/CN2018/096252 patent/WO2019015641A1/zh unknown
- 2018-07-19 MY MYPI2019004569A patent/MY201891A/en unknown
- 2018-07-19 SG SG11201907257SA patent/SG11201907257SA/en unknown
-
2019
- 2019-08-08 PH PH12019501851A patent/PH12019501851A1/en unknown
- 2019-09-20 US US16/577,100 patent/US20200012969A1/en active Pending
-
2020
- 2020-01-30 US US16/777,659 patent/US11288599B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2019015641A1 (zh) | 2019-01-24 |
PH12019501851A1 (en) | 2020-06-29 |
MY201891A (en) | 2024-03-22 |
US20200167693A1 (en) | 2020-05-28 |
US11288599B2 (en) | 2022-03-29 |
EP3611657A1 (en) | 2020-02-19 |
SG11201907257SA (en) | 2019-09-27 |
US20200012969A1 (en) | 2020-01-09 |
KR102349908B1 (ko) | 2022-01-12 |
KR20200014723A (ko) | 2020-02-11 |
JP6883661B2 (ja) | 2021-06-09 |
TWI735782B (zh) | 2021-08-11 |
TW201909005A (zh) | 2019-03-01 |
EP3611657A4 (en) | 2020-05-13 |
CN107609461A (zh) | 2018-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6883661B2 (ja) | モデル訓練方法、装置及びデバイス並びにデータ類似性決定方法、装置及びデバイス | |
JP6894534B2 (ja) | 情報処理方法及び端末、コンピュータ記憶媒体 | |
CN109284675B (zh) | 一种用户的识别方法、装置及设备 | |
US20160217344A1 (en) | Optimizing multi-class image classification using patch features | |
CN110688974B (zh) | 一种身份识别方法及装置 | |
US20210358570A1 (en) | Method and system for claim scope labeling, retrieval and information labeling of gene sequence | |
WO2019128527A1 (zh) | 一种社交内容风险识别方法、装置以及设备 | |
CN111581625A (zh) | 一种用户身份识别方法、装置及电子设备 | |
CN111145871A (zh) | 情绪干预方法、装置和系统,以及计算机可读存储介质 | |
CN111523103B (zh) | 用户身份识别方法、装置及电子设备 | |
KR101545050B1 (ko) | 정답 유형 자동 분류 방법 및 장치, 이를 이용한 질의 응답 시스템 | |
CN112132238A (zh) | 一种识别隐私数据的方法、装置、设备和可读介质 | |
CN116049761A (zh) | 数据处理方法、装置及设备 | |
CN110688460B (zh) | 风险识别的方法、装置、可读存储介质以及电子设备 | |
CN112131884A (zh) | 用于实体分类的方法和装置、用于实体呈现的方法和装置 | |
CN114638613A (zh) | 基于身份识别的菜品结算处理方法及装置 | |
Kala et al. | Gated recurrent unit architecture for context-aware recommendations with improved similarity measures | |
Lauriola et al. | Learning representations for biomedical named entity recognition | |
CN116108163B (zh) | 一种文本的匹配方法、装置、设备及存储介质 | |
CN114792256B (zh) | 基于模型选择的人群扩量方法及装置 | |
CN107391591B (zh) | 数据处理方法、装置及服务器 | |
CN117095205A (zh) | 一种生物体的检测方法、装置及设备 | |
CN116933087A (zh) | 意图检测模型训练方法及装置 | |
Huang et al. | A Vision-based System to Help Senior Citizens for Memory Recall of Object-placing | |
CN117056469A (zh) | 信息处理装置以及信息处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191219 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201211 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6883661 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |