JP2019082990A - 身元認証方法、端末装置、およびコンピュータ可読記憶媒体{identity authentication method, terminal equipment and computer readable storage medium} - Google Patents

身元認証方法、端末装置、およびコンピュータ可読記憶媒体{identity authentication method, terminal equipment and computer readable storage medium} Download PDF

Info

Publication number
JP2019082990A
JP2019082990A JP2018110286A JP2018110286A JP2019082990A JP 2019082990 A JP2019082990 A JP 2019082990A JP 2018110286 A JP2018110286 A JP 2018110286A JP 2018110286 A JP2018110286 A JP 2018110286A JP 2019082990 A JP2019082990 A JP 2019082990A
Authority
JP
Japan
Prior art keywords
feature information
face
lip
information sequence
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018110286A
Other languages
English (en)
Other versions
JP6619847B2 (ja
Inventor
ゾン,ゼンユー
Zhenyu Zhong
ウェイ,タオ
Tao Wei
チウ,ジェービン
Zhebin Qiu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu USA LLC
Original Assignee
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu USA LLC filed Critical Baidu USA LLC
Publication of JP2019082990A publication Critical patent/JP2019082990A/ja
Application granted granted Critical
Publication of JP6619847B2 publication Critical patent/JP6619847B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】身元認証方法、端末装置、及びコンピュータ可読記憶媒体を提供する。【解決手段】身元認証方法は、ユーザの唇の形の変化過程が表示されている映像データを取得201し、取得した映像データを解析して、映像データを構成する連続的なイメージ中の各イメージに表示されている顔領域の注釈情報と連続的なイメージの中の各イメージに対応する顔の特徴情報とを生成202する。次に、生成された注釈情報及び連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスとを生成203する。そして、生成された顔の特徴情報、唇の特徴情報シーケンス及び顔の局部の特徴情報シーケンスをサーバに送信し、サーバから返された身元認証結果を受信204する。【選択図】図2

Description

本願は、コンピュータ技術分野に関するものであり、具体的には、インターネット技術分野に関するものであり、特には身元認証方法、端末装置、およびコンピュータ可読記憶媒体に関するものである。
世界経済及び情報技術が発展し、グローバルインターネット時代が到来することに伴って、より多くの分野で信頼性の高い身元認証が必要となっている。情報化の背景の下で、一人の身元を正確に識別し、情報の安全性を確保することは、情報化時代の一つの重要な課題である。
従来の方法は、一般的に、パスワード、暗証番号や顔認識技術などを利用して、身元認証を行うが、パスワードや暗証番号は、ユーザが忘れてしまうやすく、顔識別技術が依存している顔の特徴は、写真や映像などで偽造されやすい。
本願は、身元認証方法、端末装置、およびコンピュータ可読記憶媒体を提供する。
第1の態様において、本願の実施形態は、ユーザの唇の形の変化過程が表示されている映像データを取得するステップと、映像データを解析して、映像データを構成する連続的なイメージの中の各イメージに表示されている顔領域の注釈情報と、連続的なイメージの中の各イメージに対応する顔の特徴情報と、を生成するステップと、生成された注釈情報および連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスとを生成するステップと、生成された顔の特徴情報、唇の特徴情報シーケンスおよび顔の局部の特徴情報シーケンスをサーバに送信し、サーバから返された身元認証結果を受信するステップとを含む身元認証方法を提供する。
一部の実施形態において、ユーザの唇の形の変化過程が表示されている映像データを取得するステップは、身元認証を行うようにユーザに提示するための第1の提示情報を表示するステップと、ユーザの顔を撮像して、ユーザの唇の形の変化過程が表示されている映像データを取得するステップと、ユーザの音声データを取得するステップとを含む。
一部の実施形態において、第1の提示情報は、発音のオプションを含み、身元認証方法は、ユーザが発音のオプションに対してクリック操作を実行したことの確定に応じて、音声データを解析して声紋の特徴情報を生成するステップと、声紋の特徴情報をサーバに送信するステップとをさらに含む。
一部の実施形態において、注釈情報は、顔領域のポイントの位置と顔領域の位置とを含み、生成された注釈情報および連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスとを生成するステップは、生成された注釈情報と連続的なイメージとを、予めトレーニングされたニューラルネットワークにそれぞれ入力して、連続的なイメージに対応する唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスとを取得するステップであって、ニューラルネットワークは、順に複数のイメージから唇の特徴情報を抽出して唇の特徴情報シーケンスを生成し、順に複数のイメージから顔の局部の特徴情報を抽出して顔の局部の特徴情報シーケンスを生成するのに用いられる、ステップを含む。
一部の実施形態において、顔の局部の特徴情報シーケンスは、顔面の特徴情報シーケンス、目の特徴情報シーケンス、鼻の特徴情報シーケンス、眉毛の特徴情報シーケンス、あごの特徴情報シーケンス、口腔の特徴情報シーケンスおよび舌の特徴情報シーケンスの中の少なくとも一つを含む。
一部の実施形態において、唇の特徴情報シーケンスにおける唇の特徴情報は、唇の中心座標、唇の方向、内側唇の幅、外側唇の幅、外側唇の上縁の高さ、内側唇の上縁の高さ、内側唇の下縁の高さ、外側唇の下縁の高さ、4次曲線の中心の座標原点からのオフセット、上唇の4次曲線が放物線から外れた距離および下唇の4次曲線が放物線から外れた距離を含む。
一部の実施形態において、ユーザの唇の形の変化過程が表示されている映像データを取得するステップの前に、暗号設定を行うようにユーザに提示するための第2の提示情報を表示し、ユーザの唇の形の変化過程が表示されている対象の映像データを取得するステップと、対象の映像データを解析して、対象の映像データを構成する対象の連続的なイメージの中の各イメージに表示されている顔領域の対象の注釈情報と、対象の連続的なイメージの中の各イメージに対応する対象の顔の特徴情報と、を生成するステップと、生成された対象の注釈情報および対象の連続的なイメージに基づいて、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスとを生成するステップと、生成された対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスをサーバに送信するステップとをさらに含む。
一部の実施形態において、暗号設定を行うようにユーザに提示するための第2の提示情報を表示し、ユーザの唇の形の変化過程が表示されている対象の映像データを取得するステップは、暗号設定を行うようにユーザに提示するための第2の提示情報を表示するステップと、ユーザの顔を撮像して、ユーザの唇の形の変化過程が表示されている対象の映像データを取得するステップと、ユーザの対象の音声データを取得するステップとを含む。
一部の実施形態において、第2の提示情報は、発音のオプションを含み、身元認証方法は、ユーザが第2の提示情報における発音のオプションに対してクリック操作を実行したことの確定に応じて、対象の音声データを解析して対象の声紋の特徴情報を生成するステップと、対象の声紋の特徴情報をサーバに送信するステップをさらに含む。
一部の実施形態において、対象の注釈情報は、顔領域のポイントの位置と顔領域の位置とを含み、生成された対象の注釈情報および対象の連続的なイメージに基づいて、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスとを生成するステップは、生成された対象の注釈情報と対象の連続的なイメージを、予めトレーニングされたニューラルネットワークにそれぞれ入力して、対象の連続的なイメージに対応する対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスとを取得するステップを含む。
第2の態様において、本願の実施形態は、ユーザの顔の特徴情報、唇の特徴情報シーケンスおよび顔の局部の特徴情報シーケンスを含む、クライアントから送信された身元認証請求を受信するステップであって、顔の特徴情報、唇の特徴情報シーケンスおよび顔の局部の特徴情報シーケンスは、ユーザの唇の形の変化過程が表示されている映像データの解釈に基づいてクライアントにより生成されたものである、ステップと、予め設定されたユーザの対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスを抽出するステップと、顔の特徴情報、唇の特徴情報シーケンスおよび顔の局部の特徴情報シーケンスと、対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスと、のマッチング結果に基づいて、ユーザが身元認証に合格したか否かを示すための身元認証の結果を生成するステップと、クライアントに身元認証の結果を送信するステップとを含む身元認証方法を提供する。
一部の実施形態において、顔の特徴情報、唇の特徴情報シーケンスおよび顔の局部の特徴情報シーケンスと、対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスと、のマッチング結果に基づいて、ユーザが身元認証に合格したか否かを示すための身元認証の結果を生成するステップは、顔の特徴情報と対象の顔の特徴情報とがマッチングされ、唇の特徴情報シーケンスと対象の唇の特徴情報シーケンスとがマッチングされ、顔の局部の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスとがマッチングされる3つの条件を同時に満たす場合、ユーザが身元認証に合格したことを示すための身元認証の結果を生成するステップを含む。
一部の実施形態において、身元認証請求は、ユーザの声紋の特徴情報をさらに含み、顔の特徴情報、唇の特徴情報シーケンスおよび顔の局部の特徴情報シーケンスと、対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスと、のマッチング結果に基づいて、ユーザが身元認証に合格したか否かを示すための身元認証の結果を生成するステップは、予め設定されたユーザの対象の声紋の特徴情報を抽出するステップと、顔の特徴情報と対象の顔の特徴情報とがマッチングされ、唇の特徴情報シーケンスと対象の唇の特徴情報シーケンスとがマッチングされ、顔の局部の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスとがマッチングされ、声紋の特徴情報と対象の声紋の特徴情報がマッチングされる4つの条件を同時に満たす場合、ユーザが身元認証に合格したことを示すための身元認証の結果を生成するステップを含む。
一部の実施形態において、クライアントから送信された身元認証請求を受信するステップの前に、ユーザの対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスを含む、クライアントから送信された身元設定請求を受信するステップであって、対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスは、ユーザの唇の形の変化過程が表示されている対象の映像データの解析に基づいてクライアントにより生成されたものである、ステップと、対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスを記憶するステップとを含む。
一部の実施形態において、身元設定請求は、ユーザの対象の声紋の特徴情報をさらに含み、対象の声紋の特徴情報は、ユーザの音声データの解釈に基づいてクライアントにより生成されたものであり、対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスを記憶するステップは、対象の声紋の特徴情報、対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスを記憶するステップを含む。
第3の態様において、本願の実施態様は、1つまたは複数のプロセッサと、1つまたは複数のプログラムを記憶するための記憶装置とを含み、1つまたは複数のプログラムが1つまたは複数のプロセッサによって実行される場合、1つまたは複数のプロセッサに第1の態様に記載の方法を実現させる端末装置を提供する。
第4の態様において、本願の実施態様は、コンピュータプログラムが記憶されており、プログラムがプロセッサによって実行される場合、第1の態様に記載の方法を実現させることを特徴とするコンピュータ可読記憶媒体。
本願の実施態様で提供される身元認証方法は、取得されたユーザの唇の形の変化過程が表示されている映像データを解析して、映像データを構成する連続的なイメージの中の各イメージに表示されている顔領域の注釈情報と、連続的なイメージの中の各イメージに対応する顔の特徴情報と、を生成し、次いで、生成された注釈情報および連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスとを生成し、最後に、生成された顔の特徴情報、唇の特徴情報シーケンスおよび顔の局部の特徴情報シーケンスをサーバに送信し、サーバから返された身元認証結果を受信することにより、顔を認識し、ユーザが口話(lip language)を利用する際の口の形の動作と、ユーザが口話を利用する際の顔面の局部の動作と、の認識を組み合わせ、ユーザの身元認証を行うことができ、ユーザが口話を利用する際の口の形の動作と顔面の動作は、ユーザ自身が特有している生物的特徴なので、攻撃者が模倣しにくく、身元認証の安全性を向上させることができる。
以下の添付された図面を参照して行った非限定的な実施形態に対する詳細な説明を閲覧することにより、本発明の他の特徴、目的および利点がより明確になる。
本願が適用可能な例示的システム構造図である。 本願による身元認証方法の一実施形態のフローチャートである。 本願による身元認証方法の一応用情景の例示図である。 本願による身元認証方法の他の一実施形態のフローチャートである。 本願による身元認証方法の別の一実施形態のフローチャートである。 本願による身元認証装置の一実施形態の例示的構成図である。 本願による身元認証装置の他の一実施形態の例示的構成図である。 本願の実施例を実現する端末装置またはサーバに適用されるコンピュータシステムの例示的な構成図である。
以下、添付された図面及び実施例を組み合わせて、本発明をより詳細に説明する。ここで説明した具体的な実施例は、関連発明を解釈するためのものであり、当該発明を限定するためのものではないことが理解できる。なお、説明の便宜上、添付された図面には、関連発明に関する部分のみが表示される。
なお、本発明の実施例及び実施例における特徴は、矛盾しない限り、互いに組み合わせることができる。以下、添付された図面を参照し、実施例を組み合わせて、本発明を詳細に説明する。
図1は、本願の身元認証方法が適用可能な例示的システムの構造100を示す。
図1に示すように、システムの構造100は、端末装置101、102、103、ネットワーク104とサーバ105を含むことができる。ネットワーク104は、端末装置101、102、103とサーバ105との間で通信リンクを提供する媒体として使用される。ネットワーク104は、例えば、有線通信リンク、無線通信リンク、または光ファイバケーブルなどの各種の接続タイプを含むことができる。
ユーザは、端末装置101、102、103を利用して、ネットワーク104を介してサーバ105とインタラクションし、メッセージなどを送受信することができる。端末装置101、102、103には、例えば、Webブラウザアプリケーション、ショッピング種類のアプリケーション、検索の種類のアプリケーション、インスタントメッセンジャー、メールクライアント、ソーシャルプラットフォームソフトウェアなどの各種の通信クライアントアプリケーションがインストールされることができる。
端末装置101、102、103は、撮像装置と表示画面を備え、ネットワーク転送をサポートする各種の電子機器であってもよく、スマートフォン、タブレットPC、電子書籍リーダー、MP3プレーヤー(Moving Picture Experts Group Audio Layer III、動画専門家グループオーディオレイヤ3)、MP4(Moving Picture Experts Group Audio Layer IV、動画専門家グループオーディオレイヤ4)プレーヤー、ラップトップ型ポータブルコンピュータおよびデスクトップ型コンピュータなどを含むが、これに限定されない。
サーバ105は、各種のサービスを提供するサーバであることができ、例えば、端末装置101、102、103を利用するユーザに対して身元認証を行うためのバックエンドサーバであることができる。バックエンドサーバは、受信した情報(例えば、顔の特徴情報、前記唇の特徴情報シーケンス、前記顔の局部の特徴情報シーケンスなど)についての分析、マッチング等の処理を行い、処理結果(例えば、身元認証結果)を端末装置にフィードバックすることができる。ここで、サーバ105は、物理サーバに限定されず、クラウドサーバであることもできる。
なお、本願の実施例で提供される身元認証方法は、一般的にサーバ105によって実行される。
理解すべきなのは、図1における端末装置、ネットワーク、サーバの数は、単に例示的なものであり、実現の需要に応じて、任意の数の端末装置、ネットワーク、およびサーバが備えられていることができる。
続いて図2を参照すると、図2は、本願による身元認証方法の一実施形態のフロー200を示す。この身元認証方法は、以下のようなステップを含む。
ステップ201において、ユーザの唇の形の変化過程が表示されている映像データを取得する。
本実施例において、身元認証方法が運行されている電子機器(例えば、図1に示された端末装置101、102、103)には、カメラのような撮像装置が設置されることができる。前記電子機器は、ユーザの唇の形の変化過程が表示されている映像データを取得するように、撮像装置を作動させて映像を収集することができる。ここで、前記映像データは、連続的なイメージシーケンスを指し、これは実質的に、一連の連続的なイメージで構成されている。
実践中において、前記電子機器は、映像収集の過程で収集された各フレームの画像をリアルタイムで表示することができる。ユーザは、前記電子機器に収集された画像にユーザの顔領域が表示されるように、前記電子機器に表示された映像に基づいて頭や前記電子機器の位置を調整することができる。また、映像収集の過程において、前記電子機器に収集された映像データに前記ユーザの唇の形の変化過程が表示されるように、前記ユーザは発音したり、発音しない(口話)方式で予め設定された暗号(例えば、1つのフレーズ、任意の一言、またはいずれかの発音など)を言うことができる。
ステップ202において、映像データを解析して、映像データを構成する連続的なイメージの中の各イメージに表示されている顔領域の注釈情報と、連続的なイメージの中の各イメージに対応する顔の特徴情報と、を生成する。
本実施例において、前記電子機器は、前記映像データを解析して、前記映像データを構成する連続的なイメージの中の各イメージに表示されている顔領域の注釈情報と、前記連続的なイメージの中の各イメージに対応する顔の特徴情報を生成することができる。ここで、注釈情報は、画像中の顔領域中の各器官(例えば、目、眉、鼻、口、あごなど)が顔領域に位置する位置(座標値で表示することができる)、顔領域が画像に位置する位置などの情報を含むことができる。前記顔の特徴情報は、画像中の顔の特徴を示すための情報であることができ、ここで、前記顔の特徴は、顔に関する各種の基本的な要素であることができる。例えば、前記基本的な要素は、顔中の各器官が画像の顔領域に位置する位置、顔の中の各器官との間の構造的関係および多数の点の間のユークリッド距離、曲率や角度などを含むことができるが、これに限定されない。実践中において、前記顔の特徴情報は、ベクトルまたは行列で表示することができる。
なお、前記電子機器は、各種の顔検出方法を用いて前記連続的なイメージを検出し、顔領域の注釈情報と顔の特徴情報を生成することができる。例示的に、前記電子機器は、前記連続的なイメージを予めトレーニングされた顔の検出を行うための畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)に入力して、前記畳み込みニューラルネットワークから出力した前記連続的なイメージ中の各イメージに表示される顔領域の注釈情報とそのイメージに対応する顔の特徴情報とを取得することができる。なお、前記コンボリューションニューラルネットワークは、前記電子機器により深層学習方法とトレーニングサンプルを用いて、従来のディープコンボリューションニューラルネットワーク(例えば、DenseBox、VGGNet、ResNet、SegNetなど)に対して監視とトレーニングを行って得られたものである。ここで、前記トレーニングサンプルは、大量の画像と各画像の注釈を含むことができ、例えば、顔領域であるか否かを提示するための注釈、顔領域の位置を提示するための注釈(例えば、座標値等)、顔中の各器官であるか否かを提示するための注釈及び各器官が顔領域に位置する位置を提示するための注釈などを含むことができる。ここで、注釈情報と顔の特徴情報は、ベクトルまたは行列で表示することができる。
実践中において、畳み込みニューラルネットワークは、フィードフォワードニューラルネットワークであり、その人工神経は、いくつかのカバレッジ範囲内の周辺ユニットに応答して、画像処理のための優れた性能を備えるので、コンボリューションニューラルネットワークを利用して、顔の特徴の抽出と顔の検出を行うことができる。コンボリューションニューラルネットワークは、少なくとも一つのコンボリューション層と少なくとも一つのプール層を含むことができ、ここで、畳み込み層は、画像の特徴を抽出するのに使用されることができ、プール層は、入力された情報についてのダウンサンプリング(downsample)を行うように使用することができる。なお、コンボリューションニューラルネットワークを利用して、顔の検出と特徴の抽出を行うことは、現在広く研究されて適用される公知技術なので、詳細な説明は省略することにする。
ステップ203において、生成された注釈情報および連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスとを生成する。
本実施例において、前記電子機器は、生成された注釈情報と前記連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスを生成することができる。具体的には、まず、前記連続的なイメージの各イメージに対応する注釈情報に対して抽出、出力、総合などの処理を行い、次いで、処理された注釈情報を、その画像の唇の特徴情報と顔の局部の特徴情報として確定し、最終的には、各画像に対応する確定された唇の特徴情報を唇の特徴情報のシーケンスとして順に総合し、各画像に対応する確定された顔の局部の特徴情報を顔の局部の特徴情報シーケンスに順に総合することができる。例示的に、生成された注釈情報には、画像中の顔領域中の各器官が顔領域に位置する位置と顔領域が画像に位置する位置などの情報が含まれることができるので、前記電子機器は、前記連続的なイメージの中の各イメージの注釈情報の唇に関連する注釈情報(例えば、口元、唇峰などの位置の座標)を抽出し、抽出された注釈情報を唇の特徴情報として算出、総合(例えば、唇の幅、高さなどの算出)を行って、唇の特徴情報シーケンスを生成することができる。併せて、前記電子機器は、前記連続的なイメージの中の各イメージの注釈情報のうち、顔の局部の部位(例えば、目、鼻、顔、眉、顎、口腔、舌の一つまたは複数)に関連する注釈情報を抽出し、抽出された注釈情報に対して算出、総合を行い、顔の局部の特徴情報シーケンスを生成することができる。実践中において、顔の局部の特徴情報シーケンスは、1つまたは複数が存在することができ、多数が存在する場合には、各顔の局部の特徴情報シーケンスは、一つの顔の局部の部位に対応することができる。
なお、前記唇の特徴情報は、唇の特徴を示すための情報であることができ、ここで、唇の特徴は顔領域中の唇の領域に関連した各種の基本的な要素であることできる。例えば、ユーザの唇の多数の位置(例えば、口元、唇ピークなど)の座標値、唇のサイズ(例えば、唇の幅、高さ、厚さなど)などの情報を含むことができますが、これに限定されない。唇の特徴情報シーケンスは、前記連続的なイメージの中の各イメージから対応する唇の特徴情報として順次構成されたシーケンスであることができる。実践中において、唇の特徴情報は、ベクトルまたは行列で表示することができる。
なお、前記顔の局部の特徴情報は、顔面の局部の特徴を示すための情報であり、ここで、前記顔の局部の特徴は、顔中の局部の部位(例えば、目、鼻、顎、眉毛、口腔、舌、顔など)に関連する各種の基本的な要素であることができる。例えば、顔中のどのような局部的部位が画像の顔領域に位置する位置、顔の中の任意の局部の部分のポイントのユークリッド距離、曲率や角度などを含むことができるが、これに限定されない。前記顔の局部の特徴情報シーケンスは、前記連続的なイメージの中の各イメージから対応する顔の局部の特徴情報として順次構成されたシーケンスであることができる。実践中において、前記顔の局部の特徴情報は、ベクトルまたは行列で表示することができる。
ステップ204において、生成された顔の特徴情報、唇の特徴情報シーケンスおよび顔の局部の特徴情報シーケンスをサーバに送信し、サーバから返された身元認証結果を受信する。
本実施例において、前記電子機器は、生成された顔の特徴情報、唇の特徴情報シーケンスおよび顔の局部の特徴情報シーケンスをサーバ(例えば、図1に示されたサーバ105)に送信し、サーバから返された身元認証結果を受信することができる。
実践中において、前記サーバは、予め設定された前記ユーザの対象の顔の特徴情報、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスが記憶されることができる。前記対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスは、ユーザの唇の形の変化過程が表示されている対象の映像データの解析に基づいて前記電子機器により生成されたことができ、ここで、前記対象の映像データは、ユーザが暗号設定を行う過程で、前記電子機器で取得したユーザの唇の形の変化過程が表示されている映像データであることができる。ここで、暗号設定は、身元認証方法前に完成される。前記サーバは、前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスと、前記対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスと、のマッチング結果に基づいて、前記ユーザが身元認証に通過(合格)したか否かを示すための身元認証結果を生成し、前記電子機器に前記身元認証結果を送信することができる。具体的には、前記サーバは、前記顔の特徴情報と前記対象の顔の特徴情報がマッチングされ、前記唇の特徴情報シーケンスと前記対象の唇の特徴情報シーケンスがマッチングされ、前記顔の局部の特徴情報シーケンスと前記対象の顔の局部の特徴情報シーケンスがマッチングされる3つの条件を同時に満たす場合には、前記ユーザが身元認証に合格したことを示すための身元認証結果を生成することができる。
前記サーバは、前記電子機器から送信された識別情報の設定請求を予め受信して記憶することができ、ここで、前記識別設定請求は前記ユーザの対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスを含むことができ、前記対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスは、前記ユーザの唇の形の変化過程が表示されている対象の映像データの解析に基づいて前記電子機器ににより生成された可能性があります。
前記サーバは、各種のマッチング方式を用いて前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスと、前記対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスと、のマッチングを行うことができる。例示的に、前記サーバには顔の認識、唇動作の認識と顔の局部の動作の認識をそれぞれ行うための3つのニューラルネットワークが記憶されることができる。前記サーバは、前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスをそれぞれ対応したニューラルネットワークに入力し、前記3つのニューラルネットワークでは、それぞれ出力された顔認識結果、唇動作認識結果、顔の局部の動作認識結果を取得することができる。なお、前記3つのニューラルネットワークは、機械学習の方法を利用して、大量のトレーニングサンプルに基づいて監視およびトレーニングを行って得られたものである。顔認識を行うためのニューラルネットワークに用いられるトレーニングサンプルには、前記対象の顔の特徴情報が含まれることができ、唇の動作認識を行うためのニューラルネットワークに用いられるトレーニングサンプルには、前記対象の唇の特徴情報シーケンスが含まれることができ、顔の局部の動作認識を行うためのニューラルネットワークに用いられるトレーニングサンプルには、前記対象の顔の局部の特徴情報シーケンスが含まれることができる。なお、顔認識、唇動作認識と顔の局部の動作認識を行うニューラルネットワークの数は3個に限定されず、1つであるか、2つまたは複数存在することもある。
続いて図3を参照すると、図3は、本実施形態による身元認証方法の応用情景の例示図である。図3の応用情景において、端末装置301は、まず、ユーザの唇の形の変化過程が表示されている映像データを取得し、続いて、端末装置301は、前記映像データを解析して、前記映像データを構成する連続的なイメージの中の各イメージに表示されている顔領域の注釈情報と、前記連続的なイメージの中の各イメージに対応する顔の特徴情報302とを生成し、次いで、端末装置301は、生成された注釈情報および前記連続的なイメージに基づいて、唇の特徴情報シーケンス303と顔の局部の特徴情報シーケンス304とを生成し、次いで、端末装置301は、生成された顔の特徴情報302、前記唇の特徴情報シーケンス303及び前記顔の局部の特徴情報シーケンス304をサーバ305に送信し、最終的には、端末装置301は、前記サーバ305から返された身元認証結果306を受信する。
本願の実施例で提供される方法は、取得されたユーザの唇の形の変化過程が表示されている映像データを解析して、映像データを構成する連続的なイメージの中の各イメージに表示されている顔領域の注釈情報と連続的なイメージの中の各イメージに対応する顔の特徴情報とを生成し、次いで、生成された注釈情報と連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスを生成し、最終的に、生成された顔の特徴情報、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスをサーバに送信し、サーバから返された身元認証結果を受信することにより、人の顔を認識し、ユーザが口話を利用する際の口の形の動作と、ユーザが口話を利用する際の顔の局部の動作の認識を結びつけ、すなわち、ユーザが所有している(つまり、顔の特徴情報)、知っている(つまり、予め設定された暗号)とユーザの動作特徴(つまり、ユーザが暗号叙述を行う時の唇の特徴情報シーケンスと顔の局部の特徴情報シーケンス)などの多方面の要素を効率的に結びつけて、ユーザの身元認証を行うことができる。ユーザが予め設定した暗号が攻撃者によって模倣されたとしても、ユーザが口話を利用する際の口の形と顔の動作は、ユーザ自身が特有している生物てき特徴なので、攻撃者が模倣しにくく、したがって身元認証の安全性を向上させる。
さらに図4を参照すると、図4は、身元認証方法の他の一実施形態のフロー400を示す。この身元認証方法のフロー400は、以下のようなステップを含む。
ステップ401において、身元認証を行うようにユーザに提示するための第1の提示情報を表示し、ユーザの顔を撮像して、ユーザの唇の形の変化過程が表示されている映像データを取得し、ユーザの音声データを取得する。
本実施例において、身元認証方法が運行されている電子機器(例えば、図1に示された端末装置101、102、103)は、身元認証を行うようにユーザに提示するための第1提示を表示画面に表示することができる。ここで、前記第1の提示情報は、ユーザが予め設定された暗号について述べる方式を使用して身元認証を行うように提示することができる。前記電子機器には、撮像装置が設置されることができ、マイクなどの装置が設置されることもできる。前記電子機器は、撮像装置とマイクを作動して映像データの収集と音声データの収集を行うことができる。このようなプロセスでは、前記電子機器にユーザの顔領域に対して撮像を行い、ユーザの唇の形の変化過程が表示されている映像データを取得するように、ユーザは、頭や前記電子機器の位置、方向などについて調整を行わせることができる。
ステップ402において、ユーザが発音のオプションに対してクリック操作を実行したことの確定に応じて、音声データを解析して声紋の特徴情報を生成する。
本実施例において、前記第1の提示情報は、発音のオプションを含むことができ、前記発音のオプションは、ユーザに音を出すように予め設定された暗号を記述する提示することができる。前記ユーザが前記発音のオプションについてクリック操作を実行したことが確定されたことに応じて、前記電子機器は、各種の声紋特徴抽出方法を用いて前記音声データを解析して、声紋の特徴情報を生成することができる。例示的に、前記電子機器は、前記音声データを予めトレーニングされた声紋特徴抽出を行うためのニューラルネットワークモデル(例えば、既存の声紋特徴抽出を行うためのDNN−ivectorモデルまたは既存の声紋特徴抽出を進めるための段の段深層ニューラルネットワークモデル)に入力し、前記ニューラルネットワークモデルから出力された声紋特徴情報を取得することができる。前記声紋特徴情報は、声紋の特徴を示すための情報であることができ、ここで、前記声紋特徴は、声紋に関連した各種の基本的な要素であることができる。例えば、ピッチ、音の大きさ、周波数、音色などを含むことができる。実践中において、前記声紋特徴情報は、ベクトルまたは行列で表示することができる。ここで、ニューラルネットワークモデルを用いて声紋特徴情報を抽出する方法は、現在の広く研究されて適用される公知技術なので、詳細な説明は省略することにする。
実践中において、ユーザは暗号叙述を進行する前または後に、前記発音のオプションをクリックすることができる。電子機器が前記発音のオプションをクリックすることが確定された場合には、前記電子機器は、前記音声データを解析して、声紋特徴情報を生成することができ、ユーザが前記発音のオプションをクリックしないことが確定された場合には、前記電子機器は、音声データを解析をするステップを実行していない。
本実施例の一部の選択可能な実現方式において、前記第1の提示情報は発音しないオプションを含むこともでき、前記発音していないオプションは、ユーザに発音していない方法で暗号を叙述(つまり、口話を利用して叙述)することを提示することができる。ユーザが前記発音していないオプションをクリックするが確定された場合には、前記電子機器は、音声データを解析するステップを実行していない。
本実施例の一部の選択可能な実装方式において、電子機器が暗号叙述を進行する前に、前記発音していないオプションをクリックすると、前記電子機器は、音声データの取得を進めず、直接前記ユーザの顔を撮像して、前記ユーザの唇の形の変化過程が表示されている映像データを取得することができる。
ステップ403において、映像データを解析して、映像データを構成する連続的なイメージの中の各イメージに表示されている顔領域の注釈情報と連続的なイメージの中の各イメージに対応する顔の特徴情報とを生成する。
本実施例において、前記電子機器は、前記映像データに対して解析を行い、前記映像データを構成する連続的なイメージの中の各イメージに表示されている顔領域の注釈情報と前記連続的なイメージの中の各イメージに対応する顔の特徴情報を生成することができる。ここで、注釈情報は、顔領域のポイントの位置と顔領域の位置を含むことができる。前記ポイントは、顔では比較的強力な語の情報を備える、予め指定された点(例えば、V型、口元、小鼻、眉毛の端、眉毛ピーク、輪郭の中点など)であることができる。実践中において、顔面ポイントの数は72個が存在することができ、他の既定の数値であることもあるので、ここでこれに対して限定されない。なお、注釈情報はポイントのタイプ(例えば、V型、口元、小鼻、眉毛の端、眉毛ピーク、輪郭など)、ポイントである確率などの情報を含むことができるが、これに限定されない。
本実施例において、前記電子機器は、前記畳み込みニューラルネットワークが、前記連続的なイメージの中の各イメージに表示されている顔領域の注釈情報とその画像に対応する顔の特徴情報を出力するように、前記連続的なイメージを予めトレーニングされた顔の検出を行うためのコンボリューションニューラルネットワークに入力することができる。なお、前記ステップ403は、前記ステップ202の操作と基本的に同じなので、これに対する説明は省略することにする。
ステップ404において、生成された注釈情報と連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスを生成する。
本実施例において、前記電子機器は、生成された注釈情報と連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスを生成することができる。なお、前記唇の特徴情報シーケンスの中の唇の特徴情報は、唇の中心座標、唇の方向、内側唇の幅、外側唇の幅、外側唇の上縁の高さ、内側唇の上縁の高さ、内側唇の下縁の高さ、外側唇の下縁の高さ、4次曲線の中心が座標原点からのオフセット、上唇の4次曲線が放物線から外れた距離、下唇の4次曲線が放物線から外れた距離を含むことができるが、これに限定されない。なお、前記顔の局部の特徴情報シーケンスは、顔の特徴情報シーケンス、目の特徴情報シーケンス、鼻の特徴情報シーケンス、眉毛の特徴情報シーケンス、あごの特徴情報シーケンス、口腔の特徴情報シーケンス、舌の特徴情報シーケンスの中の少なくとも一つを含むことができる。ここで、各部位の特徴情報シーケンスは、部位の特徴を示すための情報であることができる。例示的に、眉毛の特徴シーケンスは、眉毛の特徴を示すための情報であることができ、眉毛の特徴は眉に関連した各種の基本的な要素、例えば、眉毛のピーク位置、眉間位置、眉の長さ、眉毛の幅、眉毛高などであることができる。
本実施例において、前記電子機器には、予めトレーニングされたニューラルネットワークが記憶されることができる。ここで、前記ニューラルネットワークは、順次、複数の画像から唇の特徴情報を抽出して唇の特徴情報のシーケンスを生成し、順次、複数の画像から顔の局部の特徴情報を抽出して顔の局部の特徴情報シーケンスを生成するのに使用することができる。前記電子機器は、生成された注釈情報と前記連続的なイメージを、前記ニューラルネットワークにそれぞれ入力して、前記連続的なイメージに対応する唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスを取得することができる。実践中において、前記ニューラルネットワークは、タイミングの特徴シーケンス抽出を進行可能な各種の既存のネットワーク構造やモデルを利用して、制御されたトレーニングを行って得られたものであることができる。例示的に、前記ネットワーク構造やモデルは、深層ニューラルネットワーク(Deep Neural Network、DNN)と隠れマルコフモデル(Hidden Markov Model、HMM)が相互に結合されたネットワーク構造は、畳み込みニューラルネットワークと長短期記憶ネットワーク(Long Short−Term Memory、LSTM)が相互に結合されたネットワーク構造は、循環ニューラルネットワーク(Recurrent neural Network、RNN)とCTC(Connectionist Temporal Classification)モデルが相互に結合されたネットワーク構造は、循環ニューラルネットワークと注意モデル(Attention Model、AM)が相互に結合されたネットワーク構造であることができ、畳み込みニューラルネットワーク、短期および長期記憶ネットワークと深層ニューラルネットワークが三者の相互結合されたネットワーク構造であることができる。
なお、前記予めトレーニングされたニューラルネットワークの数は、1つまたは複数であることができる。例示的に、前記予めトレーニングされたニューラルネットワークの数は一つであることができ、そのニューラルネットワークは、唇の特徴情報と顔の局部の特徴情報を同時に抽出して、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスを生成することができる。別の例示として、前記予めトレーニングされたニューラルネットワークの数は2個が存在することができ、それぞれ予めトレーニングされた第1ニューラルネットワークと第2のニューラルネットワークであることができる。ここで、前記第1ニューラルネットワークは、順次、複数の画像から唇の特徴情報を抽出して唇の特徴情報シーケンスを生成するのに使用されることができ、前記第2のニューラルネットワークは、順次、複数の画像から顔の局部特徴情報を抽出して顔の局部の特徴情報シーケンスを生成するのに使用することができる。前記電子機器は、生成された注釈情報と前記連続的なイメージを予めトレーニングされた第1ニューラルネットワークと第2ニューラルネットワークに入力して、前記連続的なイメージに対応する唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスをそれぞれ取得することができる。ここで、前記第1ニューラルネットワークと前記第2のニューラルネットワークは、同一または異なるタイミング特徴シーケンス抽出を進行可能なネットワーク構造またはモデルを利用して、監視およびトレーニングを行って得られたものであることができる。また、別の例示として、前記予めトレーニングされたニューラルネットワークの数は3個以上であることができ、ここでは、1つのニューラルネットワークが、唇の特徴情報を抽出するのに使用されることができ、残りの各ニューラルネットワークが、異なる顔の局部の特徴情報(例えば、目の特徴情報、顎の特徴情報等)を抽出するのに使用することができる。
ステップ405で、声紋の特徴情報をサーバに送信し、生成された顔の特徴情報、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスをサーバに送信し、サーバから返された身元認証結果を受信する。
本実施例において、前記電子機器は、生成された声紋の特徴情報、顔の特徴情報、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスをサーバ(例えば、図1に示されたサーバ105)に送信し、サーバから返された身元認証結果を受信することができる。
実践中において、前記サーバは、前記ユーザの対象の声紋特徴情報、対象の顔の特徴情報、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスが予め記憶されることができる。前記電子機器は、前記顔の特徴情報と前記対象の顔の特徴情報がマッチングされ、前記唇の特徴情報シーケンスと前記対象の唇の特徴情報シーケンスがマッチングされ、前記顔の局部の特徴情報シーケンスと前記対象の顔の局部の特徴情報シーケンスがマッチングされ、前記声紋特徴情報と前記対象の声紋特徴情報がマッチングされる4つの条件を同時に満たす場合には、前記ユーザが身元認証に合格したことを示すための身元認証の結果を生成することができる。
本実施例の一部の選択可能な実現方式において、ユーザの唇の形の変化過程が表示されている映像データを取得する前に、前記電子機器は、以下のようなステップをさらに実行することができる。
まず、暗号設定を行うようにユーザに提示するための第2の提示情報を表示し、前記ユーザの唇の形の変化過程が表示されている対象の映像データを取得する。選択可能に、前記電子機器は、前記第2の提示情報が表示され後に、前記ユーザの顔面を撮像して、前記ユーザの唇の形の変化過程が表示されている対象の映像データを取得することができ、映像の録画プロセスで生成された前記ユーザの対象の音声データを取得することもできる。ここで、前記第2の提示情報は、発音のオプションをさらに含むことができる。前記電子機器は、前記ユーザが前記発音のオプションについてクリック操作を実行することが確定した後に、前記対象の音声データを解析して対象の声紋特徴情報を生成することができる。なお、対象の声紋の特徴情報は、ステップ402中の声紋特徴情報の生成方法と基本的に同じなので、これに対する説明は省略することにする。
次に、前記対象の映像データに対して解析を行い、前記対象の映像データを構成する対象の連続的なイメージの中の各イメージに表示されている顔領域の対象の注釈情報と、前記対象の連続的なイメージの中の各イメージに対応する対象の顔の特徴情報と、を生成する。ここで、対象の注釈情報と対象の顔の特徴情報の生成方法と、前記ステップ403中の注釈情報、顔の特徴情報の生成方法と基本的に同じなので、これに対する説明は省略することにする。
続いて、生成された対象の注釈情報と前記対象の連続的なイメージに基づいて、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスを生成する。ここで、前記対象の注釈情報は、顔領域のポイントの位置と顔領域の位置を含むことができる。前記電子機器は、生成された対象の注釈情報と前記対象の連続的なイメージを、予めトレーニングされたニューラルネットワークにそれぞれ入力して、前記対象の連続的なイメージに対応する対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスを取得することができている。ここで、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスの生成方法は、ステップ404中の唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスの生成方法と基本的に同じなので、これに対する説明は省略する。
最終的には、生成された対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔面局部の特徴情報シーケンスをサーバに送信する。対象の声紋特徴情報が既に生成された場合には、同時に前記対象の声紋特徴情報を前記サーバに送信することができる。
なお、前記サーバは、各種のマッチング方式を用いて前記声紋特徴情報、前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスと、前記対象の声紋特徴情報、前記対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスと、のマッチングを行うことができる。例示的に、前記サーバは、声紋の認識、顔認識、唇動作認識と顔の局部の動作認識を行うための4つのニューラルネットワークがそれぞ記憶されることができる。前記サーバは、前記声紋特徴情報、前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスをそれぞれ対応したニューラルネットワークに入力し、前記4つのニューラルネットワークでは、それぞれ出力される声紋認識結果、顔認識結果、唇動作認識結果、顔面局部動作認識結果を取得することができる。前記4つのニューラルネットワークは、機械学習の方法を利用して、大量のトレーニングサンプルに基づいて監視およびトレーニングを行って得られたものであることができる。声紋認識を行うためのニューラルネットワークに用いられるトレーニングサンプルには、前記対象の声紋情報が含まれており、顔認識を行うためのニューラルネットワークに用いられるトレーニングサンプルには、前記対象の顔の特徴情報が含まれており、唇動作認識を行うためのニューラルネットワークに用いられるトレーニングサンプルには、前記対象の唇の特徴情報シーケンスが含まれており、顔の局部の動作認識を行うためのニューラルネットワークに用いられるトレーニングサンプルには、前記対象の顔の局部の特徴情報シーケンスが含まれることができる。なお、声紋認識、顔認識、唇動作認識と顔の局部の動作認識を行うニューラルネットワークの数は4つに限定されず、1つであるか、2つまたは複数が存在することができる。
なお、ユーザが暗号設定を行う過程で、発音のオプションを選択しない場合、身元認証の過程で通常に発音のオプションのクリック操作を行わないない。
図4からわかるように、図2に対応する実施例と比較し、本実施例中の身元認証方法のフロー400は、声紋の特徴情報の抽出ステップと、声紋特徴情報を結びつけて身元認証を進行するステップを強調した。これにより、本実施例で説明した方法は、より多くの生物の特徴を結びつけて身元認識を行い、声紋特徴情報が模倣されにくいので、身元認証の安全性を更に向上させる。
続いて図5を参照すると、図5は、本願による身元認証方法の一実施形態のフロー500を示す。その身元認証方法は、以下のようなステップを含む。
ステップ501において、クライアントから送信された識別情報の認証請求を受信する。
本実施例において、身元認証方法が運行されている電子機器(例えば、図1に示されたサーバ105)は、有線接続方式または無線接続方式を介してクライアント(例えば、図1に示された端末装置101、102、103)から送信された身元認証請求を受信することができる。ここで、前記身元認証請求は、ユーザの顔の特徴情報、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスを含み、前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスは、クライアントにユーザの唇の形の変化過程が表示されている映像データの解釈に基づいて生成されたものである。なお、前記無線接続方式は3G / 4G接続、WiFi接続、Bluetooth接続、WiMAX接続、Zigbeeリンク、UWB(ultra wideband)接続、およびその他の現在知られている、または将来的に開発されるワイヤレス接続方式を含むことができる。
ステップ502において、予め設定されたユーザの対象の顔の特徴情報、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスを抽出する。
本実施例において、前記電子機器は、予め設定された前記ユーザの対象の顔の特徴情報、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスを抽出することができる。実践中において、前記電子機器には、大量のユーザの対象の顔の特徴情報、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスが予め記憶されることができる。前記電子機器は、身元認証請求が受信された後に、直接記憶された情報から検索を行うことができる。
ステップ503において、顔面の特徴情報、唇の特徴情報シーケンスおよび顔の局部の特徴情報シーケンスと、対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスと、のマッチング結果に基づいて、ユーザが身元認証に通過したか否かを示すための身元認証結果を生成する。
本実施例において、前記電子機器は、前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスと、前記対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスと、のマッチングの結果に基づいて、ユーザが身元認証に合格したか否かを示すための身元認証結果を生成することができる。
ここで、前記電子機器は、各種のマッチング方式を用いて前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスと前記対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスのマッチングを行うことができる。例示的に、前記電子機器には、顔認識、唇動作認識と顔の局部の動作認識を行うための3つのニューラルネットワークがそれぞれ記憶されることができる。前記電子機器は、前記顔の特徴情報、前記唇の特徴情報シーケンスで、前記顔の局部の特徴情報シーケンスをそれぞれ対応したニューラルネットワークに入力し、前記3つのニューラルネットワークでは、それぞれ出力された顔認識結果、唇動作認識結果、顔面局部動作認識結果を取得することができる。なお、前記顔認識結果、唇の動作認識結果と顔の局部の動作認識結果は、3つの数値である。前記顔認識結果が、当業者が大量のデータの統計に基づいて予め設定した第1の閾値よりも大きい場合には、前記顔の特徴情報と前記対象の顔の特徴情報がマッチングされることを確定することができる。前記唇の動作認識結果が、当業者が大量のデータの統計に基づいて予め設定した第2の閾値よりも大きい場合には、前記唇の特徴情報シーケンスと前記対象の唇の特徴情報シーケンスがマッチングされることを確定することができる。前記顔の局部の動作認識結果が、当業者が大量のデータの統計に基づいて予め設定した第3の閾値よりも大きい場合には、前記顔の局部の特徴情報シーケンスと前記対象の顔の局部の特徴情報シーケンスがマッチングされることを確定することができる。
なお、前記3つのニューラルネットワークは、機械学習の方法を利用して、大量のトレーニングサンプルに基づいて制御されたトレーニングを行って得られたものである。顔認識を行うためのニューラルネットワークに用いられるトレーニングサンプルには、前記対象の顔の特徴情報が含まれ、唇の動作認識を進めるためのニューラルネットワークに用いられるトレーニングサンプルには、前記対象の唇の特徴情報シーケンスが含まれ、顔面局部動作認識を進めるためのニューラルネットワークに用いられるトレーニングサンプルには、前記対象の顔の局部の特徴情報シーケンスが含まれることができる。なお、顔認識、唇動作認識と顔の局部の動作認識を行うニューラルネットワークの数は3個に限定されず、1つであるか、2つまたは複数が存在することもできる。
本実施例の一部の選択可能な実現方式において、前記電子機器は、前記顔の特徴情報と前記対象の顔の特徴情報がマッチングされ、前記唇の特徴情報シーケンスと前記対象の唇の特徴情報シーケンスがマッチングされ、前記顔の局部の特徴情報シーケンスと前記対象の顔の局部の特徴情報シーケンスがマッチングされる3つの条件を同時に満たす場合には、前記ユーザが身元認証に合格したことを示すための身元認証の結果を生成することができる。
本実施例の一部の選択可能な実現方式において、前記身元認証請求は、前記ユーザの声紋特徴情報をさらに含むことができる。前記電子機器は、予め設定された前記ユーザの対象の声紋特徴情報を抽出し、前記顔の特徴情報と前記対象の顔の特徴情報がマッチングされ、前記唇の特徴情報シーケンスと前記対象の唇の特徴情報シーケンスがマッチングされ、前記顔の局部の特徴情報シーケンスと前記対象の顔の局部の特徴情報シーケンスがマッチングされ、前記声紋特徴情報と前記対象の声紋特徴情報がマッチングされる4つの条件を同時に満たす場合には、前記ユーザが身元認証に合格したことを示すため身元認証結果を生成することもできる。
本実施例の一部の選択可能な実現方式において、クライアントから送信された身元認証請求を受信する前に、前記電子機器は、クライアントから送信された識別情報の設定請求を受信することもでき、ここで、前記識別設定請求は前記ユーザの対象の顔の特徴情報、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスを含むことができ、前記対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスは、前記クライアントに前記ユーザの唇の形の変化過程が表示される対象の映像データの解析に基づいて生成されたものである。続いて、前記電子機器は、前記対象の顔の特徴情報、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスを記憶することができる。
本実施例の一部の選択可能な実現方式において、前記識別設定請求は前記ユーザの対象の声紋の特徴情報をさらに含み、前記対象の声紋特徴情報は、前記クライアントに前記ユーザの声のデータの解釈に基づいて生成されたものである。前記電子機器は、前記対象の声紋特徴情報、前記対象の顔の特徴情報、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスを記憶することができる。
ステップ504において、クライアントに身元認証結果を送信する。
本実施例において、前記電子機器は、前記クライアントに前記身元認証結果を送信することができる。
本願の実施例で提供される方法は、クライアントから送信された識別情報の認証請求中の顔の特徴情報、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスと、予め設定された前記ユーザの対象の顔の特徴情報、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスと、のマッチングを行い、続いて、マッチング結果に基づいて、前記ユーザが身元認証に合格したか否かを示すための身元認証の結果を生成し、最終的に、前記クライアントに前記身元認証結果を送信することにより、顔を認識し、ユーザが口話を利用する際の口の形動作と、ユーザが口話を利用する際の顔面局部動作の認識を結びつけ、ユーザ識別情報の認証を行うことができ、ユーザが口話を利用する際の口の形動作と顔面動作は、ユーザ自身が特有する生物的特徴なので、攻撃者が模倣しにくく、したがって身元認証の安全性を向上させることができる。
さらに図6を参照すると、前記図2に示された方法の実装として、本願は、身元認証装置の一実施例を提供し、そのデバイスの実施例は、図2に示された方法の実施例に対応し、対応する装置は、具体的には、各種の電子機器に適用することができる。
図6に示すように、本実施例で提供される身元認証装置600は、ユーザの唇の形の変化過程が表示されている映像データを取得するように構成された取得ユニット601と、前記映像データを解析して、前記映像データを構成する連続的なイメージの中の各イメージに表示されている顔領域の注釈情報と、前記連続的なイメージの中の各イメージに対応する顔の特徴情報と、を生成するように構成された解析ユニット602と、生成された注釈情報と前記連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスを生成するように構成された生成ユニット603と、生成された顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスをサーバに送信し、前記サーバから返された身元認証結果を受信するように構成された送信有ユニット604を含む。
本願の実施例で提供される装置は、解析ユニット602に取得ユニット601で取得されたユーザの唇の形の変化過程が表示されている映像データを解析して、注釈情報と顔の特徴情報を生成し、次いで、生成ユニット603で生成された注釈情報と連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスを生成し、最終的に、送信ユニット604で生成された顔の特徴情報、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスをサーバに送信し、サーバから返された身元認証結果を受信することにより、顔を認識し、ユーザが口話を利用する際の口の形の動作とユーザが口話を利用する際の顔面局部動作の認識を結びつけ、ユーザ識別情報の認証を行うことができ、ユーザが口話を使用時の口の形動作と顔面の動作は、ユーザ自身が特有する生物的特徴なので、攻撃者が模倣しにくく、したがって身元認証の安全性を向上させることができる。
さらに図7を参照すると、前記図5に図示された方法の実装として、本願は、身元認証装置の一実施例を提供し、そのデバイスの実施例は、図5に示された方法の実施例に対応し、対応する装置は、具体的には、各種の電子機器に適用することができる。
図7に示すように、本実施例で提供される身元認証装置700は、ユーザの顔の特徴情報、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスを含む、クライアントから送信された身元認証請求を受信するように構成された受信ユニット701と、予め設定された前記ユーザの対象の顔の特徴情報、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスを抽出するように構成された抽出ユニット702と、前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスと、前記対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスと、のマッチング結果に基づいて、前記ユーザが身元認証に合格したか否かを示すのための身元認証結果を生成するように構成されたマッチングユニット703と、前記クライアントに前記身元認証結果を送信するように構成された送信ユニット704を含み、前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスは、前記クライアントにより前記ユーザの唇の形の変化過程が表示されている映像データの解析に基づいて生成されたものである。
本願の実施例で提供される装置は、マッチングユニット703に受信ユニット701で受信された顔の特徴情報、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスと、抽出ユニット702で抽出された対象の顔の特徴情報、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスと、のマッチングを行い、マッチング結果に基づいて、前記ユーザが身元認証に合格したか否かを示すための身元認証の結果を生成し、続いて、送信ユニット704に、前記クライアントに前記身元認証結果を送信することにより、人の顔を認識し、ユーザが口話を利用する際の口の形動作と、ユーザが口話を利用する際の顔面局部動作の認識を結びつけさせ、ユーザの身元の認証を行うことができ、ユーザが口話を利用する際の口の形と顔面の動作は、ユーザ自身が特有する生物的特徴なので、攻撃者が模倣しにくく、したがって身元認証の安全性を向上させることができる。
以下、図8を参照すると、図8は、本願の実施例を実現する端末装置/サーバに適するコンピュータシステム800の例示的な構成図である。図8に図示された端末装置/サーバは例示であるだけで、本発明の実施例の機能と使用範囲について何ら限定されない。
図8に示すように、コンピュータシステム800は、中央処理ユニット801(CPU)を含み、CPU801は、読み出し専用メモリ802(ROM)に記憶されたプログラムまたは記憶部808からランダムアクセスメモリ803(RAM)にロードされたプログラムにより各種の適切な動作と処理を実行することができる。RAM803には、システム800を動作させるために必要な各種プログラムやデータが記憶されている。CPU801、ROM802とRAM803は、バス804を介して互いに接続される。入力/出力(I/O)インタフェース805もバス804に接続される。
I/Oインタフェース805に接続されている部材として、カメラなどを含む入力部806と、例えば液晶表示装置(LCD)などとスピーカーなどを含む出力部807と、ハードドライブなどを含む記憶部808と、例えばLANカード、モデムなどのネットワークインタフェースカードを含む通信部809が含まれる。通信部809は、インターネットなどのネットワークを介して通信処理を実行する。駆動部810も需要に応じて、I/Oインタフェース805に接続される。磁気ディスク、光ディスク、光磁気ディスク、半導体メモリデバイスなどの着脱可能な媒体811は、このような媒体から読み取ったコンピュータプログラムを必要に応じて記憶部808に設置するように、必要に応じて駆動部810に設置される。
特に、本開示の実施例によれば、フローチャートを参照して、説明した前述した過程は、コンピュータソフトウェアプログラムとして実現されることができる。例えば、本開示の実施例は、コンピュータプログラム製品を含み、前記コンピュータプログラム製品は、機械可読媒体に搭載されたコンピュータプログラムを含み、そのコンピュータプログラムは、フローチャートに示された方法を実行するためのコンピュータコードを含んむ。これらの実施例において、当該コンピュータプログラムは、通信部809を経由してネットワークからダウンロードされ、インストールされることができ、および/または着脱可能な媒体811からインストールすることができる。このコンピュータプログラムが、中央処理ユニット801(CPU)によって実行される場合には、本願の方法に限定された前記機能を実行する。なお、本願のコンピュータ可読媒体は、コンピュータ可読信号媒体、コンピュータ可読記憶媒体または前記両者の任意の組み合わせであることができる。コンピュータ可読記憶媒体は、電気、磁気、光学、電磁、赤外線、または半導体のシステム、装置、素子、またはこれらの任意の組み合わせであることができるが、これに限定されない。コンピュータ可読記憶媒体のより具体的な例は、1つまたは複数の導線を備える電気接続されたポータブルコンピュータ、磁気ディスク、ハードディスク、ランダムアクセスメモリデバイス(RAM)、読み取り専用メモリデバイス(ROM)、消去およびプログラム可能な読み取り専用メモリデバイス(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリデバイス(CD−ROM)、光メモリ装置、磁気メモリデバイスまたは前記任意の適切な組み合わせを含むことができるが、これに限定されない。本願において、コンピュータ可読記憶媒体は、プログラムを含むとか、または記憶する任意のタイプの媒体であることができ、そのプログラムは、命令の実行システム、装置または素子によって使用され、またはこの組み合わせてで使用されることができる。本願において、コンピュータ読み取り可能な信号媒体は、ベースバンドまたはキャリアの一部で伝達されるデータ信号を含むことができ、ここで、データ信号は、コンピュータ読み取り可能なプログラムコードが搭載される。このように伝播されるデータ信号は、様々な形式を利用することができ、電磁信号、光信号または上記任意の適切な組み合わせを含むが、これに限定されない。コンピュータ読み取り可能な信号媒体は、コンピュータ読み取り可能な記憶媒体を除く任意のコンピュータ読み取り可能な媒体であってもいく、このコンピュータ読み取り可能な媒体は、コマンド実行システム、装置または素子によって使用されるとか、これを組み合わせて使用されるように、プログラムを送信、伝送または転送することができる。コンピュータ読み取り可能な媒体に含まれているプログラムコードは、任意の適切な媒体を利用して送信することができ、無線、有線、ケーブル、RFなど、または上記任意の適切な組み合わせを含んでもよいが、これに限定されない。
図面におけるフローチャートおよびブロック図は、本発明の各実施例に係るシステム、方法およびコンピュータプログラム製品により実現可能なアーキテクチャ、機能及び操作を示す。ここで、フローチャートまたはブロック図における各枠は、1つのモジュール、プログラムセグメント、またはコードの一部を代表してもよく、前記モジュール、プログラムセグメント、またはコードの一部は、規定された論理機能を実現するための1つ以上の実行可能なコマンドを含む。なお、いくつかの代替実施態様として、枠に示された機能は、図面に示された順番と異なる順番で実行されてもよい。例えば、連続して示された2つの枠は、関連する機能に応じて、実際にほぼ並行に実行されてもよく、逆の順番で実行されてもよい。なお、ブロック図および/またはフローチャートにおける各枠と、ブロック図および/またはフローチャートにおける枠の組合せは、規定された機能または操作を実行する、ハードウェアに基づく専用システムで実現されてもよく、あるいは、専用ハードウェアとコンピュータのコマンドとの組合せで実行されてもよい。
本願の実施例で説明した関連ユニットは、ソフトウェアの方法で実装されることができ、またはハードウェアの方法で実装することもできる。説明されたユニットは、プロセッサにインストールされることもでき、例えば、プロセッサが取得ユニット、解析ユニット、生成ユニットと送信ユニットを含むと説明されることができる。ここで、これらのユニットの名称は、いくつかの場合に該当するユニット自体の限定を構成しない、例えば、取得ユニットは、「ユーザの唇の形の変化過程が表示されている映像データを取得するユニット」と説明されることもできる。
他の一態様として、本願は、コンピュータ可読媒体をさらに提供し、そのコンピュータ可読媒体は、前記実施例で説明されたデバイスに含まれることができ、または、デバイスにインストールされず、独立して存在していることもできる。前記コンピュータ可読媒体は、1つまたは複数のプログラムが搭載され、前記1つまたは複数のプログラムがデバイスによって実行される場合、そのデバイスにユーザの唇の形の変化過程が表示されている映像データを取得して、当該映像データを解析して、その映像データを構成する連続的なイメージの中の各イメージに表示されている顔領域の注釈情報とその連続的なイメージの中の各イメージに対応する顔の特徴情報とを生成し、生成された注釈情報とその連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスとを生成し、生成された顔の特徴情報、当該唇の特徴情報シーケンスとその顔の局部の特徴情報シーケンスをサーバに送信し、そのサーバから返された身元認証結果を受信するようにする。
以上の説明は、単に本願の比較的好ましい実施例及び運用技術的原理の説明である。本願に係る発明の範囲が前記技術的特徴の特定の組み合わせで構成され、技術的解決法に限定されるものではなく、本発明の主旨を逸脱しなければ、前記技術的特徴またはその均等な特徴の任意の組み合わせからなる他の技術的解決法も含まれることを当該技術分野の当業者は理解しなければならない。例えば、前記特徴と本願に開示されているが、これに限定されない同様の機能を備えた技術的特徴を互いに交換してなされた技術的解決法も含まれる。

Claims (17)

  1. ユーザの唇の形の変化過程が表示されている映像データを取得するステップと、
    前記映像データを解析して、前記映像データを構成する連続的なイメージの中の各イメージに表示されている顔領域の注釈情報と、前記連続的なイメージの中の各イメージに対応する顔の特徴情報と、を生成するステップと、
    生成された注釈情報および前記連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスとを生成するステップと、
    生成された顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスをサーバに送信し、前記サーバから返された身元認証結果を受信するステップとを含むことを特徴とする身元認証方法。
  2. 前記ユーザの唇の形の変化過程が表示されている映像データを取得するステップは、
    身元認証を行うようにユーザに提示するための第1の提示情報を表示するステップと、
    前記ユーザの顔を撮像して、前記ユーザの唇の形の変化過程が表示されている映像データを取得するステップと、
    前記ユーザの音声データを取得するステップと、
    を含むことを特徴とする請求項1に記載の身元認証方法。
  3. 前記第1の提示情報は、発音のオプションを含み、
    前記身元認証方法は、
    前記ユーザが前記発音のオプションに対してクリック操作を実行したことの確認に応じて、前記音声データを解析して声紋の特徴情報を生成するステップと、
    前記声紋の特徴情報を前記サーバに送信するステップと、
    をさらに含むことを特徴とする請求項2に記載の身元認証方法。
  4. 前記注釈情報は、顔領域のポイントの位置と顔領域の位置とを含み、
    前記生成された注釈情報および前記連続的なイメージに基づいて、唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスとを生成するステップは、
    生成された注釈情報と前記連続的なイメージとを、予めトレーニングされたニューラルネットワークにそれぞれ入力して、前記連続的なイメージに対応する唇の特徴情報シーケンスと顔の局部の特徴情報シーケンスとを取得するステップであって、前記ニューラルネットワークは、順に複数のイメージから唇の特徴情報を抽出して唇の特徴情報シーケンスを生成し、順に複数のイメージから顔の局部の特徴情報を抽出して顔の局部の特徴情報シーケンスを生成するのに用いられる、ステップを含むことを特徴とする請求項1に記載の身元認証方法。
  5. 前記顔の局部の特徴情報シーケンスは、
    顔面の特徴情報シーケンス、目の特徴情報シーケンス、鼻の特徴情報シーケンス、眉毛の特徴情報シーケンス、あごの特徴情報シーケンス、口腔の特徴情報シーケンスおよび舌の特徴情報シーケンスの中の少なくとも一つを含むことを特徴とする請求項1に記載の身元認証方法。
  6. 前記唇の特徴情報シーケンスにおける唇の特徴情報は、
    唇の中心座標、唇の方向、内側唇の幅、外側唇の幅、外側唇の上縁の高さ、内側唇の上縁の高さ、内側唇の下縁の高さ、外側唇の下縁の高さ、4次曲線の中心の座標原点からのオフセット、上唇の4次曲線が放物線から外れた距離、および下唇の4次曲線が放物線から外れた距離を含むことを特徴とする請求項1に記載の身元認証方法。
  7. 前記ユーザの唇の形の変化過程が表示されている映像データを取得するステップの前に、
    暗号設定を行うようにユーザに提示するための第2の提示情報を表示し、前記ユーザの唇の形の変化過程が表示されている対象の映像データを取得するステップと、
    前記対象の映像データを解析して、前記対象の映像データを構成する対象の連続的なイメージの中の各イメージに表示されている顔領域の対象の注釈情報と、前記対象の連続的なイメージの中の各イメージに対応する対象の顔の特徴情報と、を生成するステップと、
    生成された対象の注釈情報および前記対象の連続的なイメージに基づいて、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスとを生成するステップと、
    生成された対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスをサーバに送信するステップと、
    をさらに含むことを特徴とする請求項1に記載の身元認証方法。
  8. 前記暗号設定を行うようにユーザに提示するための第2の提示情報を表示し、前記ユーザの唇の形の変化過程が表示されている対象の映像データを取得するステップは、
    暗号設定を行うようにユーザに提示するための第2の提示情報を表示するステップと、
    前記ユーザの顔を撮像して、前記ユーザの唇の形の変化過程が表示されている対象の映像データを取得するステップと、
    前記ユーザの対象の音声データを取得するステップとを含むことを特徴とする請求項7に記載の身元認証方法。
  9. 前記第2の提示情報は、発音のオプションを含み、
    前記身元認証方法は、
    前記ユーザが前記第2の提示情報における発音のオプションに対してクリック操作を実行したことの確定に応じて、前記対象の音声データを解析して対象の声紋の特徴情報を生成するステップと、
    前記対象の声紋の特徴情報を前記サーバに送信するステップとをさらに含むことを特徴とする請求項8に記載の身元認証方法。
  10. 前記対象の注釈情報は、顔領域のポイントの位置と顔領域の位置とを含み、
    前記生成された対象の注釈情報および前記対象の連続的なイメージに基づいて、対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスとを生成するステップは、
    生成された対象の注釈情報と前記対象の連続的なイメージを、予めトレーニングされたニューラルネットワークにそれぞれ入力して、前記対象の連続的なイメージに対応する対象の唇の特徴情報シーケンスと対象の顔の局部の特徴情報シーケンスとを取得するステップを含むことを特徴とする請求項7に記載の身元認証方法。
  11. ユーザの顔の特徴情報、唇の特徴情報シーケンスおよび顔の局部の特徴情報シーケンスを含む、クライアントから送信された身元認証請求を受信するステップであって、前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスは、前記ユーザの唇の形の変化過程が表示されている映像データの解釈に基づいて前記クライアントにより生成されたものである、ステップと、
    予め設定された前記ユーザの対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスを抽出するステップと、
    前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスと、前記対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスと、のマッチング結果に基づいて、前記ユーザが身元認証に合格したか否かを示すための身元認証の結果を生成するステップと、
    前記クライアントに前記身元認証の結果を送信するステップとを含むことを特徴とする身元認証方法。
  12. 前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスと、前記対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスと、のマッチング結果に基づいて、前記ユーザが身元認証に合格したか否かを示すための身元認証の結果を生成するステップは、
    前記顔の特徴情報と前記対象の顔の特徴情報とがマッチングされ、前記唇の特徴情報シーケンスと前記対象の唇の特徴情報シーケンスとがマッチングされ、前記顔の局部の特徴情報シーケンスと前記対象の顔の局部の特徴情報シーケンスとがマッチングされる3つの条件を同時に満たす場合、前記ユーザが身元認証に合格したことを示すための身元認証の結果を生成するステップを含むことを特徴とする請求項11に記載の身元認証方法。
  13. 前記身元認証請求は、前記ユーザの声紋の特徴情報をさらに含み、
    前記顔の特徴情報、前記唇の特徴情報シーケンスおよび前記顔の局部の特徴情報シーケンスと、前記対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスと、のマッチング結果に基づいて、前記ユーザが身元認証に合格したか否かを示すための身元認証の結果を生成するステップは、
    予め設定された前記ユーザの対象の声紋の特徴情報を抽出するステップと、
    前記顔の特徴情報と前記対象の顔の特徴情報とがマッチングされ、前記唇の特徴情報シーケンスと前記対象の唇の特徴情報シーケンスとがマッチングされ、前記顔の局部の特徴情報シーケンスと前記対象の顔の局部の特徴情報シーケンスとがマッチングされ、前記声紋の特徴情報と前記対象の声紋の特徴情報がマッチングされる4つの条件を同時に満たす場合、前記ユーザが身元認証に合格したことを示すための身元認証の結果を生成するステップとを含むことを特徴とする請求項11に記載の身元認証方法。
  14. 前記クライアントから送信された身元認証請求を受信するステップの前に、
    ユーザの対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスを含む、クライアントから送信された身元設定請求を受信するステップであって、前記対象の顔の特徴情報、前記対象の唇の特徴情報シーケンスおよび前記対象の顔の局部の特徴情報シーケンスは、前記ユーザの唇の形の変化過程が表示されている対象の映像データの解析に基づいて前記クライアントにより生成されたものである、ステップと、
    前記対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスを記憶するステップとを含むことを特徴とする請求項11に記載の身元認証方法。
  15. 前記身元設定請求は、前記ユーザの対象の声紋の特徴情報をさらに含み、前記対象の声紋の特徴情報は、前記ユーザの音声データの解釈に基づいて前記クライアントにより生成されたものであり、
    前記対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスを記憶するステップは、
    前記対象の声紋の特徴情報、前記対象の顔の特徴情報、対象の唇の特徴情報シーケンスおよび対象の顔の局部の特徴情報シーケンスを記憶するステップを含むことを特徴とする請求項14に記載の身元認証方法。
  16. 1つまたは複数のプロセッサと、
    1つまたは複数のプログラムを記憶するための記憶装置とを含み、
    前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行される場合、前記1つまたは複数のプロセッサに請求項1に記載の方法を実現させることを特徴とする端末装置。
  17. コンピュータプログラムが記憶されており、
    前記プログラムがプロセッサによって実行される場合、請求項1に記載の方法を実現させることを特徴とするコンピュータ可読記憶媒体。
JP2018110286A 2017-10-31 2018-06-08 身元認証方法、端末装置、およびコンピュータ可読記憶媒体{identity authentication method, terminal equipment and computer readable storage medium} Active JP6619847B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/799,512 2017-10-31
US15/799,512 US10635893B2 (en) 2017-10-31 2017-10-31 Identity authentication method, terminal device, and computer-readable storage medium

Publications (2)

Publication Number Publication Date
JP2019082990A true JP2019082990A (ja) 2019-05-30
JP6619847B2 JP6619847B2 (ja) 2019-12-11

Family

ID=62705409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018110286A Active JP6619847B2 (ja) 2017-10-31 2018-06-08 身元認証方法、端末装置、およびコンピュータ可読記憶媒体{identity authentication method, terminal equipment and computer readable storage medium}

Country Status (5)

Country Link
US (1) US10635893B2 (ja)
EP (1) EP3477519B1 (ja)
JP (1) JP6619847B2 (ja)
KR (1) KR102063037B1 (ja)
CN (1) CN109726624B (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11016729B2 (en) * 2017-11-08 2021-05-25 International Business Machines Corporation Sensor fusion service to enhance human computer interactions
US10832683B2 (en) * 2017-11-29 2020-11-10 ILLUMA Labs LLC. System and method for efficient processing of universal background models for speaker recognition
US10950243B2 (en) * 2017-11-29 2021-03-16 ILLUMA Labs Inc. Method for reduced computation of t-matrix training for speaker recognition
US10950244B2 (en) * 2017-11-29 2021-03-16 ILLUMA Labs LLC. System and method for speaker authentication and identification
US11468708B2 (en) 2019-05-20 2022-10-11 Google Llc Videoconferencing using hybrid edge/cloud inference with machine-learned systems
US11250861B2 (en) * 2019-07-08 2022-02-15 Lenovo (Singapore) Pte. Ltd. Audio input filtering based on user verification
CN110533001B (zh) * 2019-09-06 2022-02-08 厦门久凌创新科技有限公司 基于人脸识别的大数据人脸识别方法
CN110717407A (zh) * 2019-09-19 2020-01-21 平安科技(深圳)有限公司 基于唇语密码的人脸识别方法、装置及存储介质
US11217036B1 (en) * 2019-10-07 2022-01-04 Facebook Technologies, Llc Avatar fidelity and personalization
CN110826410B (zh) * 2019-10-10 2020-12-01 珠海格力电器股份有限公司 一种人脸识别的方法和设备
CN110866443B (zh) * 2019-10-11 2023-06-16 厦门身份宝网络科技有限公司 人像存储方法、人脸识别方法、设备及存储介质
US11824873B2 (en) * 2019-10-29 2023-11-21 Shmuel Ur Innovation Ltd. Digital media authentication
CN112836556B (zh) * 2019-11-25 2024-09-13 西安诺瓦星云科技股份有限公司 行为识别装置及方法和基于显示屏的行为识别系统
CN110853666B (zh) * 2019-12-17 2022-10-04 科大讯飞股份有限公司 一种说话人分离方法、装置、设备及存储介质
CN113051535B (zh) * 2019-12-26 2023-03-03 华为技术有限公司 设备解锁方法和装置
US11475639B2 (en) 2020-01-03 2022-10-18 Meta Platforms Technologies, Llc Self presence in artificial reality
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
CN111209873A (zh) * 2020-01-09 2020-05-29 杭州趣维科技有限公司 一种基于深度学习的高精度人脸关键点定位方法及系统
US11403369B2 (en) 2020-01-21 2022-08-02 Disney Enterprises, Inc. Secure content processing pipeline
US11425120B2 (en) * 2020-02-11 2022-08-23 Disney Enterprises, Inc. Systems for authenticating digital contents
CN111367405A (zh) * 2020-02-17 2020-07-03 深圳岱仕科技有限公司 头戴显示设备的调整方法、装置、计算机设备及存储介质
CN111414892B (zh) * 2020-04-09 2023-05-12 上海盛付通电子支付服务有限公司 直播中的信息发送方法
CN112507975A (zh) * 2020-12-30 2021-03-16 广州博士信息技术研究院有限公司 一种基于科技成果数据库的人证识别数据处理方法及系统
CN113034433B (zh) * 2021-01-14 2024-01-02 腾讯科技(深圳)有限公司 数据鉴伪方法、装置、设备以及介质
CN112989967A (zh) * 2021-02-25 2021-06-18 复旦大学 一种基于音视频信息融合的人员身份识别方法
CN113129020A (zh) * 2021-05-18 2021-07-16 中国银行股份有限公司 一种基于物联网的5g消息身份认证系统及方法
US11295503B1 (en) 2021-06-28 2022-04-05 Facebook Technologies, Llc Interactive avatars in artificial reality
CN113445829B (zh) * 2021-07-23 2022-05-24 阜阳万瑞斯电子锁业有限公司 一种具备面部识别功能的储物柜智能锁及使用方法
CN113781050A (zh) * 2021-09-03 2021-12-10 中国银行股份有限公司 生物密码校验方法、装置、电子设备和存储介质
CN114821720A (zh) * 2022-04-25 2022-07-29 广州瀚信通信科技股份有限公司 人脸检测方法、装置、系统、设备及存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0758471B1 (de) * 1994-03-15 1999-07-28 Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung E.V. Personenidentifikation mit bewegungsinformation
US6219639B1 (en) * 1998-04-28 2001-04-17 International Business Machines Corporation Method and apparatus for recognizing identity of individuals employing synchronized biometrics
JP2002024182A (ja) * 2000-07-11 2002-01-25 Mitsubishi Electric Corp ユーザ認証システム
GB2378776A (en) * 2001-05-22 2003-02-19 Canon Kk Apparatus and method for managing a multi-modal interface in which the inputs feedback on each other
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
JP4730812B2 (ja) * 2005-03-24 2011-07-20 株式会社リコー 個人認証装置、個人認証処理方法、そのためのプログラム及び記録媒体
US20080043144A1 (en) * 2006-08-21 2008-02-21 International Business Machines Corporation Multimodal identification and tracking of speakers in video
CN101482976B (zh) * 2009-01-19 2010-10-27 腾讯科技(深圳)有限公司 语音驱动嘴唇形状变化的方法、获取嘴唇动画的方法及装置
JP2011203992A (ja) 2010-03-25 2011-10-13 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2012103792A (ja) 2010-11-08 2012-05-31 Bld Oriental Co Ltd 認証装置及び、認証システム
US9159321B2 (en) * 2012-02-27 2015-10-13 Hong Kong Baptist University Lip-password based speaker verification system
JP2015169977A (ja) 2014-03-05 2015-09-28 日本電気通信システム株式会社 本人認証装置、本人認証方法、本人認証プログラム、および自動取引システム
US9627532B2 (en) * 2014-06-18 2017-04-18 Nuance Communications, Inc. Methods and apparatus for training an artificial neural network for use in speech recognition
CN104468522B (zh) * 2014-11-07 2017-10-03 百度在线网络技术(北京)有限公司 一种声纹验证方法和装置
CN104376250A (zh) * 2014-12-03 2015-02-25 优化科技(苏州)有限公司 基于音型像特征的真人活体身份验证方法
KR101802061B1 (ko) 2015-10-16 2017-11-27 한국과학기술원 얼굴 시공간 특징에 기반한 자동 생체 인증 방법 및 시스템
CN105426723A (zh) * 2015-11-20 2016-03-23 北京得意音通技术有限责任公司 基于声纹识别、人脸识别以及同步活体检测的身份认证方法及系统
CN106790260A (zh) * 2017-02-03 2017-05-31 国政通科技股份有限公司 一种多因子身份认证方法

Also Published As

Publication number Publication date
US10635893B2 (en) 2020-04-28
CN109726624A (zh) 2019-05-07
EP3477519B1 (en) 2020-04-08
US20190130172A1 (en) 2019-05-02
KR102063037B1 (ko) 2020-01-07
KR20190049401A (ko) 2019-05-09
JP6619847B2 (ja) 2019-12-11
CN109726624B (zh) 2023-07-11
EP3477519A1 (en) 2019-05-01

Similar Documents

Publication Publication Date Title
JP2019082990A (ja) 身元認証方法、端末装置、およびコンピュータ可読記憶媒体{identity authentication method, terminal equipment and computer readable storage medium}
US10621991B2 (en) Joint neural network for speaker recognition
CN109214343B (zh) 用于生成人脸关键点检测模型的方法和装置
JP7126613B2 (ja) ドメイン分類器を使用したニューラルネットワークにおけるドメイン適応のためのシステム及び方法
US9875445B2 (en) Dynamic hybrid models for multimodal analysis
US9548048B1 (en) On-the-fly speech learning and computer model generation using audio-visual synchronization
US20220248091A1 (en) Sensitivity assessment for media production using artificial intelligence
JP7108144B2 (ja) クロスドメインバッチ正規化を使用したニューラルネットワークにおけるドメイン適応のためのシステム及び方法
CN108229376B (zh) 用于检测眨眼的方法及装置
US20230325663A1 (en) Systems and methods for domain adaptation in neural networks
CN110516083B (zh) 相册管理方法、存储介质及电子设备
WO2021083069A1 (zh) 用于训练换脸模型的方法和设备
WO2020019591A1 (zh) 用于生成信息的方法和装置
US20230068798A1 (en) Active speaker detection using image data
CN113343831A (zh) 视频中说话人分类方法、装置、电子设备和存储介质
CN108229375B (zh) 用于检测人脸图像的方法和装置
JP2023546173A (ja) 顔認識型人物再同定システム
CN111259698B (zh) 用于获取图像的方法及装置
Xu et al. Emotion recognition research based on integration of facial expression and voice
Yin et al. Acoustic-based Lip Reading for Mobile Devices: Dataset, Benchmark and A Self Distillation-based Approach
Folorunso et al. Laughter signature, a new approach to gender recognition
CN111971670A (zh) 在对话中生成响应
Su et al. Audio-Visual Multi-person Keyword Spotting via Hybrid Fusion
Padman et al. Multi-modal speech emotion detection using optimised deep neural network classifier
Alameda-Pineda Egocentric Audio-Visual Scene Analysis: a machine learning and signal processing approach

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191115

R150 Certificate of patent or registration of utility model

Ref document number: 6619847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250