JP6956349B2 - ユーザー登録方法、装置及び電子機器 - Google Patents
ユーザー登録方法、装置及び電子機器 Download PDFInfo
- Publication number
- JP6956349B2 JP6956349B2 JP2019554957A JP2019554957A JP6956349B2 JP 6956349 B2 JP6956349 B2 JP 6956349B2 JP 2019554957 A JP2019554957 A JP 2019554957A JP 2019554957 A JP2019554957 A JP 2019554957A JP 6956349 B2 JP6956349 B2 JP 6956349B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- user
- information
- voiceprint feature
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 105
- 238000004458 analytical method Methods 0.000 claims description 30
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 26
- 238000004891 communication Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 206010027175 memory impairment Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/1066—Session management
- H04L65/1073—Registration or de-registration
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/34—Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/14—Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/0861—Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Game Theory and Decision Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Telephonic Communication Services (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
Description
本願は、2017年4月10日に中国特許局に提出して出願番号が第201710229959.6で発明の名称が「ユーザー登録方法、装置及び電子機器」である中国特許出願に基づいて優先権を主張し、その全内容が援用により本願に取り込まれている。
本願はスマート機器分野に関し、特にユーザー登録方法、装置及び電子機器に関する。
ユーザーのウェイクアップ音声を取得するたびに、前記ウェイクアップ音声に対応する第1の声紋特徴を抽出して保存することと、
保存されている第1の声紋特徴をクラスタリングし、前記保存されている第1の声紋特徴を少なくとも1つのクラスに区分し、各クラスにおける第1の声紋特徴が同じユーザーに属することと、
各クラスに1つのクラス識別子を割り当てることと、
各クラス識別子と、それに対応する少なくとも1つの第1の声紋特徴と、を対応して記憶し、ユーザー登録を完成することと、を含む。
保存されている各第1の声紋特徴の間の類似度をクラスタリングアルゴリズムで計算することと、
類似度に基づいてすべての第1の声紋特徴を少なくとも1つのクラスに区分することと、を含む。
ユーザーのサービス命令音声を取得するたびに、前記サービス命令音声に対応する第2の声紋特徴を抽出して保存することと、
前記サービス命令音声に対応するサービスタイプを決定することと、
前記第2の声紋特徴を各前記クラスにおける各第1の声紋特徴とマッチングすることと、
マッチしている第1の声紋特徴のクラス識別子と、前記サービスタイプと、を対応して記憶することと、を含む。
前記サービス命令音声を認識し、サービス命令音声認識情報を取得することと、
前記サービス命令音声認識情報に対して語意解析を行うことと、
語意解析結果に基づき、前記サービス命令音声に対応するサービスタイプを決定することと、を含む。
ウェイクアップ音声に対応する第1の声紋特徴を抽出した後、前記ウェイクアップ音声に対応する第1の声紋特徴を認識予定の声紋特徴として決定することと、
前記認識予定の声紋特徴を各クラスにおける第1の声紋特徴とマッチングすることと、
マッチしている第1の声紋特徴に対応するクラス識別子を目標クラス識別子として決定することと、
前記目標クラス識別子に対応してサービスタイプ記憶されているかどうかを判断することと、
肯定の場合、記憶されているサービスタイプに対応するサービス提示情報を出力することと、を含む。
認識された目標クラス識別子に基づき、第1のユーザー識別子を要求するリクエストを出力することと、
ユーザーがフィードバックした第1の音声情報を受信し、該第1の音声情報に対して音声認識を行って第1の音声認識情報を取得することと、
前記第1の音声認識情報を前記第1のユーザー識別子として決定することと、
前記第1のユーザー識別子と前記目標クラス識別子との対応関係を記録することと、を含む。
ユーザー登録命令を取得した後、ウェイクアップ音声サンプルを連続でN回に取得し、第2のユーザー識別子を要求するリクエストを出力し、Nが1より大きな整数であることと、
フィードバックした音声情報を受信し、該音声情報に対して音声認識を行って該音声に対応する音声認識情報を取得することと、
前記音声認識情報を前記第2のユーザー識別子として決定し、前記第2のユーザー識別子と、N個のウェイクアップ音声サンプルの声紋特徴と、をそれぞれに対応して記憶することと、を含む。
音声情報をリアルタイムで検出し、
ユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、
前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、
前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定する。
前記方法は、更に、以下のようにユーザーのウェイクアップ音声を取得する、即ち、
前記スマート機器から送信されたウェイクアップ音声を受信し、前記スマート機器から送信されたウェイクアップ音声は、前記スマート機器がユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定し、該ウェイクアップ音声を前記クラウドサーバーに送信するものである。
ユーザーのウェイクアップ音声を取得するたびに、前記ウェイクアップ音声に対応する第1の声紋特徴を抽出して保存するための第1の抽出モジュールと、
保存されている第1の声紋特徴をクラスタリングし、前記保存されている第1の声紋特徴を少なくとも1つのクラスに区分するためのクラスタリングモジュールであって、各クラスにおける第1の声紋特徴が同じユーザーに属するクラスタリングモジュールと、
各クラスに1つのクラス識別子を割り当てるための割り当てモジュールと、
各クラス識別子と、それに対応する少なくとも1つの第1の声紋特徴と、を対応して記憶してユーザー登録を完成するための第1の記憶モジュールと、を備える。
保存されている各第1の声紋特徴の間の類似度をクラスタリングアルゴリズムで計算するための計算ユニットと、
類似度に基づいてすべての第1の声紋特徴を少なくとも1つのクラスに区分するための区分ユニットと、を備える。
ユーザーのサービス命令音声を取得するたびに、前記サービス命令音声に対応する第2の声紋特徴を抽出して保存するための第2の抽出モジュールと、
前記サービス命令音声に対応するサービスタイプを決定するための第1の決定モジュールと、
前記第2の声紋特徴を各前記クラスにおける各第1の声紋特徴とマッチングするための第1のマッチングモジュールと、
マッチしている第1の声紋特徴のクラス識別子と、前記サービスタイプと、を対応して記憶するための第2の記憶モジュールと、を備える。
前記サービス命令音声を認識し、サービス命令音声認識情報を取得するための第1の認識ユニットと、
前記サービス命令音声認識情報に対して語意解析を行うための解析ユニットと、
語意解析結果に基づき、前記サービス命令音声に対応するサービスタイプを決定するための第1の決定ユニットと、を備える。
ウェイクアップ音声に対応する第1の声紋特徴を抽出した後、前記ウェイクアップ音声に対応する第1の声紋特徴を認識予定の声紋特徴として決定するための第2の決定モジュールと、
前記認識予定の声紋特徴を各クラスにおける第1の声紋特徴とマッチングするための第2のマッチングモジュールと、
マッチしている第1の声紋特徴に対応するクラス識別子を目標クラス識別子として決定するための第3の決定モジュールと、
前記目標クラス識別子に対応してサービスタイプ記憶されているかどうかを判断するための判断モジュールと、
前記判断モジュールの判断結果が肯定である場合、記憶されているサービスタイプに対応するサービス提示情報を出力するための第1の出力モジュールと、を備える。
認識された目標クラス識別子に基づき、第1のユーザー識別子を要求するリクエストを出力するための第2の出力モジュールと、
ユーザーが前記第1のユーザー識別子を要求するリクエストに対してフィードバックした第1の音声情報を受信し、該第1の音声情報に対して音声認識を行って第1の音声認識情報を取得するための第1の認識モジュールと、
前記第1の音声認識情報を前記第1のユーザー識別子として決定するための第4の決定モジュールと、
前記第1のユーザー識別子と前記目標クラス識別子との対応関係を記録するための記録モジュールと、を備える。
ユーザー登録命令を取得した後、ウェイクアップ音声サンプルを連続でN回に取得し、第2のユーザー識別子を要求するリクエストを出力するための第2の出力モジュールであって、Nが1より大きな整数である第2の出力モジュールと、
ユーザーが前記第2のユーザー識別子を要求するリクエストに対してフィードバックした音声情報を受信し、該音声情報に対して音声認識を行って該音声に対応する音声認識情報を取得するための第2の認識モジュールと、
前記音声認識情報を前記第2のユーザー識別子として決定し、前記第2のユーザー識別子と、N個のウェイクアップ音声サンプルの声紋特徴と、をそれぞれに対応して記憶するための第3の記憶モジュールと、を備える。
ユーザーのウェイクアップ音声を取得するための第1の取得モジュールを備え、
前記第1の取得モジュールは、
音声情報をリアルタイムで検出するための検出ユニットと、
ユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定するための第2の決定ユニットと、
前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得するための第2の認識ユニットと、
前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定するための第3の決定ユニットと、を備える。
前記装置は、更に、
ユーザーのウェイクアップ音声を取得するための第1の取得モジュールを備え、
前記第1の取得モジュールは、具体的に、前記スマート機器から送信されたウェイクアップ音声を受信するためのものであり、前記スマート機器から送信されたウェイクアップ音声は、前記スマート機器がユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、前記目標音声認識情報がプリセットしたウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定し、該ウェイクアップ音声を前記クラウドサーバーに送信するものである。
スマート機器は、以下のようにユーザーのウェイクアップ音声を取得する、即ち、
音声情報をリアルタイムで検出し、ユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、前記目標認識予定音声情報に対して音声認識を行って目標音声認識情報を取得し、前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定する。
前記スマート機器から送信されたウェイクアップ音声を受信し、該ウェイクアップ音声を前記クラウドサーバーに送信する。前記スマート機器から送信されたウェイクアップ音声は、前記スマート機器がユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定する。
ユーザーのウェイクアップ音声を取得するたびに、前記ウェイクアップ音声に対応する第1の声紋特徴を抽出して保存するための第1の抽出モジュール310と、
保存されている第1の声紋特徴をクラスタリングし、前記保存されている第1の声紋特徴を少なくとも1つのクラスに区分するためのクラスタリングモジュールであって、各クラスにおける第1の声紋特徴が同じユーザーに属するクラスタリングモジュール320と、
各クラスに1つのクラス識別子を割り当てるための割り当てモジュール330と、
各クラス識別子と、それに対応する少なくとも1つの第1の声紋特徴と、を対応して記憶してユーザー登録を完成するための第1の記憶モジュール340と、を備える。
保存されている各第1の声紋特徴の間の類似度をクラスタリングアルゴリズムで計算するための計算ユニットと、
類似度に基づいてすべての第1の声紋特徴を少なくとも1つのクラスに区分するための区分ユニットと、を備える。
ユーザーのサービス命令音声を取得するたびに、前記サービス命令音声に対応する第2の声紋特徴を抽出して保存するための第2の抽出モジュール350と、
前記サービス命令音声に対応するサービスタイプを決定するための第1の決定モジュール360と、
前記第2の声紋特徴を各前記クラスにおける各第1の声紋特徴とマッチングするための第1のマッチングモジュール370と、
マッチしている第1の声紋特徴のクラス識別子と、前記サービスタイプと、を対応して記憶するための第2の記憶モジュール380と、を備える。
前記サービス命令音声を認識し、サービス命令音声認識情報を取得するための第1の認識ユニットと、
前記サービス命令音声認識情報に対して語意解析を行うための解析ユニットと、
語意解析結果に基づき、前記サービス命令音声に対応するサービスタイプを決定するための第1の決定ユニットと、を備える。
ウェイクアップ音声に対応する第1の声紋特徴を抽出した後、前記ウェイクアップ音声に対応する第1の声紋特徴を認識予定の声紋特徴として決定するための第2の決定モジュール390と、
前記認識予定の声紋特徴を各クラスにおける第1の声紋特徴とマッチングするための第2のマッチングモジュール3100と、
マッチしている第1の声紋特徴に対応するクラス識別子を目標クラス識別子として決定するための第3の決定モジュール3110と、
前記目標クラス識別子に対応してサービスタイプ記憶されているかどうかを判断するための判断モジュール3120と、
前記判断モジュールの判断結果が肯定である場合、記憶されているサービスタイプに対応するサービス提示情報を出力するための第1の出力モジュール3130と、を備える。
認識された目標クラス識別子に基づき、第1のユーザー識別子を要求するリクエストを出力するための第2の出力モジュールと、
ユーザーが前記第1のユーザー識別子を要求するリクエストに対してフィードバックした第1の音声情報を受信し、該第1の音声情報に対して音声認識を行って第1の音声認識情報を取得するための第1の認識モジュールと、
前記第1の音声認識情報を前記第1のユーザー識別子として決定するための第4の決定モジュールと、
前記第1のユーザー識別子と前記目標クラス識別子との対応関係を記録するための記録モジュールと、を備える。
ユーザー登録命令を取得した後、ウェイクアップ音声サンプルを連続でN回に取得し、第2のユーザー識別子を要求するリクエストを出力するための第2の出力モジュールであって、Nが1より大きな整数である第2の出力モジュールと、
ユーザーが前記第2のユーザー識別子を要求するリクエストに対してフィードバックした音声情報を受信し、該音声情報に対して音声認識を行って該音声に対応する音声認識情報を取得するための第2の認識モジュールと、
前記音声認識情報を前記第2のユーザー識別子として決定し、前記第2のユーザー識別子と、N個のウェイクアップ音声サンプルの声紋特徴と、をそれぞれに対応して記憶するための第3の記憶モジュールと、を備える。
ユーザーのウェイクアップ音声を取得するための第1の取得モジュールを備え、
前記第1の取得モジュールは、
音声情報をリアルタイムで検出するための検出ユニットと、
ユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定するための第2の決定ユニットと、
前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得するための第2の認識ユニットと、
前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定するための第3の決定ユニットと、を備える。
前記装置は、更に、
ユーザーのウェイクアップ音声を取得するための第1の取得モジュールを備え、
前記第1の取得モジュールは、具体的に、前記スマート機器から送信されたウェイクアップ音声を受信するためのものであり、前記スマート機器から送信されたウェイクアップ音声は、前記スマート機器がユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定し、該ウェイクアップ音声を前記クラウドサーバーに送信するものである。
ハウジング510、プロセッサ520、メモリ530、回路基板540及び電源回路550を備える電子機器であって、
回路基板540がハウジング510で囲んでなる空間内部に設置され、プロセッサ520及びメモリ530が回路基板に設置され、電源回路550が電子機器の各回路又は素子に給電することに用いられ、メモリ530が実行可能なプログラムコードを記憶することに用いられ、プロセッサ520が前記ユーザー登録方法を実行するように、メモリ530に記憶される実行可能なプログラムコードを読み取って実行可能なプログラムコードに対応するプログラムを実行する。
ユーザーのウェイクアップ音声を取得するたびに、前記ウェイクアップ音声に対応する第1の声紋特徴を抽出して保存することと、
保存されている第1の声紋特徴をクラスタリングし、前記保存されている第1の声紋特徴を少なくとも1つのクラスに区分し、各クラスにおける第1の声紋特徴が同じユーザーに属することと、
各クラスに1つのクラス識別子を割り当てることと、
各クラス識別子と、それに対応する少なくとも1つの第1の声紋特徴と、を対応して記憶し、ユーザー登録を完成することと、を含む。
このような装置の特徴はモバイル通信機能を有し、且つ音声、データ通信を提供することを主な目的とする。このような端末はスマートフォン(例えば、iPhone(登録商標))、マルチメディア携帯電話、機能的携帯電話及びローエンド携帯電話等を含む。
このような装置はパーソナルコンピュータ範囲に属し、計算及び処理機能を有し、一般的にモバイルインターネット特性も有する。このような端末はPDA、MID及びUMPC装置等、例えばiPad(登録商標)を含む。
このような装置はマルチメディアコンテンツを表示・再生することができる。このような装置はオーディオ、ビデオプレーヤー(例えば、iPod(登録商標))、携帯ゲーム機、電子書籍、並びにスマートトイ及び携帯用カーナビゲーション装置を含む。
計算サービスを提供する装置であり、サーバーの構造はプロセッサ、ハードディスク、メモリ、システムバス等を備え、サーバーが汎用のコンピュータアーキテクチャと類似するが、高信頼性のサービスを提供する必要があるため、処理能力、安定性、信頼性、安全性、拡張性、管理性等の面での要求がより高い。
保存されている各第1の声紋特徴の間の類似度をクラスタリングアルゴリズムで計算することと、
類似度に基づいてすべての第1の声紋特徴を少なくとも1つのクラスに区分することと、を含む。
ユーザーのサービス命令音声を取得するたびに、前記サービス命令音声に対応する第2の声紋特徴を抽出して保存することと、
前記サービス命令音声に対応するサービスタイプを決定することと、
前記第2の声紋特徴を各前記クラスにおける各第1の声紋特徴とマッチングすることと、
マッチしている第1の声紋特徴のクラス識別子と、前記サービスタイプと、を対応して記憶することと、を含む。
前記サービス命令音声を認識し、サービス命令音声認識情報を取得することと、
前記サービス命令音声認識情報に対して語意解析を行うことと、
語意解析結果に基づき、前記サービス命令音声に対応するサービスタイプを決定することと、を含む。
ウェイクアップ音声に対応する第1の声紋特徴を抽出した後、前記ウェイクアップ音声に対応する第1の声紋特徴を認識予定の声紋特徴として決定することと、
前記認識予定の声紋特徴を各クラスにおける第1の声紋特徴とマッチングすることと、
マッチしている第1の声紋特徴に対応するクラス識別子を目標クラス識別子として決定することと、
前記目標クラス識別子に対応してサービスタイプ記憶されているかどうかを判断することと、
肯定の場合、記憶されているサービスタイプに対応するサービス提示情報を出力することと、を含む。
認識された目標クラス識別子に基づき、第1のユーザー識別子を要求するリクエストを出力することと、
ユーザーがフィードバックした第1の音声情報を受信し、該第1の音声情報に対して音声認識を行って第1の音声認識情報を取得することと、
前記第1の音声認識情報を前記第1のユーザー識別子として決定することと、
前記第1のユーザー識別子と前記目標クラス識別子との対応関係を記録することと、を含む。
ユーザー登録命令を取得した後、ウェイクアップ音声サンプルを連続でN回に取得し、第2のユーザー識別子を要求するリクエストを出力し、Nが1より大きな整数であることと、
フィードバックした音声情報を受信し、該音声情報に対して音声認識を行って該音声に対応する音声認識情報を取得することと、
前記音声認識情報を前記第2のユーザー識別子として決定し、前記第2のユーザー識別子と、N個のウェイクアップ音声サンプルの声紋特徴と、をそれぞれに対応して記憶することと、を含む。
音声情報をリアルタイムで検出し、
ユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、
前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、
前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定する。
前記方法は、更に、以下のようにユーザーのウェイクアップ音声を取得する、即ち、
前記スマート機器から送信されたウェイクアップ音声を受信し、前記スマート機器から送信されたウェイクアップ音声は、前記スマート機器がユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定し、該ウェイクアップ音声を前記クラウドサーバーに送信するものである。
ユーザーのウェイクアップ音声を取得するたびに、前記ウェイクアップ音声に対応する第1の声紋特徴を抽出して保存することと、
保存されている第1の声紋特徴をクラスタリングし、前記保存されている第1の声紋特徴を少なくとも1つのクラスに区分し、各クラスにおける第1の声紋特徴が同じユーザーに属することと、
各クラスに1つのクラス識別子を割り当てることと、
各クラス識別子と、それに対応する少なくとも1つの第1の声紋特徴と、を対応して記憶し、ユーザー登録を完成することである。
保存されている各第1の声紋特徴の間の類似度をクラスタリングアルゴリズムで計算することと、
類似度に基づいてすべての第1の声紋特徴を少なくとも1つのクラスに区分することと、を含む。
ユーザーのサービス命令音声を取得するたびに、前記サービス命令音声に対応する第2の声紋特徴を抽出して保存することと、
前記サービス命令音声に対応するサービスタイプを決定することと、
前記第2の声紋特徴を各前記クラスにおける各第1の声紋特徴とマッチングすることと、
マッチしている第1の声紋特徴のクラス識別子と、前記サービスタイプと、を対応して記憶することと、を含む。
前記サービス命令音声を認識し、サービス命令音声認識情報を取得することと、
前記サービス命令音声認識情報に対して語意解析を行うことと、
語意解析結果に基づき、前記サービス命令音声に対応するサービスタイプを決定することと、を含む。
ウェイクアップ音声に対応する第1の声紋特徴を抽出した後、前記ウェイクアップ音声に対応する第1の声紋特徴を認識予定の声紋特徴として決定することと、
前記認識予定の声紋特徴を各クラスにおける第1の声紋特徴とマッチングすることと、
マッチしている第1の声紋特徴に対応するクラス識別子を目標クラス識別子として決定することと、
前記目標クラス識別子に対応してサービスタイプ記憶されているかどうかを判断することと、
肯定の場合、記憶されているサービスタイプに対応するサービス提示情報を出力することと、を含む。
認識された目標クラス識別子に基づき、第1のユーザー識別子を要求するリクエストを出力することと、
ユーザーがフィードバックした第1の音声情報を受信し、該第1の音声情報に対して音声認識を行って第1の音声認識情報を取得することと、
前記第1の音声認識情報を前記第1のユーザー識別子として決定することと、
前記第1のユーザー識別子と前記目標クラス識別子との対応関係を記録することと、を含む。
ユーザー登録命令を取得した後、ウェイクアップ音声サンプルを連続でN回に取得し、第2のユーザー識別子を要求するリクエストを出力し、Nが1より大きな整数であることと、
フィードバックした音声情報を受信し、該音声情報に対して音声認識を行って該音声に対応する音声認識情報を取得することと、
前記音声認識情報を前記第2のユーザー識別子として決定し、前記第2のユーザー識別子と、N個のウェイクアップ音声サンプルの声紋特徴と、をそれぞれに対応して記憶することと、を含む。
音声情報をリアルタイムで検出し、
ユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、
前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、
前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定する。
前記方法は、更に、以下のようにユーザーのウェイクアップ音声を取得する、即ち、
前記スマート機器から送信されたウェイクアップ音声を受信し、前記スマート機器から送信されたウェイクアップ音声は、前記スマート機器がユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定し、該ウェイクアップ音声を前記クラウドサーバーに送信するものである。
ユーザーのウェイクアップ音声を取得するたびに、前記ウェイクアップ音声に対応する第1の声紋特徴を抽出して保存することと、
保存されている第1の声紋特徴をクラスタリングし、前記保存されている第1の声紋特徴を少なくとも1つのクラスに区分し、各クラスにおける第1の声紋特徴が同じユーザーに属することと、
各クラスに1つのクラス識別子を割り当てることと、
各クラス識別子と、それに対応する少なくとも1つの第1の声紋特徴と、を対応して記憶し、ユーザー登録を完成することである。
保存されている各第1の声紋特徴の間の類似度をクラスタリングアルゴリズムで計算することと、
類似度に基づいてすべての第1の声紋特徴を少なくとも1つのクラスに区分することと、を含む。
ユーザーのサービス命令音声を取得するたびに、前記サービス命令音声に対応する第2の声紋特徴を抽出して保存することと、
前記サービス命令音声に対応するサービスタイプを決定することと、
前記第2の声紋特徴を各前記クラスにおける各第1の声紋特徴とマッチングすることと、
マッチしている第1の声紋特徴のクラス識別子と、前記サービスタイプと、を対応して記憶することと、を含む。
前記サービス命令音声を認識し、サービス命令音声認識情報を取得することと、
前記サービス命令音声認識情報に対して語意解析を行うことと、
語意解析結果に基づき、前記サービス命令音声に対応するサービスタイプを決定することと、を含む。
ウェイクアップ音声に対応する第1の声紋特徴を抽出した後、前記ウェイクアップ音声に対応する第1の声紋特徴を認識予定の声紋特徴として決定することと、
前記認識予定の声紋特徴を各クラスにおける第1の声紋特徴とマッチングすることと、
マッチしている第1の声紋特徴に対応するクラス識別子を目標クラス識別子として決定することと、
前記目標クラス識別子に対応してサービスタイプ記憶されているかどうかを判断することと、
肯定の場合、記憶されているサービスタイプに対応するサービス提示情報を出力することと、を含む。
認識された目標クラス識別子に基づき、第1のユーザー識別子を要求するリクエストを出力することと、
ユーザーがフィードバックした第1の音声情報を受信し、該第1の音声情報に対して音声認識を行って第1の音声認識情報を取得することと、
前記第1の音声認識情報を前記第1のユーザー識別子として決定することと、
前記第1のユーザー識別子と前記目標クラス識別子との対応関係を記録することと、を含む。
ユーザー登録命令を取得した後、ウェイクアップ音声サンプルを連続でN回に取得し、第2のユーザー識別子を要求するリクエストを出力し、Nが1より大きな整数であることと、
フィードバックした音声情報を受信し、該音声情報に対して音声認識を行って該音声に対応する音声認識情報を取得することと、
前記音声認識情報を前記第2のユーザー識別子として決定し、前記第2のユーザー識別子と、N個のウェイクアップ音声サンプルの声紋特徴と、をそれぞれに対応して記憶することと、を含む。
音声情報をリアルタイムで検出し、
ユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、
前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、
前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定する。
前記方法は、更に、以下のようにユーザーのウェイクアップ音声を取得する、即ち、
前記スマート機器から送信されたウェイクアップ音声を受信し、前記スマート機器から送信されたウェイクアップ音声は、前記スマート機器がユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定し、該ウェイクアップ音声を前記クラウドサーバーに送信するものである。
Claims (19)
- 電子機器に適用されるユーザー登録方法であって、
ユーザーのウェイクアップ音声を取得するたびに、前記ウェイクアップ音声に対応する第1の声紋特徴を抽出して保存することと、
保存されている各第1の声紋特徴の間の類似度をクラスタリングアルゴリズムで計算し、類似度に基づいてすべての第1の声紋特徴を少なくとも1つのクラスに区分し、各クラスにおける第1の声紋特徴が同じユーザーに属することと、
各クラスに1つのクラス識別子を割り当てることと、
各クラス識別子と、それに対応する少なくとも1つの第1の声紋特徴と、を対応して記憶し、ユーザー登録を完成することと、を含む
ことを特徴とするユーザー登録方法。 - 前記方法は、更に、
ユーザーのサービス命令音声を取得するたびに、前記サービス命令音声に対応する第2の声紋特徴を抽出して保存することと、
前記サービス命令音声に対応するサービスタイプを決定することと、
前記第2の声紋特徴を各前記クラスにおける各第1の声紋特徴とマッチングすることと、
マッチしている第1の声紋特徴のクラス識別子と、前記サービスタイプと、を対応して記憶することと、を含む
ことを特徴とする請求項1に記載の方法。 - 前記サービス命令音声に対応するサービスタイプを決定することは、
前記サービス命令音声を認識し、サービス命令音声認識情報を取得することと、
前記サービス命令音声認識情報に対して語意解析を行うことと、
語意解析結果に基づき、前記サービス命令音声に対応するサービスタイプを決定することと、を含む
ことを特徴とする請求項2に記載の方法。 - 前記方法は、更に、
ウェイクアップ音声に対応する第1の声紋特徴を抽出した後、前記ウェイクアップ音声に対応する第1の声紋特徴を認識予定の声紋特徴として決定することと、
前記認識予定の声紋特徴を各クラスにおける第1の声紋特徴とマッチングすることと、
マッチしている第1の声紋特徴に対応するクラス識別子を目標クラス識別子として決定することと、
前記目標クラス識別子に対応してサービスタイプが記憶されているかどうかを判断することと、
肯定の場合、記憶されているサービスタイプに対応するサービス提示情報を出力することと、を含む
ことを特徴とする請求項2に記載の方法。 - 前記方法は、更に、
認識された目標クラス識別子に基づき、第1のユーザー識別子を要求するリクエストを出力することと、
ユーザーが前記第1のユーザー識別子を要求するリクエストに対してフィードバックした第1の音声情報を受信し、該第1の音声情報に対して音声認識を行って第1の音声認識情報を取得することと、
前記第1の音声認識情報を前記第1のユーザー識別子として決定することと、
前記第1のユーザー識別子と前記目標クラス識別子との対応関係を記録することと、を含む
ことを特徴とする請求項4に記載の方法。 - 前記方法は、更に、
ユーザー登録命令を取得した後、ウェイクアップ音声サンプルを連続でN回に取得し、第2のユーザー識別子を要求するリクエストを出力し、Nが1より大きな整数であることと、
ユーザーが前記第2のユーザー識別子を要求するリクエストに対してフィードバックした音声情報を受信し、該音声情報に対して音声認識を行って該音声に対応する音声認識情報を取得することと、
前記音声認識情報を前記第2のユーザー識別子として決定し、前記第2のユーザー識別子と、N個のウェイクアップ音声サンプルの声紋特徴と、をそれぞれに対応して記憶することと、を含む
ことを特徴とする請求項1に記載の方法。 - 前記電子機器がスマート機器であり、
前記方法は、更に、以下のようにユーザーのウェイクアップ音声を取得する、即ち、
音声情報をリアルタイムで検出し、
ユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、
前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、
前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定する
ことを特徴とする請求項1〜6のいずれか1項に記載の方法。 - 前記電子機器がスマート機器と通信接続されるクラウドサーバーであり、
前記方法は、更に、以下のようにユーザーのウェイクアップ音声を取得する、即ち、
前記スマート機器から送信されたウェイクアップ音声を受信し、前記スマート機器から送信されたウェイクアップ音声は、前記スマート機器がユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定し、該ウェイクアップ音声を前記クラウドサーバーに送信するものである
ことを特徴とする請求項1〜6のいずれか1項に記載の方法。 - 電子機器に適用されるユーザー登録装置であって、
ユーザーのウェイクアップ音声を取得するたびに、前記ウェイクアップ音声に対応する第1の声紋特徴を抽出して保存するための第1の抽出モジュールと、
保存されている第1の声紋特徴をクラスタリングし、前記保存されている第1の声紋特徴を少なくとも1つのクラスに区分するためのクラスタリングモジュールであって、各クラスにおける第1の声紋特徴が同じユーザーに属するクラスタリングモジュールと、
各クラスに1つのクラス識別子を割り当てるための割り当てモジュールと、
各クラス識別子と、それに対応する少なくとも1つの第1の声紋特徴と、を対応して記憶してユーザー登録を完成するための第1の記憶モジュールと、を備え、
前記クラスタリングモジュールは、
保存されている各第1の声紋特徴の間の類似度をクラスタリングアルゴリズムで計算するための計算ユニットと、
類似度に基づいてすべての第1の声紋特徴を少なくとも1つのクラスに区分するための区分ユニットと、を備える
ことを特徴とするユーザー登録装置。 - 前記装置は、更に、
ユーザーのサービス命令音声を取得するたびに、前記サービス命令音声に対応する第2の声紋特徴を抽出して保存するための第2の抽出モジュールと、
前記サービス命令音声に対応するサービスタイプを決定するための第1の決定モジュールと、
前記第2の声紋特徴を各前記クラスにおける各第1の声紋特徴とマッチングするための第1のマッチングモジュールと、
マッチしている第1の声紋特徴のクラス識別子と、前記サービスタイプと、を対応して記憶するための第2の記憶モジュールと、を備える
ことを特徴とする請求項9に記載の装置。 - 前記第1の決定モジュールは、
前記サービス命令音声を認識し、サービス命令音声認識情報を取得するための第1の認識ユニットと、
前記サービス命令音声認識情報に対して語意解析を行うための解析ユニットと、
語意解析結果に基づき、前記サービス命令音声に対応するサービスタイプを決定するための第1の決定ユニットと、を備える
ことを特徴とする請求項10に記載の装置。 - 前記装置は、更に、
ウェイクアップ音声に対応する第1の声紋特徴を抽出した後、前記ウェイクアップ音声に対応する第1の声紋特徴を認識予定の声紋特徴として決定するための第2の決定モジュールと、
前記認識予定の声紋特徴を各クラスにおける第1の声紋特徴とマッチングするための第2のマッチングモジュールと、
マッチしている第1の声紋特徴に対応するクラス識別子を目標クラス識別子として決定するための第3の決定モジュールと、
前記目標クラス識別子に対応してサービスタイプが記憶されているかどうかを判断するための判断モジュールと、
前記判断モジュールの判断結果が肯定である場合、記憶されているサービスタイプに対応するサービス提示情報を出力するための第1の出力モジュールと、を備える
ことを特徴とする請求項10に記載の装置。 - 前記装置は、更に、
認識された目標クラス識別子に基づき、第1のユーザー識別子を要求するリクエストを出力するための第2の出力モジュールと、
ユーザーが前記第1のユーザー識別子を要求するリクエストに対してフィードバックした第1の音声情報を受信し、該第1の音声情報に対して音声認識を行って第1の音声認識情報を取得するための第1の認識モジュールと、
前記第1の音声認識情報を前記第1のユーザー識別子として決定するための第4の決定モジュールと、
前記第1のユーザー識別子と前記目標クラス識別子との対応関係を記録するための記録モジュールと、を備える
ことを特徴とする請求項12に記載の装置。 - 前記装置は、更に、
ユーザー登録命令を取得した後、ウェイクアップ音声サンプルを連続でN回に取得し、第2のユーザー識別子を要求するリクエストを出力するための第2の出力モジュールであって、Nが1より大きな整数である第2の出力モジュールと、
ユーザーが前記第2のユーザー識別子を要求するリクエストに対してフィードバックした音声情報を受信し、該音声情報に対して音声認識を行って該音声に対応する音声認識情報を取得するための第2の認識モジュールと、
前記音声認識情報を前記第2のユーザー識別子として決定し、前記第2のユーザー識別子と、N個のウェイクアップ音声サンプルの声紋特徴と、をそれぞれに対応して記憶するための第3の記憶モジュールと、を備える
ことを特徴とする請求項9に記載の装置。 - 前記電子機器がスマート機器であり、前記装置は、更に、
ユーザーのウェイクアップ音声を取得するための第1の取得モジュールを備え、
前記第1の取得モジュールは、
音声情報をリアルタイムで検出するための検出ユニットと、
ユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定するための第2の決定ユニットと、
前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得するための第2の認識ユニットと、
前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定するための第3の決定ユニットと、を備える
ことを特徴とする請求項9〜14のいずれか1項に記載の装置。 - 前記電子機器がスマート機器と通信接続されるクラウドサーバーであり、
前記装置は、更に、
ユーザーのウェイクアップ音声を取得するための第1の取得モジュールを備え、
前記第1の取得モジュールは、具体的に、前記スマート機器から送信されたウェイクアップ音声を受信するためのものであり、前記スマート機器から送信されたウェイクアップ音声は、前記スマート機器がユーザーが音声情報を入力したと検出した後、ミュートする時間の長さがプリセット音声休止時間の長さに達するとき、ユーザーの入力した音声情報を目標認識予定音声情報として決定し、前記目標認識予定音声情報に対して音声認識を行って、目標音声認識情報を取得し、前記目標音声認識情報がプリセットのウェイクアップワードと同じである場合、前記目標認識予定音声情報をウェイクアップ音声として決定し、該ウェイクアップ音声を前記クラウドサーバーに送信するものである
ことを特徴とする請求項9〜14のいずれか1項に記載の装置。 - ハウジング、プロセッサ、メモリ、回路基板及び電源回路を備える電子機器であって、
回路基板がハウジングで囲んでなる空間内部に設置され、プロセッサ及びメモリが回路基板に設置され、電源回路が電子機器の各回路又は素子に給電することに用いられ、メモリが実行可能なプログラムコードを記憶することに用いられ、プロセッサが請求項1〜8のいずれか1項に記載のユーザー登録方法を実行するように、メモリに記憶される実行可能なプログラムコードを読み取って実行可能なプログラムコードに対応するプログラムを実行する
ことを特徴とする電子機器。 - コンピュータ可読記憶媒体であって、
前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶され、前記コンピュータプログラムがプロセッサにより実行されるとき、請求項1〜8のいずれか1項に記載のユーザー登録方法を実現する
ことを特徴とするコンピュータ可読記憶媒体。 - アプリケーションプログラムであって、
前記アプリケーションプログラムは実行される時に請求項1〜8のいずれか1項に記載のユーザー登録方法を実行することに用いられる
ことを特徴とするアプリケーションプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710229959.6 | 2017-04-10 | ||
CN201710229959.6A CN107147618B (zh) | 2017-04-10 | 2017-04-10 | 一种用户注册方法、装置及电子设备 |
PCT/CN2018/082501 WO2018188586A1 (zh) | 2017-04-10 | 2018-04-10 | 一种用户注册方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020516935A JP2020516935A (ja) | 2020-06-11 |
JP6956349B2 true JP6956349B2 (ja) | 2021-11-02 |
Family
ID=59774616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019554957A Active JP6956349B2 (ja) | 2017-04-10 | 2018-04-10 | ユーザー登録方法、装置及び電子機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11568876B2 (ja) |
EP (1) | EP3611895B1 (ja) |
JP (1) | JP6956349B2 (ja) |
CN (1) | CN107147618B (ja) |
WO (1) | WO2018188586A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107147618B (zh) * | 2017-04-10 | 2020-05-15 | 易视星空科技无锡有限公司 | 一种用户注册方法、装置及电子设备 |
CN107978311B (zh) * | 2017-11-24 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 一种语音数据处理方法、装置以及语音交互设备 |
CN108958810A (zh) * | 2018-02-09 | 2018-12-07 | 北京猎户星空科技有限公司 | 一种基于声纹的用户识别方法、装置及设备 |
CN108509225B (zh) * | 2018-03-28 | 2021-07-16 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN108830063A (zh) * | 2018-05-31 | 2018-11-16 | 上海大学 | 基于亚马逊语音助手Alexa的以声纹识别进行用户权限管理的方法 |
CN108694947B (zh) * | 2018-06-27 | 2020-06-19 | Oppo广东移动通信有限公司 | 语音控制方法、装置、存储介质及电子设备 |
CN108962262B (zh) * | 2018-08-14 | 2021-10-08 | 思必驰科技股份有限公司 | 语音数据处理方法和装置 |
CN109215646B (zh) * | 2018-08-15 | 2021-08-17 | 北京百度网讯科技有限公司 | 语音交互处理方法、装置、计算机设备及存储介质 |
WO2020061787A1 (zh) * | 2018-09-26 | 2020-04-02 | 深圳市博电电子技术有限公司 | 一种智能马桶控制方法与智能马桶 |
CN109410934A (zh) * | 2018-10-19 | 2019-03-01 | 深圳魔听文化科技有限公司 | 一种基于声纹特征的多人声音分离方法、系统及智能终端 |
CN111179940A (zh) * | 2018-11-12 | 2020-05-19 | 阿里巴巴集团控股有限公司 | 一种语音识别方法、装置及计算设备 |
CN111198733A (zh) * | 2018-11-19 | 2020-05-26 | 阿里巴巴集团控股有限公司 | 开机画面显示方法、终端设备及存储介质 |
CN111292733A (zh) * | 2018-12-06 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 一种语音交互方法和装置 |
CN111462756B (zh) * | 2019-01-18 | 2023-06-27 | 北京猎户星空科技有限公司 | 声纹识别方法、装置、电子设备及存储介质 |
CN109961787A (zh) * | 2019-02-20 | 2019-07-02 | 北京小米移动软件有限公司 | 确定采集结束时间的方法及装置 |
CN110047492A (zh) * | 2019-03-08 | 2019-07-23 | 佛山市云米电器科技有限公司 | 一种通过声纹识别进行组网的方法及系统 |
CN110060693A (zh) * | 2019-04-16 | 2019-07-26 | Oppo广东移动通信有限公司 | 模型训练方法、装置、电子设备及存储介质 |
CN110517673B (zh) * | 2019-07-18 | 2023-08-18 | 平安科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
CN110889009B (zh) * | 2019-10-18 | 2023-07-21 | 平安科技(深圳)有限公司 | 一种声纹聚类方法、装置、处理设备以及计算机存储介质 |
CN110908629A (zh) * | 2019-11-18 | 2020-03-24 | 北京小米移动软件有限公司 | 电子设备操作方法、装置、电子设备和存储介质 |
CN111210829B (zh) * | 2020-02-19 | 2024-07-30 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、系统、设备和计算机可读存储介质 |
CN111429920B (zh) * | 2020-03-30 | 2024-01-23 | 北京奇艺世纪科技有限公司 | 用户区分方法、用户行为库确定方法、装置及设备 |
CN112051746B (zh) * | 2020-08-05 | 2023-02-07 | 华为技术有限公司 | 获取服务的方法以及装置 |
US11557278B2 (en) | 2020-12-10 | 2023-01-17 | Google Llc | Speaker dependent follow up actions and warm words |
CN112837687A (zh) * | 2021-03-03 | 2021-05-25 | 北京百家科技集团有限公司 | 一种答题方法、装置、计算机设备及存储介质 |
CN113241080A (zh) * | 2021-06-10 | 2021-08-10 | 思必驰科技股份有限公司 | 自动注册声纹识别方法和装置 |
CN113593582B (zh) * | 2021-06-24 | 2024-05-24 | 青岛海尔科技有限公司 | 智能设备的控制方法和装置、存储介质及电子设备 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3286339B2 (ja) * | 1992-03-25 | 2002-05-27 | 株式会社リコー | ウインドウ画面制御装置 |
US6246987B1 (en) * | 1998-02-04 | 2001-06-12 | Alcatel Usa Sourcing, L.P. | System for permitting access to a common resource in response to speaker identification and verification |
KR20050023941A (ko) * | 2003-09-03 | 2005-03-10 | 삼성전자주식회사 | 음성 인식 및 화자 인식을 통한 개별화된 서비스를제공하는 a/v 장치 및 그 방법 |
US7406422B2 (en) * | 2004-07-20 | 2008-07-29 | Hewlett-Packard Development Company, L.P. | Techniques for improving collaboration effectiveness |
US8595007B2 (en) * | 2006-06-15 | 2013-11-26 | NITV Federal Services, LLC | Voice print recognition software system for voice identification and matching |
JP5250576B2 (ja) * | 2010-02-25 | 2013-07-31 | 日本電信電話株式会社 | ユーザ判定装置、方法、プログラム及びコンテンツ配信システム |
CN102760434A (zh) * | 2012-07-09 | 2012-10-31 | 华为终端有限公司 | 一种声纹特征模型更新方法及终端 |
WO2014155652A1 (ja) * | 2013-03-29 | 2014-10-02 | 株式会社日立製作所 | 話者検索システム、プログラム |
US9460722B2 (en) * | 2013-07-17 | 2016-10-04 | Verint Systems Ltd. | Blind diarization of recorded calls with arbitrary number of speakers |
US9697828B1 (en) * | 2014-06-20 | 2017-07-04 | Amazon Technologies, Inc. | Keyword detection modeling using contextual and environmental information |
CN104123115B (zh) * | 2014-07-28 | 2017-05-24 | 联想(北京)有限公司 | 一种音频信息处理方法及电子设备 |
KR102246900B1 (ko) | 2014-07-29 | 2021-04-30 | 삼성전자주식회사 | 전자 장치 및 이의 음성 인식 방법 |
WO2016022588A1 (en) * | 2014-08-04 | 2016-02-11 | Flagler Llc | Voice tallying system |
CN105575391B (zh) * | 2014-10-10 | 2020-04-03 | 阿里巴巴集团控股有限公司 | 声纹信息管理方法、装置以及身份认证方法、系统 |
CN104575504A (zh) * | 2014-12-24 | 2015-04-29 | 上海师范大学 | 采用声纹和语音识别进行个性化电视语音唤醒的方法 |
KR102371697B1 (ko) * | 2015-02-11 | 2022-03-08 | 삼성전자주식회사 | 음성 기능 운용 방법 및 이를 지원하는 전자 장치 |
US10133538B2 (en) * | 2015-03-27 | 2018-11-20 | Sri International | Semi-supervised speaker diarization |
CN105096940B (zh) * | 2015-06-30 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 用于进行语音识别的方法和装置 |
US9754593B2 (en) * | 2015-11-04 | 2017-09-05 | International Business Machines Corporation | Sound envelope deconstruction to identify words and speakers in continuous speech |
CN105511608B (zh) * | 2015-11-30 | 2018-12-25 | 北京光年无限科技有限公司 | 基于智能机器人的交互方法及装置、智能机器人 |
US10884503B2 (en) * | 2015-12-07 | 2021-01-05 | Sri International | VPA with integrated object recognition and facial expression recognition |
CN106228988A (zh) * | 2016-07-29 | 2016-12-14 | 珠海市魅族科技有限公司 | 一种基于声纹信息的习惯信息匹配方法及装置 |
CN106295299A (zh) * | 2016-08-15 | 2017-01-04 | 歌尔股份有限公司 | 一种智能机器人的用户注册方法和装置 |
CN106375336A (zh) * | 2016-09-28 | 2017-02-01 | 北京金山安全软件有限公司 | 登录信息存储、提供方法及装置 |
US10181323B2 (en) * | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
CN106506524B (zh) * | 2016-11-30 | 2019-01-11 | 百度在线网络技术(北京)有限公司 | 用于验证用户的方法和装置 |
US10546575B2 (en) * | 2016-12-14 | 2020-01-28 | International Business Machines Corporation | Using recurrent neural network for partitioning of audio data into segments that each correspond to a speech feature cluster identifier |
CN107147618B (zh) * | 2017-04-10 | 2020-05-15 | 易视星空科技无锡有限公司 | 一种用户注册方法、装置及电子设备 |
-
2017
- 2017-04-10 CN CN201710229959.6A patent/CN107147618B/zh active Active
-
2018
- 2018-04-10 WO PCT/CN2018/082501 patent/WO2018188586A1/zh unknown
- 2018-04-10 EP EP18784748.8A patent/EP3611895B1/en active Active
- 2018-04-10 JP JP2019554957A patent/JP6956349B2/ja active Active
- 2018-04-10 US US16/603,800 patent/US11568876B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN107147618B (zh) | 2020-05-15 |
EP3611895A1 (en) | 2020-02-19 |
JP2020516935A (ja) | 2020-06-11 |
EP3611895C0 (en) | 2024-04-10 |
WO2018188586A1 (zh) | 2018-10-18 |
US20210110832A1 (en) | 2021-04-15 |
US11568876B2 (en) | 2023-01-31 |
EP3611895B1 (en) | 2024-04-10 |
CN107147618A (zh) | 2017-09-08 |
EP3611895A4 (en) | 2020-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6956349B2 (ja) | ユーザー登録方法、装置及び電子機器 | |
CN108694940B (zh) | 一种语音识别方法、装置及电子设备 | |
CN109427333B (zh) | 激活语音识别服务的方法和用于实现所述方法的电子装置 | |
CN106658129B (zh) | 基于情绪的终端控制方法、装置及终端 | |
US10043520B2 (en) | Multilevel speech recognition for candidate application group using first and second speech commands | |
US20170164049A1 (en) | Recommending method and device thereof | |
CN110069608B (zh) | 一种语音交互的方法、装置、设备和计算机存储介质 | |
US11188289B2 (en) | Identification of preferred communication devices according to a preference rule dependent on a trigger phrase spoken within a selected time from other command data | |
CN106098063B (zh) | 一种语音控制方法、终端设备和服务器 | |
CN108874895B (zh) | 交互信息推送方法、装置、计算机设备及存储介质 | |
CN108062354A (zh) | 信息推荐方法、系统、存储介质、电子设备及车辆 | |
US20180190295A1 (en) | Voice recognition | |
JP7063937B2 (ja) | 音声対話するための方法、装置、電子デバイス、コンピュータ読み取り可能な記憶媒体、及びコンピュータプログラム | |
US11721328B2 (en) | Method and apparatus for awakening skills by speech | |
CN107146605B (zh) | 一种语音识别方法、装置及电子设备 | |
CN109003607B (zh) | 语音识别方法、装置、存储介质及电子设备 | |
CN108600559B (zh) | 静音模式的控制方法、装置、存储介质及电子设备 | |
CN111506183A (zh) | 一种智能终端及用户交互方法 | |
CN110706691B (zh) | 语音验证方法及装置、电子设备和计算机可读存储介质 | |
CN113241080A (zh) | 自动注册声纹识别方法和装置 | |
US10818298B2 (en) | Audio processing | |
CN109543048B (zh) | 一种笔记生成方法及终端设备 | |
CN113593546B (zh) | 终端设备唤醒方法和装置、存储介质及电子装置 | |
CN112632222B (zh) | 一种终端设备和确定数据所属领域的方法 | |
CN110176227B (zh) | 一种语音识别的方法以及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6956349 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |