TW201905789A - 支付方法、客戶端、電子設備、儲存媒體和伺服器 - Google Patents
支付方法、客戶端、電子設備、儲存媒體和伺服器Info
- Publication number
- TW201905789A TW201905789A TW107106547A TW107106547A TW201905789A TW 201905789 A TW201905789 A TW 201905789A TW 107106547 A TW107106547 A TW 107106547A TW 107106547 A TW107106547 A TW 107106547A TW 201905789 A TW201905789 A TW 201905789A
- Authority
- TW
- Taiwan
- Prior art keywords
- user
- information
- feature vector
- voice
- payment
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 182
- 239000013598 vector Substances 0.000 claims abstract description 607
- 239000011159 matrix material Substances 0.000 claims description 111
- 238000004891 communication Methods 0.000 claims description 78
- 238000012545 processing Methods 0.000 claims description 47
- 238000004590 computer program Methods 0.000 claims description 33
- 238000012790 confirmation Methods 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 7
- 230000009467 reduction Effects 0.000 claims description 7
- 238000011946 reduction process Methods 0.000 claims 2
- 230000006870 function Effects 0.000 description 37
- 238000010586 diagram Methods 0.000 description 25
- 230000000694 effects Effects 0.000 description 18
- 238000012795 verification Methods 0.000 description 17
- 238000004422 calculation algorithm Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 238000005406 washing Methods 0.000 description 12
- 230000006872 improvement Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 239000003599 detergent Substances 0.000 description 5
- 230000008439 repair process Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000012512 characterization method Methods 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 2
- 229910052782 aluminium Inorganic materials 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 241001657948 Midea Species 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012011 method of payment Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/10—Payment architectures specially adapted for electronic funds transfer [EFT] systems; specially adapted for home banking systems
- G06Q20/102—Bill distribution or payments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/12—Payment architectures specially adapted for electronic shopping systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/30—Payment architectures, schemes or protocols characterised by the use of specific devices or networks
- G06Q20/36—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using electronic wallets or electronic money safes
- G06Q20/367—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using electronic wallets or electronic money safes involving electronic purses or money safes
- G06Q20/3674—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using electronic wallets or electronic money safes involving electronic purses or money safes involving authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
- G06Q20/40145—Biometric identity checks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/42—Confirmation, e.g. check or permission by the legal debtor of payment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
- G10L17/24—Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
- G06F2218/10—Feature extraction by analysing the shape of a waveform, e.g. extracting parameters relating to peaks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Security & Cryptography (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Signal Processing (AREA)
- Game Theory and Decision Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本發明實施方式公開了一種支付方法、客戶端、電子設備、儲存媒體和伺服器。所述方法包括:接收使用者的支付指令;根據使用者的語音輸入的音頻資訊,產生所述音頻資訊的語音特徵向量;將所述語音特徵向量與使用者特徵向量進行匹配;在匹配成功的情況下,將所述使用者特徵向量關聯的個人資訊發送給伺服器,以用於所述伺服器對所述個人資訊關聯的資源帳戶進行支付操作。所述方法可以給消費者購物帶來便利。
Description
本發明涉及電腦技術領域,特別涉及一種支付方法、客戶端、電子設備、儲存媒體和伺服器。
現實生活中,人們越來越習慣於網路購物,這種足不出戶的購物方式,給人們生活帶來了便利。 目前,人們可以使用電腦、手機等進行網路購物。比如,搜索感興趣的商品,瀏覽商家推薦的商品等。如果確定要購買時,會進入支付頁面,使用者輸入支付的密碼,以對使用者的身份進行驗證,驗證通過後發生付款。 現有技術中,使用者網路購物支付操作時,多數情況下需要使用者手動輸入使用者名和密碼,這種方式較為繁瑣,使用者體驗較差。
本發明實施方式的目的是提供一種支付方法、客戶端、電子設備、儲存媒體和伺服器。能夠提供給使用者一種安全便捷的支付方式。 為實現上述目的,本發明實施方式提供一種支付方法,所述方法包括:接收使用者的支付指令;根據使用者的語音輸入的音頻資訊,產生所述音頻資訊的語音特徵向量;將所述語音特徵向量與使用者特徵向量進行匹配;在匹配成功的情況下,將所述使用者特徵向量關聯的個人資訊發送給伺服器,以用於所述伺服器對所述個人資訊關聯的資源帳戶進行支付操作。 本發明實施方式還提供一種客戶端,包括:接收模組,用於接收使用者的支付指令;產生模組,用於根據使用者的語音輸入的音頻資訊,產生所述音頻資訊的語音特徵向量;匹配模組,用於將所述語音特徵向量與使用者特徵向量進行匹配;發送模組,用於在匹配成功的情況下,將所述使用者特徵向量關聯的個人資訊,發送給伺服器,以用於所述伺服器對所述個人資訊關聯的資源帳戶進行支付操作。 本發明實施方式提供一種電腦儲存媒體,其儲存有程式指令,在所述程式指令被執行時實現:支付對象資訊接收使用者的支付指令;根據使用者的語音輸入的音頻資訊,產生所述音頻資訊的語音特徵向量;將所述語音特徵向量與使用者特徵向量進行匹配;在匹配成功的情況下,將支付對象資訊所述使用者特徵向量關聯的個人資訊,發送給伺服器,以用於所述伺服器對所述個人資訊關聯的資源帳戶進行支付操作。 本發明實施方式提供一種支付方法,所述方法包括:支付對象資訊接收使用者的支付指令;將錄製的使用者語音的音頻資訊、根據所述音頻資訊產生的特徵矩陣或者根據所述音頻資訊產生的語音特徵向量中至少之一,發送給伺服器,以用於所述伺服器根據所述音頻資訊、所述特徵矩陣或者所述語音特徵向量確定所述使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 本發明實施方式提供一種客戶端,包括:接收模組,用於接收使用者的支付指令;發送模組,用於將錄製的使用者語音的音頻資訊、根據所述音頻資訊產生的特徵矩陣或者根據所述音頻資訊產生的語音特徵向量中至少之一,發送給伺服器,以用於所述伺服器根據所述音頻資訊、所述特徵矩陣或者所述語音特徵向量確定所述使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 本發明實施方式提供一種電腦儲存媒體,所述電腦儲存媒體儲存有電腦程式指令,所述電腦程式指令被執行時實現:接收使用者的支付指令;將錄製的使用者語音的音頻資訊、根據所述音頻資訊產生的特徵矩陣或者根據所述音頻資訊產生的語音特徵向量中至少之一,發送給伺服器,以用於所述伺服器根據所述音頻資訊、所述特徵矩陣或者所述語音特徵向量確定所述使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 本發明實施方式提供一種支付方法,應用於伺服器,所述方法包括:接收客戶端發出的音頻資訊和支付對象資訊;其中,所述音頻資訊為錄製的使用者的語音;根據所述音頻資訊產生語音特徵向量;將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配;其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種伺服器,包括:接收模組,用於接收客戶端發出的音頻資訊和支付對象資訊;其中,所述音頻資訊為錄製的使用者的語音;產生模組,用於根據所述音頻資訊產生語音特徵向量;匹配模組,用於將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配;其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;處理模組,用於根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種電子設備,包括網路通訊單元、記憶體和處理器;所述網路通訊單元,用於接收客戶端發出的音頻資訊和支付對象資訊,其中,所述音頻資訊為錄製的使用者的語音;所述記憶體,用於儲存使用者特徵向量;所述使用者特徵向量與個人資訊關聯;所述處理器,用於根據所述音頻資訊產生語音特徵向量;將所述語音特徵向量與所述記憶體中的使用者特徵向量進行匹配;其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種電腦儲存媒體,所述電腦儲存媒體中儲存有電腦程式指令,所述電腦程式指令被執行時實現:接收客戶端發出的音頻資訊和支付對象資訊,其中,所述音頻資訊為錄製的使用者的語音;根據所述音頻資訊產生語音特徵向量;將所述語音特徵向量與使用者特徵向量進行匹配,其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種支付方法,應用於伺服器,所述方法包括:接收客戶端發出的語音特徵向量和支付對象資訊;其中,所述語音特徵量是根據使用者的語音的音頻資訊產生;將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配;其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種伺服器,其包括:接收模組,用於接收客戶端發出的語音特徵向量和支付對象資訊;其中,所述語音特徵量是根據使用者的語音的音頻資訊產生;匹配模組,用於將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配;其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;處理模組,用於根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種電子設備,其包括:網路通訊單元、記憶體和處理器;所述網路通訊單元,用於接收客戶端發出的語音特徵向量和支付對象資訊;其中,所述語音特徵量是根據使用者的語音的音頻資訊產生;所述記憶體,用於儲存使用者特徵向量;所述使用者特徵向量與個人資訊關聯;所述處理器,用於將所述語音特徵向量與所述記憶體中的使用者特徵向量進行匹配,其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種電腦儲存媒體,所述電腦儲存媒體儲存有電腦程式指令,所述電腦程式指令被執行時實現:接收客戶端發出的語音特徵向量和支付對象資訊,其中,所述語音特徵量是根據使用者的語音的音頻資訊產生;將所述語音特徵向量與使用者特徵向量進行匹配,其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種支付方法,所述方法包括:錄製使用者的語音的音頻資訊;將所述音頻資訊發送給伺服器,以用於所述伺服器識別音頻資訊表達的支付對象資訊,以及根據音頻資訊確定使用者的個人資訊,以根據所述個人資訊關聯的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種支付方法,應用於伺服器,所述伺服器接收客戶端提供的音頻資訊;所述音頻資訊是錄製使用者的語音產生;所述方法包括:根據音頻資訊確定支付對象資訊,以及根據音頻資訊產生語音特徵向量;將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配;與所述語音特徵向量匹配成功的使用者特徵向量為目標使用者特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種伺服器,所述伺服器包括:接收模組,用於接收客戶端發出的音頻資訊,其中,所述音頻資訊是錄製使用者的語音產生;確定模組,用於根據音頻資訊確定支付對象資訊;產生模組,用於根據音頻資訊產生語音特徵向量;匹配模組,用於將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配;與所述語音特徵向量匹配成功的使用者特徵向量為目標使用者特徵向量;處理模組,用於根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種電子設備,包括:網路通訊單元、記憶體和處理器;所述網路通訊單元,用於接收客戶端提供的音頻資訊,所述音頻資訊是錄製使用者的語音產生;所述記憶體,用於儲存使用者特徵向量;所述使用者特徵向量與個人資訊關聯;所述處理器,用於根據音頻資訊確定支付對象資訊,以及根據音頻資訊產生語音特徵向量;將所述語音特徵向量與所述記憶體中的使用者特徵向量進行匹配,其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標使用者特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種電腦儲存媒體,所述電腦儲存媒體儲存有電腦程式指令,所述電腦程式指令被執行時實現:接收客戶端提供的音頻資訊,所述音頻資訊是錄製使用者的語音產生;根據音頻資訊確定支付對象資訊,以及根據音頻資訊產生語音特徵向量;將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配,與所述語音特徵向量匹配成功的使用者特徵向量為目標使用者特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種支付方法,所述方法包括:顯示包括支付對象資訊的第一介面;接收使用者的支付請求;所述支付請求表示使用者希望向所述支付對象資訊進行支付操作;顯示具有指定資訊的第二介面;錄製使用者依照所述指定資訊的語音的音頻資訊;以用於根據所述音頻資訊確定所述使用者的個人資訊,以用於根據所述個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本發明實施方式提供一種電子設備,包括:麥克風單元和網路通訊單元;所述麥克風單元用於錄製使用者語音的音頻資訊;所述網路通訊單元用於將所述音頻資訊發送給伺服器,以用於所述伺服器根據所述音頻資訊確定使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 本發明實施方式提供一種電子設備,包括:麥克風單元、網路通訊單元和處理器;所述麥克風單元用於錄製使用者語音的音頻資訊;所述處理器用於根據所述音頻資訊產生特徵矩陣;所述特徵矩陣用於表徵所述音頻資訊;所述網路通訊單元用於將所述特徵矩陣發送給伺服器,以用於所述伺服器根據所述特徵矩陣確定使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 本發明實施方式提供一種電子設備,包括:麥克風單元、網路通訊單元和處理器;所述麥克風單元用於錄製使用者語音的音頻資訊;所述處理器用於根據所述音頻資訊產生特徵矩陣,所述特徵矩陣用於表徵所述音頻資訊;針對所述特徵矩陣進行端點偵測處理,以減少非語音部分的資料;所述網路通訊單元用於將所述處理後的特徵矩陣發送給伺服器,以用於所述伺服器根據所述特徵矩陣確定使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 本發明實施方式提供一種電子設備,包括:麥克風單元、網路通訊單元和處理器;所述麥克風單元用於錄製使用者語音的音頻資訊;所述處理器用於根據所述音頻資訊產生特徵矩陣;根據所述特徵矩陣產生語音特徵向量,其中,所述語音特徵向量用於表徵所述音頻資訊;所述網路通訊單元用於將所述語音特徵向量發送給伺服器,以用於所述伺服器根據所述語音特徵向量確定使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 本發明實施方式提供一種電子設備,包括:麥克風單元、網路通訊單元和處理器;所述麥克風單元用於錄製使用者語音的音頻資訊;所述處理器用於根據所述音頻資訊產生特徵矩陣;根據所述特徵矩陣產生語音特徵向量,其中,所述語音特徵向量用於表徵所述音頻資訊;將所述語音特徵向量與儲存的使用者特徵向量進行匹配,得到與所述語音特徵向量匹配的目標特徵向量;所述網路通訊單元用於將所述目標特徵向量關聯的個人資訊發送給伺服器,以用於所述伺服器對所述個人資訊關聯的資源帳戶進行支付操作。 本發明實施方式還提供一種支付方法,所述方法包括:接收使用者的支付指令;根據使用者的語音輸入的音頻資訊,產生所述音頻資訊的語音特徵;將所述語音特徵與使用者特徵進行匹配;在匹配成功的情況下,將所述使用者特徵所關聯的個人資訊發送給伺服器,以用於所述伺服器對所述個人資訊關聯的資源帳戶進行支付操作。 由以上本發明實施方式提供的技術方案可見,本發明實施方式藉由採用語音特徵向量和使用者特徵向量匹配的方式,對使用者進行身份驗證,簡化了使用者支付的流程,提升了使用者的使用體驗。再者,由於每個使用者具有自身的語音特質,使得藉由聲音的特徵,對使用者進行身份驗證,可以具有較高的可靠性。利用聲音對使用者進行身份驗證,可以解放使用者的雙手,以及對所在環境的光線情況等要求較低,使得本實施方式提供的技術方案具有較為廣泛的場景適應性。
為了使本技術領域的人員更好地理解本發明中的技術方案,下面將結合本發明實施方式中的圖式,對本發明實施方式中的技術方案進行清楚、完整地描述,顯然,所描述的實施方式僅僅是本發明一部分實施方式,而不是全部的實施方式。基於本發明中的實施方式,本領域具有通常知識者在沒有作出創造性勞動前提下所獲得的所有其他實施方式,都應當屬於本發明保護的範圍。 本發明實施方式提供一種語音特徵向量的產生方法。該產生方法可以從音頻資訊中提取特徵,產生可以表徵音頻資訊的語音特徵向量。 在本實施方式中,音頻資訊可以是錄音設備錄製的具有一定時間長度的音頻資料。音頻資訊可以是對使用者說話語音的錄音。請參閱圖1。所述產生方法可以包括以下步驟。 步驟S45:根據所述音頻資訊產生特徵矩陣。 在本實施方式中,可以根據預設演算法,從音頻資訊中採集資料,輸出包括所述音頻資訊的音頻資料的特徵的特徵矩陣。使用者的聲音會有使用者自身的特徵,比如音色、語調、語速等等。錄製成音頻資訊時,可以從音頻資料中的頻率、振幅等角度,體現每個使用者自身的聲音特徵。使得將音頻資訊按照預設演算法產生的特徵矩陣,會包括音頻資訊中音頻資料的特徵。進而,基於特徵矩陣產生的語音特徵向量,可以用於表徵該音頻資訊和音頻資料。所述預設演算法可以是MFCC(Mel Frequency Cepstrum Coefficient)、MFSC(Mel Frequency Spectral Coefficient)、FMFCC(Fractional Mel Frequency Cepstrum Coefficient)、DMFCC(Discriminative)、LPCC(Linear Prediction Cepstrum Coefficient)等。當然,所屬領域技術人員在本發明技術精髓啟示下,還可能採用其它演算法實現產生音頻資訊的特徵矩陣,但只要其實現的功能和效果與本發明方式相同或相似,均應涵蓋於本發明保護範圍內。 步驟S47:將所述特徵矩陣按照多個特徵維度進行降維處理,得到多個用於表徵特徵維度的維度值,所述多個維度值形成所述語音特徵向量。 在本實施方式中,可以對所述特徵矩陣按照不同的特徵維度進行降維處理,得到可以表徵每個特徵維度的維度值。進一步的,將維度值按照指定順序排列便可以形成音頻資訊的語音表徵向量。具體的,可以藉由卷積或者映射的演算法對特徵矩陣進行降維處理。在一個具體的示例中,可以採用DNN(Deep Neural Network)、CNN(Convolutional Neural Network)和RNN(Recurrent Neural Network)、深度學習或者上述演算法的結合等,從特徵矩陣中按照不同維度進行降維。 在一個實施方式中,為了進一步區分出音頻資訊中使用者語音的音頻資料和非使用者語音的音頻資料。語音特徵向量的產生方法中,還可以包括端點偵測處理。進而,可以在特徵矩陣中減少將非使用者語音的音頻資料對應的資料,如此,可以在一定程度上提升產生的語音特徵向量與使用者之間的關聯程度。端點偵測處理的方法可以包括但不限於基於能量的端點偵測、基於倒譜特徵的端點偵測、基於資訊熵的端點偵測、基於自身相關相似距離的端點偵測等,在此不再列舉。 本發明實施方式提供一種使用者的音頻資訊採集方法。可以藉由客戶端採集使用者的音頻資訊。 在本實施方式中,客戶端可以是具有錄音功能的電子設備。具體的,例如,客戶端可以是桌上型電腦、平板電腦、筆記型電腦、智慧型手機、數位助理、智慧可穿戴設備、導購終端、電視機、智慧音箱、麥克風等。其中,智慧可穿戴設備包括但不限於智慧手環、智慧手錶、智慧眼鏡、智慧頭盔、智慧項鍊等。或者,客戶端也可以為能夠運行於上述電子設備中的軟體。例如,電子設備中提供錄音功能,軟體可以藉由調用該錄音功能錄製音頻資訊。 在本實施方式中,客戶端可以在使用者操作啟動錄音功能時,開始啟動進行錄取使用者的語音,產生音頻資訊。客戶端也可以自動啟動錄音功能,比如給客戶端設置指定條件,當該條件達成時,啟動錄音功能。具體的,例如,指定一個時間,到達該時間時啟動錄音;或者,指定一個地點,到達該地點時啟動錄音;或者,設置一個環境音量,當環境音量符合設定的條件時,開始錄音。在本實施方式中,產生音頻資訊的數量,可以是一個,也可以是多個。具體的,客戶端在一次錄音過程中,可以持續的將該次錄音過程中的全部內容作為一個音頻資訊。也可以為,客戶端在一次錄音過程中,劃分多個音頻資訊。比如,按照錄音的時間長度劃分音頻資訊。例如,每錄製五分鐘,形成一個音頻資訊。或者,按照資料量進行劃分音頻資訊。例如,每個音頻資訊最多5MB。 請參與圖2。本發明實施方式提供一種語音識別方法。所述語音識別方法可以從音頻資料中識別出使用者表達的內容,從而提供給使用者一種輸入方法。所述語音識別方法可以包括以下步驟。 步驟S51:獲取音頻資訊。 步驟S53:按照預設識別演算法,識別音頻資訊的內容。 在本實施方式中,可以預先定義有使用者指令集,在使用者指令集中包括至少一個使用者指令。使用者指令可以指向一個特定的功能。當從使用者的音頻資料中識別出使用者指令時,可以表示要執行該使用者指令指向的功能。也可以為,僅僅藉由預設識別演算法得出使用者說話表達的內容。具體的,預設識別演算法可以採用隱馬爾可夫模型演算法或神經網路演算法等,對音頻資訊進行語音識別。 本發明實施方式提供一種使用者註冊方法。所述使用者註冊方法可以將該使用者的語音特徵與所述使用者的身份資訊相關聯。 在本實施方式中,可以採用音頻資訊採集方法獲得使用者的音頻資訊。其中,音頻資訊中的音頻資料可以是使用者的說話聲音的錄音。如此,根據音頻資訊產生的語音表徵向量,可以對應表徵的音頻資訊,也可以表徵使用者的一部分聲音特質。由於每個使用者生長發育過程,是各部不相同的,使得使用者說話的聲音,都具有一定的聲音特質。進而,可以藉由每個使用者的聲音特質分不同的使用者。如此,語音表徵向量可以藉由表徵使用者的一部分聲音特質,而可以用於標識使用者。 在本實施方式中,針對使用者採集的音頻資訊可以是一個或多個,可以對應每個音頻資訊採用音頻資訊處理方法產生對應的語音特徵向量。當然,在一些情況下,也可以將一個以上音頻資訊同時進行按照音頻資訊處理方法進行運算處理,得到語音特徵向量。此時,該語音特徵向量可以對應該一個以上音頻資訊。 在本實施方式中,根據得到的語音特徵向量,確定可以用於標識使用者的使用者特徵向量。具體的,例如,若僅產生了一個語音特徵向量,則可以將該語音特徵向量作為使用者的使用者特徵向量;若產生了多個語音特徵向量,可以將在該多個語音特徵向量中,選擇一個相對表達使用者的聲音特質較多的語音特徵向量,作為使用者的使用者特徵向量;若產生了多個語音特徵向量,還可以為將該多個語音特徵向量中的部分或全部,進行進一步運算處理輸出使用者的使用者特徵向量。該運算處理可以包括但不限於針對該多個語音特徵向量進行相應維度求和之後,再進一步計算均值。當然,還可以有其它演算法,比如,運算處理時對多個語音特徵向量的加權求和。 在本實施方式中,將使用者的使用者特徵向量與使用者的個人資訊進行關聯,如此實現完成使用者的註冊。使用者的個人資訊可以用於表示一個使用者。使用者的個人資訊可以包括但不限於:使用者名、暱稱、真實姓名、性別、聯繫電話、通訊地址等等。將使用者特徵向量與使用者的個人資訊相關聯,可以實現採集一個使用者說話的音頻資訊後,可以藉由音頻資訊的語音特徵向量與使用者特徵向量的關聯性,確定該使用者的個人資訊。 本發明實施方式還提供一種身份識別方法。所述身份識別方法可以根據使用者的語音的音頻資訊,識別使用者的身份。 在本實施方式中,使用者可以先藉由使用者註冊方法進行註冊,進而得到使用者的使用者特徵向量。該使用者特徵向量可以儲存在客戶端中,也可以儲存在伺服器中。相應的,使用者特徵向量與該使用者的個人資訊相關聯。 在本實施方式中,當需要對使用者的身份進行識別時,可以錄製使用者的語音的音頻資訊。比如,使用者對著麥克風說一句話。此時客戶端得到使用者語音輸入的音頻資訊。根據前述語音特徵向量的產生方法,根據該音頻資訊產生語音特徵向量。 在本實施方式中,將語音特徵向量與使用者特徵向量進行匹配,在匹配成功時,將所述使用者特徵向量關聯的個人資訊作為所述使用者的身份資訊。具體的,將語音特徵向量與使用者特徵向量進行匹配的方式,可以為根據二者進行運算,在二者之間符合某種關係時,可以認為匹配成功。具體的,例如,將二者做差後求和,將得到的數值作為匹配值,將該匹配值與一個設定閾值比較,在所述匹配值小於或等於設定閾值的情況下認為所述語音特徵向量與所述使用者特徵向量匹配成功。或者,也可以將所述語音特徵向量與所述使用者特徵向量直接求和,將得到的數值作為匹配值,在所述匹配值大於或等於設定閾值的情況下認為所述語音特徵向量與所述使用者特徵向量匹配成功。 本發明實施方式還提供一種網路互動系統。所述虛擬資源處理系統包括客戶端和伺服器。 在本實施方式中,客戶端可以是具有錄音功能的電子設備。根據客戶端資料處理能力的不同,可以被劃分成以下類別。在本實施方式中,初級網路設備的硬體設備較為簡單,可以進行藉由麥克風進行錄音,產生音頻資訊。並將產生的音頻資訊藉由網路通訊模組發送給伺服器。初級網路設備可以包括麥克風、網路通訊單元、感測器和揚聲器。初級網路設備可以基本上不需要對資料進行加工處理。初級網路設備還可以設置有其它的感測器,用於採集初級網路設備的工作參數。具體的,例如,初級網路設備可以是物聯網設備、邊緣節點設備等。 在本實施方式中,簡單網路設備可以主要包括:麥克風、網路通訊單元、處理器、記憶體、揚聲器等。簡單網路設備相較於初級網路設備增強了資料處理的能力。簡單網路設備可以具有一個能處理簡單邏輯運算的處理器,使得簡單網路設備在採集到資料之後,可以對資料進行初步的預處理,比如可以根據音頻資訊產生特徵矩陣。簡單網路設備可以具有一個具有簡單顯示功能的顯示模組,可以用於向使用者反饋資訊。具體的,例如,簡單網路設備可以是智慧可穿戴設備、POS(point of sale)機等。例如,智慧手環、較初級的智慧手錶、智慧眼鏡,或是離線購物場所內的結算設備(例如,POS機)、移動式結算設備(例如,手持式POS機、附加在手持設備上的結算模組)等。 在本實施方式中,中級網路設備可以主要包括麥克風、網路通訊單元、處理器、記憶體顯示器、揚聲器等。中級網路設備的處理器的主頻通常小於2.0GHz,內部記憶體容量通常少於2GB,記憶體的容量通常少於128GB。中級網路設備可以對錄製的音頻資訊進行一定程度的處理,比如產生特徵矩陣,對特徵矩陣進行端點偵測處理、降噪處理、語音識別等。具體的,例如,中級網路設備可以包括:智慧家居中的智慧家用電器、智慧家庭終端、智慧音箱、較高級的智慧手錶、較為初級的智慧型手機(比如,價位在1000元左右)、車載智慧終端。 在本實施方式中,智慧網路設備可以主要包括麥克風、網路通訊單元、處理器、記憶體、顯示器、揚聲器等硬體。智慧網路設備可以具有較強的資料處理能力。智慧網路設備的處理器的主頻通常大於2.0GHz,內部記憶體的容量通常小於12GB,記憶體的容量通常小於1TB。可以對音頻資訊產生特徵矩陣之後,可以進行端點偵測處理、降噪處理、語音識別等。進一步的,智慧網路設備還可以根據音頻資訊產生語音特徵向量。在一些情況下,可以將語音特徵向量與使用者特徵向量進行匹配,識別使用者的身份。但這種匹配限於有限個數的使用者特徵向量,比如一個家庭中的各個家庭成員的使用者特徵向量。具體的,例如,智慧網路設備可以包括:性能較好的智慧型手機、平板電腦、桌上型電腦、筆記型電腦等。 在本實施方式中,高性能設備可以主要包括麥克風、網路通訊單元、處理器、記憶體、顯示器、揚聲器等硬體。高性能設備可以具有大規模的資料運算處理能力,還可以提供強大的資料儲存能力。高性能設備的處理器主頻通常在3.0GHz以上,內部記憶體的容量通常大於12GB,記憶體容量可以在1TB以上。高性能設備可以對音頻資訊產生特徵矩陣、端點偵測處理、降噪處理、語音識別、產生語音特徵向量,以及將語音特徵向量與儲存的大量的使用者特徵向量進行匹配。具體的,例如,高性能設備可以是工作站、配置很高的桌上型電腦、Kiosk智慧電話亭、自助服務機等。 當然,上述只是示例的方式列舉了一些客戶端。隨著科學技術進步,硬體設備的性能可能會有提升,使得上述目前資料處理能力較弱的電子設備,也可能具備較強的處理能力。所以下文中實施方式引用上述表1中的內容,也僅作為示例參考,並不構成限定。 在本實施方式中,伺服器可以是具有一定運算處理能力的電子設備。其可以具有網路通訊端子、處理器和記憶體等。當然,上述伺服器也可以是指運行於所述電子設備中的軟體。上述伺服器還可以為分散式伺服器,可以是具有多個處理器、記憶體、網路通訊模組等協同運作的系統。或者,伺服器還可以為若干伺服器形成的伺服器集群。在本實施方式中,伺服器中可以用於管理使用者特徵向量。使用者完成註冊之後,使用者的使用者特徵向量可以儲存於伺服器中。 本發明實施方式提供一種電子設備。所述電子設備可以包括:麥克風單元和網路通訊單元。 所述麥克風單元可以錄製使用者語音的音頻資訊。 所述網路通訊單元可以將所述音頻資訊發送給伺服器,以用於所述伺服器根據所述音頻資訊確定使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 在本實施方式中,電子設備可以錄製音頻資訊,並將音頻資訊發送給伺服器。電子設備可以不對產生的音頻資訊進行處理,直接將音頻資訊發送給伺服器。 在本實施方式中,伺服器可以根據音頻資訊產生語音特徵向量,將語音特徵向量與使用者特徵向量進行匹配,以驗證使用者的身份。將與語音特徵向量匹配成功的使用者特徵向量關聯的個人資訊作為所述使用者的身份。 在本實施方式中,個人資訊關聯的資源帳戶可以是個人資訊中包括的帳戶資訊,或者與個人資訊綁定的帳戶資訊。藉由資料庫設定儲存結構,在確定個人資訊時,便可以確定對應的資源帳戶。 在本實施方式中,支付操作可以是使用者需要從資源帳戶對外支付虛擬資源,以實現購買商品或者服務。具體的,例如,使用者使用網路購物軟體手機京東購買洗衣機,使用者的支付操作為從使用者的銀行卡帳戶支付價款給銷售方或者處於中間交易擔保的第三方。 在本實施方式中,電子設備可以為表1中任一個類別中的設備。 本發明實施方式提供一種電子設備。所述電子設備可以包括:麥克風單元、網路通訊單元和處理器。 所述麥克風單元可以根據使用者語音輸入產生音頻資訊。 所述處理器可以根據所述音頻資訊產生特徵矩陣;所述特徵矩陣用於表徵所述音頻資訊。 所述網路通訊單元可以將所述特徵矩陣發送給伺服器,以用於所述伺服器根據所述特徵矩陣確定使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 在本實施方式中,使用者的語音輸入產生音頻資訊可以是客戶端藉由麥克風單元將使用者語音錄製成音頻文件。 在本實施方式中,電子設備可以在錄製的音頻資訊基礎上,根據音頻資訊產生特徵矩陣。將特徵矩陣發送給伺服器。如此,可以使得減少網路傳輸的資料量,提升整體的處理速度。再者,減少了伺服器的運算量,降低了伺服器的工作負荷。 在本實施方式中,電子設備可以為表1中類別編號2至5中任一個類別的設備。 本發明實施方式還提供一種電子設備。所述電子設備包括:麥克風單元、網路通訊單元和處理器。 所述麥克風單元用於根據使用者語音輸入產生音頻資訊。 所述處理器用於根據所述音頻資訊產生特徵矩陣,所述特徵矩陣用於表徵所述音頻資訊;針對所述特徵矩陣進行端點偵測處理,以減少非語音部分的資料。 所述網路通訊單元用於將所述處理後的特徵矩陣發送給伺服器,以用於所述伺服器根據所述特徵矩陣確定使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 在本實施方式中,藉由端點偵測處理可以使得根據特徵矩陣產生的語音特徵向量,更加準確的表達使用者語音的特徵,降低非使用者語音的干擾。再者,可以進一步減少了特徵矩陣的資料量,從而降低了網路傳輸和伺服器的負荷。 在本實施方式中,電子設備可以為表1中類別編號3至5中任一個類別的設備。也可以為第2類中硬體配置和性能較為出色的設備。 本發明實施方式還提供一種電子設備。所述電子設備可以包括:麥克風單元、網路通訊單元和處理器。 所述麥克風單元可以根據使用者語音輸入產生音頻資訊。 所述處理器可以根據所述音頻資訊產生特徵矩陣;根據所述特徵矩陣產生語音特徵向量,其中,所述語音特徵向量用於表徵所述音頻資訊。 所述網路通訊單元可以將所述語音特徵向量發送給伺服器,以用於所述伺服器根據所述語音特徵向量確定使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 在本實施方式中,電子設備在根據音頻資訊產生特徵矩陣的基礎上,基於特徵矩陣產生了可以表徵音頻資訊的語音特徵向量。進一步減少了需要進行網路傳輸的資料量,以及減少了伺服器的運算負荷。 在本實施方式中,伺服器接收到語音特徵向量之後,可以將該語音特徵向量與使用者特徵向量進行匹配,得到與語音特徵向量匹配的使用者特徵向量。可以將該匹配得到的使用者特徵向量關聯的個人資訊作為使用者的身份。 在本實施方式中,電子設備可以為表1中類別編號4和5中任一個類別的設備。也可以為第3類中硬體配置和性能較為出色的設備。 本發明實施方式還提供一種電子設備。所述電子設備可以包括:麥克風單元、網路通訊單元和處理器。 所述麥克風單元可以根據使用者語音輸入產生音頻資訊。 所述處理器可以根據所述音頻資訊產生特徵矩陣;根據所述特徵矩陣產生語音特徵向量,其中,所述語音特徵向量用於表徵所述音頻資訊;將所述語音特徵向量與儲存的使用者特徵向量進行匹配,得到與所述語音特徵向量匹配的目標特徵向量。 所述網路通訊單元可以將所述目標特徵向量關聯的個人資訊發送給伺服器,以用於所述伺服器對所述個人資訊關聯的資源帳戶進行支付操作。 在本實施方式中,電子設備可以在產生所述語音特徵向量之後,將語音特徵向量與使用者特徵向量進行匹配。電子設備中可以儲存有使用者特徵向量。使用者特徵向量表徵的使用者可以是一個家庭的成員,也可以是任意在該電子設備進行使用者註冊的人員。 在本實施方式中,電子設備可以為表1中類別編號5中的設備。也可以為第4類中硬體配置和性能較為出色的設備。 請一併參閱圖3和圖4。在一個場景示例中,客戶端可以是具有一定程度上的運算能力的家用智慧設備。例如,可以是上表1中的類別3型設備。在一個家用場景下,客戶端可以被製造為智慧音箱。智慧音箱可以具有麥克風、揚聲器、Wifi模組、記憶體、處理器等等。智慧音箱可以實現普通的音頻播放功能,並且配備有處理設備和網路設備以藉由與使用者對話以及與伺服器資料互動,實現購物功能。 在本場景示例中,智慧音箱可以藉由識別喚醒詞啟動進一步的功能,在智慧音箱識別到使用者說出喚醒詞之前,可以處於一種待機的狀態。使用者需要使用智慧音箱時,可以說“你好,音箱”。智慧音箱會錄製該使用者說的語音,並識別得出使用者說話的內容為喚醒詞。此時,智慧音箱可以藉由揚聲器發生回答使用者,“您好,您需要幫忙麼?”。 在本場景示例中,使用者想要購買空氣淨化器。使用者可能會說:“我想買一台空氣淨化器,你有什麼推薦麼?”。智慧音箱藉由麥克風錄音產生音頻資訊後,識別到上述商品描述資訊。並在記憶體中的商品資訊集中,查詢空氣淨化器的商品資訊,得到二個推薦結果,藉由揚聲器播放語音:“我有兩個推薦,第一個是小米空氣淨化器2代,第二個是美的KJ210G-C46空氣淨化器”。使用者可能會說:“我要購買小米空氣淨化器2代”。智慧音箱藉由錄製音頻資訊並識別之後,確定要購買的商品資訊是小米空氣淨化器2代。當然,智慧音箱也可以將商品描述資訊發送給伺服器,並接收伺服器提供的推薦結果。 在本場景示例中,智慧音箱可以詢問使用者“您現在就要支付購買麼?”,使用者可能答覆說“是的”。智慧音箱可以根據預設的隨機演算法產生一段文字,並告知使用者“請您跟讀一遍這段數字,57463”。智慧音箱可以識別使用者說的內容是不是指定的數字,以判斷使用者是不是具有真實的支付意願。如果使用者說的是:“算了,不買了”,那麼智慧音箱便可以結束本次購買流程。使用者可能說:“57463”。此時,智慧音箱發現識別得到的使用者說的內容與指定的數字相同,認為使用者確實具有購買的意願。 在本場景示例中,智慧音箱可以根據使用者跟讀數字的音頻資訊產生語音特徵向量。並將該語音特徵向量與智慧音箱記憶體中儲存的使用者特徵向量進行匹配。使用者特徵向量可以是使用者預先在智慧音箱進行了註冊,使得智慧音箱具有使用者的使用者特徵向量。當然,如果之前沒有註冊,也可以立即開始註冊的流程。 在本場景示例中,智慧音箱可以在儲存的使用者特徵向量中與語音特徵向量匹配成功,此時智慧音箱完成了對使用者的身份驗證,可以將使用者的個人資訊和要購買的商品資訊發送給伺服器,以使伺服器從使用者的金融帳戶中支付商品資訊中的價款給該商品的賣家。 請參閱圖38。在一個場景示例中,智慧音箱可以主動預測使用者關注的商品或服務。 在本場景示例中,智慧音箱可以位於使用者家庭的客廳。使用者在看電視過程中,智慧音箱可以藉由對電視聲音的錄音,得到音頻資訊,進而識別得到頻道編碼。或者,智慧音箱可以藉由識別電視節目的內容,與伺服器進行互動,由伺服器反饋相應的電視頻道。 在本場景示例中,智慧音箱可以儲存有電視頻道的節目清單。或者,也可以從伺服器拉去電視頻道的節目清單。在使用者觀看電視的過程中,可能對某一個廣告的商品感興趣,要進行購買。此時,使用者可以說:“你好,音箱”,“我要購買這個廣告中的商品”。智慧音箱可以根據使用者說話的時間點,和節目清單中給出的時間,確定使用者要購買的商品資訊。進一步的,智慧音箱可以根據使用者的語音的音頻資訊產生語音特徵文件進行匹配,驗證使用者的身份。在驗證成功時,將使用者的個人資訊和商品資訊發送給伺服器,以使伺服器從使用者的金融帳戶中支付商品資訊中的價款給該商品的賣家。 請一併參閱圖4和圖39。在一個場景示例中,客戶端可以是具有顯示器的電子設備。例如,可以是上表1中的類別4型設備。具體的,例如,客戶端可以是智慧型手機。 在本場景示例中,使用者可能想要購買一款耳麥。使用者可以使用購物軟體,例如,手機京東、當當、亞馬遜購物等等,操作瀏覽商品資訊。 在本場景示例中,使用者可以完成了商品資訊的瀏覽,要針對一款價值150元的耳麥進行支付時,可以將手機停留在該商品資訊的介面,對著手機說:“我要付款”。此時,手機可以錄製該語音的音頻資訊並識別得到該使用者的指令後,手機可以向使用者提供付款介面。或者,使用者點擊了要付款的按鈕,手機提供付款介面。在付款介面上使用者可以直接說出預先設定的支付關鍵詞。比如,使用者說:“聲紋支付方式給生活帶來便捷”,手機進行錄音產生音頻資訊,可以根據該音頻資訊產生語音特徵向量。將該語音特徵向量與手機中儲存的使用者特徵向量進行匹配,以驗證使用者的身份。在匹配成功時,手機可以將使用者的個人資訊和商品資訊發送給伺服器,以用於伺服器從使用者的金融帳戶中支付商品資訊中的價款給該商品的賣家。 請一併參閱圖12和圖40。在一個具體的場景示例中,客戶端可以是車載終端。該車載終端可以藉由與使用者的對話,並進一步處理確認使用者要購買的是一種服務兌換券,比如售價為50元的汽車維修工時券。車載終端可以將錄製的使用者的語音文件和該汽車維修工時券的資訊,一併發送給伺服器。有伺服器進行身份驗證的過程。 在本場景示例中,車載終端向伺服器提供的音頻資訊,可以是使用者發出購買指令的錄音。比如,使用者說:“我要購買百駿維修廠的汽車維修工時券”,車載終端將該句話的音頻資訊發送給伺服器。 在本場景示例中,伺服器接收到音頻資訊和服務資訊後,可以根據音頻資訊產生語音特徵向量。將語音特徵向量在伺服器中的使用者特徵向量中匹配,以驗證使用者的身份。比如,驗證成功,根據匹配成功的使用者特徵向量,得到使用者的個人資訊,進而可以實現個人資訊的金融帳戶對百駿維修廠付款購買汽車維修工時券。 在本場景示例中,車載終端也可以錄製音頻資訊之後,產生音頻資訊的特徵矩陣,並將特徵矩陣和服務資訊發送給伺服器。進而便於伺服器根據特徵矩陣產生語音特徵向量進行驗證使用者身份的工作。 請參閱圖12和圖41。在一個具體的場景示例中,客戶端可以是離線場地的收銀台的電子終端。例如,電子終端可以是上表1中類別2型設備。具體的,例如,該電子終端可以是POS機。電子終端可以設置有麥克風,以錄製消費者的語音的音頻資訊。 在本場景示例中,消費者可以在離線場地挑選商品。比如,購買衣服。消費者去收銀台付款時,工作人員可以向電子終端中輸入價格資訊。並讓消費者對著麥克風說一句話,以錄製消費者的音頻資訊。電子終端可以將該音頻資訊和商品資訊發送給伺服器。 在本場景示例中,電子終端的顯示器,可以用於顯示資訊。當需要支付時,顯示器可以顯示指定資訊,比如,“請朗讀以下文字‘離線聲音付很方便’”。麥克風可錄製使用者朗讀的語音形成音頻資訊。電子終端可以根據所述音頻資訊產生特徵矩陣,並將所述特徵矩陣發送給伺服器。 在本場景示例中,伺服器接收到音頻資訊的特徵矩陣和商品資訊之後。根據特徵矩陣產生語音特徵向量。將語音特徵向量在伺服器中的使用者特徵向量中匹配,以驗證使用者的身份。比如,驗證成功,根據匹配成功的使用者特徵向量,得到使用者的個人資訊,進而可以實現個人資訊的金融帳戶對離線場地付款購買衣服。伺服器在將對消費者的帳戶完成扣款之後,以及款項進入離線場地的金融帳戶後,可以通知離線場地支付成功。 請參閱圖42。在一個場景示例中,客戶端可以是具有資料採集能力的家用物聯網設備。例如,可以是上表1中的類別1型設備。在一個家用場景下,客戶端可以被製造為洗衣機。洗衣機除了自身實現洗衣服所具有的功能之外,還具有感測器、Wifi模組、麥克風和揚聲器等等。洗衣機的感測器可以是溫度感測器,用於感測洗衣機的環境溫度,或者轉速感測器,用於感測洗衣機波輪或者滾筒的轉速。麥克風可以錄製音頻資料,揚聲器可以播放伺服器提供的音頻資料。 在本場景示例中,麥克風錄製音頻資料,藉由Wifi模組與家庭網路互連,將音頻資料發送給伺服器。伺服器可以反饋音頻資料給所述洗衣機,藉由所述揚聲器播放。 在本場景示例中,使用者家中缺少洗衣液,需要進行購買。使用者可以對洗衣機說:“你好,洗衣機”。麥克風會將該語音錄製成音頻資訊藉由Wifi發送給伺服器。伺服器接收到音頻資訊之後,藉由語音識別發現是喚醒詞。並向洗衣機發送音頻資訊藉由揚聲器播放:“您好,您需要我幫您做什麼?”。使用者可能說:“我需要購買洗衣液,你有品牌推薦麼?”,伺服器接收到音頻資訊後,進行語音識別和語意分析,得到向使用者推薦的品牌,藉由發送音頻資訊答覆使用者:“目前XX品牌洗衣液正在打折促銷,2L洗衣液僅花費10元,您需要購買麼?”。使用者可能回答:“好的,我購買這個打折促銷的2L洗衣液”。伺服器接收到音頻資訊之後,藉由語音識別和語意分析得出使用者同意購買該推薦的商品。根據與該使用者對話過程中的一個使用者的音頻文件產生語音特徵向量,將該語音特徵向量在伺服器中的使用者特徵向量中匹配,以驗證使用者的身份。比如,驗證成功,根據匹配成功的使用者特徵向量,得到使用者的個人資訊,進而可以實現個人資訊的金融帳戶對洗衣液進行支付操作。 請參閱圖43。在一個場景示例中,客戶端可以是具有很強資料處理能力的公共服務設備。例如,可以是上表1中的類別5型設備。在一個家用場景下,客戶端可以被製造為自助服務機。 在本場景示例中,自助服務機可以提供繳納的水電費、上網費、訂閱報刊雜誌等功能。使用者可以在自助服務機進行註冊。使用者註冊成功之後,自助服務機中儲存使用者的使用者特徵向量和使用者錄入的個人資訊,以使用者再次操作時根據使用者特徵向量驗證使用者的身份。 在本場景示例中,已經完成註冊的使用者操作自助服務機訂閱報紙。使用者可以對自助服務機說:“你好,我要訂閱報紙。”。自助服務機錄製音頻資訊,並進行語音識別和語音分析之後,確認使用者表達的內容。並根據音頻資訊產生語音特徵向量,將該語音特徵向量與本地儲存的使用者特徵向量進行匹配,得到與該音頻特徵向量對應的使用者特徵向量,如此確定了使用者的個人資訊。自助服務機可以回答:“你好XX先生,您需要訂閱的報紙名稱是什麼?”。使用者說:“我要訂閱下個季度的姑蘇晚報”。自助服務機答覆:“您要訂閱7月至9月的姑蘇晚報,確認支付請說出您註冊時設置的支付關鍵詞”。使用者說出在註冊時設置的支付關鍵詞:“科技推動社會進步”。 在本場景示例中,自助服務機進一步識別該支付關鍵詞是否與設定的支付關鍵詞相同。在與設置的支付關鍵詞相符合時,將使用者的個人資訊和訂閱的報紙資訊發送給伺服器,以用於所述伺服器根據個人資訊關聯的金融帳戶對銷售報紙的商家進行支付操作。 請參閱圖5。本發明實施方式提供一種支付方法。所述支付方法可以應用於客戶端。所述支付方法可以包括以下步驟。 步驟S52:接收使用者的支付指令。 在本實施方式中,當使用者需要從其資源帳戶對外支付虛擬資源時,可以向客戶端發出支付指令。客戶端接收支付指令的方式可以包括但不限於:識別使用者的說話語音,使用者的說話語音中具有要進行支付的意思表示,藉由語義分析得出使用者要進行支付;識別使用者的說話的語音,使用者的說話語音中具有設定的指令詞,即使用者可以預先設定指令詞,當使用者說出該指令詞時,表示使用者需要進行支付;或者,使用者點擊了客戶端的表示進行支付購買商品或者服務的按鈕;或者,使用者點擊客戶端中表示向另一個使用者轉帳的按鈕。 在本實施方式中,支付指令本身可以是一個預先設置的輸入。在客戶端接收到的使用者輸入為該預先設置的輸入時,便可以認為接收到了支付指令。支付指令可以是使用者要購買商品或者服務,需要對商家進行支付費用。支付指令也可以是使用者要進行轉帳,即將虛擬資源從所述使用者的資源帳戶,轉移至另一個使用者的資源帳戶,而並沒有發生購買事項。 步驟S54:根據使用者的語音輸入的音頻資訊,產生所述音頻資訊的語音特徵向量。 在本實施方式中,根據音頻資訊產生語音特徵向量,該語音特徵向量可以用於確定使用者的身份。 在本實施方式中,可以約束使用者語音輸入的表達內容。比如,提供給使用者一段文字讓使用者朗讀。或者,詢問使用者問題,讓使用者回答。當然,也可以不約束使用者表達的內容,而隨機錄製使用者說的一句話或者一段話。 在本實施方式中,客戶端可以在接收到使用者的指示之後,產生語音特徵向量。具體的,例如,使用者可以根據其意志控制客戶端,瞭解商品或者服務的資訊。使用者可以藉由與客戶端對話的方式,瞭解不同商品或者服務的細節參數等。在使用者想要購買時,才啟動產生使用者的語音特徵向量,進而驗證使用者的身份。進一步示例,客戶端是智慧音箱的場景下,可以為使用者對智慧音箱說“我要支付”,智慧音箱藉由語音識別出使用者表達的內容之後,才進一步的產生使用者的語音特徵向量。在客戶端是智慧型手機或者類似具有螢幕顯示功能的電子設備的場景下,使用者可以操作給客戶端指示要進行付款,此時客戶端可以啟動錄製使用者語音的音頻資訊,進而產生語音特徵向量,用於對使用者的身份進行驗證。 步驟S56:將所述語音特徵向量與使用者特徵向量進行匹配。 步驟S58:在匹配成功的情況下,將所述使用者特徵向量關聯的個人資訊,發送給伺服器,以用於所述伺服器對所述個人資訊關聯的資源帳戶進行支付操作。 在本實施方式中,客戶端中可以預先按照使用者註冊方法設置有使用者的使用者特徵向量。如此,可以藉由將語音特徵向量與使用者特徵向量進行匹配,實現對使用者的身份進行驗證。 在本實施方式中,將語音特徵向量與使用者特徵向量進行匹配的方式,可以為根據二者進行運算,在二者之間符合某種關係時,可以認為匹配成功。具體的,例如,將二者做差後求和,將得到的數值作為匹配值,將該匹配值與一個設定閾值比較,在所述匹配值小於或等於設定閾值的情況下認為所述語音特徵向量與所述使用者特徵向量匹配成功。或者,也可以將所述語音特徵向量與所述使用者特徵向量求和,將得到的數值作為匹配值,在所述匹配值大於或等於設定閾值的情況下認為所述語音特徵向量與所述使用者特徵向量匹配成功。 在本實施方式中,客戶端對使用者的身份進行驗證之後,已經確定了使用者的身份。在匹配成功的情況下,客戶端可以將個人資訊發送給伺服器,此時伺服器可以無需再對個人資訊進行進一步的身份驗證。當然,在一些情況下,客戶端發給伺服器的個人資訊中,還可以包括有使用者的使用者名和密碼,伺服器可以再次根據使用者名和密碼進行驗證。 在本實施方式中,個人資訊關聯的資源帳戶可以包括但不限於金融帳戶、遊戲帳戶、股票帳戶、證券帳戶、積分帳戶等等。 在本實施方式中,支付操作可以是將資源帳戶中的一部分或者全部虛擬資源轉移所有權的行為。具體的,例如,在購買商品的場景下,支付操作可以是從使用者的金融帳戶中扣除一定的金額,以用於支付給該商品的商家。在一些情況下,在發生購買事件時,使用者支付的金額可以先付給第三方,該第三方可以作為擔保交易進行的中介,待使用者收到商品指示第三方時,第三方將金額轉交給商家。 在本實施方式中,虛擬資源可以是被使用者之間認可使用,可以進行市場流通和交換的資源。虛擬資源可以包括但不限於是貨幣,在一些情況下還可以是其它有價證券、積分等。 在本實施方式中,客戶端可以是表1中第5類設備。也可以為第4類中硬體配置和性能較為出色的設備。 在本實施方式中,藉由採用語音特徵向量和使用者特徵向量匹配的方式,對使用者進行身份驗證。如此,使用者可以僅僅藉由語音對話的方式,進行身份驗證。減少了使用者的操作,提升了使用者的使用體驗。再者,由於每個使用者具有自身的語音特質,使得藉由聲音的特徵,對使用者進行身份驗證,可以具有較高的可靠性。利用聲音對使用者進行身份驗證,可以解放使用者的雙手,以及對所在環境的光線情況等要求較低,使得本實施方式提供的技術方案具有較為廣泛的場景適應性。 在一個實施方式中,在獲取接收使用者的支付指令之前,所述支付方法還可以包括:從使用者的語音輸入的音頻資訊中識別得到啟動指令。 在本實施方式中,客戶端可以在得到使用者的啟動指令之後,才啟動所述支付方法。如此,在使用者正常工作生活過程種,不會受到客戶端的干擾。而在使用者需要使用客戶端時,可以藉由給客戶端發出啟動指令,開始所述支付方法。 在本實施方式中,客戶端可以處於一種待機的狀態,錄製使用者語音的音頻資訊,以識別使用者是否向客戶端做出啟動指令。具體的,例如,啟動指令可以為識別到使用者說“你好,XXX”。當客戶端識別到使用者說“你好,XXX”時,便啟動支付方法。 在本實施方式中,執行的主體並不限於客戶端,其還可以為伺服器。伺服器在確定對象資訊之前,從錄製的使用者語音的音頻資訊中識別得到啟動指令。具體的,例如,客戶端僅僅負責錄製使用者的音頻資訊,然後將該音頻資訊發送給伺服器。由伺服器進行識別,使用者是否做出了啟動指令。 在本實施方式中,啟動指令可以是使用者的一種輸入,其用於表示啟動支付方法。啟動指令可以是使用者藉由語言表達的指定內容。當然,對於客戶端是具有顯示器的智慧終端的場景,比如智慧型手機,啟動指令也可以是使用者操作智慧型手機點擊的了相應的按鈕等。 在本實施方式中,客戶端可以是表1中第2類至第5類中任一類設備。也可以為第4類中硬體配置和性能較為出色的設備。 在一個實施方式中,所述支付方法還可以包括步驟:獲取支付對象資訊。相應的,在將個人資訊發送給伺服器的步驟中,在匹配成功的情況下,將所述支付對象資訊和所述使用者特徵向量關聯的個人資訊發送給伺服器,以用於所述伺服器根據所述個人資訊關聯的資源帳戶進行針對所述支付對象資訊的支付操作。 在本實施方式中,支付對象資訊可以用於表示對象。支付對象資訊可以是對象的屬性值。具體的,支付對象資訊可以包括對象的名稱、介紹、數量、領域、構成等等。具體的,例如,對象可以是商品或者服務。支付對象資訊可以是商品名稱、數量、價格、商品介紹、商品成分等等,或者是服務名稱、服務種類、價格、時間等等。在轉帳的場景下,支付對象資訊可以包括接收方的使用者名、資源帳戶的名稱等。 在本實施方式中,客戶端獲取的支付對象資訊可以是使用者較為關注該支付對象資訊標識的對象。具體的,例如,使用者想要購買電視機,客戶端可以提供電視機的資訊給使用者,以便於使用者瞭解和選擇。或者,也可以是使用者需要給另一個使用者支付虛擬資源。具體的,例如,使用者之間發生借款,或者,一個使用者向另一個使用者還錢。 在本實施方式中,客戶端獲取支付對象資訊的方式可以包括但不限於:錄製使用者語音的音頻資訊,識別出使用者表達的支付對象描述資訊,進而在本地儲存的對象資訊集中匹配得到支付對象資訊;或者,將支付對象描述資訊發送給伺服器,接收伺服器反饋的支付對象資訊。還可以為根據使用者的操作,獲得支付對象資訊之後藉由介面展示。具體的,例如,客戶端可以是集成了麥克風和揚聲器的電子設備,比如智慧音箱。使用者可以與智慧音箱對話的方式,藉由智慧音箱提供的支付對象資訊中,確定某一個為被關注或指定的支付對象資訊。此外,客戶端也可以是類似智慧型手機的電子設備。使用者可以藉由操作智慧型手機,使得智慧型手機顯示支付對象資訊,比如提供商品資訊或者服務資訊,或者使用者的帳戶名稱。此外,在離線購物的場景中,可以由銷售人員向客戶端輸入支付對象資訊。 在本實施方式中,在匹配成功的情況下,表示已經對使用者的身份進行了驗證,並且確定了使用者的身份。如此,可以進一步的從使用者的資源帳戶中,將虛擬資源支付至支付對象資訊對應的資源帳戶。具體的,例如,使用者要購買一個商品,藉由智慧音箱瞭解商品資訊之後,要向出售該商品的商家支付價款。客戶端首先藉由使用者的語音,驗證使用者的身份,完成驗證之後,從使用者的金融帳戶中向出售該商品的商家支付價款。 在本實施方式中,客戶端可以是表1中第5類設備。也可以為第4類中硬體配置和性能較為出色的設備。 請參閱圖6。在一個實施方式中,在獲取支付對象資訊的步驟中可以包括以下步驟。 步驟S60:根據使用者的語音輸入產生音頻資訊。 步驟S62:對所述音頻資訊進行語音識別得到支付對象描述資訊。 步驟S64:根據所述支付對象描述資訊確定對應的支付對象資訊。 在本實施方式中,使用者可以藉由說話表達的方式,說出其關注或者想要瞭解的對象。支付對象描述資訊可以為使用者描述所述對象的內容。具體的,例如,使用者可以對著客戶端說“我想要瞭解一下聯想T450筆記型電腦”。 在本實施方式中,客戶端藉由對使用者的語音進行錄音得到音頻資訊,進而可以藉由語音識別確定使用者表達的內容。進而,客戶端可以根據使用者表達的支付對象描述資訊,確定對應的支付對象資訊。具體的,例如,客戶端錄製使用者的語音之後,進行語音識別得到使用者表達的內容是“我想要瞭解一下聯想筆記型電腦,要有很高的性價比”。客戶端便可以從對象資訊集中查詢聯想筆記型電腦都有哪些型號,並可以藉由消費者對不同型號的評價,得出擁有較高高性價比的型號。當然,客戶端也可以有預先設定的評價規則來評判性價比。進一步的,比如,型號為T450的聯想筆記型電腦被確定為具有較高性價比的型號。此時,客戶端確定支付對象資訊之後,可以將支付對象資訊告知使用者。當然,本實施方式並不限於客戶端查詢本地的對象資訊集,還可以為客戶端將支付對象描述資訊發送給伺服器,由伺服器完成支付對象資訊的確認,並可以將支付對象資訊反饋給所述客戶端。 在本實施方式中,客戶端也可以提供給使用者多個支付對象資訊,以供使用者指定。具體的,例如,客戶端提供給使用者的性價比較高的聯想筆記型電腦包括:聯想筆記型電腦T450、聯想筆記型電腦T440、聯想筆記型電腦X260。使用者指定其中一款進一步處理。 在本實施方式中,客戶端可以是表1中第3類至第5類中任一類設備。 請參閱圖7。在一個實施方式中,在確定支付對象資訊的步驟中可以包括以下步驟。 步驟S66:將所述支付對象描述資訊發送給伺服器。 在本實施方式中,客戶端中可以不具有對象資訊集;或者客戶端的對象資訊集中沒有找到與支付對象描述資訊對應的支付對象資訊;或者,客戶端的對象資訊集。此時,客戶端可以將支付對象描述資訊發送給伺服器。 步驟S68:接收所述伺服器反饋的至少一個支付對象資訊。 在本實施方式中,伺服器根據支付對象描述資訊,在對象資訊集進行查詢匹配,得到至少一個支付對象資訊。可以將得到的至少一個支付對象資訊全部反饋給所述客戶端。也可以,按照一定篩選邏輯,在至少一個支付對象資訊中挑選一個或多個支付對象資訊,反饋給客戶端。 步驟S70:將所述至少一個支付對象資訊反饋給所述使用者。 在本實施方式中,客戶端可以藉由語音播放的方式將得到的支付對象資訊告知使用者。在客戶端是具有顯示器的智慧終端的場景下,客戶端可以藉由顯示器向使用者展示支付對象資訊。 步驟S72:接收使用者的確認指令,將所述確認指令指向的支付對象資訊作為被確定的支付對象資訊。 在本實施方式中,客戶端將得到的支付對象資訊告知使用者之後,在接收到使用者的確認指令之後,確定作為後續進一步處理的支付對象資訊。 在本實施方式中,確認指令可以是用於向客戶端下達進一步處理指示的命令。具體的,客戶端接收使用者的確認指令的方式可以包括:錄製使用者語音的音頻資訊,藉由語音識別得到使用者表達的指向某一個支付對象資訊的確認指令。或者,在客戶端具有顯示器的場景下,使用者藉由操作按鈕,或者觸控螢幕選擇某一個支付對象資訊。 在本實施方式中,客戶端可以是表1中第3類至第5類中任一類設備。 請參閱圖8。在一個實施方式中,在確定支付對象資訊的步驟中可以包括以下步驟。 步驟S74:將所述支付對象描述資訊在本地儲存的對象資訊集中查詢,得到至少一個支付對象資訊。 步驟S76:將所述至少一個支付對象資訊反饋給所述使用者。 步驟S78:接收使用者的確認指令,將所述確認指令指向的支付對象資訊作為被確定的支付對象資訊。 在本實施方式中,將支付對象描述資訊在客戶端中儲存的對象資訊集中匹配,進一步確定支付對象資訊。在查詢得到多個支付對象資訊時,可以將多個支付對象資訊反饋給使用者,以便於使用者進行指定。本實施方式,可以參照前述實施方式對照解釋。 在本實施方式中,客戶端可以是表1中第3類至第5類中任一類設備。 在一個實施方式中,產生所述語音特徵向量的方式包括以下至少一種:任意選擇一個所述使用者的音頻資訊產生所述語音特徵向量;獲取所述使用者語音輸入的包括自定義支付關鍵詞的音頻資訊,根據所述音頻資訊產生所述語音特徵向量;向所述使用者提供指定資訊,根據所述使用者依照所述指定資訊的語音輸入產生音頻資訊,根據所述音頻資訊產生所述語音特徵向量。 在本實施方式中,可以針對不同的支付場景,產生語音特徵向量所基於的音頻資訊不同。針對小金額支付時,可以根據任意一個錄製的使用者語音的音頻資訊產生語音特徵向量,以達到可以快速支付處理的效果,具體的,例如支付金額少於100元。 在本實施方式中,對於一些相對較大的金額時,可以要求錄製使用者設定的自定義支付關鍵詞的音頻資訊。支付關鍵詞可以是預先設定的一段文字、一句話或者模擬發聲而無具體的含義。例如,使用者將自己的生日作為支付關鍵詞,或者學一段鳥叫的口技作為支付關鍵詞。支付關鍵詞用於表示使用者向客戶端下達支付命令,即客戶端接收到該支付關鍵詞時,表示使用者同意進行支付操作。如此,在支付之前可以進行語音特徵向量與使用者特徵向量進行匹配驗證身份之外,還可以藉由語音識別得到音頻資訊中使用者語音表達的內容,判斷其預先自定義的自定義支付關鍵詞是否相同。如此實現進行雙重驗證,在均驗證成功時,才進行支付操作。具體的,例如,支付金額為100以上,並少於300,採用該雙重驗證。 在本實施方式中,對於一些較大金額支付時,可以向使用者提供指定資訊,要求使用者依照該指定資訊的要求發出聲音,並錄製音頻資訊。具體的,例如,支付金額為300元以上。指定資訊可以是指示使用者朗讀一段文字,或者回答問題。具體的,例如,可以基於隨機演算法等,產生一段數字,並藉由播放或者螢幕顯示的方式提供給使用者。或者,選擇一個使用者預先設定好答案的問題,向使用者提問。使用者依照所述指定資訊的語音,可以為使用者按照指定資訊的內容,朗讀文字或者回答問題。將使用者的語音錄製成音頻資訊,如此可以產生語音特徵向量,進而用於驗證使用者的身份。支付之前可以進行語音特徵向量與使用者特徵向量進行匹配驗證身份之外,還可以藉由語音識別得到音頻資訊中使用者語音表達的內容,是否符合指定資訊的內容進行判斷。如此實現進行雙重驗證,在均驗證成功時,才進行支付操作。再者,藉由指定資訊的方式,因為使用者要表達語音具有一定的隨機性,一定程度上避免了被惡意錄音,而冒充使用者支付的情況。當然,本發明實施方式並不限於上述列舉的組合方式。根據不同場景的需要,可以採用前述三種方式任意組合的方式進行多重驗證。 在本實施方式中,客戶端可以是表1中第4類或第5類設備。 請參閱圖9。在一個實施方式中,所述指定資訊為要求使用者發出指定的聲音。具體的,例如,指定資訊為要求使用者朗讀一段文字,或者回答問題。指定的聲音可以為朗讀文字的語音,或者回答的內容。在將所述支付對象資訊和所述使用者特徵向量關聯的個人資訊發送給伺服器的步驟中還可以包括以下步驟。 步驟S86:對用於產生所述語音特徵向量的音頻資訊進行語音識別,判斷所述使用者的語音是否符合所述指定資訊。 步驟S88:在符合的情況下,將所述支付對象資訊和所述使用者特徵向量關聯的個人資訊,發送給伺服器。 在本實施方式中,在將個人資訊和支付對象資訊發送給伺服器之前,採用了雙重驗證。採用語音特徵向量驗證使用者的身份,避免被冒充。藉由識別音頻資訊的內容是否符合指定資訊的內容,以確認使用者是否存在支付虛擬資源的實際意願。可以在上述雙重驗證都成功的情況下,將個人資訊和支付對象資訊發送給伺服器。如此設置,極大的提升了使用者的資源帳戶的安全性。 在本實施方式中,使用者的語音符合所述指定資訊可以為,音頻資訊識別的內容與指定資訊中提供給使用者朗讀的文字相一致;或者,音頻資訊中識別的內容是針對指定資訊提供給使用者的問題的正確回答。具體的,例如,指定資訊為要使用者朗讀“847579”,識別使用者的音頻資訊得到的內容也是“847579”,認為使用者的語音符合指定資訊。 在本實施方式中,客戶端可以是表1中第4類或第5類設備。 請參閱圖10,本發明實施方式還提供一種客戶端,包括:接收模組、產生模組、匹配模組和發送模組。 所述接收模組,用於接收支付指令。 所述產生模組,用於根據使用者的語音輸入的音頻資訊,產生所述音頻資訊的語音特徵向量。 所述匹配模組,用於將所述語音特徵向量與使用者特徵向量進行匹配。 所述發送模組,用於在匹配成功的情況下,將所述使用者特徵向量關聯的個人資訊,發送給伺服器,以用於所述伺服器對所述個人資訊關聯的資源帳戶進行支付操作。 本實施方式中提供的客戶端,其實現的功能和效果可以參見其它實施方式對照解釋。 請參閱圖11。本發明實施方式還提供一種電子設備。所述客戶端包括:網路通訊單元、麥克風單元和處理器。 所述網路通訊單元,用於將所述處理器提供的個人資訊,發送給伺服器,以用於所述伺服器對所述個人資訊關聯的資源帳戶進行支付操作。 所述麥克風單元,用於產生使用者語音輸入的音頻資訊。 所述處理器,用於獲取支付對象資訊;將所述音頻資訊產生語音特徵向量;將所述語音特徵向量與使用者特徵向量進行匹配;在匹配成功的情況下,將所述使用者特徵向量關聯的個人資訊提供給所述網路通訊單元。 在本實施方式中,所述記憶體包括但不限於隨機存取記憶體(Random Access Memory, RAM)、唯讀記憶體(Read-Only Memory, ROM)、快取(Cache)、硬碟(Hard Disk Drive, HDD)或者記憶卡(Memory Card)。所述記憶體可以用於儲存電腦程式指令。網路通訊單元可以是依照通訊協議規定的標準設置的,用於進行網路連接通訊的介面。 在本實施方式中,所述處理器可以按任何適當的方式實現。例如,所述處理器可以採取例如微處理器或處理器以及儲存可由該(微)處理器執行的電腦可讀程式碼(例如軟體或韌體)的電腦可讀媒體、邏輯閘、開關、專用集成電路(Application Specific Integrated Circuit,ASIC)、可編程邏輯控制器和嵌入微控制器的形式等等。 在本實施方式中,所述麥克風單元可以將聲音轉換成電信號形成音頻資訊。麥克風單元可以採取電阻式麥克風、電感式麥克風、電容式麥克風、鋁帶式麥克風、動圈式麥克風或駐極體麥克風。 本實施方式中提供的客戶端,其實現的功能和效果可以參見其它實施方式對照解釋。 本發明實施方式還提供一種電腦儲存媒體,其儲存有程式指令,在所述程式指令被執行時實現:獲取支付對象資訊;根據使用者的語音輸入的音頻資訊,產生所述音頻資訊的語音特徵向量;將所述語音特徵向量與使用者特徵向量進行匹配;在匹配成功的情況下,將所述支付對象資訊和所述使用者特徵向量關聯的個人資訊,發送給伺服器,以用於所述伺服器將所述個人資訊關聯的資源帳戶中的虛擬資源轉移至所述支付對象資訊關聯的資源帳戶。 在本實施方式中,所述電腦儲存媒體包括但不限於隨機存取記憶體(Random Access Memory, RAM)、唯讀記憶體(Read-Only Memory, ROM)、快取(Cache)、硬碟(Hard Disk Drive, HDD)或者記憶卡(Memory Card)。 本實施方式中提供的電腦儲存媒體,其程式指令被執行時實現的功能和效果可以參見其它實施方式對照解釋。 請參閱圖13。本發明實施方式提供一種支付方法。所述支付方法可以包括以下步驟。 步驟S90:接收使用者的支付指令。 步驟S92:將使用者語音輸入的音頻資訊、根據所述音頻資訊產生的特徵矩陣或者根據所述音頻資訊產生的語音特徵向量中至少之一,發送給伺服器,以用於所述伺服器根據所述音頻資訊、所述特徵矩陣或者所述語音特徵向量確定所述使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 在本實施方式中,客戶端可以不處理使用者身份的識別工作,而由伺服器進行對使用者身份的識別。如此減少客戶端的運算負荷。再者,客戶端可以無需儲存有使用者特徵向量,有利於保護使用者的資源帳戶安全。 在本實施方式中,客戶端可以錄製使用者語音的音頻資訊後,將該音頻資訊發送給伺服器。如此伺服器可以根據該音頻資訊產生語音特徵向量。並將該語音特徵向量與伺服器中的使用者特徵向量進行匹配,得到與該語音特徵向量匹配的目標特徵向量。藉由讀取該目標特徵向量關聯的個人資訊,完成對使用者身份的識別。具體的,例如,所述客戶端可以是表1中第1類至第5類中任一類設備。 在本實施方式中,客戶端也可以根據音頻資訊,產生特徵矩陣。將產生的特徵矩陣發送給伺服器。如此,伺服器接收到之後,可以根據該特徵矩陣產生語音特徵向量。進而使用語音特徵向量與儲存的使用者特徵向量進行匹配工作。如此,可以減少伺服器的運算負荷。在大資料場景下,當存在許多使用者藉由客戶端與伺服器互動時,在客戶端完成產生特徵矩陣,可以一定程度上降低伺服器的運算量。再者,客戶端將產生的特徵矩陣發送給伺服器,由於特徵矩陣的資料量少於音頻資訊,使得傳輸過程其佔用的網路資源較少。具體的,例如,所述客戶端可以是表1中第2類至第5類中任一類設備。 在本實施方式中,客戶端也可以根據音頻資訊,產生語音特徵向量。將產生的語音特徵向量發送給伺服器。如此,伺服器接收到之後,可以使用該語音特徵向量與儲存的使用者特徵向量進行匹配工作。如此,可以減少伺服器的運算負荷。在大資料場景下,當存在許多使用者藉由客戶端與伺服器互動時,在客戶端完成產生語音特徵向量,可以很大程度上降低伺服器的運算量。再者,客戶端將產生的語音特徵向量發送給伺服器,由於語音特徵向量的資料量遠遠少於音頻資訊,使得傳輸過程其佔用的網路資源較少。具體的,例如,所述客戶端可以是表1中第3類至第5類中任一類設備。 在一個實施方式中,所述方法還包括步驟:獲取支付對象資訊。相應的,在發送的步驟中,將所述音頻資訊、所述特徵矩陣或所述語音特徵向量中至少之一,和所述支付對象資訊發送給所述伺服器,以用於所述伺服器根據所述音頻資訊、所述特徵矩陣或者所述語音特徵向量確定所述使用者的個人資訊,以及根據所述個人資訊關聯的資源帳戶進行針對所述支付對象資訊的支付操作。 在本實施方式中,提供了一種在支付方法中,指定支付對象資訊的方式。本實施方式可以參見其它實施方式對照解釋,不再贅述。 請參閱圖14。在一個實施方式中,所述指定資訊為要求使用者發出指定的聲音。具體的,例如,指定資訊為要求使用者朗讀一段文字,或者回答問題。指定的聲音可以為朗讀文字的語音,或者回答的內容。在將所述音頻資訊、所述特徵矩陣或者所述語音特徵向量中至少之一,發送給所述伺服器的步驟中還可以包括以下步驟。 步驟S91:對用於產生所述語音特徵向量的音頻資訊進行語音識別,判斷所述使用者的語音是否符合所述指定資訊。 步驟S93:在符合的情況下,將所述音頻資訊、所述特徵矩陣、所述語音特徵向量中至少之一,和所述支付對象資訊發送給所述伺服器。 在本實施方式中,在將所述音頻資訊、所述特徵矩陣、所述語音特徵向量中至少之一,和支付對象資訊發送給伺服器之前,藉由識別音頻資訊的內容是否符合指定資訊的內容,以確認使用者是否存在支付虛擬資源的實際意願。當使用者的語音沒有符合指定資訊時,可以認為使用者並沒有實際意願支付。如此設置,提升了使用者的資源帳戶的安全性。 在本實施方式中,使用者的語音符合所述指定資訊可以為,音頻資訊識別的內容與指定資訊中提供給使用者朗讀的文字相一致;或者,音頻資訊中識別的內容是針對指定資訊提供給使用者的問題的回答。具體的,例如,指定資訊為要使用者朗讀“847579”,識別使用者的音頻資訊得到的內容也是“847579”,認為使用者的語音符合指定資訊。 在本實施方式中,根據發送的內容不同,客戶端可以採用表1中不同的類別的設備。發送音頻資訊和支付對象資訊時,客戶端可以採用表1中第2類至第5類中任一類的設備。發送特徵矩陣和支付對象資訊時,客戶端可以採用表1中第2類至第5類中任一類的設備。發送語音特徵向量和支付對象資訊時,客戶端可以採用表1中第4類至第5類的設備。 請參閱圖15。本發明實施方式還提供一種客戶端。所述客戶端包括:接收模組和發送模組。 獲取模組,用於接收使用者的支付指令。 發送模組,用於將使用者語音輸入的音頻資訊、根據所述音頻資訊產生的特徵矩陣或者根據所述音頻資訊產生的語音特徵向量中至少之一,發送給伺服器,以用於所述伺服器根據所述音頻資訊、所述特徵矩陣或者所述語音特徵向量確定所述使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 本實施方式中提供的客戶端,其實現的功能和效果可以參見其它實施方式對照解釋。 請參閱圖16。本發明實施方式還提供一種電子設備。所述電子設備可以包括:網路通訊單元、麥克風單元和處理器。 所述網路通訊單元,用於將所述處理器提供的語音特徵向量、特徵矩陣或音頻資訊,發送給伺服器,以用於所述伺服器根據所述音頻資訊、所述特徵矩陣或者所述語音特徵向量確定所述使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 所述麥克風單元,用於產生使用者語音輸入的音頻資訊。 所述處理器,用於獲取支付對象資訊;能將所述音頻資訊產生特徵矩陣或語音特徵向量。 在本實施方式中,所述記憶體包括但不限於隨機存取記憶體(Random Access Memory, RAM)、唯讀記憶體(Read-Only Memory, ROM)、快取(Cache)、硬碟(Hard Disk Drive, HDD)或者記憶卡(Memory Card)。所述記憶體可以用於儲存電腦程式指令。網路通訊單元可以是依照通訊協議規定的標準設置的,用於進行網路連接通訊的介面。 在本實施方式中,所述處理器可以按任何適當的方式實現。例如,所述處理器可以採取例如微處理器或處理器以及儲存可由該(微)處理器執行的電腦可讀程式碼(例如軟體或韌體)的電腦可讀媒體、邏輯閘、開關、專用集成電路(Application Specific Integrated Circuit,ASIC)、可編程邏輯控制器和嵌入微控制器的形式等等。 在本實施方式中,所述麥克風單元可以將聲音轉換成電信號形成音頻資訊。麥克風單元可以採取電阻式麥克風、電感式麥克風、電容式麥克風、鋁帶式麥克風、動圈式麥克風或駐極體麥克風。 本發明實施方式還提供一種電腦儲存媒體。所述電腦儲存媒體儲存有電腦程式指令,所述電腦程式指令被執行時實現:接收使用者的支付指令;將使用者語音輸入的音頻資訊、根據所述音頻資訊產生的特徵矩陣或者根據所述音頻資訊產生的語音特徵向量中至少之一,發送給伺服器,以用於所述伺服器根據所述音頻資訊、所述特徵矩陣或者所述語音特徵向量確定所述使用者的個人資訊,以對所述個人資訊關聯的資源帳戶進行支付操作。 在本實施方式中,所述電腦儲存媒體包括但不限於隨機存取記憶體(Random Access Memory, RAM)、唯讀記憶體(Read-Only Memory, ROM)、快取(Cache)、硬碟(Hard Disk Drive, HDD)或者記憶卡(Memory Card)。 本實施方式中提供的電腦儲存媒體,其電腦程式指令被執行時實現的功能和效果可以參見其它實施方式對照解釋。 請參閱圖17。本發明實施方式提供一種支付方法,應用於伺服器,所述方法可以包括以下步驟。 步驟S94:接收客戶端發出的音頻資訊和支付對象資訊;其中,所述音頻資訊為根據使用者的語音輸入產生。 在本實施方式中,伺服器並不限於同時接收到音頻資訊和支付對象資訊。具體的,例如,客戶端可以先發出音頻資訊,再發出支付對象資訊,反之亦然。 在本實施方式中, 步驟S96:根據所述音頻資訊產生語音特徵向量。 步驟S98:將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配;其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量。 步驟S100:根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 在本實施方式中,伺服器可以與客戶端之間基於網路通訊協議通訊。網路通訊協議包括但不限於Http、TCP/IP、FTP等。 在本實施方式中,伺服器根據客戶端提供的音頻資訊產生語音特徵向量,進而可以與伺服器中的使用者特徵向量進行匹配。以確定使用者的身份。 在本實施方式中,伺服器中可以具有多個使用者特徵向量。使用者可以藉由操作客戶端進行註冊。使用者註冊之後,會將使用者的使用者特徵向量與個人資訊關聯。伺服器可以用於儲存使用者註冊後的使用者特徵向量和個人資訊。 在本實施方式中,藉由伺服器統一處理身份驗證的工作,使得客戶端可以不涉及敏感資訊的工作。如此,可以提升使用者的資源帳戶的安全性。 請參閱圖18。在一個實施方式中,在接收音頻資訊的步驟中可以包括以下步驟。 步驟S102:向所述客戶端提供指定資訊,以使所述客戶端根據所述使用者依照所述指定資訊的語音輸入產生音頻資訊。 在本實施方式中,指定資訊可以是指示使用者朗讀一段文字,或者回答問題。具體的,例如,可以基於隨機演算法等,產生一段數字,並藉由播放或者螢幕顯示的方式提供給使用者。或者,選擇一個使用者預先設定好答案的問題,向使用者提問。在本實施方式中,伺服器產生該指定資訊之後發送給客戶端。 在本實施方式中,使用者依照所述指定資訊的語音,可以為使用者按照指定資訊的內容,朗讀文字或者回答問題。將使用者的語音錄製成音頻資訊,如此可以產生語音特徵向量,進而用於驗證使用者的身份。 步驟S104:接收所述客戶端反饋的所述音頻資訊。 在本實施方式中,可以藉由指定資訊來約束使用者的語音,進而可以對產生的語音特徵向量存在一定的規範作用。如此,有助於提升判斷語音特徵向量和使用者特徵向量是否匹配的準確度,即提升了對使用者的身份驗證的準確度。 請參閱圖19。在一個實施方式中,所述指定資訊為要求使用者發出指定的聲音。具體的,例如,指定資訊為要求使用者朗讀一段文字,或者回答問題。指定的聲音可以為朗讀文字的語音,或者回答的內容。在進行支付操作的步驟中還可以包括以下步驟。 步驟S108:對用於產生所述語音特徵向量的音頻資訊進行語音識別,判斷所述使用者的語音是否符合所述指定資訊。 步驟S110:在符合的情況下,根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 在本實施方式中,伺服器在進行支付操作之前,採用了雙重驗證。採用語音特徵向量驗證使用者的身份,藉由識別音頻資訊的內容是否符合指定資訊的內容。可以在上述雙重驗證都成功的情況下,伺服器才進行支付操作。如此設置,提升了使用者的資源帳戶的安全性。 在本實施方式中,使用者的語音符合所述指定資訊可以為,音頻資訊識別的內容與指定資訊中提供給使用者朗讀的文字相一致;或者,音頻資訊中識別的內容是針對指定資訊提供給使用者的問題的回答。具體的,例如,指定資訊為要使用者朗讀“847579”,識別使用者的音頻資訊得到的內容也是“847579”,認為使用者的語音符合指定資訊。 請參閱圖20。本發明實施方式提供一種伺服器,包括:接收模組、產生模組、匹配模組、處理模組。 所述接收模組,用於接收客戶端發出的音頻資訊和支付對象資訊;其中,所述音頻資訊為根據使用者的語音輸入產生。 所述產生模組,用於根據所述音頻資訊產生語音特徵向量。 所述匹配模組,用於將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配;其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量。 所述處理模組,用於根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本實施方式中提供的伺服器,其實現的功能和效果可以參見其它實施方式對照解釋。 請參閱圖21。本發明實施方式提供一種電子設備。該電子設備可以包括:網路通訊單元、記憶體和處理器。 所述網路通訊單元,用於接收客戶端發出的音頻資訊和支付對象資訊,其中,所述音頻資訊為根據使用者的語音輸入產生。 所述記憶體,用於儲存使用者特徵向量;所述使用者特徵向量與個人資訊關聯。 所述處理器,用於根據所述音頻資訊產生語音特徵向量;將所述語音特徵向量與所述記憶體中的使用者特徵向量進行匹配;其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 在本實施方式中,所述記憶體包括但不限於隨機存取記憶體(Random Access Memory, RAM)、唯讀記憶體(Read-Only Memory, ROM)、快取(Cache)、硬碟(Hard Disk Drive, HDD)或者記憶卡(Memory Card)。所述記憶體可以用於儲存電腦程式指令。網路通訊單元可以是依照通訊協議規定的標準設置的,用於進行網路連接通訊的介面。 在本實施方式中,所述處理器可以按任何適當的方式實現。例如,所述處理器可以採取例如微處理器或處理器以及儲存可由該(微)處理器執行的電腦可讀程式碼(例如軟體或韌體)的電腦可讀媒體、邏輯閘、開關、專用集成電路(Application Specific Integrated Circuit,ASIC)、可編程邏輯控制器和嵌入微控制器的形式等等。 本實施方式中提供的電子設備,其實現的功能和效果可以參見其它實施方式對照解釋。 本發明實施方式還提供一種電腦儲存媒體。所述電腦儲存媒體中儲存有電腦程式指令,所述電腦程式指令被執行時實現:接收客戶端發出的音頻資訊和支付對象資訊,其中,所述音頻資訊為根據使用者的語音輸入產生;根據所述音頻資訊產生語音特徵向量;將所述語音特徵向量與使用者特徵向量進行匹配,其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 在本實施方式中,所述電腦儲存媒體包括但不限於隨機存取記憶體(Random Access Memory, RAM)、唯讀記憶體(Read-Only Memory, ROM)、快取(Cache)、硬碟(Hard Disk Drive, HDD)或者記憶卡(Memory Card)。 本實施方式中提供的電腦儲存媒體,其電腦程式指令被執行時實現的功能和效果可以參見其它實施方式對照解釋。 請參閱圖22。本發明實施方式還提供一種支付方法。所述支付方法應用於伺服器。所述方法可以包括以下步驟。 步驟S112:接收客戶端發出的語音特徵向量和支付對象資訊;其中,所述語音特徵量是根據使用者的語音的音頻資訊產生。 步驟S114:將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配;其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量。 步驟S116:根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 在本實施方式中,伺服器直接接收到客戶端發出的語音特徵向量,使得伺服器可以直接將語音特徵向量與使用者特徵向量進行匹配。伺服器無需再進行根據音頻資訊產生語音特徵向量的工作。如此,可以減少伺服器的運算負荷。在大資料場景下,當存在許多使用者藉由客戶端與伺服器互動時,在客戶端完成產生語音特徵向量,可以很大程度上降低伺服器的運算量。再者,客戶端將產生的語音特徵向量發送給伺服器,由於語音特徵向量的資料量少於音頻資訊,使得傳輸過程其佔用的網路資源較少。 請參閱圖23。在一個實施方式中,在接收語音特徵向量的步驟中可以包括以下步驟。 步驟S118:向所述客戶端提供指定資訊,以使所述客戶端錄製所述使用者依照所述指定資訊的語音的音頻資訊。 步驟S120:接收所述客戶端反饋的根據所述音頻資訊產生的語音特徵向量。 在本實施方式中,伺服器可以向客戶端發出指定資訊,以約束客戶端提供的音頻資訊的內容。如此,可以使得客戶端提供的音頻資訊較為規範,比較便於伺服器產生語音特徵向量,以及提升語音特徵向量與使用者特徵向量匹配的準確度。 請參閱圖24。本發明實施方式提供一種伺服器。所述伺服器包括:接收模組、匹配模組和處理模組。 所述接收模組用於接收客戶端發出的語音特徵向量和支付對象資訊;其中,所述語音特徵量是根據使用者的語音輸入的音頻資訊產生。 所述匹配模組用於將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配;其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量。 所述處理模組用於根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本實施方式中提供的伺服器,其實現的功能和效果可以參見其它實施方式對照解釋。 請參閱圖25。本發明實施方式還提供一種電子設備。所述電子設備可以包括:網路通訊單元、記憶體和處理器。 所述網路通訊單元,用於接收客戶端發出的語音特徵向量和支付對象資訊;其中,所述語音特徵量是根據使用者的語音輸入的音頻資訊產生。 所述記憶體,用於儲存使用者特徵向量;所述使用者特徵向量與個人資訊關聯; 所述處理器,用於將所述語音特徵向量與所述記憶體中的使用者特徵向量進行匹配,其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 在本實施方式中,所述記憶體包括但不限於隨機存取記憶體(Random Access Memory, RAM)、唯讀記憶體(Read-Only Memory, ROM)、快取(Cache)、硬碟(Hard Disk Drive, HDD)或者記憶卡(Memory Card)。所述記憶體可以用於儲存電腦程式指令。網路通訊單元可以是依照通訊協議規定的標準設置的,用於進行網路連接通訊的介面。 在本實施方式中,所述處理器可以按任何適當的方式實現。例如,所述處理器可以採取例如微處理器或處理器以及儲存可由該(微)處理器執行的電腦可讀程式碼(例如軟體或韌體)的電腦可讀媒體、邏輯閘、開關、專用集成電路(Application Specific Integrated Circuit,ASIC)、可編程邏輯控制器和嵌入微控制器的形式等等。 本實施方式中提供的電子設備,其實現的功能和效果可以參見其它實施方式對照解釋。 本發明實施方式還提供一種電腦儲存媒體,所述電腦儲存媒體儲存有電腦程式指令,所述電腦程式指令被執行時實現:接收客戶端發出的語音特徵向量和支付對象資訊,其中,所述語音特徵量是根據使用者的語音的音頻資訊產生;將所述語音特徵向量與使用者特徵向量進行匹配,其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本實施方式中提供的電腦儲存媒體,其電腦程式指令被執行時實現的功能和效果可以參見其它實施方式對照解釋。 請參閱圖26和圖27。本發明實施方式還提供一種支付方法。所述方法可以包括以下步驟。 步驟S122:根據使用者的語音輸入產生音頻資訊。 步驟S124:將所述音頻資訊發送給伺服器,以用於所述伺服器識別音頻資訊表達的支付對象資訊,以及根據音頻資訊確定使用者的個人資訊,以根據所述個人資訊關聯的資源帳戶針對所述支付對象資訊進行支付操作。 在本實施方式中,客戶端可以僅僅負責錄製音頻資訊。並將錄製的音頻資訊發送給伺服器。如此,使得客戶端的功能較為簡單便於實現。而由伺服器完成主要的資料處理等功能,便於管理維護。在一些情況下,對主要資料處理的邏輯進行更新時,對伺服器中的程式指令更新即可,給軟體管理帶來了便利。 在本實施方式中,電子設備可以為表1中任一個類別中的設備。 請一併參閱圖26和圖28。本發明實施方式還提供一種支付方法。所述方法應用於伺服器。所述伺服器接收客戶端提供的音頻資訊;所述音頻資訊是根據使用者的語音輸入產生。所述支付方法可以包括以下步驟。 步驟S126:根據音頻資訊確定支付對象資訊,以及根據音頻資訊產生語音特徵向量。 在本實施方式中,伺服器可以對音頻資訊進行語音識別,識別出使用者表達的支付對象描述資訊,進而在本地儲存的對象資訊集中匹配得到支付對象資訊。 步驟S132:將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配;與所述語音特徵向量匹配成功的使用者特徵向量為目標使用者特徵向量。 步驟S134:根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 在本實施方式中,音頻資訊的數量可以是一個或多個。客戶端可以錄製一定時間長度之後,產生一個音頻資訊,也可以錄製達到一定資料量之後產生一個音頻資訊。客戶端還可以具有語音識別功能,在錄製使用者說完一句話之後產生音頻資訊。或者,在使用者說話過程,出現明顯的停頓時,將連續錄製的音頻資料作為一個音頻資訊。 在本實施方式中,伺服器完成了支付方法的主要運算處理工作。如此,客戶端可以僅僅錄製使用者的語音產生音頻資訊,並將音頻資訊發送給伺服器,簡化了客戶端的業務邏輯。再者,伺服器統一管理主要運算邏輯,便於進行升級維護。進一步的,客戶端除了提供音頻資訊之外,基本上不參與其它互動。如此,使得伺服器中的資料處理可以處於一個相對封閉的運算環境,降低了使用者個人資訊洩露的風險,提升了整個系統的安全性。 請參閱圖29。在一個實施方式中,在確定支付對象資訊的步驟中可以包括以下步驟。 步驟S136:對所述音頻資訊進行語音識別得到支付對象描述資訊。 步驟S138:根據所述支付對象描述資訊確定對應的支付對象資訊。 在本實施方式中,伺服器可以藉由語音識別確定使用者表達的內容。進而,伺服器可以根據使用者表達的支付對象描述資訊,確定對應的支付對象資訊。具體的,例如,伺服器對音頻資訊進行語音識別得到使用者表達的內容是“我想要瞭解一下聯想筆記型電腦,要有很高的性價比”。伺服器便可以從對象資訊集中查詢聯想筆記型電腦都有哪些型號,並可以藉由消費者對不同型號的評價,得出擁有較高高性價比的型號。當然,客戶端也可以有預先設定的評價規則來評判性價比。進一步的,比如,型號為T450的聯想筆記型電腦被確定為具有較高性價比的型號。此時,伺服器確定支付對象資訊之後,可以將支付對象資訊發送給客戶端以告知使用者。 請參閱圖30。在一個實施方式中,在確定支付對象資訊的步驟中可以包括以下步驟。 步驟S140:將所述支付對象描述資訊在本地儲存的對象資訊集中查詢,得到至少一個支付對象資訊。 步驟S142:將所述至少一個支付對象資訊反饋給所述客戶端,以提供給所述使用者。 步驟S144:接收所述客戶端發送的使用者的確認指令,將所述確認指令指向的支付對象資訊作為被確定的支付對象資訊。 在本實施方式中,將支付對象描述資訊在伺服器中儲存的對象資訊集中查詢,進一步確定支付對象資訊。在查詢得到多個支付對象資訊時,可以將多個支付對象資訊發送給客戶端以反饋給使用者,以便於使用者進行指定。 在本實施方式中,使用者可以操作客戶端向伺服器發出確認指令。所述確認指令可以是一種電信號,其用於表示使用者選擇某個支付對象資訊。具體的,使用者操作客戶端發出確認指令的方式可以包括:錄製使用者表達選擇某一支付對象資訊的語音的音頻資訊,將所述音頻資訊發送給伺服器。或者,在客戶端具有顯示器的場景下,使用者藉由操作按鈕,或者觸控螢幕選擇某一個支付對象資訊,客戶端向伺服器發送表示該支付對象資訊的消息。 請參閱圖31。在一個實施方式中,在產生語音特徵向量的步驟中可以包括以下步驟。 步驟S146:向所述客戶端發送指定資訊,以將所述指定資訊提供給所述使用者。 在本實施方式中,指定資訊可以是指示使用者朗讀一段文字,或者回答問題。具體的,例如,可以基於隨機演算法等,產生一段數字,並藉由播放或者螢幕顯示的方式提供給使用者。或者,選擇一個使用者預先設定好答案的問題,向使用者提問。 步驟S148:接收所述客戶端反饋的音頻資訊;所述音頻資訊是錄製所述使用者依照所述指定資訊的語音而產生。 步驟S150:根據所述音頻資訊產生所述語音特徵向量。 在本實施方式中,使用者依照所述指定資訊的語音,可以為使用者按照指定資訊的內容,朗讀文字或者回答問題。將使用者的語音錄製成音頻資訊,如此可以產生語音特徵向量,進而用於驗證使用者的身份。 在本實施方式中,可以藉由指定資訊來約束使用者的語音,進而可以對產生的語音特徵向量存在一定的規範作用。如此,有助於提升判斷語音特徵向量和使用者特徵向量是否匹配的準確度,即提升了對使用者的身份驗證的準確度。 請參閱圖32。在一個實施方式中,所述指定資訊為要求使用者發出指定的聲音;具體的,例如,指定資訊為要求使用者朗讀一段文字,或者回答問題。指定的聲音可以為朗讀文字的語音,或者回答的內容。在進行支付操作的步驟中還可以包括以下步驟。 步驟S152:對用於產生所述語音特徵向量的音頻資訊進行語音識別,判斷所述使用者的語音是否符合所述指定資訊。 步驟S154:在符合的情況下,根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 在本實施方式中,在將使用者的虛擬資源轉移給支付對象資訊對應的資源帳戶之前,採用了雙重驗證。採用語音特徵向量驗證使用者的身份,避免被冒充。藉由識別音頻資訊的內容是否符合指定資訊的內容,以確認使用者是否存在支付虛擬資源的實際意願。可以在上述雙重驗證都成功的情況下,將個人資訊和支付對象資訊發送給伺服器。如此設置,極大的提升了使用者的資源帳戶的安全性。 在本實施方式中,使用者的語音符合所述指定資訊可以為,音頻資訊識別的內容與指定資訊中提供給使用者朗讀的文字相一致;或者,音頻資訊中識別的內容是針對指定資訊提供給使用者的問題的正確回答。具體的,例如,指定資訊為要使用者朗讀“847579”,識別使用者的音頻資訊得到的內容也是“847579”,認為使用者的語音符合指定資訊。 請參閱圖33。本發明實施方式還提供一種伺服器,所述伺服器可以包括以下模組。 接收模組,用於接收客戶端發出的音頻資訊,其中,所述音頻資訊是根據使用者的語音輸入產生。 確定模組,用於根據音頻資訊確定支付對象資訊。 產生模組,用於根據音頻資訊產生語音特徵向量。 匹配模組,用於將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配;與所述語音特徵向量匹配成功的使用者特徵向量為目標使用者特徵向量。 處理模組,用於根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 本實施方式中提供的伺服器,其實現的功能和效果可以參見其它實施方式對照解釋。 請參閱圖34。本發明實施方式還提供一種電子設備,包括:網路通訊單元、記憶體和處理器。 所述網路通訊單元,用於接收客戶端提供的音頻資訊,所述音頻資訊是根據使用者的語音輸入產生。 所述記憶體,用於儲存使用者特徵向量;所述使用者特徵向量與個人資訊關聯。 所述處理器,用於根據音頻資訊確定支付對象資訊,以及根據音頻資訊產生語音特徵向量;將所述語音特徵向量與所述記憶體中的使用者特徵向量進行匹配,其中,與所述語音特徵向量匹配成功的使用者特徵向量為目標使用者特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 在本實施方式中,所述記憶體包括但不限於隨機存取記憶體(Random Access Memory, RAM)、唯讀記憶體(Read-Only Memory, ROM)、快取(Cache)、硬碟(Hard Disk Drive, HDD)或者記憶卡(Memory Card)。所述記憶體可以用於儲存電腦程式指令。網路通訊單元可以是依照通訊協議規定的標準設置的,用於進行網路連接通訊的介面。 在本實施方式中,所述處理器可以按任何適當的方式實現。例如,所述處理器可以採取例如微處理器或處理器以及儲存可由該(微)處理器執行的電腦可讀程式碼(例如軟體或韌體)的電腦可讀媒體、邏輯閘、開關、專用集成電路(Application Specific Integrated Circuit,ASIC)、可編程邏輯控制器和嵌入微控制器的形式等等。 本實施方式中提供的電子設備,其實現的功能和效果可以參見其它實施方式對照解釋。 本發明實施方式還提供一種電腦儲存媒體,所述電腦儲存媒體儲存有電腦程式指令,所述電腦程式指令被執行時實現:接收客戶端提供的音頻資訊,所述音頻資訊是根據使用者的語音輸入產生;根據音頻資訊確定支付對象資訊,以及根據音頻資訊產生語音特徵向量;將所述語音特徵向量與所述伺服器中的使用者特徵向量進行匹配,與所述語音特徵向量匹配成功的使用者特徵向量為目標使用者特徵向量;根據所述目標特徵向量關聯的個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 在本實施方式中,所述電腦儲存媒體包括但不限於隨機存取記憶體(Random Access Memory, RAM)、唯讀記憶體(Read-Only Memory, ROM)、快取(Cache)、硬碟(Hard Disk Drive, HDD)或者記憶卡(Memory Card)。 本實施方式中提供的電腦儲存媒體,其程式指令被執行時實現的功能和效果可以參見其它實施方式對照解釋。 請參閱圖35。本發明實施方式還提供一種支付方法。所述方法可以包括以下步驟。 步驟S156:顯示包括支付對象資訊的第一介面。 在本實施方式中,客戶端展示第一介面,如圖36所示,以向使用者提供支付對象資訊的內容。如此,使用者可以較為直觀的知道資訊。 步驟S158:接收使用者的支付請求;所述支付請求表示使用者希望支付所述支付對象資訊表徵的對象。 在本實施方式中,使用者可以藉由點擊“立即支付”按鈕等,操作客戶端,以實現進一步支付對象資訊表示的商品或服務。 步驟S160:顯示具有指定資訊的第二介面。 在本實施方式中,如圖37所示,第二介面可以是用於使用者確認支付的介面。該介面中具有指定資訊,以指示使用者朗讀文字或者回答問題。具體的,例如,指定資訊為要求使用者朗讀“736452”。 步驟S162:根據使用者依照所述指定資訊的語音輸入產生的音頻資訊;以用於根據所述音頻資訊確定所述使用者的個人資訊,以用於根據所述個人資訊的資源帳戶針對所述支付對象資訊進行支付操作。 在本實施方式中,使用者可以藉由點擊第二介面中的錄音按鈕,對使用者的說話語音進行錄製產生音頻資訊。客戶端可以根據音頻資訊產生語音特徵向量,以跟客戶端中的使用者特徵向量進行匹配,驗證使用者的身份。或者,也可以將音頻資訊發送給伺服器,由伺服器產生語音特徵向量並與使用者特徵向量匹配,得到目標特徵向量。在確認使用者的個人資訊之後,便可以進行支付的過程。即使用者向出售商品或服務的商家支付價款。 在本實施方式中,電子設備可以採用表1中第2類至第5類中的設備。 請參閱圖44。本發明實施方式提供一種支付方法,所述方法可以包括以下步驟。 步驟S164:接收使用者的支付指令。 步驟S166:根據使用者的語音輸入的音頻資訊,產生所述音頻資訊的語音特徵。 在本實施方式中,根據音頻資訊可以產生可以表徵該音頻資訊的語音特徵。在一個優選的實施方式中,語音特徵可以由語音特徵向量來表徵。當然,本實施方式中,語音特徵並不限於以語音特徵向量的方式。所屬領域技術人員在本發明技術精髓啟示下,還可以做出其它變更,但只要其實現的功能和效果與本發明相同或相似,均應涵蓋於本發明保護範圍內。 步驟S168:將所述語音特徵與使用者特徵進行匹配。 步驟S170:在匹配成功的情況下,將所述使用者特徵所關聯的個人資訊發送給伺服器,以用於所述伺服器對所述個人資訊關聯的資源帳戶進行支付操作。 在本實施方式中,將語音特徵與使用者特徵進行匹配,實現驗證使用者的身份。實現使用者可以僅僅藉由說話,便完成身份驗證。 在本實施方式中,使用者特徵可以是預先註冊在客戶端中。如此,根據將當前使用者的語音特徵與使用者特徵進行匹配,實現驗證使用者的身份。語音特徵和使用者特徵之間匹配,可以為二者作為一種運算的輸入,輸出的結果符合設定的要求。 在一個實施方式中,在產生語音特徵的步驟中包括以下至少之一:任意選擇一個所述使用者的音頻資訊產生所述語音特徵;或者,獲取所述使用者語音輸入的包括自定義支付關鍵詞的音頻資訊,根據所述音頻資訊產生所述語音特徵;或者,向所述使用者提供指定資訊,根據所述使用者依照所述指定資訊的語音輸入產生音頻資訊,根據所述音頻資訊產生所述語音特徵。 在一個實施方式中,所述指定資訊為要求使用者發出指定的聲音;在將所述使用者特徵所關聯的個人資訊發送給伺服器步驟中還包括:對用於產生所述語音特徵的音頻資訊進行語音識別,判斷所述使用者的語音是否符合所述指定資訊;在符合的情況下,將所述支付對象資訊和所述使用者特徵向量關聯的個人資訊,發送給伺服器。 本說明書中的各個實施方式均採用遞進的方式描述,各個實施方式之間相同相似的部分互相參見即可,每個實施方式重點說明的都是與其他實施方式的不同之處。 在20世紀90年代,對於一個技術的改進可以很明顯地區分是硬體上的改進(例如,對二極體、電晶體、開關等電路結構的改進)還是軟體上的改進(對於方法流程的改進)。然而,隨著技術的發展,當今的很多方法流程的改進已經可以視為硬體電路結構的直接改進。設計人員幾乎都藉由將改進的方法流程編程到硬體電路中來得到相應的硬體電路結構。因此,不能說一個方法流程的改進就不能用硬體實體模組來實現。例如,可程式邏輯裝置(Programmable Logic Device, PLD)(例如現場可程式邏輯閘陣列(Field Programmable Gate Array,FPGA))就是這樣一種集成電路,其邏輯功能由使用者對裝置編程來確定。由設計人員自行編程來把一個數位系統“集成”在一片PLD上,而不需要請晶片製造廠商來設計和製作專用的集成電路晶片2。而且,如今,取代手工地製作集成電路晶片,這種編程也多半改用“邏輯編譯器(logic compiler)”軟體來實現,它與程式開發撰寫時所用的軟體編譯器相類似,而要編譯之前的原始碼也得用特定的編程語言來撰寫,此稱之為硬體描述語言(Hardware Description Language,HDL),而HDL 也並非僅有一種,而是有許多種,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby Hardware Description Language)等,目前最普遍使用的是VHDL(Very-High-Speed Integrated Circuit Hardware Description Language ) 與Verilog2。本領域技術人員也應該清楚,只需要將方法流程用上述幾種硬體描述語言稍作邏輯編程並編程到集成電路中,就可以很容易得到實現該邏輯方法流程的硬體電路。 本領域技術人員也知道,除了以純電腦可讀程式碼方式實現控制器以外,完全可以藉由將方法步驟進行邏輯編程來使得控制器以邏輯閘、開關、專用集成電路、可編程邏輯控制器和嵌入微控制器等的形式來實現相同功能。因此這種控制器可以被認為是一種硬體部件,而對其內包括的用於實現各種功能的裝置也可以視為硬體部件內的結構。或者甚至,可以將用於實現各種功能的裝置視為既可以是實現方法的軟體模組又可以是硬體部件內的結構。 藉由以上的實施方式的描述可知,本領域的技術人員可以清楚地瞭解到本發明可借助軟體加必需的通用硬體平臺的方式來實現。基於這樣的理解,本發明的技術方案本質上或者說對現有技術做出貢獻的部分可以以軟體產品的形式體現出來,該電腦軟體產品可以儲存在儲存媒體中,如ROM/RAM、磁碟、光碟等,包括若干指令用以使得一台電腦設備(可以是個人電腦,伺服器,或者網路設備等)執行本發明各個實施方式或者實施方式的某些部分所述的方法。 雖然藉由實施方式描繪了本發明,本領域具有通常知識者知道,本發明有許多變形和變化而不脫離本發明的精神,希望所附的申請專利範圍包括這些變形和變化而不脫離本發明的精神。
S45~S170‧‧‧步驟
為了更清楚地說明本發明實施方式或現有技術中的技術方案,下面將對實施方式或現有技術描述中所需要使用的圖式作簡單地介紹,顯而易見地,下面描述中的圖式僅僅是本發明中記載的一些實施方式,對於本領域具有通常知識者來講,在不付出創造性勞動性的前提下,還可以根據這些圖式獲得其他的圖式。 圖1為本發明實施方式提供的一種語音特徵向量的產生方法的流程示意圖; 圖2為本發明實施方式提供的一種語音識別方法的流程圖; 圖3為本發明實施方式提供的一種支付方法的應用場景示意圖; 圖4為本發明實施方式提供的一種支付方法的流程示意圖; 圖5為本發明實施方式提供的一種支付方法的流程示意圖; 圖6為本發明實施方式提供的一種支付方法的流程示意圖; 圖7為本發明實施方式提供的一種支付方法的流程示意圖; 圖8為本發明實施方式提供的一種支付方法的流程示意圖; 圖9為本發明實施方式提供的一種支付方法的流程示意圖; 圖10為本發明實施方式提供的一種客戶端的模組示意圖; 圖11為本發明實施方式提供的一種電子設備的架構示意圖; 圖12為本發明實施方式提供的一種支付方法的流程示意圖; 圖13為本發明實施方式提供的一種支付方法的流程示意圖; 圖14為本發明實施方式提供的一種支付方法的流程示意圖; 圖15為本發明實施方式提供的一種客戶端的模組示意圖; 圖16為本發明實施方式提供的一種電子設備的架構示意圖; 圖17為本發明實施方式提供的一種支付方法的流程示意圖; 圖18為本發明實施方式提供的一種支付方法的流程示意圖; 圖19為本發明實施方式提供的一種支付方法的流程示意圖; 圖20為本發明實施方式提供的一種伺服器的模組示意圖; 圖21為本發明實施方式提供的一種電子設備的架構示意圖; 圖22為本發明實施方式提供的一種支付方法的流程示意圖; 圖23為本發明實施方式提供的一種支付方法的流程示意圖; 圖24為本發明實施方式提供的一種伺服器的模組示意圖; 圖25為本發明實施方式提供的一種電子設備的架構示意圖; 圖26為本發明實施方式提供的一種支付方法的流程示意圖; 圖27為本發明實施方式提供的一種支付方法的流程示意圖; 圖28為本發明實施方式提供的一種支付方法的流程示意圖; 圖29為本發明實施方式提供的一種支付方法的流程示意圖; 圖30為本發明實施方式提供的一種支付方法的流程示意圖; 圖31為本發明實施方式提供的一種支付方法的流程示意圖; 圖32為本發明實施方式提供的一種支付方法的流程示意圖; 圖33為本發明實施方式提供的一種伺服器的模組示意圖; 圖34為本發明實施方式提供的一種電子設備的架構示意圖; 圖35為本發明實施方式提供的一種支付方法的流程示意圖; 圖36為本發明實施方式提供的一種客戶端展示第一介面的示意圖; 圖37為本發明實施方式提供的一種客戶端展示第二介面的示意圖; 圖38為本發明實施方式提供的一種支付方法的應用場景示意圖; 圖39為本發明實施方式提供的一種支付方法的應用場景示意圖; 圖40為本發明實施方式提供的一種支付方法的應用場景示意圖; 圖41為本發明實施方式提供的一種支付方法的應用場景示意圖; 圖42為本發明實施方式提供的一種支付方法的應用場景示意圖; 圖43為本發明實施方式提供的一種支付方法的應用場景示意圖; 圖44為本發明實施方式提供的一種支付方法的流程示意圖。
Claims (54)
- 一種支付方法,其特徵在於,該方法包括: 接收使用者的支付指令; 根據該使用者的語音輸入的音頻資訊,產生該音頻資訊的語音特徵向量; 將該語音特徵向量與使用者特徵向量進行匹配; 在匹配成功的情況下,將該使用者特徵向量關聯的個人資訊發送給伺服器,以用於該伺服器對該個人資訊關聯的資源帳戶進行支付操作。
- 根據申請專利範圍第1項所述的方法,其中,在接收使用者的支付指令之前,該方法還包括:從該使用者語音輸入的音頻資訊中識別得到啟動指令。
- 根據申請專利範圍第1項所述的方法,其中,該方法還包括:獲取支付對象資訊; 相應的,在發送的步驟中, 在匹配成功的情況下,將該支付對象資訊和該使用者特徵向量關聯的個人資訊發送給伺服器,以用於該伺服器根據該個人資訊關聯的資源帳戶進行針對該支付對象資訊的支付操作。
- 根據申請專利範圍第3項所述的方法,其中,在獲取支付對象資訊的步驟中包括: 根據該使用者語音輸入產生音頻資訊; 對該音頻資訊進行語音識別得到支付對象描述資訊; 根據該支付對象描述資訊確定對應的支付對象資訊。
- 根據申請專利範圍第4項所述的方法,其中,在確定支付對象資訊的步驟中包括: 將該支付對象描述資訊發送給伺服器; 接收該伺服器反饋的至少一個支付對象資訊; 將該至少一個支付對象資訊反饋給該使用者; 接收該使用者的確認指令,將該確認指令指向的支付對象資訊作為被確定的支付對象資訊。
- 根據申請專利範圍第4項所述的方法,其中,在確定支付對象資訊的步驟中包括: 將該支付對象描述資訊在本地儲存的對象資訊集中查詢,得到至少一個支付對象資訊; 將該至少一個支付對象資訊反饋給該使用者; 接收該使用者的確認指令,將該確認指令指向的支付對象資訊作為被確定的支付對象資訊。
- 根據申請專利範圍第1項所述的方法,其中,在產生語音特徵向量的步驟中包括: 根據該音頻資訊產生特徵矩陣; 將該特徵矩陣按照多個特徵維度進行降維處理,得到多個用於表徵特徵維度的維度值,該多個維度值形成該語音特徵向量。
- 根據申請專利範圍第1項所述的方法,其中,在產生語音特徵向量的步驟中包括以下至少之一: 任意選擇一個該使用者的音頻資訊產生該語音特徵向量;或者, 獲取該使用者語音輸入的包括自定義支付關鍵詞的音頻資訊,根據該音頻資訊產生該語音特徵向量;或者, 向該使用者提供指定資訊,根據該使用者依照該指定資訊的語音輸入產生音頻資訊,根據該音頻資訊產生該語音特徵向量。
- 根據申請專利範圍第8項所述的方法,其中,該指定資訊為要求使用者發出指定的聲音;在發送的步驟中還包括: 對用於產生該語音特徵向量的音頻資訊進行語音識別,判斷該使用者的語音是否符合該指定資訊; 在符合的情況下,將該支付對象資訊和該使用者特徵向量關聯的個人資訊,發送給伺服器。
- 一種客戶端,其特徵在於,包括: 接收模組,用於接收使用者的支付指令; 產生模組,用於根據該使用者的語音輸入的音頻資訊,產生該音頻資訊的語音特徵向量; 匹配模組,用於將該語音特徵向量與使用者特徵向量進行匹配; 發送模組,用於在匹配成功的情況下,將該使用者特徵向量關聯的個人資訊,發送給伺服器,以用於該伺服器對該個人資訊關聯的資源帳戶進行支付操作。
- 一種電腦儲存媒體,其特徵在於,其儲存有程式指令,在該程式指令被執行時實現: 支付對象資訊接收使用者的支付指令; 根據該使用者的語音輸入的音頻資訊,產生該音頻資訊的語音特徵向量; 將該語音特徵向量與使用者特徵向量進行匹配; 在匹配成功的情況下,將支付對象資訊該使用者特徵向量關聯的個人資訊,發送給伺服器,以用於該伺服器對該個人資訊關聯的資源帳戶進行支付操作。
- 一種支付方法,其特徵在於,所述方法包括: 接收使用者的支付指令; 將使用者語音輸入的音頻資訊、根據該音頻資訊產生的特徵矩陣或者根據該音頻資訊產生的語音特徵向量中至少之一,發送給伺服器,以用於該伺服器根據該音頻資訊、該特徵矩陣或者該語音特徵向量確定該使用者的個人資訊,以對該個人資訊關聯的資源帳戶進行支付操作。
- 根據申請專利範圍第12項所述的方法,其中,在接收使用者的支付指令之前,該方法還包括:從使用者語音輸入的音頻資訊中識別得到啟動指令。
- 根據申請專利範圍第12項所述的方法,其中,該方法還包括:獲取支付對象資訊; 相應的,在發送的步驟中, 將該音頻資訊、該特徵矩陣或該語音特徵向量中至少之一,和該支付對象資訊發送給該伺服器,以用於該伺服器根據該音頻資訊、該特徵矩陣或者該語音特徵向量確定該使用者的個人資訊,以及根據該個人資訊關聯的資源帳戶進行針對該支付對象資訊的支付操作。
- 根據申請專利範圍第14項所述的方法,其中,在獲取支付對象資訊的步驟中包括: 根據使用者的語音輸入產生音頻資訊; 對該音頻資訊進行語音識別得到支付對象描述資訊; 根據該支付對象描述資訊確定對應的支付對象資訊。
- 根據申請專利範圍第15項所述的方法,其中,在確定支付對象資訊的步驟中包括: 將該支付對象描述資訊發送給伺服器; 接收該伺服器反饋的至少一個支付對象資訊; 將該至少一個支付對象資訊反饋給該使用者; 接收使用者的確認指令,將該確認指令指向的支付對象資訊作為被確定的支付對象資訊。
- 根據申請專利範圍第15項所述的方法,其中,在確定支付對象資訊的步驟中包括: 將該支付對象描述資訊在本地儲存的對象資訊集中匹配,得到至少一個支付對象資訊; 將該至少一個支付對象資訊反饋給該使用者; 接收使用者的確認指令,將該確認指令指向的支付對象資訊作為被確定的支付對象資訊。
- 根據申請專利範圍第12項所述的方法,其中,在產生語音特徵向量的步驟中包括: 根據該音頻資訊產生特徵矩陣; 將該特徵矩陣按照多個特徵維度進行降維處理,得到多個用於表徵特徵維度的維度值,該多個維度值形成該語音特徵向量。
- 根據申請專利範圍第12項所述的方法,其中,在產生語音特徵向量的步驟中包括以下至少之一: 音頻資訊任意選擇一個該使用者的音頻資訊產生該語音特徵向量;或者, 獲取該使用者語音輸入的包括自定義支付關鍵詞的音頻資訊,根據該音頻資訊產生該語音特徵向量;或者, 向該使用者提供指定資訊,根據該使用者依照該指定資訊的語音輸入產生音頻資訊,根據該音頻資訊產生該語音特徵向量。
- 根據申請專利範圍第19項所述的方法,其中,該指定資訊為要求使用者發出指定的聲音;在發送的步驟中還包括: 對用於產生該語音特徵向量的音頻資訊進行語音識別,判斷該使用者的語音是否符合該指定資訊; 在符合的情況下,將該音頻資訊、該特徵矩陣、該語音特徵向量中至少之一,和該支付對象資訊發送給該伺服器。
- 一種客戶端,其特徵在於,包括: 接收模組,用於接收使用者的支付指令; 發送模組,用於將該使用者的語音輸入的音頻資訊、根據該音頻資訊產生的特徵矩陣或者根據該音頻資訊產生的語音特徵向量中至少之一,發送給伺服器,以用於該伺服器根據該音頻資訊、該特徵矩陣或者該語音特徵向量確定該使用者的個人資訊,以對該個人資訊關聯的資源帳戶進行支付操作。
- 一種電腦儲存媒體,其特徵在於,該電腦儲存媒體儲存有電腦程式指令,該電腦程式指令被執行時實現:接收使用者的支付指令;將使用者語音輸入的音頻資訊、根據該音頻資訊產生的特徵矩陣或者根據該音頻資訊產生的語音特徵向量中至少之一,發送給伺服器,以用於該伺服器根據該音頻資訊、該特徵矩陣或者該語音特徵向量確定該使用者的個人資訊,以對該個人資訊關聯的資源帳戶進行支付操作。
- 一種支付方法,其特徵在於,應用於伺服器,該方法包括: 接收客戶端發出的音頻資訊和支付對象資訊;其中,該音頻資訊為根據使用者的語音輸入產生; 根據該音頻資訊產生語音特徵向量; 將該語音特徵向量與該伺服器中的使用者特徵向量進行匹配;其中,與該語音特徵向量匹配成功的使用者特徵向量為目標特徵向量; 根據該目標特徵向量關聯的個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 根據申請專利範圍第23項所述的方法,其中,在產生語音特徵向量的步驟中包括: 根據該音頻資訊產生特徵矩陣; 將該特徵矩陣按照多個特徵維度進行降維處理,得到多個用於表徵特徵維度的維度值,該多個維度值形成該語音特徵向量。
- 根據申請專利範圍第23項所述的方法,其中,在接收音頻資訊的步驟中包括: 向該客戶端提供指定資訊,以使該客戶端根據該使用者依照該指定資訊的語音輸入產生音頻資訊; 接收該客戶端反饋的該音頻資訊。
- 根據申請專利範圍第25項所述的方法,其中,該指定資訊為要求使用者發出指定的聲音;在進行支付操作的步驟中還包括: 對用於產生該語音特徵向量的音頻資訊進行語音識別,判斷該使用者的語音是否符合該指定資訊; 在符合的情況下,根據該目標特徵向量關聯的個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 一種伺服器,其特徵在於,包括: 接收模組,用於接收客戶端發出的音頻資訊和支付對象資訊;其中,該音頻資訊為根據使用者的語音輸入產生; 產生模組,用於根據該音頻資訊產生語音特徵向量; 匹配模組,用於將該語音特徵向量與該伺服器中的使用者特徵向量進行匹配;其中,與該語音特徵向量匹配成功的使用者特徵向量為目標特徵向量; 處理模組,用於根據該目標特徵向量關聯的個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 一種電子設備,其特徵在於,包括網路通訊單元、記憶體和處理器; 該網路通訊單元,用於接收客戶端發出的音頻資訊和支付對象資訊,其中,該音頻資訊為錄製的使用者的語音; 該記憶體,用於儲存使用者特徵向量;該使用者特徵向量與個人資訊關聯; 該處理器,用於根據該音頻資訊產生語音特徵向量;將該語音特徵向量與該記憶體中的使用者特徵向量進行匹配;其中,與該語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據該目標特徵向量關聯的個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 一種電腦儲存媒體,其特徵在於,該電腦儲存媒體中儲存有電腦程式指令,該電腦程式指令被執行時實現:接收客戶端發出的音頻資訊和支付對象資訊,其中,該音頻資訊為錄製的使用者的語音;根據該音頻資訊產生語音特徵向量;將該語音特徵向量與使用者特徵向量進行匹配,其中,與該語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據該目標特徵向量關聯的個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 一種支付方法,其特徵在於,應用於伺服器,該方法包括: 接收客戶端發出的語音特徵向量和支付對象資訊;其中,該語音特徵量是根據使用者的語音輸入的音頻資訊產生; 將該語音特徵向量與伺服器中的使用者特徵向量進行匹配;其中,與該語音特徵向量匹配成功的使用者特徵向量為目標特徵向量; 根據該目標特徵向量關聯的個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 根據申請專利範圍第30項所述的方法,其中,在接收語音特徵向量的步驟中包括: 向該客戶端提供指定資訊,以使該客戶端錄製該使用者依照該指定資訊的語音的音頻資訊; 接收該客戶端反饋的根據該音頻資訊產生的語音特徵向量。
- 一種伺服器,其特徵在於,其包括: 接收模組,用於接收客戶端發出的語音特徵向量和支付對象資訊;其中,該語音特徵量是根據使用者的語音輸入的音頻資訊產生; 匹配模組,用於將該語音特徵向量與該伺服器中的使用者特徵向量進行匹配;其中,與該語音特徵向量匹配成功的使用者特徵向量為目標特徵向量; 處理模組,用於根據該目標特徵向量關聯的個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 一種電子設備,其特徵在於,其包括:網路通訊單元、記憶體和處理器; 該網路通訊單元,用於接收客戶端發出的語音特徵向量和支付對象資訊;其中,該語音特徵量是根據使用者的語音輸入的音頻資訊產生; 該記憶體,用於儲存使用者特徵向量;該使用者特徵向量與個人資訊關聯; 該處理器,用於將該語音特徵向量與該記憶體中的使用者特徵向量進行匹配,其中,與該語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據該目標特徵向量關聯的個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 一種電腦儲存媒體,其特徵在於,該電腦儲存媒體儲存有電腦程式指令,該電腦程式指令被執行時實現:接收客戶端發出的語音特徵向量和支付對象資訊,其中,該語音特徵量是根據使用者的語音輸入的音頻資訊產生;將該語音特徵向量與使用者特徵向量進行匹配,其中,與該語音特徵向量匹配成功的使用者特徵向量為目標特徵向量;根據該目標特徵向量關聯的個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 一種支付方法,其特徵在於,該方法包括: 根據使用者的語音輸入產生音頻資訊; 將該音頻資訊發送給伺服器,以用於伺服器識別音頻資訊表達的支付對象資訊,以及根據音頻資訊確定使用者的個人資訊,以根據該個人資訊關聯的資源帳戶針對該支付對象資訊進行支付操作。
- 一種支付方法,其特徵在於,應用於伺服器,該伺服器接收客戶端提供的音頻資訊;該音頻資訊是根據使用者的語音輸入產生;該方法包括: 根據音頻資訊確定支付對象資訊,以及根據音頻資訊產生語音特徵向量; 將該語音特徵向量與該伺服器中的使用者特徵向量進行匹配;與該語音特徵向量匹配成功的使用者特徵向量為目標使用者特徵向量; 根據該目標特徵向量關聯的個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 根據申請專利範圍第36項所述的方法,其中,在確定支付對象資訊之前,該方法還包括:從使用者語音輸入的音頻資訊中識別得到啟動指令。
- 根據申請專利範圍第36項所述的方法,其中,在確定支付對象資訊的步驟中包括: 對該音頻資訊進行語音識別得到支付對象描述資訊; 根據該支付對象描述資訊確定對應的支付對象資訊。
- 根據申請專利範圍第38項所述的方法,其中,在確定支付對象資訊的步驟中包括: 將該支付對象描述資訊在儲存的對象資訊集中查詢,得到至少一個支付對象資訊; 將該至少一個支付對象資訊反饋給該客戶端,以提供給該使用者; 接收該客戶端發送的使用者的確認指令,將該確認指令指向的支付對象資訊作為被確定的支付對象資訊。
- 根據申請專利範圍第36項所述的方法,其中,在產生語音特徵向量的步驟中包括: 根據該音頻資訊產生特徵矩陣; 將該特徵矩陣按照多個特徵維度進行降維處理,得到多個用於表徵特徵維度的維度值,該多個維度值形成該語音特徵向量。
- 根據申請專利範圍第36項所述的方法,其中,在產生語音特徵向量的步驟中包括: 向該客戶端發送指定資訊,以將該指定資訊提供給該使用者; 接收該客戶端反饋的音頻資訊;該音頻資訊是錄製該使用者依照該指定資訊的語音而產生; 根據該音頻資訊產生該語音特徵向量。
- 根據申請專利範圍第41項所述的方法,其中,該指定資訊為要求使用者發出指定的聲音;在進行支付操作的步驟中還包括: 對用於產生該語音特徵向量的音頻資訊進行語音識別,判斷該使用者的語音是否符合該指定資訊; 在符合的情況下,根據該目標特徵向量關聯的個人資訊的資源帳戶該支付對象資訊進行支付操作。
- 一種伺服器,其特徵在於,該伺服器包括: 接收模組,用於接收客戶端發出的音頻資訊,其中,該音頻資訊是根據使用者語音輸入產生; 確定模組,用於根據音頻資訊確定支付對象資訊; 產生模組,用於根據音頻資訊產生語音特徵向量; 匹配模組,用於將該語音特徵向量與該伺服器中的使用者特徵向量進行匹配;與該語音特徵向量匹配成功的使用者特徵向量為目標使用者特徵向量; 處理模組,用於根據該目標特徵向量關聯的個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 一種電子設備,其特徵在於,包括:網路通訊單元、記憶體和處理器; 該網路通訊單元,用於接收客戶端提供的音頻資訊,該音頻資訊是根據使用者的語音輸入產生; 該記憶體,用於儲存使用者特徵向量;該使用者特徵向量與個人資訊關聯; 該處理器,用於根據音頻資訊確定支付對象資訊,以及根據音頻資訊產生語音特徵向量;將該語音特徵向量與該記憶體中的使用者特徵向量進行匹配,其中,與該語音特徵向量匹配成功的使用者特徵向量為目標使用者特徵向量;根據該目標特徵向量關聯的個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 一種電腦儲存媒體,其特徵在於,該電腦儲存媒體儲存有電腦程式指令,該電腦程式指令被執行時實現:接收客戶端提供的音頻資訊,該音頻資訊是根據使用者的語音輸入產生;根據音頻資訊確定支付對象資訊,以及根據音頻資訊產生語音特徵向量;將該語音特徵向量與伺服器中的使用者特徵向量進行匹配,與該語音特徵向量匹配成功的使用者特徵向量為目標使用者特徵向量;根據該目標特徵向量關聯的個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 一種支付方法,其特徵在於,該方法包括: 顯示包括支付對象資訊的第一介面; 接收使用者的支付請求;該支付請求表示使用者希望向該支付對象資訊進行支付操作; 顯示具有指定資訊的第二介面; 根據該使用者依照該指定資訊的語音輸入產生音頻資訊;以用於根據該音頻資訊確定該使用者的個人資訊,以用於根據該個人資訊的資源帳戶針對該支付對象資訊進行支付操作。
- 一種電子設備,其特徵在於,包括:麥克風單元和網路通訊單元; 該麥克風單元用於根據使用者語音輸入產生音頻資訊; 該網路通訊單元用於將該音頻資訊發送給伺服器,以用於該伺服器根據該音頻資訊確定使用者的個人資訊,以對該個人資訊關聯的資源帳戶進行支付操作。
- 一種電子設備,其特徵在於,包括:麥克風單元、網路通訊單元和處理器; 該麥克風單元用於根據使用者語音輸入產生音頻資訊; 該處理器用於根據該音頻資訊產生特徵矩陣;該特徵矩陣用於表徵該音頻資訊; 該網路通訊單元用於將該特徵矩陣發送給伺服器,以用於該伺服器根據該特徵矩陣確定使用者的個人資訊,以對該個人資訊關聯的資源帳戶進行支付操作。
- 一種電子設備,其特徵在於,包括:麥克風單元、網路通訊單元和處理器; 該麥克風單元用於根據使用者語音輸入產生音頻資訊; 該處理器用於根據該音頻資訊產生特徵矩陣,該特徵矩陣用於表徵該音頻資訊;針對該特徵矩陣進行端點偵測處理,以減少非語音部分的資料; 該網路通訊單元用於將該處理後的特徵矩陣發送給伺服器,以用於該伺服器根據該特徵矩陣確定使用者的個人資訊,以對該個人資訊關聯的資源帳戶進行支付操作。
- 一種電子設備,其特徵在於,包括:麥克風單元、網路通訊單元和處理器; 該麥克風單元用於根據使用者語音輸入產生音頻資訊; 該處理器用於根據該音頻資訊產生特徵矩陣;根據該特徵矩陣產生語音特徵向量,其中,該語音特徵向量用於表徵該音頻資訊; 該網路通訊單元用於將該語音特徵向量發送給伺服器,以用於該伺服器根據該語音特徵向量確定使用者的個人資訊,以對該個人資訊關聯的資源帳戶進行支付操作。
- 一種電子設備,其特徵在於,包括:麥克風單元、網路通訊單元和處理器; 該麥克風單元用於根據使用者語音輸入產生音頻資訊; 該處理器用於根據該音頻資訊產生特徵矩陣;根據該特徵矩陣產生語音特徵向量,其中,該語音特徵向量用於表徵該音頻資訊;將該語音特徵向量與儲存的使用者特徵向量進行匹配,得到與該語音特徵向量匹配的目標特徵向量; 該網路通訊單元用於將該目標特徵向量關聯的個人資訊發送給伺服器,以用於該伺服器對該個人資訊關聯的資源帳戶進行支付操作。
- 一種支付方法,其特徵在於,該方法包括: 接收使用者的支付指令; 根據使用者的語音輸入的音頻資訊,產生該音頻資訊的語音特徵; 將該語音特徵與使用者特徵進行匹配; 在匹配成功的情況下,將該使用者特徵所關聯的個人資訊發送給伺服器,以用於該伺服器對該個人資訊關聯的資源帳戶進行支付操作。
- 根據申請專利範圍第52項所述的方法,其中,在產生語音特徵的步驟中包括以下至少之一: 任意選擇一個該使用者的音頻資訊產生該語音特徵;或者, 獲取該使用者語音輸入的包括自定義支付關鍵詞的音頻資訊,根據該音頻資訊產生該語音特徵;或者, 向該使用者提供指定資訊,根據該使用者依照該指定資訊的語音輸入產生音頻資訊,根據該音頻資訊產生該語音特徵。
- 根據申請專利範圍第53項所述的方法,其中,該指定資訊為要求使用者發出指定的聲音;在發送的步驟中還包括: 對用於產生該語音特徵的音頻資訊進行語音識別,判斷該使用者的語音是否符合該指定資訊; 在符合的情況下,將該支付對象資訊和該使用者特徵向量關聯的個人資訊,發送給伺服器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710457967.6A CN109146450A (zh) | 2017-06-16 | 2017-06-16 | 支付方法、客户端、电子设备、存储介质和服务器 |
??201710457967.6 | 2017-06-16 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW201905789A true TW201905789A (zh) | 2019-02-01 |
Family
ID=64658217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW107106547A TW201905789A (zh) | 2017-06-16 | 2018-02-27 | 支付方法、客戶端、電子設備、儲存媒體和伺服器 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11551219B2 (zh) |
CN (1) | CN109146450A (zh) |
TW (1) | TW201905789A (zh) |
WO (1) | WO2018232135A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI770395B (zh) * | 2019-06-26 | 2022-07-11 | 三竹資訊股份有限公司 | 語音控制電視版銀行轉帳之裝置與方法 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109146450A (zh) * | 2017-06-16 | 2019-01-04 | 阿里巴巴集团控股有限公司 | 支付方法、客户端、电子设备、存储介质和服务器 |
CN107464157A (zh) * | 2017-07-05 | 2017-12-12 | 百度在线网络技术(北京)有限公司 | 资源处理方法及其设备 |
CN107437308B (zh) * | 2017-08-02 | 2022-01-18 | 京东方科技集团股份有限公司 | 共享物品的管理系统和方法、共享物品以及共享服务器 |
US11979398B2 (en) * | 2018-01-22 | 2024-05-07 | Nokia Technologies Oy | Privacy-preserving voiceprint authentication apparatus and method |
CN108737872A (zh) * | 2018-06-08 | 2018-11-02 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
CN109378006B (zh) * | 2018-12-28 | 2022-09-16 | 三星电子(中国)研发中心 | 一种跨设备声纹识别方法及系统 |
CN109858894A (zh) * | 2019-01-16 | 2019-06-07 | 深圳壹账通智能科技有限公司 | 一种支付结果通知方法、装置、可读存储介质及服务器 |
US11068772B2 (en) * | 2019-02-14 | 2021-07-20 | Caastle, Inc. | Systems and methods for automatic apparel wearability model training and prediction |
US11102572B2 (en) * | 2019-03-29 | 2021-08-24 | Asahi Kasei Kabushiki Kaisha | Apparatus for drawing attention to an object, method for drawing attention to an object, and computer readable non-transitory storage medium |
CN110191150B (zh) * | 2019-04-11 | 2021-02-19 | 创新先进技术有限公司 | 一种信息的处理系统、方法、装置及设备 |
US10930284B2 (en) | 2019-04-11 | 2021-02-23 | Advanced New Technologies Co., Ltd. | Information processing system, method, device and equipment |
CN110163617B (zh) * | 2019-05-29 | 2022-12-13 | 四川长虹电器股份有限公司 | 一种支持基于声纹的电视购物支付方法 |
CN110400151A (zh) * | 2019-07-29 | 2019-11-01 | 中国工商银行股份有限公司 | 应用于服务器的语音支付方法、装置、计算设备以及介质 |
JPWO2021039207A1 (zh) * | 2019-08-29 | 2021-03-04 | ||
US11374976B2 (en) | 2019-10-15 | 2022-06-28 | Bank Of America Corporation | System for authentication of resource actions based on multi-channel input |
CN112990909A (zh) * | 2019-12-12 | 2021-06-18 | 华为技术有限公司 | 一种语音支付方法和电子设备 |
CN111127146B (zh) * | 2019-12-19 | 2023-05-26 | 江西财经大学 | 基于卷积神经网络与降噪自编码器的信息推荐方法及系统 |
EP4088278A4 (en) * | 2020-01-10 | 2023-12-27 | Hewlett-Packard Development Company, L.P. | AUDIO SAMPLES TO DETECT DEVICE ANOMALIES |
CN111429126A (zh) * | 2020-03-03 | 2020-07-17 | 支付宝(杭州)信息技术有限公司 | 支付方法、装置及设备 |
CN111738707B (zh) * | 2020-05-29 | 2024-04-30 | 陈旺新 | 交易金额识别方法、支付方法和计算机装置 |
CN111784325A (zh) * | 2020-06-30 | 2020-10-16 | 咪咕文化科技有限公司 | 语音支付方法、装置、电子设备及存储介质 |
CN114268626A (zh) * | 2020-09-16 | 2022-04-01 | 阿里巴巴集团控股有限公司 | 窗口处理系统、方法以及装置 |
CN114331448A (zh) * | 2020-09-30 | 2022-04-12 | 华为技术有限公司 | 生物信息验证方法及设备 |
Family Cites Families (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5517558A (en) * | 1990-05-15 | 1996-05-14 | Voice Control Systems, Inc. | Voice-controlled account access over a telephone network |
US6393305B1 (en) | 1999-06-07 | 2002-05-21 | Nokia Mobile Phones Limited | Secure wireless communication user identification by voice recognition |
US20010039619A1 (en) | 2000-02-03 | 2001-11-08 | Martine Lapere | Speaker verification interface for secure transactions |
DE10030105A1 (de) * | 2000-06-19 | 2002-01-03 | Bosch Gmbh Robert | Spracherkennungseinrichtung |
US20020104027A1 (en) * | 2001-01-31 | 2002-08-01 | Valene Skerpac | N-dimensional biometric security system |
US20020120446A1 (en) * | 2001-02-23 | 2002-08-29 | Motorola, Inc. | Detection of inconsistent training data in a voice recognition system |
US7173910B2 (en) | 2001-05-14 | 2007-02-06 | Level 3 Communications, Inc. | Service level agreements based on objective voice quality testing for voice over IP (VOIP) networks |
JP2003050783A (ja) | 2001-05-30 | 2003-02-21 | Fujitsu Ltd | 複合認証システム |
US20030120626A1 (en) * | 2001-12-20 | 2003-06-26 | Koninklijke Philips Electronics N.V. | Voice-enabled, consumer transaction system |
US7743405B2 (en) | 2003-11-07 | 2010-06-22 | Siemens Aktiengesellschaft | Method of authentication via a secure wireless communication system |
US7636855B2 (en) | 2004-01-30 | 2009-12-22 | Panasonic Corporation | Multiple choice challenge-response user authorization system and method |
US7590589B2 (en) * | 2004-09-10 | 2009-09-15 | Hoffberg Steven M | Game theoretic prioritization scheme for mobile ad hoc networks permitting hierarchal deference |
WO2006087799A1 (ja) * | 2005-02-18 | 2006-08-24 | Fujitsu Limited | 音声認証システム |
US7536304B2 (en) | 2005-05-27 | 2009-05-19 | Porticus, Inc. | Method and system for bio-metric voice print authentication |
KR20060124062A (ko) * | 2005-05-30 | 2006-12-05 | 에스케이 텔레콤주식회사 | 멀티모달을 이용하여 화자 및 음성을 인증하는 복합 인증방법 및 시스템 |
US8874477B2 (en) * | 2005-10-04 | 2014-10-28 | Steven Mark Hoffberg | Multifactorial optimization system and method |
JPWO2007043679A1 (ja) * | 2005-10-14 | 2009-04-23 | シャープ株式会社 | 情報処理装置およびプログラム |
US20070129946A1 (en) * | 2005-12-06 | 2007-06-07 | Ma Changxue C | High quality speech reconstruction for a dialog method and system |
DE602006018795D1 (de) | 2006-05-16 | 2011-01-20 | Loquendo Spa | Kompensation der variabilität zwischen sitzungen zur automatischen extraktion von informationen aus sprache |
US8024193B2 (en) * | 2006-10-10 | 2011-09-20 | Apple Inc. | Methods and apparatus related to pruning for concatenative text-to-speech synthesis |
WO2008089508A1 (en) | 2007-01-22 | 2008-07-31 | Auraya Pty Ltd | Voice recognition system and methods |
JP4296231B2 (ja) * | 2007-06-06 | 2009-07-15 | パナソニック株式会社 | 声質編集装置および声質編集方法 |
WO2009057147A2 (en) | 2007-11-04 | 2009-05-07 | Rajendra Kumar Khare | Method and system for user authentication |
US20090157560A1 (en) | 2007-12-14 | 2009-06-18 | Bank Of America Corporation | Information banking and monetization of personal information |
US8499342B1 (en) * | 2008-09-09 | 2013-07-30 | At&T Intellectual Property I, L.P. | Systems and methods for using voiceprints to generate passwords on mobile devices |
JP2010092122A (ja) | 2008-10-03 | 2010-04-22 | Fujitsu Ltd | 認証システム、生体認証装置、及び生体認証方法 |
US8442824B2 (en) | 2008-11-26 | 2013-05-14 | Nuance Communications, Inc. | Device, system, and method of liveness detection utilizing voice biometrics |
US8989704B2 (en) | 2008-12-10 | 2015-03-24 | Symbol Technologies, Inc. | Invisible mode for mobile phones to facilitate privacy without breaching trust |
CN101753709A (zh) | 2008-12-11 | 2010-06-23 | 深圳富泰宏精密工业有限公司 | 语音辅助输入系统及方法 |
US9135424B2 (en) | 2009-05-29 | 2015-09-15 | Paypal, Inc. | Secure identity binding (SIB) |
KR101289081B1 (ko) * | 2009-09-10 | 2013-07-22 | 한국전자통신연구원 | 음성 인터페이스를 이용한 iptv 시스템 및 서비스 방법 |
TWI430189B (zh) | 2009-11-10 | 2014-03-11 | Inst Information Industry | 訊息擬真處理系統、裝置及方法 |
US8694537B2 (en) * | 2010-07-29 | 2014-04-08 | Soundhound, Inc. | Systems and methods for enabling natural language processing |
US9318114B2 (en) | 2010-11-24 | 2016-04-19 | At&T Intellectual Property I, L.P. | System and method for generating challenge utterances for speaker verification |
US9596237B2 (en) * | 2010-12-14 | 2017-03-14 | Salt Technology, Inc. | System and method for initiating transactions on a mobile device |
US20120150748A1 (en) * | 2010-12-14 | 2012-06-14 | Xtreme Mobility Inc. | System and method for authenticating transactions through a mobile device |
US8666895B2 (en) * | 2011-01-31 | 2014-03-04 | Bank Of America Corporation | Single action mobile transaction device |
US9042867B2 (en) | 2012-02-24 | 2015-05-26 | Agnitio S.L. | System and method for speaker recognition on mobile devices |
US9323912B2 (en) * | 2012-02-28 | 2016-04-26 | Verizon Patent And Licensing Inc. | Method and system for multi-factor biometric authentication |
US9646610B2 (en) * | 2012-10-30 | 2017-05-09 | Motorola Solutions, Inc. | Method and apparatus for activating a particular wireless communication device to accept speech and/or voice commands using identification data consisting of speech, voice, image recognition |
US9159319B1 (en) * | 2012-12-03 | 2015-10-13 | Amazon Technologies, Inc. | Keyword spotting with competitor models |
CN103236260B (zh) * | 2013-03-29 | 2015-08-12 | 京东方科技集团股份有限公司 | 语音识别系统 |
CN103258270B (zh) * | 2013-04-12 | 2015-11-18 | 李霆 | 银行支付方法及其装置 |
US9286482B1 (en) * | 2013-06-10 | 2016-03-15 | Amazon Technologies, Inc. | Privacy control based on user recognition |
CN103679452A (zh) * | 2013-06-20 | 2014-03-26 | 腾讯科技(深圳)有限公司 | 支付验证方法、装置及系统 |
US9443522B2 (en) * | 2013-11-18 | 2016-09-13 | Beijing Lenovo Software Ltd. | Voice recognition method, voice controlling method, information processing method, and electronic apparatus |
CN104657857A (zh) * | 2013-11-19 | 2015-05-27 | 腾讯科技(深圳)有限公司 | 一种实现支付的方法、相关装置及系统 |
CN104599117B (zh) * | 2013-11-19 | 2017-04-12 | 腾讯科技(深圳)有限公司 | 一种通过客户端完成支付的方法、相关装置及支付系统 |
US20150154002A1 (en) * | 2013-12-04 | 2015-06-04 | Google Inc. | User interface customization based on speaker characteristics |
US9378735B1 (en) * | 2013-12-19 | 2016-06-28 | Amazon Technologies, Inc. | Estimating speaker-specific affine transforms for neural network based speech recognition systems |
CN104735634B (zh) * | 2013-12-24 | 2019-06-25 | 腾讯科技(深圳)有限公司 | 一种关联支付账号管理方法、移动终端、服务器以及系统 |
CN104794122B (zh) * | 2014-01-20 | 2020-04-17 | 腾讯科技(北京)有限公司 | 一种位置信息推荐方法、装置和系统 |
US20160012465A1 (en) * | 2014-02-08 | 2016-01-14 | Jeffrey A. Sharp | System and method for distributing, receiving, and using funds or credits and apparatus thereof |
WO2015195815A1 (en) * | 2014-06-17 | 2015-12-23 | Securesit | System and method for managing a payment transaction |
US9418679B2 (en) * | 2014-08-12 | 2016-08-16 | Honeywell International Inc. | Methods and apparatus for interpreting received speech data using speech recognition |
US20160063990A1 (en) * | 2014-08-26 | 2016-03-03 | Honeywell International Inc. | Methods and apparatus for interpreting clipped speech using speech recognition |
CN104392353A (zh) * | 2014-10-08 | 2015-03-04 | 无锡指网生物识别科技有限公司 | 语音识别终端的支付方法及系统 |
US9786299B2 (en) | 2014-12-04 | 2017-10-10 | Microsoft Technology Licensing, Llc | Emotion type classification for interactive dialog system |
US9886948B1 (en) * | 2015-01-05 | 2018-02-06 | Amazon Technologies, Inc. | Neural network processing of multiple feature streams using max pooling and restricted connectivity |
US9600231B1 (en) * | 2015-03-13 | 2017-03-21 | Amazon Technologies, Inc. | Model shrinking for embedded keyword spotting |
KR101667733B1 (ko) * | 2015-05-04 | 2016-10-19 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US20160342911A1 (en) * | 2015-05-19 | 2016-11-24 | 24/7 Customer, Inc. | Method and system for effecting customer value based customer interaction management |
US9721569B2 (en) * | 2015-05-27 | 2017-08-01 | Intel Corporation | Gaussian mixture model accelerator with direct memory access engines corresponding to individual data streams |
US10733979B2 (en) * | 2015-10-09 | 2020-08-04 | Google Llc | Latency constraints for acoustic modeling |
US10884503B2 (en) * | 2015-12-07 | 2021-01-05 | Sri International | VPA with integrated object recognition and facial expression recognition |
CN105741838B (zh) * | 2016-01-20 | 2019-10-15 | 百度在线网络技术(北京)有限公司 | 语音唤醒方法及装置 |
US10210862B1 (en) * | 2016-03-21 | 2019-02-19 | Amazon Technologies, Inc. | Lattice decoding and result confirmation using recurrent neural networks |
US10373612B2 (en) * | 2016-03-21 | 2019-08-06 | Amazon Technologies, Inc. | Anchored speech detection and speech recognition |
WO2017216786A1 (en) * | 2016-06-14 | 2017-12-21 | Omry Netzer | Automatic speech recognition |
SG10201607450XA (en) * | 2016-09-07 | 2018-04-27 | Mastercard Asia Pacific Pte Ltd | An apparatus, system, server and methods for carrying out a transaction |
US20180096333A1 (en) * | 2016-10-03 | 2018-04-05 | Paypal, Inc. | Voice activated remittances |
US10475471B2 (en) * | 2016-10-11 | 2019-11-12 | Cirrus Logic, Inc. | Detection of acoustic impulse events in voice applications using a neural network |
US10945080B2 (en) * | 2016-11-18 | 2021-03-09 | Stages Llc | Audio analysis and processing system |
US10178432B2 (en) * | 2017-05-18 | 2019-01-08 | Sony Corporation | Identity-based face and voice recognition to regulate content rights and parental controls using consumer profiles |
CN109145145A (zh) * | 2017-06-16 | 2019-01-04 | 阿里巴巴集团控股有限公司 | 一种数据更新方法、客户端及电子设备 |
CN109147770B (zh) * | 2017-06-16 | 2023-07-28 | 阿里巴巴集团控股有限公司 | 声音识别特征的优化、动态注册方法、客户端和服务器 |
CN109146450A (zh) * | 2017-06-16 | 2019-01-04 | 阿里巴巴集团控股有限公司 | 支付方法、客户端、电子设备、存储介质和服务器 |
US11264019B2 (en) * | 2017-06-30 | 2022-03-01 | Google Llc | Methods, systems, and media for voice-based call operations |
US11315554B2 (en) * | 2017-06-30 | 2022-04-26 | Google Llc | Methods, systems, and media for connecting an IoT device to a call |
CN109215643B (zh) * | 2017-07-05 | 2023-10-24 | 阿里巴巴集团控股有限公司 | 一种交互方法、电子设备及服务器 |
US10867612B1 (en) * | 2017-11-13 | 2020-12-15 | United Services Automobile Association (Usaa) | Passive authentication through voice data analysis |
EP3707606B1 (en) * | 2017-12-08 | 2023-02-01 | Google LLC | Distributed identification in networked system |
US10726830B1 (en) * | 2018-09-27 | 2020-07-28 | Amazon Technologies, Inc. | Deep multi-channel acoustic modeling |
CN110992125A (zh) * | 2019-11-01 | 2020-04-10 | 苏宁云计算有限公司 | 一种购物方法、装置及系统 |
-
2017
- 2017-06-16 CN CN201710457967.6A patent/CN109146450A/zh active Pending
-
2018
- 2018-02-27 TW TW107106547A patent/TW201905789A/zh unknown
- 2018-06-14 WO PCT/US2018/037572 patent/WO2018232135A1/en active Application Filing
- 2018-06-14 US US16/008,765 patent/US11551219B2/en active Active
-
2022
- 2022-12-20 US US18/085,334 patent/US20230127314A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI770395B (zh) * | 2019-06-26 | 2022-07-11 | 三竹資訊股份有限公司 | 語音控制電視版銀行轉帳之裝置與方法 |
Also Published As
Publication number | Publication date |
---|---|
US20180365695A1 (en) | 2018-12-20 |
CN109146450A (zh) | 2019-01-04 |
US20230127314A1 (en) | 2023-04-27 |
US11551219B2 (en) | 2023-01-10 |
WO2018232135A1 (en) | 2018-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW201905789A (zh) | 支付方法、客戶端、電子設備、儲存媒體和伺服器 | |
CN109215643B (zh) | 一种交互方法、电子设备及服务器 | |
CN109147770B (zh) | 声音识别特征的优化、动态注册方法、客户端和服务器 | |
US10152756B2 (en) | System and method for providing multiple payment method options to browser | |
US10621653B2 (en) | System and method for providing payments for users in connection with a device software module having a payment application programming interface | |
US10296953B2 (en) | Assisted shopping | |
US8977554B1 (en) | Assisted shopping server | |
JP2021152931A (ja) | ブラウザアプリケーションプログラミングインターフェースを通した暗号通貨支払いの提供 | |
TW201905675A (zh) | 資料更新方法、客戶端及電子設備 | |
US10915227B1 (en) | System for adjustment of resource allocation based on multi-channel inputs | |
US20080249775A1 (en) | Information exchange system and method | |
WO2021082472A1 (zh) | 一种购物方法、装置及系统 | |
US20230274275A1 (en) | Authorization preprocessing systems and methods | |
JP2019125357A (ja) | インタラクティブなエクスペリエンスに適合させた自然言語文法 | |
US20230126052A1 (en) | System and method for analysis of spoken natural language to detect promotion phrases for providing follow-up content | |
TWM554612U (zh) | 智能線上客戶服務系統 | |
CN112446753A (zh) | 一种数据处理方法、装置、设备和机器可读介质 | |
CN110581771B (zh) | 利用网络消息服务以处理费用拆分的方法、计算装置可读存储介质以及计算装置 | |
TW201944320A (zh) | 支付認證方法、裝置、設備及存儲介質 | |
TWM638051U (zh) | 語音互動系統 | |
WO2019176017A1 (ja) | Aiスピーカーシステム、aiスピーカーシステムの制御方法、及びプログラム | |
WO2024006243A1 (en) | Systems and methods for augmented communications using machine-readable labels | |
TWM593609U (zh) | 以互動式信息存取金融服務的系統 |