TWI661329B - 身份資訊關聯系統與方法、電腦存儲介質及使用者設備 - Google Patents

身份資訊關聯系統與方法、電腦存儲介質及使用者設備 Download PDF

Info

Publication number
TWI661329B
TWI661329B TW106144286A TW106144286A TWI661329B TW I661329 B TWI661329 B TW I661329B TW 106144286 A TW106144286 A TW 106144286A TW 106144286 A TW106144286 A TW 106144286A TW I661329 B TWI661329 B TW I661329B
Authority
TW
Taiwan
Prior art keywords
sound
trigger
action
identity information
individual
Prior art date
Application number
TW106144286A
Other languages
English (en)
Other versions
TW201928737A (zh
Inventor
林忠億
Original Assignee
鴻海精密工業股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 鴻海精密工業股份有限公司 filed Critical 鴻海精密工業股份有限公司
Priority to TW106144286A priority Critical patent/TWI661329B/zh
Priority to US15/884,284 priority patent/US10643622B2/en
Application granted granted Critical
Publication of TWI661329B publication Critical patent/TWI661329B/zh
Publication of TW201928737A publication Critical patent/TW201928737A/zh

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Collating Specific Patterns (AREA)

Abstract

一種身份資訊關聯方法,應用於一身份資訊關聯系統中,該方法包括:識別場景內的個體;記錄所述場景內的聲音資訊;識別所述聲音資訊中的個體聲音;判斷一目標個體是否對所述個體聲音中一觸發聲音具有應答動作;記錄所述觸發聲音;及關聯所述觸發聲音與所述目標個體。本發明還揭示了一種實現上述身份資訊關聯方法的身份資訊關聯系統、電腦存儲介質及使用者設備。

Description

身份資訊關聯系統與方法、電腦存儲介質及使用者設備
本發明涉及一種大資料分析技術,尤其涉及一種身份資訊關聯系統及方法、電腦存儲介質及使用者設備。
目前多數軟體都需要使用者進行註冊,註冊時都需要手動輸入使用者的個人身份資訊,特別是用戶名,例如辦理會員卡、應聘時,需要手動填寫個人身份資訊表格,甚至需要照片。這種方式需要預先進行記錄,在一些特殊場合,如進行一次性會議時,無法預先記錄參與者資訊。
鑒於上述內容,有必要提供一種無需預先註冊並可基於使用者行為分析的身份資訊關聯系統及方法、電腦存儲介質及使用者設備。
一種身份資訊關聯方法,應用於一身份資訊關聯裝置中,該方法包括:識別場景內的個體;記錄所述場景內的聲音資訊;識別所述聲音資訊中的個體聲音;判斷一目標個體是否對所述個體聲音中一觸發聲音具有應答動作; 記錄所述觸發聲音;及關聯所述觸發聲音與所述目標個體。
優選地,在所述關聯所述觸發聲音與所述目標個體之前,所述方法還包括以下步驟:分析多個觸發聲音的語義;及判斷多個觸發聲音中相同語義的個數是否超過預設個數。
優選地,所述判斷一目標個體是否對所述聲音資訊中一觸發聲音具有應答動作包括:判斷所述觸發聲音後所述目標個體是否有身體動作;判斷所述身體動作幅度是否超過一預定幅度;及判斷多個個體是否同時具有所述身體動作。
優選地,所述身體動作包括頭部動作、臉部動作及手部動作至少其中之一,所述頭部動作包括抬頭或轉頭,所述臉部動作包括特定的嘴部動作或眼部動作,所述手部動作包括舉手應答動作。
一種身份資訊關聯系統,包括:視頻監測模組,用於識別場景內的個體;聲音監測模組,用於記錄所述場景內的聲音資訊;聲音識別模組,用於識別所述聲音資訊中的個體聲音;應答判斷模組,用於判斷一目標個體是否對所述個體資訊中一觸發聲音具有應答動作;觸發記錄模組,用於記錄所述觸發聲音;及身份關聯模組,用於關聯所述觸發聲音與所述目標個體。
優選地,所述身份資訊關聯系統還包括語義分析模組、聲音轉換模組及語義判斷模組,所述語音分析模組用於分析多個觸發語音的語義, 所述語義判斷模組還用於判斷多個觸發聲音中相同語義的個數是否超過預設個數;所述聲音轉換模組用於當多個觸發聲音中相同語義的個數超過預設個數時將所述觸發聲音轉換為文字關聯所述目標個體。
優選地,所述應答判斷模組還用於判斷所述觸發聲音後所述目標個體是否有身體動作、判斷所述身體動作幅度是否超過一預定幅度、及判斷多個個體是否同時具有所述身體動作。
優選地,所述身體動作包括頭部動作、臉部動作及手部動作至少其中之一,所述頭部動作包括抬頭或轉頭,所述臉部動作包括特定的嘴部動作或眼部動作,所述手部動作包括舉手應答動作。
一種電腦存儲介質,該電腦存儲介質存儲多條指令,所述多條指令適於由處理器載入並執行上述身份資訊關聯方法。
一種使用者設備,包括:處理器,用於實現一條或一條以上指令;及電腦存儲介質,用於存儲多條指令,所述多條指令適於由處理器載入並執行上述身份資訊關聯方法。
上述身份資訊關聯系統及方法,將目標個體與對應的稱呼轉換的文字進行關聯儲存,當需要使用用戶名等身份資訊時,僅需要識別個體特徵,例如體征及體態就可以,無需手動進行填寫。
31‧‧‧視頻監測模組
32‧‧‧聲音監測模組
33‧‧‧聲音識別模組
34‧‧‧應答判斷模組
35‧‧‧觸發記錄模組
36‧‧‧身份關聯模組
37‧‧‧聲音轉換模組
38‧‧‧語義分析模組
39‧‧‧語音判斷模組
71‧‧‧處理器
73‧‧‧電腦存儲介質
圖1為本發明一實施方式中身份資訊關聯方法的步驟流程圖。
圖2為圖1中身份資訊關聯方法的判斷目標環境中是否有應答身體動作的步驟流程圖。
圖3為本發明一實施方式中身份資訊關聯系統的結構框圖。
圖4為本發明一實施方式中一使用者設備的結構框圖。
下面將結合本發明實施例中的附圖,對本發明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發明一部分實施例,而不是全部的實施例。基於本發明中的實施例,本領域普通技術人員在沒有做出創造性勞動前提下所獲得的所有其他實施例,都屬於本發明保護的範圍。
需要說明的是,當一個元件被認為是“連接”另一個元件,它可以是直接連接到另一個元件或者可能同時存在居中設置的元件。當一個元件被認為是“設置於”另一個元件,它可以是直接設置在另一個元件上或者可能同時存在居中設置的元件。
除非另有定義,本文所使用的所有的技術和科學術語與屬於本發明的技術領域的技術人員通常理解的含義相同。本文中在本發明的說明書中所使用的術語只是為了描述具體的實施例的目的,不是旨在于限制本發明。本文所使用的術語“及/或”包括一個或多個相關的所列項目的任意的和所有的組合。
請參閱圖1,本發明一實施方式中提供一種身份資訊關聯方法,可通過對個體的行為分析獲取並記錄其身份資訊。該方法包括以下步驟:
步驟S101:識別場景內的個體。所述場景是固定區活動空間,例如會議室、超市、實驗室、教室、餐廳、商場等,通過視頻監測裝置監測。所述個體可為人體、動物或人造物,如人工智慧機器人等。所述視頻監測裝置為攝像頭。視頻監測裝置可通過體征識別(如臉部識別)及體態識別等方式確定並跟蹤每個個體。
步驟S102:記錄所述場景內的聲音資訊。通過聲音監測裝置來收錄目標場景中的聲音;在一實施方式中,所述聲音監測裝置為麥克風。場景中的聲音可包括個體所發出的聲音及其他聲音。
步驟S103:識別所述聲音資訊中的個體聲音。可通過聲音頻率、結合視頻中個體的體態變化如張嘴的動作,或識別語義的方式來識別聲音資訊中的個體聲音。
步驟S104:判斷一目標個體是否對所述個體聲音中一觸發聲音具有應答動作,如果是,執行步驟S105,如果否,返回步驟S101。所述應答動作包括頭部動作、臉部動作及手部動作至少其中之一,頭部動作包括抬頭、轉頭,臉部動作包括特定的嘴部動作、眼部動作,手部動作包括舉手應答;所述觸發聲音包括目標個體的稱呼,例如姓名、外號、昵稱等。
步驟S105:記錄所述觸發聲音。
步驟S106:分析多個觸發聲音的語義。
步驟S107:判斷多個觸發聲音中相同語義的個數是否超過預設個數,如果是,執行步驟S108,如果否,返回步驟S104。
步驟S108:關聯所述觸發聲音與所述目標個體。
步驟S109:將所述觸發聲音轉換為文字關聯所述目標個體。
將所述觸發聲音轉換為文字與所述目標個體關聯後,在需要註冊的時候,就可以直接通過體征識別(如臉部識別)或體態識別來註冊,不需要手動註冊。利用目標個體與關聯的文字,資料庫中還可以通過大資料分析關聯與文字對應的其他個人資料,例如職涯經歷、求診資料、健康情況等。當經過體征識別或體態識別後,就可以知道對應的稱呼及相關的個人資料。
請同時參閱圖2,步驟S103包括:
步驟S201:判斷所述觸發聲音後所述目標個體是否有身體動作,如果是,執行步驟S202,如果否,僅需執行步驟S201。
步驟S202,判斷所述身體動作幅度是否超過一預定幅度,如果是,執行步驟S203,如果否,返回步驟S201。所述身體動作包括頭部動作、臉部動作及手部動作至少其中之一,頭部動作包括抬頭、轉頭,臉部動作包括特定的嘴部動作、眼部動作,手部動作包括舉手應答。
步驟S203:判斷多個個體是否同時具有所述身體動作,如果否,執行步驟S204,如果是,返回步驟S201。
步驟S204:記錄該身體動作為應答動作。
請參閱圖3,本發明一實施方式中的身份資訊關聯系統包括:
視頻監測模組31,用於識別場景內的個體。所述場景是固定區活動空間,例如會議室、超市、實驗室、教室、餐廳、商場等。所述個體可為人體、動物或人造物,如人工智慧機器人等。所述視頻監測裝置為攝像頭。視頻監測模組31可通過體征識別(如臉部識別)及體態識別等方式確定並跟蹤每個個體。
聲音監測模組32,用於記錄所述場景內的聲音資訊。通過在所述目標場景中裝設聲音監測裝置來收錄目標場景中的聲音;在一實施方式中,所述聲音監測裝置為麥克風。場景中的聲音可包括個體所發出的聲音及其他聲音。
聲音識別模組33,用於識別所述聲音資訊中的個體聲音。可通過的聲音頻率、結合視頻中個體的體態變化或識別語義的方式,如張嘴的動作來識別聲音資訊中的個體聲音。
應答判斷模組34,用於判斷一目標個體是否對所述個體聲音中一觸發聲音具有應答動作。所述應答動作包括頭部動作、臉部動作及手部動 作至少其中之一,頭部動作包括抬頭、轉頭,臉部動作包括特定的嘴部動作、眼部動作,手部動作包括舉手應答。
所述應答判斷模組34通過判斷目標場景中是否有身體動作和判斷身體動作幅度是否超過一預定幅度及判斷多個個體是否同時具有所述身體動作來判斷是否應答動作。身體動作包括頭部動作、臉部動作及手部動作,頭部動作包括抬頭、轉頭,臉部動作包括特定的嘴部動作、眼部動作,手部動作包括舉手應答。當身體動作幅度太小或多人都有身體動作時,不被認為是應答動作。
觸發記錄模組35,用於記錄觸發應答動作的觸發語音。
語義分析模組38,用於分析多個觸發聲音的語義。
語義判斷模組39,用於判斷多個觸發聲音中相同語義的個數是否超過預設個數。所述預設個數大於或等於兩個。
身份關聯模組36,用於在多個觸發聲音中相同語義的個數超過預設個數時關聯所述觸發聲音與所述目標個體。
聲音轉換模組37,用於將觸發聲音轉換為文字關聯所述目標個體。
將所述觸發聲音轉換為文字與所述目標個體關聯後,在需要註冊的時候,就可以直接通過體征識別(如臉部識別)或體態識別來註冊,不需要手動註冊。利用目標個體與關聯的文字,資料庫中還可以通過大資料分析關聯與文字對應的其他個人資料,例如職涯經歷、求診資料、健康情況等。當經過體征識別或體態識別後,就可以知道對應的稱呼及相關的個人資料。
請同時參閱圖4,本發明還揭示一種使用者設備,該使用者設備可包括至少一個處理器(processor)71(圖中以一個處理器71為例)以及電腦存儲介質(memory)73。處理器71可以調用電腦存儲介質73中的邏輯指 令,以執行上述實施例中的方法。在一實施方式中,所述使用者設備為伺服器。
此外,上述的電腦存儲介質73中的邏輯指令可以通過軟體功能單元的形式實現並作為獨立的產品銷售或使用時,可以存儲在一個電腦存儲介質中。
電腦存儲介質73可設置為存儲軟體程式、電腦可執行程式,如本公開實施例中的方法對應的程式指令或模組。處理器71通過運行存儲在電腦存儲介質73中的軟體程式、指令或模組,從而執行功能應用於及資料處理,即實現上述實施例中的方法。
電腦存儲介質73可包括存儲程式區和存儲資料區,其中,存儲程式區可存儲作業系統、至少一個功能所需的應用程式;存儲資料區可存儲根據終端設備的使用所創建的資料等。此外,電腦存儲介質73可以包括高速隨機存取電腦存儲介質,還可以包括非易失性電腦存儲介質。例如,U盤、移動硬碟、唯讀電腦存儲介質(Read-Only Memory,ROM)、隨機存取電腦存儲介質(Random Access Memory,RAM)、磁碟或者光碟等多種可以存儲程式碼的介質,也可以是暫態存儲介質。
所述處理器71載入並執行電腦存儲介質73中存放的一條或一條以上指令,以實現上述圖1-圖2所示方法流程的相應步驟;具體實現中,電腦存儲介質中的一條或一條以上指令由處理器載入並執行如下步驟:
步驟S101:識別場景內的個體。所述場景是固定區活動空間,例如會議室、超市、實驗室、教室、餐廳、商場等,通過視頻監測裝置監測。所述個體可為人體、動物或人造物,如人工智慧機器人等。所述視頻監測裝置為攝像頭。視頻監測裝置可通過體征識別(如臉部識別)及體態識別等方式確定並跟蹤每個個體。
步驟S102:記錄所述場景內的聲音資訊。通過聲音監測裝置來收錄目標場景中的聲音;在一實施方式中,所述聲音監測裝置為麥克風。場景中的聲音可包括個體所發出的聲音及其他聲音。
步驟S103:識別所述聲音資訊中的個體聲音。可通過的聲音頻率、結合視頻中個體的體態變化或識別語義的方式,如張嘴的動作來識別聲音資訊中的個體聲音。
步驟S104:判斷一目標個體是否對所述個體聲音中一觸發聲音具有應答動作,如果是,執行步驟S105,如果否,返回步驟S101。所述應答動作包括頭部動作、臉部動作及手部動作至少其中之一,頭部動作包括抬頭、轉頭,臉部動作包括特定的嘴部動作、眼部動作,手部動作包括舉手應答;所述觸發聲音包括目標個體的稱呼,例如姓名、外號、昵稱等。
步驟S105:記錄所述觸發聲音。
步驟S106:分析多個觸發聲音的語義。
步驟S107:判斷多個觸發聲音中相同語義的個數是否超過預設個數,如果是,執行步驟S108,如果否,返回步驟S104。
步驟S108:關聯所述觸發聲音與所述目標個體。
步驟S109:將所述觸發聲音轉換為文字關聯所述目標個體。
將所述觸發聲音轉換為文字與所述目標個體關聯後,在需要註冊的時候,就可以直接通過體征識別(如臉部識別)或體態識別來註冊,不需要手動註冊。利用目標個體與關聯的文字,資料庫中還可以通過大資料分析關聯與文字對應的其他個人資料,例如職涯經歷、求診資料、健康情況等。當經過體征識別或體態識別後,就可以知道對應的稱呼及相關的個人資料。
步驟S201:判斷所述觸發聲音後所述目標個體是否有身體動作,如果是,執行步驟S202,如果否,僅需執行步驟S201。
步驟S202,判斷所述身體動作幅度是否超過一預定幅度,如果是,執行步驟S203,如果否,返回步驟S201。所述身體動作包括頭部動作、臉部動作及手部動作至少其中之一,頭部動作包括抬頭、轉頭,臉部動作包括特定的嘴部動作、眼部動作,手部動作包括舉手應答。
步驟S203:判斷多個個體是否同時具有所述身體動作,如果否,執行步驟S204,如果是,返回步驟S201。
步驟S204:記錄該身體動作為應答動作。
最後應說明的是,以上實施例僅用於說明本發明的技術方案而非限制。本領域的普通技術人員應當理解,可以對本發明的技術方案進行修改或等同替換,而不脫離本發明技術方案的精神和範圍。基於本發明中的實施例,本領域普通技術人員在沒有做出創造性勞動前提下所獲得的所有其他實施例,都將屬於本發明保護的範圍。
綜上所述,本發明確已符合發明專利之要件,遂依法提出專利申請。惟,以上所述者僅為本發明之較佳實施方式,自不能以此限制本案之申請專利範圍。舉凡熟悉本案技藝之人士爰依本發明之精神所作之等效修飾或變化,皆應涵蓋於以下申請專利範圍內。

Claims (10)

  1. 一種身份資訊關聯方法,其中,該方法包括:識別場景內的個體;記錄所述場景內的聲音資訊;識別所述聲音資訊中的個體聲音;判斷一目標個體是否對所述個體聲音中一觸發聲音具有應答動作;記錄所述觸發聲音;及關聯所述觸發聲音與所述目標個體;其中,所述判斷一目標個體是否對所述聲音資訊中一觸發聲音具有應答動作包括:判斷所述觸發聲音後所述目標個體是否有身體動作;若有,則繼續判斷多個個體是否同時對所述觸發聲音具有所述身體動作;及若否,則記錄該身體動作為所述應答動作。
  2. 如申請專利範圍第1項所述的身份資訊關聯方法,其中,在所述關聯所述觸發聲音與所述目標個體之前,所述方法還包括以下步驟:分析多個觸發聲音的語義;及判斷多個觸發聲音中相同語義的個數是否超過預設個數。
  3. 如申請專利範圍第1項所述的身份資訊關聯方法,其中,所述判斷一目標個體是否對所述聲音資訊中一觸發聲音具有應答動作還包括:判斷所述身體動作幅度是否超過一預定幅度。
  4. 如申請專利範圍第3項所述的身份資訊關聯方法,其中,所述身體動作包括頭部動作、臉部動作及手部動作至少其中之一,所述頭部動作包括抬頭或轉頭,所述臉部動作包括特定的嘴部動作或眼部動作,所述手部動作包括舉手應答動作。
  5. 一種身份資訊關聯系統,其中,該系統包括:視頻監測模組,用於識別場景內的個體;聲音監測模組,用於記錄所述場景內的聲音資訊;聲音識別模組,用於識別所述聲音資訊中的個體聲音;應答判斷模組,用於判斷一目標個體是否對所述個體資訊中一觸發聲音具有應答動作;觸發記錄模組,用於記錄所述觸發聲音;及身份關聯模組,用於關聯所述觸發聲音與所述目標個體;其中,所述應答判斷模組還用於判斷所述觸發聲音後所述目標個體是否有身體動作,若有,則繼續判斷多個個體是否同時對所述觸發聲音具有所述身體動作,若否,則記錄該身體動作為所述應答動作。
  6. 如申請專利範圍第5項所述的身份資訊關聯系統,其中,所述身份資訊關聯系統還包括語義分析模組、聲音轉換模組及語義判斷模組,所述語音分析模組用於分析多個觸發語音的語義,所述語義判斷模組還用於判斷多個觸發聲音中相同語義的個數是否超過預設個數;所述聲音轉換模組用於當多個觸發聲音中相同語義的個數超過預設個數時將所述觸發聲音轉換為文字關聯所述目標個體。
  7. 如申請專利範圍第5項所述的身份資訊關聯系統,其中,所述應答判斷模組還用於判斷所述身體動作幅度是否超過一預定幅度。
  8. 如申請專利範圍第5項所述的身份資訊關聯系統,其中,所述身體動作包括頭部動作、臉部動作及手部動作至少其中之一,所述頭部動作包括抬頭或轉頭,所述臉部動作包括特定的嘴部動作或眼部動作,所述手部動作包括舉手應答動作。
  9. 一種電腦存儲介質,其中,該電腦存儲介質存儲多條指令,所述多條指令適於由處理器載入並執行如申請專利範圍第1-4項任一項所述的身份資訊關聯方法。
  10. 一種使用者設備,其中,該使用者設備包括:處理器,用於實現一條或一條以上指令;及電腦存儲介質,用於存儲多條指令,所述多條指令適於由處理器載入並執行如申請專利範圍第1-4項任一項所述的身份資訊關聯方法。
TW106144286A 2017-12-15 2017-12-15 身份資訊關聯系統與方法、電腦存儲介質及使用者設備 TWI661329B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW106144286A TWI661329B (zh) 2017-12-15 2017-12-15 身份資訊關聯系統與方法、電腦存儲介質及使用者設備
US15/884,284 US10643622B2 (en) 2017-12-15 2018-01-30 Identity information matching system and method, and user device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW106144286A TWI661329B (zh) 2017-12-15 2017-12-15 身份資訊關聯系統與方法、電腦存儲介質及使用者設備

Publications (2)

Publication Number Publication Date
TWI661329B true TWI661329B (zh) 2019-06-01
TW201928737A TW201928737A (zh) 2019-07-16

Family

ID=66813989

Family Applications (1)

Application Number Title Priority Date Filing Date
TW106144286A TWI661329B (zh) 2017-12-15 2017-12-15 身份資訊關聯系統與方法、電腦存儲介質及使用者設備

Country Status (2)

Country Link
US (1) US10643622B2 (zh)
TW (1) TWI661329B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114384204B (zh) * 2021-12-07 2024-03-22 广州兴森快捷电路科技有限公司 Pcb拼板检测装置、系统、方法及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130036459A1 (en) * 2011-08-05 2013-02-07 Safefaces LLC Methods and systems for identity verification
TW201403498A (zh) * 2012-07-13 2014-01-16 Univ Nat Chiao Tung 融合人臉辨識及語音辨識之身份辨識系統、其方法及其服務型機器人
TW201512880A (zh) * 2013-07-19 2015-04-01 Hon Hai Prec Ind Co Ltd 電子裝置、身份驗證系統及方法
TW201741921A (zh) * 2016-05-19 2017-12-01 Alibaba Group Services Ltd 身份認證方法和裝置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9298900B2 (en) * 2011-09-24 2016-03-29 Elwha Llc Behavioral fingerprinting via inferred personal relation
US8593501B1 (en) * 2012-02-16 2013-11-26 Google Inc. Voice-controlled labeling of communication session participants
US10304458B1 (en) * 2014-03-06 2019-05-28 Board of Trustees of the University of Alabama and the University of Alabama in Huntsville Systems and methods for transcribing videos using speaker identification
US9338493B2 (en) * 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
KR20170030296A (ko) * 2015-09-09 2017-03-17 삼성전자주식회사 전자 장치 및 그 정보 처리 방법
US10200746B1 (en) * 2017-07-19 2019-02-05 Google Llc Video integration with home assistant
US20190034735A1 (en) * 2017-07-25 2019-01-31 Motionloft, Inc. Object detection sensors and systems
US10621416B2 (en) * 2017-10-02 2020-04-14 Microsoft Technology Licensing, Llc Image processing for person recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130036459A1 (en) * 2011-08-05 2013-02-07 Safefaces LLC Methods and systems for identity verification
TW201403498A (zh) * 2012-07-13 2014-01-16 Univ Nat Chiao Tung 融合人臉辨識及語音辨識之身份辨識系統、其方法及其服務型機器人
TW201512880A (zh) * 2013-07-19 2015-04-01 Hon Hai Prec Ind Co Ltd 電子裝置、身份驗證系統及方法
TW201741921A (zh) * 2016-05-19 2017-12-01 Alibaba Group Services Ltd 身份認證方法和裝置

Also Published As

Publication number Publication date
TW201928737A (zh) 2019-07-16
US10643622B2 (en) 2020-05-05
US20190189130A1 (en) 2019-06-20

Similar Documents

Publication Publication Date Title
Erol et al. Toward artificial emotional intelligence for cooperative social human–machine interaction
KR102541718B1 (ko) 키 문구 사용자 인식의 증강
DeSteno et al. Detecting the trustworthiness of novel partners in economic exchange
US9724824B1 (en) Sensor use and analysis for dynamic update of interaction in a social robot
US20200027455A1 (en) Dialog system, dialog method, dialog apparatus and program
CN108875724A (zh) 用于计算社交区域距离的设备和方法
Wilks Is a Companion a distinctive kind of relationship with a machine?
US10836044B2 (en) Robot control device and robot control method
TWI665658B (zh) 智慧型機器人
Miksik et al. Building proactive voice assistants: When and how (not) to interact
US11688062B2 (en) Medical device for transcription of appearances in an image to text with machine learning
Le et al. Deep learning based multi-modal addressee recognition in visual scenes with utterances
Nassauer et al. Video data analysis: How to use 21st century video in the social sciences
TWI661329B (zh) 身份資訊關聯系統與方法、電腦存儲介質及使用者設備
CN107480291B (zh) 基于幽默生成的情感交互方法和机器人系统
KR102399505B1 (ko) 치매 환자 케어 및 기록 지원 시스템
JP2019192092A (ja) 会議支援装置、会議支援システム、会議支援方法及びプログラム
WO2021154470A1 (en) System for providing a virtual focus group facility
Rascon et al. Integration of the multi-DOA estimation functionality to human-robot interaction
Strauß et al. Wizard-of-Oz Data Collection for Perception and Interaction in Multi-User Environments.
US20230274743A1 (en) Methods and systems enabling natural language processing, understanding, and generation
Jones et al. Interpreting social cues to generate credible affective reactions of virtual job interviewers
CN109935228B (zh) 身份信息关联系统与方法、计算机存储介质及用户设备
Landsberg ‘This isn't usual, Mr. Pendleton, this is history’: Spielberg's Lincoln and the production of historical knowledge
Qodseya et al. Visual-based eye contact detection in multi-person interactions