TWM592151U - 語音互動探知使用者行為與屬性特徵之裝置 - Google Patents

語音互動探知使用者行為與屬性特徵之裝置 Download PDF

Info

Publication number
TWM592151U
TWM592151U TW108211749U TW108211749U TWM592151U TW M592151 U TWM592151 U TW M592151U TW 108211749 U TW108211749 U TW 108211749U TW 108211749 U TW108211749 U TW 108211749U TW M592151 U TWM592151 U TW M592151U
Authority
TW
Taiwan
Prior art keywords
user
voice
parameter
frequency
analysis
Prior art date
Application number
TW108211749U
Other languages
English (en)
Inventor
韓駿逸
Original Assignee
韓駿逸
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 韓駿逸 filed Critical 韓駿逸
Priority to TW108211749U priority Critical patent/TWM592151U/zh
Publication of TWM592151U publication Critical patent/TWM592151U/zh

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

一種語音互動探知使用者行為與屬性特徵之裝置,其包含有一輸入機構、一語音與參數儲存機構、一語音分析機構、一演算分析機構、一輸出機構以及一語音播放器。本裝置可用於各類電子載具當中,以仿真人語音方式與使用者互動,透過日常對話了解使用者行為與屬性特徵,以仿真人間歇式語言模式設計,分次分頻率探知使用者行為與屬性;當中以對話互動探知使用者行為與屬性之前後用語,會運用向使用者問好與閒談天氣等語言進行交談。藉此,通過判斷現場忙碌程度、使用者急切程度與使用者使用頻率程度等三項參數,決定探詢使用者問題之數量,並透過反覆性探詢確認方式,更新使用者之行為與屬性資訊,達成以口語的語言收集使用者資料之功效。

Description

語音互動探知使用者行為與屬性特徵之裝置
本創作係有關於一種語音互動探知使用者行為與屬性特徵之裝置,尤指涉及一種以仿真人語音方式與使用者互動,特別係指透過日常對話以仿真人間歇式語言模式設計,分次分頻率探知使用者行為與屬性特徵者。
線上廣告已成為常見現象,且其隨著網際網路與其它計算平台、系統、語言、及組件之發展而持續地發展。如同其它媒體,諸如電視、收音機、或雜誌等,呈現有效果的廣告是其持續的挑戰。行動裝置愈來愈普遍,且也在持續地發展。將有趣的、相關的、及有效的資訊呈現給行動裝置之使用者也是持續的挑戰。此外,行動裝置典型上連接到網路與網際網路,且對使用者之各種工作越來越有幫助,諸如排程、導航、運動訓練、睡眠、與旅行等。就此而論,有需要能更有效地選擇資訊呈現給移動之使用者。
按,傳統搜尋引擎可基於由使用者所載入之關鍵字或話題而選擇搜尋結果以將該使用者導向至特定最終目標。然而此種策略就瞭解使用者之行為、興趣及偏好上並非最有效。
在此情形下,電子商務網站紛紛推出個性化推薦系統,其是利用過去之歷史資訊來分析客戶之偏好,以進行個性化之推薦動作。但是在這樣的系統中,需要一段時間來累積銷售歷史資訊,才能進行接下來的資料分析與挖掘。也因此,資料分析與挖掘之時間點遠遠落在前端之銷售行為之後。換言 之,經由事後分析之方式,在銷售上會產生時間延遲之問題,系統不能精確反應客戶即時之需求,亦無法根據使用者當下之行為進行反應。整體而言,電子商務網站銷售之效率以及效果均會受到影響。
並且,根據上述個性化推薦系統,目前的資訊查詢方法,並無整合語音輸入模式,且需輸入準確的查詢訊息,才能得到正確的結果;除此之外,並無提供對話互動功能。
有鑑於此,為解決習用之種種缺失,本案之創作人特潛心研究,開發出一種語音互動探知使用者行為與屬性特徵之裝置,以有效改善習用之缺點。
本創作之主要目的係在於,克服習知技藝所遭遇之上述問題並提供一種可用於各類電子載具當中,係以仿真人語音方式與使用者互動,透過日常對話了解使用者行為與屬性特徵,以仿真人間歇式語言模式設計,分次分頻率探知使用者行為與屬性之語音互動探知使用者行為與屬性特徵之裝置。
本創作之次要目的係在於,提供一種以對話互動探知使用者行為與屬性之前後用語,會運用向使用者問好與閒談天氣等語言進行交談,藉此通過判斷現場忙碌程度、使用者急切程度與使用者使用頻率程度等三項參數,決定探詢使用者問題之數量,並透過反覆性探詢確認方式,更新使用者之行為與屬性資訊,達成以口語的語言收集使用者的資料之語音互動探知使用者行為與屬性特徵之裝置。
為達以上之目的,本創作係一種語音互動探知使用者行為與屬 性特徵之裝置,係包括:一輸入機構,其可接收使用者之情緒語音;一語音與參數儲存機構,其與該輸入機構連接,該語音與參數儲存機構具有至少一語音類別儲存單元、至少一屬性類別儲存單元、及至少一參數類別儲存單元,用以儲存所有過程內容與參數;一語音分析機構,其與該語音與參數儲存機構連接,該語音分析機構可依據該使用者之情緒語音配合該語音類別儲存單元中之資料,產生一相關於該使用者之情緒語音的聲學參數,並可依據該使用者之情緒語音配合該屬性類別儲存單元中之資料,產生一相關於該使用者之情緒語音的屬性參數,藉此辨識出該使用者的語意,詢問該使用者之需求;一演算分析機構,其分別與該語音分析機構及該語音與參數儲存機構連接,該演算分析機構具有一設定單元及一分析單元,該設定單元提供設定參數初始值,該分析單元根據該聲學參數、該屬性參數與該參數初始值,以增強式(reinforcement)學習演算法,輔以等候理論(Queuing theory)與基因演算法(Genetic Algorithm)進行分析,以統計現場忙碌程度、使用者急切程度、使用者使用頻率程度、使用者願意回答問題的程度、及使用者回答的問題與答案,並計算提問題數與提問之問題,依照該提問題數與提問之問題探知使用者屬性與行為特徵,並將該現場忙碌程度、該使用者急切程度、該使用者使用頻率程度、該使用者願意回答問題的程度、及該使用者回答的問題與答案儲存至該語音與參數儲存機構;其中,該分析單元可由具環境偵測模組之設定單元,依照其偵測間隔採不同回報頻率主動回傳當時等待語音服務的人數、使用者接受語音服務的頻率(次/週)、及服務一位使用者所需要的時間等相關環境參數資訊至該分析單元;該分析單元統計該使用者急切程度的至少一間接性參數的值的判定係基於與使用者之聲學參數顯示急促與否負相關,數值越強,詢問機率越低;該分析單元 統計該使用者使用頻率程度與該使用者願意回答問題的程度的至少一反覆性參數的值的判定係基於與使用者接受語音服務的頻率正相關,以及與使用者願意回答問題的頻率正相關,頻率越高,詢問超過一個問題的機率越低;一輸出機構,其與該演算分析機構連接,將該演算分析機構之分析結果與參數以文字轉成口語的文字形式輸出;以及一語音播放器,其與該輸出機構連接,接收該文字形式的分析結果與參數,經過文字轉語音之過程合成語音形式後,使用語音的方式在與使用者進行一般對話中表達出來。
於本創作上述實施例中,該輸入機構為指向式麥克風接受器。
於本創作上述實施例中,該語音類別儲存單元至少具有一聲音語調資料庫、一聲音密度資料庫及一聲音強度資料庫。
於本創作上述實施例中,該屬性類別儲存單元至少具有一性別資料庫、一年齡資料庫、一行業別資料庫及一學歷資料庫。
於本創作上述實施例中,該參數類別儲存單元至少具有一現場忙碌程度資料庫、一使用者急切程度資料庫、一使用者使用頻率程度資料庫、一使用者回答問題程度資料庫、及一使用者回答問題與答案資料庫。
於本創作上述實施例中,該設定單元設定參數初始值,以均勻(uniform)分配給定每個待問問題初始機率值;設定初期環境參數;以三個環境參數決定現場忙碌程度,現場忙碌給定數值1,其餘給定0;決定該間接性參數,使用者急切給定數值1,其餘給定0;決定該反覆性參數,使用者頻率低給定數值1,其餘給定0;問題題數由該現場忙碌程度、該使用者急切程度、及該使用者使用頻率程度決定,範圍0~2。
於本創作上述實施例中,該分析單元以該環境偵測模組產生數 個環境參數,以作為一現場忙碌程度模型的計算與學習,根據該等待語音服務的人數計算平均等待服務人數、及根據該服務一位使用者所需要的時間計算平均服務時間,並將高於該平均等待服務人數與高於該平均服務時間的時間區域視為忙碌,其中兩變數之一高於平均者視為尚可,皆未超過兩變數平均則視為不忙,並且每月執行修正模型。
於本創作上述實施例中,該分析單元以該語音分析機構產生數個聲學參數,以作為一使用者急切程度模型的計算與學習,初期擷取全體使用者之聲學參數,語速高於平均參數之使用者,視為急切,之後計算單一使用者平均語速,超過個人平均語速,視為急切,並且每月執行修正模型。
於本創作上述實施例中,該分析單元統計該使用者使用頻率程度,係當使用者使用頻率高於整體平均時,視為頻率高。
於本創作上述實施例中,該分析單元統計該使用者願意回答問題的程度,係當使用者回答問題高於整體平均時,視為頻率高。
於本創作上述實施例中,該輸出機構與該語音播放器為一螢幕與至少一喇叭之組合。
於本創作上述實施例中,該語音播放器係以仿真人間歇式語音模式與使用者互動。
1‧‧‧輸入機構
2‧‧‧語音與參數儲存機構
21‧‧‧語音類別儲存單元
211‧‧‧聲音語調資料庫
212‧‧‧聲音密度資料庫
213‧‧‧聲音強度資料庫
22‧‧‧屬性類別儲存單元
221‧‧‧性別資料庫
222‧‧‧年齡資料庫
223‧‧‧行業別資料庫
224‧‧‧學歷資料庫
23‧‧‧參數類別儲存單元
231‧‧‧現場忙碌程度資料庫
232‧‧‧使用者急切程度資料庫
233‧‧‧使用者使用頻率程度資料庫
234‧‧‧使用者回答問題程度資料庫
235‧‧‧使用者回答問題與答案資料庫
3‧‧‧語音分析機構
4‧‧‧演算分析機構
41‧‧‧設定單元
411‧‧‧環境偵測模組
42‧‧‧分析單元
5‧‧‧輸出機構
6‧‧‧語音播放器
第1圖,係本創作之基本架構示意圖。
第2圖,係本創作之方塊示意圖。
請參閱『第1圖及第2圖』所示,係分別為本創作之基本架構示意圖、及本創作之方塊示意圖。如圖所示:本創作係一種語音互動探知使用者行為與屬性特徵之裝置,包括一輸入機構1、一語音與參數儲存機構2、一語音分析機構3、一演算分析機構4、一輸出機構5以及一語音播放器6所構成。
上述所提之輸入機構1可接收使用者之情緒語音。
該語音與參數儲存機構2與該輸入機構1連接,該語音與參數儲存機構2具有至少一語音類別儲存單元21、至少一屬性類別儲存單元22、及至少一參數類別儲存單元23,用以儲存所有過程內容與參數。
該語音分析機構3與該語音與參數儲存機構2連接,該語音分析機構3可依據該使用者之情緒語音配合該語音類別儲存單元21中之資料,產生一相關於該使用者之情緒語音的聲學參數,並可依據該使用者之情緒語音配合該屬性類別儲存單元22中之資料,產生一相關於該使用者之情緒語音的屬性參數,藉此辨識出該使用者的語意,詢問該使用者之需求。
該演算分析機構4分別與該語音分析機構3及該語音與參數儲存機構2連接,該演算分析機構4具有一設定單元41及一分析單元42,該設定單元41提供設定參數初始值,該分析單元42根據該聲學參數、該屬性參數與該參數初始值,以增強式(reinforcement)學習演算法,輔以等候理論(Queuing theory)與基因演算法(Genetic Algorithm)進行分析,以統計現場忙碌程度、使用者急切程度、使用者使用頻率程度、使用者願意回答問題的程度、及使用者回答的問題與答案,並計算提問題數與提問之問題,依照該提問 題數與提問之問題探知使用者屬性與行為特徵,並將該現場忙碌程度、該使用者急切程度、該使用者使用頻率程度、該使用者願意回答問題的程度、及該使用者回答的問題與答案儲存至該語音與參數儲存機構2;其中,該分析單元42可由具環境偵測模組411之設定單元41,依照其偵測間隔採不同回報頻率主動回傳當時等待語音服務的人數、使用者接受語音服務的頻率(次/週)、及服務一位使用者所需要的時間等相關環境參數資訊至該分析單元42;該分析單元42統計該使用者急切程度的至少一間接性參數的值的判定係基於與使用者之聲學參數顯示急促與否負相關,數值越強,詢問機率越低;該分析單元42統計該使用者使用頻率程度與該使用者願意回答問題的程度的至少一反覆性參數的值的判定係基於與使用者接受語音服務的頻率正相關,以及與使用者願意回答問題的頻率正相關,頻率越高,詢問超過一個問題的機率越低。
該輸出機構5與該演算分析機構4連接,將該演算分析機構4之分析結果與參數以文字轉成口語的文字形式輸出。
該語音播放器6與該輸出機構5連接,接收該文字形式的分析結果與參數,經過文字轉語音之過程合成語音形式後,使用語音的方式在與使用者進行一般對話中表達出來。如是,藉由上述揭露之結構構成一全新之語音互動探知使用者行為與屬性特徵之裝置。
本創作可用於各類電子載具中,當運用時,該輸入機構1可為個人電腦、筆記型電腦、平板電腦、智慧型手錶或智慧型手機之收音麥克風,而該輸出機構5與該語音播放器6可為個人電腦、筆記型電腦、平板電腦、智慧型手錶或智慧型手機之螢幕與至少一喇叭之組合,且該語音分析機構3及該演算分析機構4係與個人電腦、筆記型電腦、平板電腦、智慧型手錶或智慧型 手機之處理器連接(圖中未示)。
而使用時,本裝置可透過該語音播放器6與使用者進行一般對話,由該輸入機構1接收使用者之情緒語音,並將該情緒語音傳輸至該語音分析機構3,當該語音分析機構3收到情緒語音後,便可依據使用者之情緒語音配合該語音類別儲存單元21中之資料進行分析,產生一相關於該使用者之情緒語音的聲學參數,並可依據該使用者之情緒語音配合該屬性類別儲存單元22中之資料進行分析,產生一相關於該使用者之情緒語音的屬性參數,並於分析後辨識出使用者的語意,詢問該使用者之需求,同時,可將前述各項參數傳遞至該語音與參數儲存機構2與該演算分析機構4。
當該演算分析機構4接收到該聲學參數與該屬性參數後,便由該設定單元41設定參數初始值,以均勻(uniform)分配給定每個待問問題初始機率值;設定初期環境參數;以三個環境參數決定現場忙碌程度,現場忙碌給定數值1,其餘給定0;決定間接性參數,使用者急切給定數值1,其餘給定0;決定反覆性參數,使用者頻率低給定數值1,其餘給定0;問題題數由該現場忙碌程度、該使用者急切程度、及該使用者使用頻率程度決定,範圍0~2。該分析單元42根據該聲學參數、該屬性參數與該參數初始值,以增強式學習演算法,輔以等候理論與基因演算法進行分析,可通過計算判斷現場忙碌程度、使用者急切程度、與使用者使用頻率程度等三個參數,以決定探詢使用者問題之數量。在參數的變更與學習中:該分析單元42統計該現場忙碌程度可由具環境偵測模組411之設定單元41,依照其偵測間隔(以每15分鐘、30分鐘、小時、週、季、年為計算基礎)採不同回報頻率主動回傳當時等待語音服務的人數、使用 者接受語音服務的頻率(次/週)、及服務一位使用者所需要的時間等相關環境參數資訊至該分析單元42。該分析單元42以該環境偵測模組411產生數個環境參數(等待服務人數、服務頻率與服務時間),以作為一現場忙碌程度模型的計算與學習,根據該等待語音服務的人數計算平均等待服務人數、及根據該服務一位使用者所需要的時間計算平均服務時間,並將高於該平均等待服務人數與高於該平均服務時間的時間區域視為忙碌,其中兩變數之一高於平均者視為尚可,皆未超過兩變數平均則視為不忙。透過以深度學習法建構預測模型,並且每月執行修正模型。
該分析單元42統計該使用者急切程度的至少一間接性參數的值的判定係基於與使用者之聲學參數顯示急促與否負相關,數值越強,詢問機率越低。因此,該分析單元42以該語音分析機構3產生數個聲學參數,以作為一使用者急切程度模型的計算與學習,初期擷取全體使用者之聲學參數,語速高於平均參數之使用者,視為急切。再計算單一使用者平均語速,超過個人平均語速,視為急切。透過以深度學習法建構預測模型,並且每月執行修正模型。
該分析單元42統計該使用者使用頻率程度與該使用者願意回答問題的程度的至少一反覆性參數的值的判定係基於:與使用者接受語音服務的頻率(次/週)正相關,頻率越高,詢問超過一個問題的機率越低;以及與使用者願意回答問題的頻率正相關,頻率越高,詢問超過一個問題的頻率越低。因此,該分析單元42統計該使用者使用頻率程度,係當使用者使用頻率高於整體平均時,視為頻率高;以及該分析單元42統計該使用者願意回答問題的程度,係當使用者回答問題高於整體平均時,視為頻率高。
藉此,依據上述現場忙碌程度、使用者急切程度、與使用者使用頻率程度等三項參數,建構問題提問之時機模型,達到決定問題的數量。例如:假設現在現場很忙碌,提問的問題就會儘量的減少,使用者越急切,提問的問題也會越少。如果使用者接受服務的頻率很高,則提問的問題就會較少。最後透過該輸出機構5將演算分析後之分析結果與參數文字轉成口語的文字形式後輸出,再由該語音播放器6經過文字轉語音之過程合成語音形式後,使用語音的方式在與使用者進行一般對話中表達出來。
於本創作之一較佳具體實施例中,該輸入機構1可為指向性麥克風接受器。藉此,可於接收使用者之情緒語音時增加收音之靈敏度,以完整接收使用者之情緒語音。
於本創作之一較佳具體實施例中,該語音類別儲存單元21至少具有一聲音語調資料庫211、一聲音密度資料庫212及一聲音強度資料庫213,該屬性類別儲存單元22至少具有一性別資料庫221、一年齡資料庫222、一行業別資料庫223及一學歷資料庫224。藉此,可於該語音分析機構3依據使用者之情緒語音配合該語音類別儲存單元21中之資料進行分析時,分析該情緒語音中之聲音語調急促、聲音密度與聲音強度程度,並同時配合該聲音語調資料庫211、該聲音密度資料庫212與該聲音強度資料庫213中之資料進行分析,以利用聲音語調急促、聲音密度與聲音強度程度產生一相關於該使用者之情緒語音的聲學參數,具體而言,該聲學參數包含響度(Loudness)、突出率(Prominence Ratio)、調變(Modulation)、波動強度(Fluctuation Strength)、尖銳度(Sharpness)與音調(Tonality);並且,可於該語音分析機構3依據使用者之情緒語音配合該屬性類別儲存單元22 中之資料進行分析時,分析該情緒語音中之性別、年齡、行業別與學歷,並同時配合該性別資料庫221、該年齡資料庫222、該行業別資料庫223與該學歷資料庫224中之資料進行分析,以利用性別、年齡、行業別與學歷產生一相關於該使用者之情緒語音的屬性參數,通過前述聲學參數與屬性參數辨識出使用者的語意,進而依據使用者的語意詢問使用者之需求。
於本創作之一較佳具體實施例中,該參數類別儲存單元23至少具有一現場忙碌程度資料庫231、一使用者急切程度資料庫232、一使用者使用頻率程度資料庫233、一使用者回答問題程度資料庫234、及一使用者回答問題與答案資料庫235。藉此,可於該演算分析機構4將計算後的現場忙碌程度儲存至該現場忙碌程度資料庫231、計算後的使用者急切程度儲存至該使用者急切程度資料庫232、計算後的使用者使用頻率程度儲存至該使用者使用頻率程度資料庫233、計算後的使用者願意回答問題的程度儲存至該使用者回答問題程度資料庫234、及計算後的使用者回答的問題與答案儲存至該使用者回答問題與答案資料庫235。
於本創作之一較佳具體實施例中,該輸出機構5與該語音播放器6可為一螢幕與至少一喇叭之組合。藉此,可於該輸出機構5與該語音播放器6輸出對話互動時,由該螢幕與該喇叭同時輸出依據該演算分析機構4分析結果與參數所探知的使用者屬性與行為特徵的相關內容。如此,可以仿真人語音方式與使用者互動,以仿真人間歇式語言模式設計,分次分頻率探知使用者行為與屬性,而達到透過日常對話了解使用者行為與屬性特徵之效果。
綜上所述,本創作係一種語音互動探知使用者行為與屬性特徵之裝置,可有效改善習用之種種缺點,可用於各類電子載具當中,係以仿真人 語音方式與使用者互動,透過日常對話了解使用者行為與屬性特徵,以仿真人間歇式語言模式設計,分次分頻率探知使用者行為與屬性;當中以對話互動探知使用者行為與屬性之前後用語,會運用向使用者問好與閒談天氣等語言進行交談。藉此通過判斷現場忙碌程度、使用者急切程度與使用者使用頻率程度等三項參數,決定探詢使用者問題之數量,並透過反覆性探詢確認方式,更新使用者之行為與屬性資訊,達成以口語的語言收集使用者的資料,進而使本創作之產生能更進步、更實用、更符合使用者之所須,確已符合新型專利申請之要件,爰依法提出專利申請。
惟以上所述者,僅為本創作之較佳實施例而已,當不能以此限定本創作實施之範圍;故,凡依本創作申請專利範圍及新型說明書內容所作之簡單的等效變化與修飾,皆應仍屬本創作專利涵蓋之範圍內。
1‧‧‧輸入機構
2‧‧‧語音與參數儲存機構
3‧‧‧語音分析機構
4‧‧‧演算分析機構
5‧‧‧輸出機構
6‧‧‧語音播放器

Claims (12)

  1. 一種語音互動探知使用者行為與屬性特徵之裝置,係包括:一輸入機構,其可接收使用者之情緒語音;一語音與參數儲存機構,其與該輸入機構連接,該語音與參數儲存機構具有至少一語音類別儲存單元、至少一屬性類別儲存單元、及至少一參數類別儲存單元,用以儲存所有過程內容與參數;一語音分析機構,其與該語音與參數儲存機構連接,該語音分析機構可依據該使用者之情緒語音配合該語音類別儲存單元中之資料,產生一相關於該使用者之情緒語音的聲學參數,並可依據該使用者之情緒語音配合該屬性類別儲存單元中之資料,產生一相關於該使用者之情緒語音的屬性參數,藉此辨識出該使用者的語意,詢問該使用者之需求;一演算分析機構,其分別與該語音分析機構及該語音與參數儲存機構連接,該演算分析機構具有一設定單元及一分析單元,該設定單元提供設定參數初始值,該分析單元根據該聲學參數、該屬性參數與該參數初始值,以增強式(reinforcement)學習演算法,輔以等候理論(Queuing theory)與基因演算法(Genetic Algorithm)進行分析,以統計現場忙碌程度、使用者急切程度、使用者使用頻率程度、使用者願意回答問題的程度、及使用者回答的問題與答案,並計算提問題數與提問之問題,依照該提問題數與提問之問題探知使用者屬性與行為特徵,並將該現場忙碌程度、該使用者急切程度、該使用者使用頻率程度、該使用者願意回答問題 的程度、及該使用者回答的問題與答案儲存至該語音與參數儲存機構;其中,該分析單元可由具環境偵測模組之設定單元,依照其偵測間隔採不同回報頻率主動回傳當時等待語音服務的人數、使用者接受語音服務的頻率(次/週)、及服務一位使用者所需要的時間等相關環境參數資訊至該分析單元;該分析單元統計該使用者急切程度的至少一間接性參數的值的判定係基於與使用者之聲學參數顯示急促與否負相關,數值越強,詢問機率越低;該分析單元統計該使用者使用頻率程度與該使用者願意回答問題的程度的至少一反覆性參數的值的判定係基於與使用者接受語音服務的頻率正相關,以及與使用者願意回答問題的頻率正相關,頻率越高,詢問超過一個問題的機率越低;一輸出機構,其與該演算分析機構連接,將該演算分析機構之分析結果與參數以文字轉成口語的文字形式輸出;以及一語音播放器,其與該輸出機構連接,接收該文字形式的分析結果與參數,經過文字轉語音之過程合成語音形式後,使用語音的方式在與使用者進行一般對話中表達出來。
  2. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之裝置,其中,該輸入機構為指向式麥克風接受器。
  3. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之裝置,其中,該語音類別儲存單元至少具有一聲音語調資料庫、一聲音密度資料庫及一聲音強度資料庫。
  4. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之裝置,其中,該屬性類別儲存單元至少具有一性別資料庫、一年齡資料庫、一行業別資料庫及一學歷資料庫。
  5. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之裝置,其中,該參數類別儲存單元至少具有一現場忙碌程度資料庫、一使用者急切程度資料庫、一使用者使用頻率程度資料庫、一使用者回答問題程度資料庫、及一使用者回答問題與答案資料庫。
  6. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之裝置,其中,該設定單元設定參數初始值,以均勻(uniform)分配給定每個待問問題初始機率值;設定初期環境參數;以三個環境參數決定現場忙碌程度,現場忙碌給定數值1,其餘給定0;決定該間接性參數,使用者急切給定數值1,其餘給定0;決定該反覆性參數,使用者頻率低給定數值1,其餘給定0;問題題數由該現場忙碌程度、該使用者急切程度、及該使用者使用頻率程度決定,範圍0~2。
  7. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之裝置,其中,該分析單元以該環境偵測模組產生數個環境參數,以作為一現場忙碌程度模型的計算與學習,根據該等待語音服務的人數計算平均等待服務人數、及根據該服務一位使用者所需要的時間計算平均服務時間,並將高於該平均等待服務人數與高於該平均服務時間的時間區域視為忙碌,其中兩變數之一高於平均者視為尚可,皆未超過兩變數平均則視為不忙,並且每月執行修正模型。
  8. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之裝置,其中,該分析單元以該語音分析機構產生數個聲學參數,以作為一使用者急切程度模型的計算與學習,初期擷取全體 使用者之聲學參數,語速高於平均參數之使用者,視為急切,之後計算單一使用者平均語速,超過個人平均語速,視為急切,並且每月執行修正模型。
  9. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之裝置,其中,該分析單元統計該使用者使用頻率程度,係當使用者使用頻率高於整體平均時,視為頻率高。
  10. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之裝置,其中,該分析單元統計該使用者願意回答問題的程度,係當使用者回答問題高於整體平均時,視為頻率高。
  11. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之裝置,其中,該輸出機構與該語音播放器為一螢幕與至少一喇叭之組合。
  12. 依申請專利範圍第1項所述之語音互動探知使用者行為與屬性特徵之裝置,其中,該語音播放器係以仿真人間歇式語音模式與使用者互動。
TW108211749U 2019-08-30 2019-08-30 語音互動探知使用者行為與屬性特徵之裝置 TWM592151U (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW108211749U TWM592151U (zh) 2019-08-30 2019-08-30 語音互動探知使用者行為與屬性特徵之裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW108211749U TWM592151U (zh) 2019-08-30 2019-08-30 語音互動探知使用者行為與屬性特徵之裝置

Publications (1)

Publication Number Publication Date
TWM592151U true TWM592151U (zh) 2020-03-11

Family

ID=70767629

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108211749U TWM592151U (zh) 2019-08-30 2019-08-30 語音互動探知使用者行為與屬性特徵之裝置

Country Status (1)

Country Link
TW (1) TWM592151U (zh)

Similar Documents

Publication Publication Date Title
CN107818798B (zh) 客服服务质量评价方法、装置、设备及存储介质
US10020007B2 (en) Conversation analysis device, conversation analysis method, and program
WO2022095380A1 (zh) 基于ai的虚拟交互模型生成方法、装置、计算机设备及存储介质
US20190075204A1 (en) Personalized support routing based on paralinguistic information
CN109960723B (zh) 一种用于心理机器人的交互系统及方法
CN111833853B (zh) 语音处理方法及装置、电子设备、计算机可读存储介质
TWI727476B (zh) 適性化職缺媒合系統及方法
CN112530408A (zh) 用于识别语音的方法、装置、电子设备和介质
CN108874935B (zh) 一种基于语音搜索的复习内容推荐方法及电子设备
US20200051451A1 (en) Short answer grade prediction
US11216497B2 (en) Method for processing language information and electronic device therefor
US11361762B2 (en) Recommending multimedia based on user utterances
CN112417158A (zh) 文本数据分类模型的训练方法、分类方法、装置和设备
US11361754B2 (en) Method and system for speech effectiveness evaluation and enhancement
US20200227038A1 (en) Apparatus, method and system for conducting surveys
CN114138960A (zh) 用户意图识别方法、装置、设备及介质
CN114021962A (zh) 教学评估方法、评估装置及其相关设备和存储介质
KR20210123545A (ko) 사용자 피드백 기반 대화 서비스 제공 방법 및 장치
CN112786028B (zh) 声学模型处理方法、装置、设备和可读存储介质
CN113763925B (zh) 语音识别方法、装置、计算机设备及存储介质
WO2024114303A1 (zh) 音素识别方法、装置、电子设备及存储介质
JP2016157388A (ja) コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム
JP6433765B2 (ja) 音声対話システムおよび音声対話方法
TWI725535B (zh) 語音互動探知使用者行為與屬性特徵之方法
TWM592151U (zh) 語音互動探知使用者行為與屬性特徵之裝置