JP2021096873A - 通信システム、通信制御方法およびプログラム - Google Patents
通信システム、通信制御方法およびプログラム Download PDFInfo
- Publication number
- JP2021096873A JP2021096873A JP2021043437A JP2021043437A JP2021096873A JP 2021096873 A JP2021096873 A JP 2021096873A JP 2021043437 A JP2021043437 A JP 2021043437A JP 2021043437 A JP2021043437 A JP 2021043437A JP 2021096873 A JP2021096873 A JP 2021096873A
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- user
- frame
- data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004891 communication Methods 0.000 title claims abstract description 78
- 238000000034 method Methods 0.000 title claims abstract description 68
- 230000004044 response Effects 0.000 claims abstract description 132
- 230000008451 emotion Effects 0.000 claims abstract description 53
- 239000000284 extract Substances 0.000 claims abstract description 13
- 230000002996 emotional effect Effects 0.000 claims description 27
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 238000003786 synthesis reaction Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 154
- 239000003795 chemical substances by application Substances 0.000 description 109
- 238000004458 analytical method Methods 0.000 description 63
- 230000008569 process Effects 0.000 description 57
- 238000004364 calculation method Methods 0.000 description 24
- 238000003780 insertion Methods 0.000 description 20
- 230000037431 insertion Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000014509 gene expression Effects 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 7
- 238000012546 transfer Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 230000000877 morphologic effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 235000019219 chocolate Nutrition 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- VYFYYTLLBUKUHU-UHFFFAOYSA-N dopamine Chemical compound NCCC1=CC=C(O)C(O)=C1 VYFYYTLLBUKUHU-UHFFFAOYSA-N 0.000 description 2
- 239000003102 growth factor Substances 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- QZAYGJVTTNCVMB-UHFFFAOYSA-N serotonin Chemical compound C1=C(O)C=C2C(CCN)=CNC2=C1 QZAYGJVTTNCVMB-UHFFFAOYSA-N 0.000 description 2
- 235000013547 stew Nutrition 0.000 description 2
- SFLSHLFXELFNJZ-QMMMGPOBSA-N (-)-norepinephrine Chemical compound NC[C@H](O)C1=CC=C(O)C(O)=C1 SFLSHLFXELFNJZ-QMMMGPOBSA-N 0.000 description 1
- 241000556720 Manga Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241001122315 Polites Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229960003638 dopamine Drugs 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 235000013372 meat Nutrition 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000008267 milk Substances 0.000 description 1
- 210000004080 milk Anatomy 0.000 description 1
- 235000013336 milk Nutrition 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 239000002858 neurotransmitter agent Substances 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 229960002748 norepinephrine Drugs 0.000 description 1
- SFLSHLFXELFNJZ-UHFFFAOYSA-N norepinephrine Natural products NCC(O)C1=CC=C(O)C(O)=C1 SFLSHLFXELFNJZ-UHFFFAOYSA-N 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 229940076279 serotonin Drugs 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
- H04L51/046—Interoperability with other network applications or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/169—Annotation, e.g. comment data or footnotes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/52—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/535—Tracking the activity of the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5166—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/21—Monitoring or handling of messages
- H04L51/216—Handling conversation history, e.g. grouping of messages in sessions or threads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/40—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Tourism & Hospitality (AREA)
- Mathematical Physics (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Computer Hardware Design (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Machine Translation (AREA)
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
Abstract
Description
本開示によれば、収集されたユーザの会話単位でその会話を発信するユーザの感情に関わる感情パラメータを求めることと、前記感情パラメータに基づき、前記会話に基づき生成された会話の構造を記述する会話フレームを抽出して蓄積部に蓄積することと、をコンピュータに実行させ、第1ユーザの会話に対応する前記感情パラメータのレベルの上昇の要因と推定される第2ユーザの会話の構造を記述する会話応答フレームと、その要因と推定される第2ユーザの会話より時系列的に前の第1ユーザの会話の構造を記述する会話条件フレームと、を対応付けて前記蓄積部に蓄積する、ためのプログラムを提案する。
1.本開示の一実施形態による通信制御システムの概要
2.構成
2−1.システム構成
2−2.サーバの構成
3.システム動作処理
3−1.会話データ登録処理
3−2.音素DB生成処理
3−3.対話制御処理
3−4.会話DB更新処理
3−5.広告挿入処理
4.第1の実施形態による対話制御処理
4−1.会話フレームの生成
(4−1−1.会話DB生成部50Aの構成)
(4−1−2.会話フレームの生成処理)
(4−1−3.ハピネス度算出処理)
(4−1−4.会話フレーム生成処理)
4−2.応答文の生成
(4−2−1.対話処理部300Aの構成)
(4−2−2.応答処理)
(4−2−3.応答文生成処理)
(4−2−4.応答文出力処理)
5.第2の実施形態による対話制御処理
5−1.会話フレームの生成
(5−1−1.会話DB生成部50Bの構成)
(5−1−2.会話フレームの生成処理)
(5−1−3.性格解析処理)
5−2.応答文の生成
(5−2−1.対話処理部300Bの構成)
(5−2−2.応答文生成処理)
6.まとめ
本開示の一実施形態による通信制御システムは、ユーザ同士の実際の会話から生成した会話構造を用いてユーザを所定の感情に導くことを可能とする。以下、図1を参照して本実施形態による通信制御システムの概要について説明する。
<2−1.システム構成>
続いて、上述した本実施形態による通信制御システムの全体構成について図2を参照して説明する。図2は、本実施形態による通信制御システムの全体構成を示す図である。
図3は、本実施形態によるエージェントサーバ2の構成の一例を示すブロック図である。図3に示すように、エージェントサーバ2は、音声エージェントI/F(インタフェース)20、対話処理部30、音素記憶部40、会話DB生成部50、音素DB生成部60、広告挿入処理部70、広告DB72、およびフィードバック取得処理部80を有する。
<3−1.会話データ登録処理>
図5は、本実施形態による会話DB330の生成処理を示すフローチャートである。図5に示すように、まず、会話DB生成部50は、想定される質問文を保存する(ステップS103)。
ペア1
質問文:おはよう。
回答文:今日の調子はどうですか?
ペア2
質問文:今日の天気は?
回答文:今日の天気は○○です。
図6は、本実施形態による音素DBの生成処理を示すフローチャートである。図6に示すように、まず、音素DB生成部60は、例文の表示を行う(ステップS113)。例文の表示は、例えば図示しない情報処理端末のディスプレイに、音素データ生成のために必要な例文を表示する。
図7は、本実施形態による対話制御処理を示すフローチャートである。図7に示すように、まず、音声エージェントI/F20は、ユーザの質問音声およびエージェントIDを取得したか否かを確認する(ステップS143)。エージェントIDは、キャラクターA、人物B、人物Cといった特定のエージェントを示す識別情報である。ユーザは、エージェント毎の音素データを購入することができ、例えば購入処理時に購入したエージェントのIDがクライアント端末1に保存される。
次に、各対話処理部300の会話DB330の更新処理について説明する。本実施形態では、ユーザとの会話によって会話DB330を成長させることが可能である。
キャラクターA:「おはよう」
ユーザ:「NG。元気で頑張ってと答えて」
キャラクターA:「元気で頑張って」
キャラクターA:「質問がわかりません」(該当する回答が無い場合の回答データ例) ユーザ:「『元気?』と聞いたら、『今日も元気だよ』と答えて」
キャラクターA:「今日も元気だよ」
続いて、広告挿入処理部70による広告情報の挿入処理について図13〜図14を参照して説明する。本実施形態では、広告挿入処理部70により、エージェントの発言に広告DB72に格納されている広告情報の挿入を行うことが可能である。広告DB72には、予め広告情報が登録され得る。図13は、本実施形態による広告DB72に登録されている広告情報の一例を示す図である。
キャラクターA:「おはよう!今日の調子はどうですか?」
ユーザ:「元気だよ。何か美味しい物食べたいな」
キャラクターA:「CC店の焼肉が美味しいらしいよ」
れる。次いで、ユーザの質問文「元気だよ。何か美味しい物食べたいな」に、広告挿入のトリガとなる質問文「何か美味しい物食べたいな」が含まれているため(図13の2段目参照)、広告挿入処理部70は広告挿入処理を行い、キャラクターAの音声で広告内容「CC店の焼肉が美味しいらしいよ」といった回答文が出力される。
<4−1.会話フレームの生成>
まず、会話フレームの生成について説明する。会話フレームの生成は、会話DB生成部50により行われ得る。上述したように、本実施形態による会話DB生成部50は、予め想定された質問文データと回答文データとを組にした会話文データを保存し、会話文データが一定量(例えば100組)集まると、会話文のデータセットとして対話処理部30に出力し、会話文のデータセットが所定の会話DB330(図4参照)に格納される。本実施形態による会話DB生成部50の生成処理はこれに限定されず、会話フレームの生成を行うことも可能である。以下、図15を参照して、会話フレームの生成を行う会話DB生成部50Aの主要構成について説明する。
図15は、第1の実施形態による会話DB生成部50Aの構成例を示す図である。図15に示すように、会話DB生成部50Aは、制御部500、通信部510、会話履歴DB511、および会話フレームDB512を有する。
する際に用いられる。
図16は、第1の実施形態による会話フレーム生成処理を示すフローチャートである。図16に示すように、まず、会話DB生成部50Aは、通信部510を介して、例えばネットワーク上のソーシャルメディアからユーザ間の会話データを取得する(ステップS303)。取得された会話データは、会話履歴DB511に蓄積される。
・目的を達成するための自己成長と自身に向かう特徴の「自己実現と成長」因子
・感謝傾向と他者に向かう特徴の「つながりと感謝」因子
・楽観的・ポジティブで精神的に安定している「前向きと楽観」因子
・自己を確立し他者と比較しない性質である「独立とマイペース」因子
次に、上記ステップS306で行われるハピネス度算出処理について詳述する。図17は、第1の実施形態によるハピネス度算出処理を示すフローチャートである。
続いて、上記ステップS309で行われる会話フレーム生成処理について詳述する。図20は、第1の実施形態による会話フレーム生成処理を示すフローチャートである。
条件フレーム:「〈形容詞:ポジティブ〉〈名詞〉を作れた。」
応答フレーム:「〈形容詞:ポジティブ〉〈名詞〉を作れるんだ。すごいね!」
続いて、第1の実施形態による会話フレームを用いた応答文の生成について説明する。本実施形態による会話DB生成部50Aは、上述したように会話フレームを生成し、会話フレームが所定数(例えば100組)に達すると、会話フレームのデータセットとして対話処理部30に出力する。対話処理部30は、音声エージェントI/F20を介して入力されたユーザの発話(質問音声)に対してエージェントの応答(回答音声)を生成する際に、予め生成された会話フレームを用いる。ここでは、このような会話フレームを用いて応答を生成する対話処理部300Aの構成および動作処理について具体的に説明する。なお、対話処理部300Aの構成は、基本対話処理部31、キャラクターA対話処理部32、人物B対話処理部33、および人物C対話処理部34に共通する。
図23は、第1の実施形態による対話処理部300Aの構成例を示す図である。図23に示すように、対話処理部300Aは、質問文検索部310、回答文生成部320、会話DB330、音素データ取得部340、会話解析部350、会話履歴DB360、応答文生成部370、および会話フレームDB380を有する。
図24は、第1の実施形態による応答処理を示すフローチャートである。図24に示すように、まず、会話解析部350は、音声エージェントI/F20により取得され、テキスト化されたユーザの会話文を取得する(ステップS363)。
次いで、上記ステップS372に示す応答文の生成処理について図25を参照して説明する。図25は、第1の実施形態による応答文生成処理を示すフローチャートである。
次に、応答文生成部370により生成された応答文データの出力処理について図26を参照して説明する。図26は、第1の実施形態による応答文データの出力処理を示すフローチャートである。
<5−1.会話フレームの生成>
上述した第1の実施形態では、会話フレームの生成において、会話DB511から会話データのハピネス度(幸福の度合い)を抽出し、ハピネス度が上昇した際の会話フレームを学習する方法について説明した。
次に、図28を参照して、会話フレームの生成を行う会話DB生成部50Bの主要構成について説明する。図28は、第2の実施形態による会話DB生成部50Bの構成例を示す図である。図28に示すように、会話DB生成部50Bは、制御部520、通信部510、会話履歴DB511、会話フレームDB512、および性格DB513を有する。
図29は、第2の実施形態による会話フレーム生成処理を示すフローチャートである。図16に示すように、まず、会話DB生成部50Aは、通信部510を介して、例えばネットワーク上のソーシャルメディアからユーザ間の会話データを取得する(ステップS413)。取得された会話データは、会話履歴DB511に蓄積される。
次に、上記ステップS416で行われる性格解析処理について詳述する。図30は、第2の実施形態による性格解析処理を示すフローチャートである。
・性格タイプ001−新規性探究及び報酬依存が低く、損害回避が高い「論理的」タイプ
・性格タイプ011−新規性探究が低く、報酬依存及び損害回避が高い「慎重」タイプ
・性格タイプ111−新規性探究、報酬依存、及び損害回避が高い「神経質」タイプ
・性格タイプ010−新規性探究及び損害回避が低く、報酬依存が高い「生真面目」タイプ
・性格タイプ110−新規性探究及び報酬依存が高く、損害回避が低い「情熱家」タイプ
・性格タイプ100−新規性探究が高く、報酬依存及び損害回避が低い「冒険家」タイプ
・性格タイプ101−新規性探究及び損害回避が高く、報酬依存が低い「激情家」タイプ
・新規性探究 127.9/2736 = 0.046
・報酬依存 354.2/2736 = 0.13
・損害回避 2012.4/2736 = 0.73
(5−2−1.対話処理部300Bの構成)
続いて、第2の実施形態による対話処理部300Bの構成について説明する。図36は、第2の実施形態による対話処理部300Bの構成例を示す図である。図36に示すように、対話処理部300Bは、質問文検索部310、回答文生成部320、会話DB330、音素データ取得部340、会話解析部350、会話履歴DB360、応答文生成部370、会話フレームDB380、性格タイプDB390を有する。
「美しい生け花を作れるんだ。すごいね!」
「美しい生け花を作るって面白いよね。もっと作ろう!」
「君ならもっと美しい生け花を作れるよ。頑張れ!」
図37は、第2の実施形態による応答文生成処理を示すフローチャートである。図37に示すように、まず、応答文生成部370は、会話者IDを取得する(ステップS453)。会話者IDは、例えばユーザのクライアント端末1から送信され得る。
上述したように、本開示の実施形態による通信制御システムでは、ユーザ同士の実際の会話から生成した会話構造を用いてユーザを所定の感情に導くことが可能となる。
トサーバ2の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
ト端末1において音素データを用いて応答文データの音声化が行われ、エージェントの発言として出力してもよい。
(1)
ユーザの会話を受信する通信部と、
前記通信部を介して収集されたユーザの会話に基づき生成された会話の構造を記述する会話フレームを蓄積する蓄積部と、
前記収集される会話単位でその会話を発信するユーザの感情に関わる感情パラメータを求め;
前記感情パラメータに基づき、前記会話から前記会話フレームを抽出して前記蓄積部に蓄積する制御部と、
を備える、通信システム。
(2)
前記制御部は、
クライアント端末から前記通信部を介して受信したユーザの会話の構造を解析し、
前記解析された構造に一致する、前記蓄積部に蓄積された前記会話フレームに基づき、エージェントによる応答テキストを生成する、前記(1)に記載の通信システム。
(3)
前記制御部は、
前記会話フレームに、その会話フレームの元となる会話を行ったユーザの性格情報を関連付けて前記蓄積部に蓄積し;
前記解析された前記ユーザの会話の構造に一致する構造および前記クライアント端末のユーザの性格情報に対応する前記会話フレームを前記蓄積部から抽出し、抽出した会話フレームに基づいて応答テキストを生成する、前記(2)に記載の通信システム。
(4)
前記制御部は、前記生成した応答テキストを、前記通信部を介してクライアント端末に送信する、前記(2)または(3)に記載の通信システム。
(5)
前記制御部は、前記応答テキストを音声合成して音声合成データを生成し、前記通信部を介してクライアント端末に送信する、前記(2)または(3)に記載の通信システム。
(6)
前記制御部は、第1ユーザの会話に対応する前記感情パラメータのレベルの上昇の要因と推定される第2ユーザの会話の構造を記述する会話応答フレームと、その要因と推定される第2のユーザの会話より時系列的に前の第1のユーザの会話の構造を記述する会話条件フレームとを対応付けて前記蓄積部に蓄積する、前記(1)〜(5)のいずれか1項に記載の通信システム。
(7)
前記制御部は、
クライアント端末から前記通信部を介して受信したユーザの会話の構造を解析し;
前記蓄積部から、前記解析した構造に一致する前記会話条件フレームを検出すると、検出した会話条件フレームに対応付けて蓄積される会話応答フレームを特定し、当該会話応答フレームに基づいてエージェントによる応答テキストを生成する、前記(6)に記載の通信システム。
(8)
前記制御部は、
前記会話条件フレームおよび前記会話応答フレームに、前記第1ユーザの性格情報を関連付けて前記蓄積部に蓄積し;
前記蓄積部から、前記解析した構造および前記ユーザの性格情報に対応する前記会話条件フレームを検出すると、検出した会話条件フレームに対応付けて蓄積される会話応答フレームを特定し、当該会話応答フレームに基づいてエージェントによる応答テキストを生成する、前記(7)に記載の通信システム。
(9)
前記制御部は、第1ユーザの会話に対応する前記感情パラメータのレベルとしてのハピネス度の上昇の要因と推定される第2ユーザの会話の構造を記述する会話応答フレームと、その要因と推定される第2のユーザの会話より時系列的に前の第1のユーザの会話の構造を記述する会話条件フレームとを対応付けて前記蓄積部に蓄積する、前記(6)〜(8)のいずれか1項に記載の通信システム。
(10)
前記ハピネス度は、幸福に関わる4つの因子に基づいて算出される、前記(9)に記載の通信システム。
(11)
前記制御部は、前記通信部を介して、ソーシャルメディア上でのユーザの会話を収集する、前記(1)〜(10)のいずれか1項に記載の通信システム。
(12)
前記制御部は、前記通信部を介して、前記ユーザの音声会話を収集する、前記(11)に記載の通信システム。
(13)
プロセッサが、
ユーザの会話を通信部により受信することと、
前記通信部を介して収集されたユーザの会話に基づき生成された会話の構造を記述する会話フレームを蓄積部に蓄積することと、
前記収集される会話単位でその会話を発信するユーザの感情に関わる感情パラメータを求め; 前記感情パラメータに基づき、前記会話から前記会話フレームを抽出して前記蓄積部に蓄積することと、
を含む、通信制御方法。
2 エージェントサーバ
30 対話処理部
300、300A、300B 対話処理部
310 質問文検索部
320 回答文生成部
330 会話DB
340 音素データ取得部
350 会話解析部
360 会話履歴DB
370 応答文生成部
380 会話フレームDB
390 性格タイプDB
31 基本対話処理部
32 キャラクターA対話処理部
33 人物B対話処理部
34 人物C対話処理部
40 音素記憶部
41 基本用音素DB
42 キャラクターA音素DB
43 人物B音素DB
44 人物C音素DB
50、50A、50B 会話DB生成部
500、520 制御部
501 ハピネス解析部
502 会話学習部
503 性格解析部
510 通信部
511 会話履歴DB
512 会話フレームDB
513 性格DB
60 音素DB生成部
70 広告挿入処理部
72 広告DB
80 フィードバック取得処理部
3 ネットワーク
Claims (11)
- 収集されたユーザの会話単位でその会話を発信するユーザの感情に関わる感情パラメータを求め;
前記感情パラメータに基づき、前記会話に基づき生成された会話の構造を記述する会話フレームを抽出して蓄積部に蓄積する制御部、
を備え、
前記制御部は、
第1ユーザの会話に対応する前記感情パラメータのレベルの上昇の要因と推定される第2ユーザの会話の構造を記述する会話応答フレームと、その要因と推定される第2ユーザの会話より時系列的に前の第1ユーザの会話の構造を記述する会話条件フレームと、を対応付けて前記蓄積部に蓄積する、
通信システム。 - 前記制御部は、
前記蓄積部から、前記構造に一致する前記会話条件フレームを検出すると、検出した会話条件フレームに対応付けて蓄積される会話応答フレームを特定し、当該会話応答フレームに基づいてエージェントによる応答テキストを生成する、
請求項1に記載の通信システム。 - 前記制御部は、
前記会話条件フレームおよび前記会話応答フレームに、前記第1ユーザの性格情報を関連付けて前記蓄積部に蓄積し;
前記蓄積部から、前記構造および前記ユーザの性格情報に対応する前記会話条件フレームを検出すると、検出した会話条件フレームに対応付けて蓄積される会話応答フレームを特定し、当該会話応答フレームに基づいてエージェントによる応答テキストを生成する、
請求項2に記載の通信システム。 - 前記制御部は、前記応答テキストを前記ユーザの会話の収集元に送信する、
請求項2または請求項3に記載の通信システム。 - 前記制御部は、前記応答テキストを音声合成して音声合成データを生成し、前記ユーザの会話の収集元に送信する、
請求項2または請求項3に記載の通信システム。 - 前記制御部は、
第1ユーザの会話に対応する前記感情パラメータのレベルとしてのハピネス度の上昇の要因と推定される第2ユーザの会話の構造を記述する会話応答フレームと、その要因と推定される第2ユーザの会話より時系列的に前の第1のユーザの会話の構造を記述する会話条件フレームとを対応付けて前記蓄積部に蓄積する、
請求項1乃至請求項5の何れか1項に記載の通信システム。 - 前記ハピネス度は、幸福に関わる4つの因子に基づいて算出される、
請求項6に記載の通信システム。 - 前記制御部は、前記ユーザの会話を受信する通信部を介してソーシャルメディア上でのユーザの会話を収集する、
請求項1乃至請求項7の何れか1項に記載の通信システム。 - 前記制御部は、前記通信部を介して前記ユーザの音声会話を収集する、
請求項8に記載の通信システム。 - プロセッサが、
収集されたユーザの会話単位でその会話を発信するユーザの感情に関わる感情パラメータを求め;
前記感情パラメータに基づき、前記会話に基づき生成された会話の構造を記述する会話フレームを抽出して蓄積部に蓄積すること、
を含み、
第1ユーザの会話に対応する前記感情パラメータのレベルの上昇の要因と推定される第2ユーザの会話の構造を記述する会話応答フレームと、その要因と推定される第2ユーザの会話より時系列的に前の第1ユーザの会話の構造を記述する会話条件フレームと、を対応付けて前記蓄積部に蓄積する、
通信制御方法。 - 収集されたユーザの会話単位でその会話を発信するユーザの感情に関わる感情パラメータを求め;
前記感情パラメータに基づき、前記会話に基づき生成された会話の構造を記述する会話フレームを抽出して蓄積部に蓄積すること、
をコンピュータに実行させ、
第1ユーザの会話に対応する前記感情パラメータのレベルの上昇の要因と推定される第2ユーザの会話の構造を記述する会話応答フレームと、その要因と推定される第2ユーザの会話より時系列的に前の第1ユーザの会話の構造を記述する会話条件フレームと、を対応付けて前記蓄積部に蓄積する、
ためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016014238 | 2016-01-28 | ||
JP2016014238 | 2016-01-28 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017563695A Division JP6859959B2 (ja) | 2016-01-28 | 2016-10-28 | 通信システムおよび通信制御方法、ならびに、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021096873A true JP2021096873A (ja) | 2021-06-24 |
JP7056780B2 JP7056780B2 (ja) | 2022-04-19 |
Family
ID=59397529
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017563695A Active JP6859959B2 (ja) | 2016-01-28 | 2016-10-28 | 通信システムおよび通信制御方法、ならびに、プログラム |
JP2021043437A Active JP7056780B2 (ja) | 2016-01-28 | 2021-03-17 | 通信システム、通信制御方法およびプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017563695A Active JP6859959B2 (ja) | 2016-01-28 | 2016-10-28 | 通信システムおよび通信制御方法、ならびに、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11159462B2 (ja) |
JP (2) | JP6859959B2 (ja) |
WO (1) | WO2017130497A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7169030B1 (ja) | 2022-05-16 | 2022-11-10 | 株式会社RevComm | プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末 |
JP7169031B1 (ja) | 2022-05-16 | 2022-11-10 | 株式会社RevComm | プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6697373B2 (ja) * | 2016-12-06 | 2020-05-20 | カシオ計算機株式会社 | 文生成装置、文生成方法及びプログラム |
JP6940428B2 (ja) * | 2018-02-15 | 2021-09-29 | アルパイン株式会社 | 検索結果提供装置および検索結果提供方法 |
CN108600911B (zh) | 2018-03-30 | 2021-05-18 | 联想(北京)有限公司 | 一种输出方法及电子设备 |
JP7131077B2 (ja) * | 2018-05-24 | 2022-09-06 | カシオ計算機株式会社 | 会話装置、ロボット、会話装置制御方法及びプログラム |
JP6551852B1 (ja) * | 2018-08-06 | 2019-07-31 | 株式会社エルブズ | 情報提供装置、情報提供方法およびプログラム |
JP7444430B2 (ja) * | 2019-11-25 | 2024-03-06 | 株式会社Aill | コミュニケーション支援サーバ、コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム |
JP6796762B1 (ja) * | 2019-11-28 | 2020-12-09 | 有限会社クロマニヨン | 仮想人物対話システム、映像生成方法、映像生成プログラム |
US11977844B1 (en) * | 2020-02-05 | 2024-05-07 | Walker Reading Technologies, Inc. | Reading assistance sponsorship system and methodolgy |
US11494417B2 (en) * | 2020-08-07 | 2022-11-08 | Commvault Systems, Inc. | Automated email classification in an information management system |
EP4443431A1 (en) * | 2021-12-03 | 2024-10-09 | Panasonic Intellectual Property Management Co., Ltd. | Verification device and verification method |
WO2023195115A1 (ja) * | 2022-04-07 | 2023-10-12 | 日本電気株式会社 | 会話装置、会話方法、及び非一時的なコンピュータ可読媒体 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000207214A (ja) * | 1999-01-20 | 2000-07-28 | Victor Co Of Japan Ltd | 対話装置 |
JP2003186881A (ja) * | 2001-12-13 | 2003-07-04 | Aruze Corp | 助言システム及び助言方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3472194B2 (ja) | 1999-05-25 | 2003-12-02 | 日本電信電話株式会社 | 自動応答方法及びその装置並びにそのプログラムを記録した媒体 |
JP2001117581A (ja) | 1999-10-22 | 2001-04-27 | Alpine Electronics Inc | 感情認識装置 |
JP4451037B2 (ja) | 2001-12-06 | 2010-04-14 | 株式会社ユニバーサルエンターテインメント | 情報検索システム及び情報検索方法 |
JP2013190994A (ja) * | 2012-03-14 | 2013-09-26 | Kddi Corp | 対話誘発装置、対話誘発方法、およびプログラム |
WO2013190963A1 (ja) | 2012-06-18 | 2013-12-27 | エイディシーテクノロジー株式会社 | 音声応答装置 |
JP2015069455A (ja) * | 2013-09-30 | 2015-04-13 | Necソリューションイノベータ株式会社 | 会話文生成装置、会話文生成方法、及びプログラム |
US9413891B2 (en) * | 2014-01-08 | 2016-08-09 | Callminer, Inc. | Real-time conversational analytics facility |
US9710460B2 (en) * | 2015-06-10 | 2017-07-18 | International Business Machines Corporation | Open microphone perpetual conversation analysis |
US10699709B2 (en) * | 2018-06-08 | 2020-06-30 | International Business Machines Corporation | Conference call analysis and automated information exchange |
-
2016
- 2016-10-28 JP JP2017563695A patent/JP6859959B2/ja active Active
- 2016-10-28 WO PCT/JP2016/081986 patent/WO2017130497A1/ja active Application Filing
- 2016-10-28 US US16/068,973 patent/US11159462B2/en active Active
-
2021
- 2021-03-17 JP JP2021043437A patent/JP7056780B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000207214A (ja) * | 1999-01-20 | 2000-07-28 | Victor Co Of Japan Ltd | 対話装置 |
JP2003186881A (ja) * | 2001-12-13 | 2003-07-04 | Aruze Corp | 助言システム及び助言方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7169030B1 (ja) | 2022-05-16 | 2022-11-10 | 株式会社RevComm | プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末 |
JP7169031B1 (ja) | 2022-05-16 | 2022-11-10 | 株式会社RevComm | プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末 |
JP2023168692A (ja) * | 2022-05-16 | 2023-11-29 | 株式会社RevComm | プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末 |
JP2023168690A (ja) * | 2022-05-16 | 2023-11-29 | 株式会社RevComm | プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末 |
Also Published As
Publication number | Publication date |
---|---|
US11159462B2 (en) | 2021-10-26 |
JP6859959B2 (ja) | 2021-04-14 |
JP7056780B2 (ja) | 2022-04-19 |
US20190020609A1 (en) | 2019-01-17 |
JPWO2017130497A1 (ja) | 2018-11-22 |
WO2017130497A1 (ja) | 2017-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7056780B2 (ja) | 通信システム、通信制御方法およびプログラム | |
US11595331B2 (en) | Communication system and communication control method | |
JP7242736B2 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
US20220189479A1 (en) | Communication system and communication control method | |
JP7099589B2 (ja) | サーバ、通信制御方法、およびプログラム | |
CN110309114A (zh) | 媒体信息的处理方法、装置、存储介质和电子装置 | |
Pravena et al. | Development of simulated emotion speech database for excitation source analysis | |
JP6649318B2 (ja) | 言語情報分析装置および方法 | |
CN116401354A (zh) | 一种文本处理方法、装置、存储介质及设备 | |
Tseng et al. | Approaching Human Performance in Behavior Estimation in Couples Therapy Using Deep Sentence Embeddings. | |
Tank et al. | Creation of speech corpus for emotion analysis in Gujarati language and its evaluation by various speech parameters. | |
CN114036958A (zh) | 对话代理及响应语句生成方法 | |
KR102101311B1 (ko) | 동물구현체를 포함하는 가상현실 플랫폼 제공 방법 및 장치 | |
CN113868271A (zh) | 智能客服的知识库更新方法、装置、电子设备及存储介质 | |
JP7180127B2 (ja) | 情報提示システム、情報提示方法及びプログラム | |
CN118692450A (zh) | 问答处理方法、装置、设备、存储介质及程序产品 | |
Carofiglio et al. | Dynamic user modeling in health promotion dialogs | |
Belhadj et al. | KEDAS: A validated Arabic Speech Emotion Dataset | |
JP2024037614A (ja) | 所定対象用の感情辞書を生成するプログラム、装置、システム及び方法、並びに感情推定プログラム及び装置 | |
JP2022159632A (ja) | 学習方法、及びコンテンツ再生装置 | |
Mori et al. | Facial expression generation from speaker's emotional states in daily conversation | |
CN116312486A (zh) | 情绪识别方法、装置、计算机可读存储介质及电子设备 | |
JP2018198097A (ja) | 文生成装置、文生成方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220321 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7056780 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |