JP7248615B2 - 出力装置、出力方法及び出力プログラム - Google Patents
出力装置、出力方法及び出力プログラム Download PDFInfo
- Publication number
- JP7248615B2 JP7248615B2 JP2020050046A JP2020050046A JP7248615B2 JP 7248615 B2 JP7248615 B2 JP 7248615B2 JP 2020050046 A JP2020050046 A JP 2020050046A JP 2020050046 A JP2020050046 A JP 2020050046A JP 7248615 B2 JP7248615 B2 JP 7248615B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- utterance
- emotion
- output device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 24
- 230000008451 emotion Effects 0.000 claims description 131
- 238000001514 detection method Methods 0.000 claims description 58
- 230000010365 information processing Effects 0.000 description 51
- 238000012545 processing Methods 0.000 description 26
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 25
- 230000006870 function Effects 0.000 description 12
- 230000008859 change Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 10
- 230000002996 emotional effect Effects 0.000 description 10
- 238000007796 conventional method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 206010038743 Restlessness Diseases 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Child & Adolescent Psychology (AREA)
- Artificial Intelligence (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
まず、図1を用いて、出力装置200が実行する出力処理の一例について説明する。図1は、実施形態に係る出力装置200が実行する出力処理の一例を示す図である。図1の例では、利用者U1~U3が会議中である例を示す。この場合、利用者U1が他の利用者U2及びU3に対して侮辱する発言を発話するものとする。ここで、出力装置200が侮辱する発言を除く処理を実行する。また、図1の例では、利用者U1が利用者U2に対して発話した時間から、所定の時間経過した後に、利用者U1が利用者U3に対して発話するものとする。
図2に示すように、出力システム1は、情報処理装置100と、出力装置200とを含む。情報処理装置100及び出力装置200は、ネットワークNを介して、有線又は無線により通信可能に接続される。なお、図2に示す出力システム1には、複数台の情報処理装置100や、複数台の出力装置200が含まれてもよい。
以下、上記した情報処理装置100が有する機能構成の一例について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、出力装置200との間で情報の送受信を行う。
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部120は、検知情報データベース121を有する。
検知情報データベース121は、利用者から検知された検知情報を記憶する。ここで、図3に、実施形態に係る検知情報データベース121の一例を示す。図3に示した例では、検知情報データベース121は、「検知情報ID(Identifier)」、「検知情報」、「感情情報」、「対象発言」といった項目を有する。
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
収集部131は、各種情報を収集する。具体的には、収集部131は、利用者の音声情報や、生体情報を収集する。例えば、収集部131は、利用者U1の発言として、「利用者U2、お前は、ABCDだ!!!」が示す音声を出力装置200から取得する。また、収集部131は、利用者U1の生体情報として、利用者U1の心拍数に関する情報を取得する。
学習部132は、各種情報を用いて、学習モデルを生成する。具体的には、例えば、学習部132は、検知情報データベース121を参照し、機械学習等の従来技術を用いて、各利用者の心拍数に関する情報と、心拍数に関する情報に対応付けられる喜怒哀楽に関する情報とを学習することで、心拍数に関する情報が入力された場合に、喜怒哀楽のうち、どの感情に相当するかを示す確率を出力する感情推定モデル221を生成する。そして、学習部132は、利用者U1によって対象発言が発話されるまでの所定の期間内の利用者U1の心拍数に関する情報を感情推定モデル221に入力することで、利用者U1の感情を推定する。例えば、学習部132は、所定の期間内に利用者U1の平常時の心拍数より高い心拍数であった場合に、感情推定モデル221を用いて、利用者U1が怒っていると推定する。そして、学習部132は、推定された感情情報を検知情報データベース121に記憶する。
生成部133は、各種情報を生成する。具体的には、生成部133は、対象発言を除去するために、対象発言が示す音声の波形情報を打ち消す逆位相の波形情報を生成する。例えば、生成部133は、ノイズキャンセル等で用いられる従来技術によって、対象発言「ABCD」が示す音声の波形情報から逆位相の波形情報を生成する。
提供部134は、各種情報を提供する。具体的には、提供部134は、各種モデルと逆位相の音声とを出力装置200に提供する。例えば、提供部134は、心拍数に関する情報が入力された場合に、喜怒哀楽のうち、どの感情に相当するかを示す確率を出力する感情推定モデル221と、推定した利用者の感情に関する情報とが入力された場合に、対象発言が発話される確率を出力する予測モデル222と、対象発言「ABCD」が示す音声の逆位相の波形情報とを出力装置200に提供する。また、提供部134は、推定した利用者の感情に関する情報と、事前発言が示す音声の波形情報とが入力された場合に、対象発言が発話される確率を出力する予測モデル222を提供してもよい。
以下、上記した出力装置200が有する機能構成の一例について説明する。図2は、実施形態に係る出力装置200の構成例を示す図である。図2に示すように、出力装置200は、通信部210と、記憶部220と、マイク230と、スピーカ231と、制御部240とを有する。
通信部210は、例えば、NIC等によって実現される。そして、通信部210は、ネットワークNと有線または無線で接続され、情報処理装置100との間で情報の送受信を行う。
記憶部220は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部220は、感情推定モデル221と、予測モデル222とを有する。例えば、感情推定モデル221は、利用者の生体情報が入力された場合に、喜怒哀楽のうち、どの感情に相当するかを示す確率を出力する感情推定モデル等である。予測モデル222は、推定した利用者の感情情報が入力された場合に、対象発言が発話される確率を出力する予測モデル等である。
マイク230は、各種音及び音声を取得する。例えば、マイク230は、周囲の音を取得する。また、マイク230は、周囲に位置する利用者によって発話された音声を取得する。
スピーカ231は、各種音及び音声を出力する。例えば、スピーカ231は、任意の音及び音声を出力する。また、スピーカ231は、逆位相の音声を出力する。
制御部240は、コントローラであり、例えば、CPUやMPU等によって、出力装置200内部の記憶装置に記憶されている各種プログラム(出力プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部240は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
取得部241は、各種情報を取得する。具体的には、取得部241は、利用者の音声情報や、生体情報を取得する。例えば、取得部241は、利用者U1の発言として、「利用者U2、お前は、ABCDだ!!!」といった発言が示す音声を取得する。この場合、出力装置200は、「利用者U2、お前は、ABCDだ!!!」を示す音声の波形情報を取得する。
推定部242は、各種情報を推定する。具体的には、推定部242は、所定の検知装置により検知された検知情報から、利用者の感情を推定する。例えば、推定部242は、所定の期間内に利用者U1の平常時の心拍数より高い心拍数であった場合に、感情推定モデル221を用いて、利用者U1が怒っていると推定する。
決定部243は、各種情報を決定する。具体的には、決定部243は、推定部242によって推定された利用者の感情に基づいて、変更対象とする情報を決定する。例えば、決定部243は、利用者U1の感情が怒っているといった利用者の感情情報を予測モデル222に入力することで、対象発言「ABCD」が発話される確率を出力する。そして、決定部243は、対象発言が発話される確率が所定の閾値以上である場合に、利用者U1によって対象発言が発話されると判定する。
出力部244は、各種情報を出力する。具体的には、出力部244は、変更対象とされた情報を変更するための情報を出力する。例えば、出力部244は、利用者U1によって対象発言「ABCD」が発話されると判定された場合に、対象発言「ABCD」が示す音声の逆位相の波形情報を利用者U1に対して出力する。これにより、出力部244は、利用者U1によって発話された音声のうち、対象発言に相当する音声を選択的に除去することが可能となる。
次に、図4を用いて、実施形態に係る情報処理装置100が実行する情報処理の手順について説明する。図4は、実施形態に係る情報処理装置100が実行する情報処理の流れの一例を示すフローチャートである。
次に、図5を用いて、実施形態に係る出力装置200が実行する出力処理の手順について説明する。図5は、実施形態に係る出力装置200が実行する出力処理の流れの一例を示すフローチャートである。
上述した情報処理装置100及び出力装置200は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100及び出力装置200の他の実施形態について説明する。
上記実施形態では、利用者U1~U3が会議中である例を挙げて説明してきたが、これに限定されない。例えば、上記実施形態は、ネットワークを介したリモート会議を行うアプリケーション上や、チャットアプリケーション等に対しても適用される。
上記実施形態では、利用者によって発話された他の利用者を侮辱する発言を対象発言として例を挙げて説明してきたが、例えば、利用者によって発話された他の利用者の個人情報を含む発言に対して上記実施形態で示した出力処理を適用してもよい。
上記実施形態では、出力装置200が所定の波形情報が発生すると予測された場合に、所定の波形情報とは逆位相の波形情報を出力する例を挙げて説明してきたが、これに限定されない。例えば、出力装置200は、逆位相の音声を出力する方向を限定してもよい。この場合、出力装置200は、逆位相の音声を、利用者が対象発言を発する方向に限定して出力してもよい。なお、逆位相の音声は、指向性を有していてもよい。
上記実施形態では、出力装置200がスマートスピーカとして例を挙げて説明したが、出力装置200は、音声再生機能を有するならば、如何なる情報処理装置であってもよい。具体的には、出力装置200は、ブラウザに表示されるウェブページやアプリケーション用のコンテンツ等のコンテンツにアクセスする利用者によって利用される端末装置であってもよい。
上記実施形態では、利用者によって発話された発言が示す音声を例に挙げて説明してきたが、音声の代わりに、例えば、香り、光、電磁波、地震等の振動に対して上記実施形態で示した出力処理を適用してもよい。また、音声の代わりに、チャットアプリケーション上の文字等の情報等に対して上記実施形態で示した出力処理を適用してもよい。
また、上述した実施形態に係る出力装置200は、例えば、図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
上述してきたように、実施形態に係る出力装置200は、推定部242と、決定部243と、出力部244とを有する。推定部242は、所定の検知装置により検知された検知情報から、利用者の感情を推定する。決定部243は、推定された利用者の感情に基づいて、変更対象とする情報を決定する。出力部244は、変更対象とされた検知情報を変更するための情報を出力する。
1 出力システム
100 情報処理装置
110 通信部
120 記憶部
121 検知情報データベース
130 制御部
131 収集部
132 学習部
133 生成部
134 提供部
200 出力装置
210 通信部
220 記憶部
221 感情推定モデル
222 予測モデル
230 マイク
231 スピーカ
240 制御部
241 取得部
242 推定部
243 決定部
244 出力部
Claims (10)
- 所定の検知装置により検知された検知情報から、利用者の感情を推定する推定部と、
推定された前記利用者の感情に基づいて、前記検知情報のうち、前記利用者の発言に関する情報に含まれる所定の条件を満たす内容の情報を変更対象とする情報と決定する決定部と、
前記変更対象とされた情報を変更するための情報を出力する出力部と
を有し、
前記決定部は、
推定された前記利用者の感情に基づいて、前記利用者の発言を予測し、予測した発言のうち、所定の条件を満たす発言を変更対象となる発言と決定する
ことを特徴とする出力装置。 - 前記推定部は、
前記検知情報から、発言を発話する発話側利用者の感情を推定し、
前記決定部は、
推定された前記発話側利用者の感情に基づいて、前記発話側利用者の発言を変更対象となる発言と決定する
ことを特徴とする請求項1に記載の出力装置。 - 前記推定部は、
前記検知情報から、発言を受ける受け手側利用者の感情を推定し、
前記決定部は、
推定された前記受け手側利用者の感情に基づいて、前記受け手側利用者の発言を変更対象となる発言と決定する
ことを特徴とする請求項1に記載の出力装置。 - 前記決定部は、
前記利用者の感情が所定の条件を満たす場合に、変更対象とする情報を決定する
ことを特徴とする請求項1~3のいずれか1つに記載の出力装置。 - 前記決定部は、
前記所定の条件として、前記利用者の感情が否定的な感情である場合に、変更対象とする情報を決定する
ことを特徴とする請求項4に記載の出力装置。 - 前記決定部は、
推定された前記利用者の感情に基づいて、前記利用者の発言を予測し、予測した発言を変更対象となる発言と決定し、
前記出力部は、
予測した発言を示す音声とは逆位相の音声を出力する
ことを特徴とする請求項1~5のいずれか1つに記載の出力装置。 - 前記利用者が所定の感情を有する際に発話した発言のうち、所定の条件を満たす内容の発言をモデルに学習させる学習部を有し、
前記決定部は、
前記モデルを用いて、変更対象とする発言を決定する
ことを特徴とする請求項1~6のいずれか1つに記載の出力装置。 - 前記推定部は、
所定の検知装置により検知された検知情報のうち、前記利用者の生体情報から、前記利用者の感情を推定する
ことを特徴とする請求項1~7のいずれか1つに記載の出力装置。 - コンピュータが実行する出力方法であって、
所定の検知装置により検知された検知情報から、利用者の感情を推定する推定工程と、
推定された前記利用者の感情に基づいて、前記検知情報のうち、前記利用者の発言に関する情報に含まれる所定の条件を満たす内容の情報を変更対象とする情報と決定する決定工程と、
前記変更対象とされた情報を変更するための情報を出力する出力工程と
を含み、
前記決定工程は、
推定された前記利用者の感情に基づいて、前記利用者の発言を予測し、予測した発言のうち、所定の条件を満たす発言を変更対象となる発言と決定する
ことを特徴とする出力方法。 - 所定の検知装置により検知された検知情報から、利用者の感情を推定する推定手順と、
推定された前記利用者の感情に基づいて、前記検知情報のうち、前記利用者の発言に関する情報に含まれる所定の条件を満たす内容の情報を変更対象とする情報と決定する決定手順と、
前記変更対象とされた情報を変更するための情報を出力する出力手順と
をコンピュータに実行させ、
前記決定手順は、
推定された前記利用者の感情に基づいて、前記利用者の発言を予測し、予測した発言のうち、所定の条件を満たす発言を変更対象となる発言と決定する
出力プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020050046A JP7248615B2 (ja) | 2020-03-19 | 2020-03-19 | 出力装置、出力方法及び出力プログラム |
US17/198,139 US11749270B2 (en) | 2020-03-19 | 2021-03-10 | Output apparatus, output method and non-transitory computer-readable recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020050046A JP7248615B2 (ja) | 2020-03-19 | 2020-03-19 | 出力装置、出力方法及び出力プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021149664A JP2021149664A (ja) | 2021-09-27 |
JP7248615B2 true JP7248615B2 (ja) | 2023-03-29 |
Family
ID=77851364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020050046A Active JP7248615B2 (ja) | 2020-03-19 | 2020-03-19 | 出力装置、出力方法及び出力プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11749270B2 (ja) |
JP (1) | JP7248615B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024084855A1 (ja) * | 2022-10-17 | 2024-04-25 | パナソニックIpマネジメント株式会社 | 遠隔会話支援方法、遠隔会話支援装置、遠隔会話システム、及び、プログラム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004037910A (ja) | 2002-07-04 | 2004-02-05 | Denso Corp | 対話システム及び対話型しりとりシステム |
JP2010166324A (ja) | 2009-01-15 | 2010-07-29 | Nec Corp | 携帯端末、音声合成方法、及び音声合成用プログラム |
JP2013046088A (ja) | 2011-08-22 | 2013-03-04 | Nec Corp | 音声制御システム、音声制御装置、音声制御方法および音声制御プログラム |
JP2016219965A (ja) | 2015-05-18 | 2016-12-22 | パナソニックIpマネジメント株式会社 | 指向性制御システム及び音声出力制御方法 |
WO2017150103A1 (ja) | 2016-02-29 | 2017-09-08 | パナソニックIpマネジメント株式会社 | 音声処理装置、画像処理装置、マイクアレイシステム、及び音声処理方法 |
WO2018061346A1 (ja) | 2016-09-27 | 2018-04-05 | ソニー株式会社 | 情報処理装置 |
JP2018189720A (ja) | 2017-04-28 | 2018-11-29 | パナソニックIpマネジメント株式会社 | 情報出力制御装置、情報出力制御方法、情報出力システム、およびプログラム |
JP2019060921A (ja) | 2017-09-25 | 2019-04-18 | 富士ゼロックス株式会社 | 情報処理装置、及びプログラム |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3377220B2 (ja) * | 1991-07-03 | 2003-02-17 | 本田技研工業株式会社 | スピーチプライバシー保護装置 |
EP3220180A1 (en) * | 2009-06-16 | 2017-09-20 | INTEL Corporation | Camera applications in a handheld device |
US10042603B2 (en) * | 2012-09-20 | 2018-08-07 | Samsung Electronics Co., Ltd. | Context aware service provision method and apparatus of user device |
CN103903627B (zh) * | 2012-12-27 | 2018-06-19 | 中兴通讯股份有限公司 | 一种语音数据的传输方法及装置 |
US20160191958A1 (en) * | 2014-12-26 | 2016-06-30 | Krush Technologies, Llc | Systems and methods of providing contextual features for digital communication |
US9786299B2 (en) * | 2014-12-04 | 2017-10-10 | Microsoft Technology Licensing, Llc | Emotion type classification for interactive dialog system |
EP3259754B1 (en) * | 2015-02-16 | 2022-06-15 | Samsung Electronics Co., Ltd. | Method and device for providing information |
US9576190B2 (en) * | 2015-03-18 | 2017-02-21 | Snap Inc. | Emotion recognition in video conferencing |
US9336268B1 (en) * | 2015-04-08 | 2016-05-10 | Pearson Education, Inc. | Relativistic sentiment analyzer |
JP2017107078A (ja) | 2015-12-10 | 2017-06-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 音声対話方法、音声対話装置及び音声対話プログラム |
CN105931638B (zh) * | 2016-04-26 | 2019-12-24 | 北京光年无限科技有限公司 | 面向智能机器人的对话系统数据处理方法及装置 |
US10546586B2 (en) * | 2016-09-07 | 2020-01-28 | International Business Machines Corporation | Conversation path rerouting in a dialog system based on user sentiment |
US9947319B1 (en) * | 2016-09-27 | 2018-04-17 | Google Llc | Forming chatbot output based on user state |
US10796217B2 (en) * | 2016-11-30 | 2020-10-06 | Microsoft Technology Licensing, Llc | Systems and methods for performing automated interviews |
US11580350B2 (en) * | 2016-12-21 | 2023-02-14 | Microsoft Technology Licensing, Llc | Systems and methods for an emotionally intelligent chat bot |
JP6499682B2 (ja) * | 2017-01-31 | 2019-04-10 | 本田技研工業株式会社 | 情報提供システム |
SG11201909643RA (en) * | 2017-05-05 | 2019-11-28 | Liveperson Inc | Dynamic response prediction for improved bot task processing |
US11934937B2 (en) * | 2017-07-10 | 2024-03-19 | Accenture Global Solutions Limited | System and method for detecting the occurrence of an event and determining a response to the event |
US11321522B1 (en) * | 2017-08-04 | 2022-05-03 | Grammarly, Inc. | Artificial intelligence communication assistance for composition utilizing communication profiles |
CN108039988B (zh) * | 2017-10-31 | 2021-04-30 | 珠海格力电器股份有限公司 | 设备控制处理方法及装置 |
CN110998725B (zh) * | 2018-04-19 | 2024-04-12 | 微软技术许可有限责任公司 | 在对话中生成响应 |
US20190327330A1 (en) * | 2018-04-20 | 2019-10-24 | Facebook, Inc. | Building Customized User Profiles Based on Conversational Data |
US20200007380A1 (en) * | 2018-06-28 | 2020-01-02 | Microsoft Technology Licensing, Llc | Context-aware option selection in virtual agent |
CN109274819A (zh) * | 2018-09-13 | 2019-01-25 | 广东小天才科技有限公司 | 通话时用户情绪调整方法、装置、移动终端及存储介质 |
CN111226194A (zh) * | 2018-09-27 | 2020-06-02 | 三星电子株式会社 | 提供交互界面的方法和系统 |
US11373446B1 (en) * | 2019-04-26 | 2022-06-28 | Amazon Technologies, Inc. | Interactive media facial emotion-based content selection system |
US10965802B2 (en) * | 2019-06-19 | 2021-03-30 | Avast Software, S.R.O. | Device monitoring and restriction system and method |
US20210125610A1 (en) * | 2019-10-29 | 2021-04-29 | Facebook Technologies, Llc | Ai-driven personal assistant with adaptive response generation |
US11227602B2 (en) * | 2019-11-20 | 2022-01-18 | Facebook Technologies, Llc | Speech transcription using multiple data sources |
CN112464018A (zh) * | 2020-12-10 | 2021-03-09 | 山西慧虎健康科技有限公司 | 一种智能情绪识别调节方法及系统 |
-
2020
- 2020-03-19 JP JP2020050046A patent/JP7248615B2/ja active Active
-
2021
- 2021-03-10 US US17/198,139 patent/US11749270B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004037910A (ja) | 2002-07-04 | 2004-02-05 | Denso Corp | 対話システム及び対話型しりとりシステム |
JP2010166324A (ja) | 2009-01-15 | 2010-07-29 | Nec Corp | 携帯端末、音声合成方法、及び音声合成用プログラム |
JP2013046088A (ja) | 2011-08-22 | 2013-03-04 | Nec Corp | 音声制御システム、音声制御装置、音声制御方法および音声制御プログラム |
JP2016219965A (ja) | 2015-05-18 | 2016-12-22 | パナソニックIpマネジメント株式会社 | 指向性制御システム及び音声出力制御方法 |
WO2017150103A1 (ja) | 2016-02-29 | 2017-09-08 | パナソニックIpマネジメント株式会社 | 音声処理装置、画像処理装置、マイクアレイシステム、及び音声処理方法 |
WO2018061346A1 (ja) | 2016-09-27 | 2018-04-05 | ソニー株式会社 | 情報処理装置 |
JP2018189720A (ja) | 2017-04-28 | 2018-11-29 | パナソニックIpマネジメント株式会社 | 情報出力制御装置、情報出力制御方法、情報出力システム、およびプログラム |
JP2019060921A (ja) | 2017-09-25 | 2019-04-18 | 富士ゼロックス株式会社 | 情報処理装置、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11749270B2 (en) | 2023-09-05 |
US20220020368A1 (en) | 2022-01-20 |
JP2021149664A (ja) | 2021-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020135194A1 (zh) | 基于情绪引擎技术的语音交互方法、智能终端及存储介质 | |
CN107464555B (zh) | 增强包含语音的音频数据的方法、计算装置和介质 | |
US10387573B2 (en) | Analyzing conversations to automatically identify customer pain points | |
EP3631793B1 (en) | Dynamic and/or context-specific hot words to invoke automated assistant | |
US20030167167A1 (en) | Intelligent personal assistants | |
KR102628211B1 (ko) | 전자 장치 및 그 제어 방법 | |
JP2017108767A (ja) | 対話装置、ロボット、対話方法及びプログラム | |
CN108922525B (zh) | 语音处理方法、装置、存储介质及电子设备 | |
JP7485858B2 (ja) | 実世界ノイズを使用した音声個性化および連合訓練 | |
US10367940B2 (en) | Analyzing conversations to automatically identify product feature requests | |
EP1490864A2 (en) | Intelligent personal assistants | |
CN111201567A (zh) | 用于与数字媒体内容交互的口语、面部和姿势通信设备和计算体系架构 | |
WO2017191696A1 (ja) | 情報処理システム、および情報処理方法 | |
KR102326853B1 (ko) | 감정 및 윤리 상태 모니터링 기반 사용자 적응형 대화 장치 및 이를 위한 방법 | |
US20210005187A1 (en) | User adaptive conversation apparatus and method based on monitoring of emotional and ethical states | |
JP7347217B2 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
CN110493123A (zh) | 即时通讯方法、装置、设备及存储介质 | |
CN111640434A (zh) | 用于控制语音设备的方法和装置 | |
JP2023548157A (ja) | 通話およびオーディオメッセージからのその他の話者の音声フィルタリング | |
JP7248615B2 (ja) | 出力装置、出力方法及び出力プログラム | |
CN108073272A (zh) | 一种用于智能设备的播放控制方法及装置 | |
CN113539261A (zh) | 人机语音交互方法、装置、计算机设备和存储介质 | |
KR102389995B1 (ko) | 자연발화 음성 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 | |
KR102395399B1 (ko) | 음성 인식 학습을 위한 음성 데이터 분해 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 | |
JP2004191407A (ja) | 会話システム及び会話処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210422 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220527 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221227 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221227 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230110 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230316 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7248615 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |