JP2019203998A - 会話装置、ロボット、会話装置制御方法及びプログラム - Google Patents
会話装置、ロボット、会話装置制御方法及びプログラム Download PDFInfo
- Publication number
- JP2019203998A JP2019203998A JP2018099332A JP2018099332A JP2019203998A JP 2019203998 A JP2019203998 A JP 2019203998A JP 2018099332 A JP2018099332 A JP 2018099332A JP 2018099332 A JP2018099332 A JP 2018099332A JP 2019203998 A JP2019203998 A JP 2019203998A
- Authority
- JP
- Japan
- Prior art keywords
- users
- utterance
- conversation
- target user
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000014509 gene expression Effects 0.000 claims description 22
- 230000001133 acceleration Effects 0.000 claims description 19
- 230000001360 synchronised effect Effects 0.000 claims description 17
- 238000004891 communication Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 244000205754 Colocasia esculenta Species 0.000 description 8
- 235000006481 Colocasia esculenta Nutrition 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 7
- 230000008921 facial expression Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 241001122315 Polites Species 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
発話するための発話手段と、
複数のユーザの各々の特徴を取得する特徴取得手段と、
前記特徴取得手段で取得された複数のユーザの各々の特徴に基づき、前記複数のユーザから、同調する又は同調しない対象となる対象ユーザを選択する選択手段と、
前記選択手段で選択された前記対象ユーザに応じた発話を行うように前記発話手段を制御する発話制御を実行する発話制御手段と、
を備える。
本発明の実施形態に係る会話装置は、複数のユーザの特徴を取得して、各ユーザの特徴に基づいて、その複数のユーザの中から同調する対象となる対象ユーザを選択し、その対象のユーザに同調するような発話を行う装置である。ここで、同調とは、選択した対象ユーザの意見に同意することをいい、会話装置は、対象ユーザに同調するような発話を行うことによって、対象ユーザと趣味や、嗜好、考え方、意見等を合わせた発話を行う。本発明の実施形態に係る会話装置は、上述したように、あるユーザに同調した発話を行うことによって、まるで意思や感情を持って複数のユーザの会話に参加しているかのように思わせることができ、それにより、複数のユーザの間の会話を盛り上げることができる。また、ここで、ユーザとは、積極的に会話装置100を使用する意思を持って使用する人だけを指すのではない。積極的な使用意思がなくても、会話装置100の周囲で会話をする人は、会話装置100のユーザである。通常、会話装置100の周囲では複数の人が会話をするので、会話装置100は、複数のユーザによって使用されることになる。
実施形態1では、選択部13は、特徴取得部12が取得した各ユーザの性格情報に基づき、最も望ましい性格を有しているユーザを同調する対象として選択する処理を行ったが、これに限られない。例えば、会話装置が自身の疑似性格をパラメータとして記憶部20に記憶しておき、自身の疑似性格と類似する性格を有するユーザを選択するようにしてもよい。このような実施形態2に係る会話装置について説明する。
上述の実施形態では、選択部13は、ユーザの特徴(性格情報等)に基づいて同調の対象となる対象ユーザを選択するので、対象ユーザが連続して同一ユーザになってしまうことも多いと考えられる。しかし、そうすると、会話装置に同調して欲しいのに同調してくれないユーザが気分を害する可能性が生じる。そこで、対象ユーザが所定の回数連続して同じ人になった場合には、選択部13がそれ以外の人を選択するようにする変形例1について説明する。
上述の実施形態では、特徴取得部12は、同一の特徴記憶部21から各ユーザの特徴を取得していた。しかし、これに限られない。例えば1回の会話内のみで各ユーザの特徴を記憶する短期特徴記憶部(図示せず)を記憶部20に備え、発話処理(図6)内では、ステップS209とステップS210の間で短期特徴記憶部から取得した性格情報によって対象ユーザを選択するようにしてもよい。
発話するための発話手段と、
複数のユーザの各々の特徴を取得する特徴取得手段と、
前記特徴取得手段で取得された複数のユーザの各々の特徴に基づき、前記複数のユーザから、同調する又は同調しない対象となる対象ユーザを選択する選択手段と、
前記選択手段で選択された前記対象ユーザに応じた発話を行うように前記発話手段を制御する発話制御を実行する発話制御手段と、
を備える会話装置。
前記選択手段は、前記取得された複数のユーザの各々の特徴に基づき、前記複数のユーザから、同調する対象となる対象ユーザを選択し、
前記発話制御手段は、前記発話制御を実行することによって、前記選択された前記対象ユーザに同調するような発話を行うように前記発話手段を制御する、
付記1に記載の会話装置。
前記発話制御手段は、前記複数のユーザ間で会話が行われているときに、前記発話制御を実行する、
付記1又は2に記載の会話装置。
前記特徴取得手段は、前記複数のユーザの各々の特徴として前記複数のユーザの各々の性格情報を取得し、
前記選択手段は、前記特徴取得手段で取得された複数のユーザの各々の性格情報に基づき、前記複数のユーザから前記対象ユーザを選択する、
付記1から3のいずれか1つに記載の会話装置。
前記特徴取得手段は、前記複数のユーザの各々による発話を分析し、分析した発話に応じて、前記複数のユーザの各々の特徴を取得する、
付記1から4のいずれか1つに記載の会話装置。
前記特徴取得手段は、前記複数のユーザの間で会話が行われているときに、前記複数のユーザの各々による発話を分析する、
付記5に記載の会話装置。
前記特徴取得手段は、前記複数のユーザの各々による発話の内容を分析し、分析した発話の内容に応じて、前記複数のユーザの各々の特徴を取得する、
付記5又は6に記載の会話装置。
前記特徴取得手段は、前記複数のユーザの各々の音声の大きさを分析し、分析した音声の大きさに応じて、前記複数のユーザの各々の特徴を取得する、
付記5又は6に記載の会話装置。
当該会話装置の加速度を検出する加速度センサをさらに備え、
前記特徴取得手段は、前記複数のユーザの各々が当該会話装置を使用しているときに前記加速度センサが検出した加速度の値に応じて、前記複数のユーザの各々の特徴を取得する、
付記1から4のいずれか1つに記載の会話装置。
前記複数のユーザの各々の特徴には、前記複数のユーザの各々の嗜好を含む関心情報が含まれ、
前記選択手段により選択された対象ユーザの関心情報に関連する情報を取得する取得手段をさらに備え、
前記発話制御手段は、前記発話制御の実行中、前記取得手段で取得された情報のうち、前記対象ユーザの嗜好に合致する情報をポジティブな表現で発話するように、前記発話手段を制御する、
付記1から9のいずれか1つに記載の会話装置。
前記複数のユーザの各々の特徴には、前記複数のユーザの各々の嗜好を含む関心情報が含まれ、
前記選択手段により選択された対象ユーザの関心情報に関連する情報を取得する取得手段をさらに備え、
前記発話制御手段は、前記発話制御の実行中、前記取得手段で取得された情報のうち、前記対象ユーザの嗜好に合致しない情報をネガティブな表現で発話するように、前記発話手段を制御する、
付記1から9のいずれか1つに記載の会話装置。
前記選択手段は、前記対象ユーザを選択した後において、所定の条件が成立したときに、前記複数のユーザから、それまでに前記対象ユーザとして選択していたユーザとは異なるユーザを前記対象ユーザとして選択する、
付記1から11のいずれか1つに記載の会話装置。
付記1から12のいずれか1つに記載の会話装置を備えたロボット。
発話するための発話手段を備える会話装置を制御するための会話装置制御方法であって、
複数のユーザの各々の特徴を取得する特徴取得ステップと、
前記特徴取得ステップで取得された複数のユーザの各々の特徴に基づき、前記複数のユーザから、同調する又は同調しない対象となる対象ユーザを選択する選択ステップと、
前記選択ステップで選択された前記対象ユーザに応じた発話を行うように前記発話手段を制御する発話制御ステップと、
を含む会話装置制御方法。
発話するための発話手段を備える会話装置のコンピュータに、
複数のユーザの各々の特徴を取得する特徴取得ステップ、
前記特徴取得ステップで取得された複数のユーザの各々の特徴に基づき、前記複数のユーザから、同調する又は同調しない対象となる対象ユーザを選択する選択ステップ、及び、
前記選択ステップで選択された前記対象ユーザに応じた発話を行うように前記発話手段を制御する発話制御ステップ、
を実行させるためのプログラム。
Claims (15)
- 発話するための発話手段と、
複数のユーザの各々の特徴を取得する特徴取得手段と、
前記特徴取得手段で取得された複数のユーザの各々の特徴に基づき、前記複数のユーザから、同調する又は同調しない対象となる対象ユーザを選択する選択手段と、
前記選択手段で選択された前記対象ユーザに応じた発話を行うように前記発話手段を制御する発話制御を実行する発話制御手段と、
を備える会話装置。 - 前記選択手段は、前記取得された複数のユーザの各々の特徴に基づき、前記複数のユーザから、同調する対象となる対象ユーザを選択し、
前記発話制御手段は、前記発話制御を実行することによって、前記選択された前記対象ユーザに同調するような発話を行うように前記発話手段を制御する、
請求項1に記載の会話装置。 - 前記発話制御手段は、前記複数のユーザ間で会話が行われているときに、前記発話制御を実行する、
請求項1又は2に記載の会話装置。 - 前記特徴取得手段は、前記複数のユーザの各々の特徴として前記複数のユーザの各々の性格情報を取得し、
前記選択手段は、前記特徴取得手段で取得された複数のユーザの各々の性格情報に基づき、前記複数のユーザから前記対象ユーザを選択する、
請求項1から3のいずれか1項に記載の会話装置。 - 前記特徴取得手段は、前記複数のユーザの各々による発話を分析し、分析した発話に応じて、前記複数のユーザの各々の特徴を取得する、
請求項1から4のいずれか1項に記載の会話装置。 - 前記特徴取得手段は、前記複数のユーザの間で会話が行われているときに、前記複数のユーザの各々による発話を分析する、
請求項5に記載の会話装置。 - 前記特徴取得手段は、前記複数のユーザの各々による発話の内容を分析し、分析した発話の内容に応じて、前記複数のユーザの各々の特徴を取得する、
請求項5又は6に記載の会話装置。 - 前記特徴取得手段は、前記複数のユーザの各々の音声の大きさを分析し、分析した音声の大きさに応じて、前記複数のユーザの各々の特徴を取得する、
請求項5又は6に記載の会話装置。 - 当該会話装置の加速度を検出する加速度センサをさらに備え、
前記特徴取得手段は、前記複数のユーザの各々が当該会話装置を使用しているときに前記加速度センサが検出した加速度の値に応じて、前記複数のユーザの各々の特徴を取得する、
請求項1から4のいずれか1項に記載の会話装置。 - 前記複数のユーザの各々の特徴には、前記複数のユーザの各々の嗜好を含む関心情報が含まれ、
前記選択手段により選択された対象ユーザの関心情報に関連する情報を取得する取得手段をさらに備え、
前記発話制御手段は、前記発話制御の実行中、前記取得手段で取得された情報のうち、前記対象ユーザの嗜好に合致する情報をポジティブな表現で発話するように、前記発話手段を制御する、
請求項1から9のいずれか1項に記載の会話装置。 - 前記複数のユーザの各々の特徴には、前記複数のユーザの各々の嗜好を含む関心情報が含まれ、
前記選択手段により選択された対象ユーザの関心情報に関連する情報を取得する取得手段をさらに備え、
前記発話制御手段は、前記発話制御の実行中、前記取得手段で取得された情報のうち、前記対象ユーザの嗜好に合致しない情報をネガティブな表現で発話するように、前記発話手段を制御する、
請求項1から9のいずれか1項に記載の会話装置。 - 前記選択手段は、前記対象ユーザを選択した後において、所定の条件が成立したときに、前記複数のユーザから、それまでに前記対象ユーザとして選択していたユーザとは異なるユーザを前記対象ユーザとして選択する、
請求項1から11のいずれか1項に記載の会話装置。 - 請求項1から12のいずれか1項に記載の会話装置を備えたロボット。
- 発話するための発話手段を備える会話装置を制御するための会話装置制御方法であって、
複数のユーザの各々の特徴を取得する特徴取得ステップと、
前記特徴取得ステップで取得された複数のユーザの各々の特徴に基づき、前記複数のユーザから、同調する又は同調しない対象となる対象ユーザを選択する選択ステップと、
前記選択ステップで選択された前記対象ユーザに応じた発話を行うように前記発話手段を制御する発話制御ステップと、
を含む会話装置制御方法。 - 発話するための発話手段を備える会話装置のコンピュータに、
複数のユーザの各々の特徴を取得する特徴取得ステップ、
前記特徴取得ステップで取得された複数のユーザの各々の特徴に基づき、前記複数のユーザから、同調する又は同調しない対象となる対象ユーザを選択する選択ステップ、及び、
前記選択ステップで選択された前記対象ユーザに応じた発話を行うように前記発話手段を制御する発話制御ステップ、
を実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018099332A JP7131077B2 (ja) | 2018-05-24 | 2018-05-24 | 会話装置、ロボット、会話装置制御方法及びプログラム |
CN201910401299.4A CN110524547B (zh) | 2018-05-24 | 2019-05-14 | 会话装置、机器人、会话装置控制方法以及存储介质 |
US16/414,850 US11205424B2 (en) | 2018-05-24 | 2019-05-17 | Conversation apparatus, robot, conversation apparatus control method, and non-transitory computer-readable recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018099332A JP7131077B2 (ja) | 2018-05-24 | 2018-05-24 | 会話装置、ロボット、会話装置制御方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019203998A true JP2019203998A (ja) | 2019-11-28 |
JP2019203998A5 JP2019203998A5 (ja) | 2021-07-26 |
JP7131077B2 JP7131077B2 (ja) | 2022-09-06 |
Family
ID=68614846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018099332A Active JP7131077B2 (ja) | 2018-05-24 | 2018-05-24 | 会話装置、ロボット、会話装置制御方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11205424B2 (ja) |
JP (1) | JP7131077B2 (ja) |
CN (1) | CN110524547B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113459100A (zh) * | 2021-07-05 | 2021-10-01 | 上海仙塔智能科技有限公司 | 基于机器人人格的处理方法、装置、设备以及介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112651860B (zh) * | 2020-12-18 | 2021-11-05 | 重庆师范大学 | 讨论式机器人教学系统、方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005342862A (ja) * | 2004-06-04 | 2005-12-15 | Nec Corp | ロボット |
JP2008278981A (ja) * | 2007-05-09 | 2008-11-20 | Advanced Telecommunication Research Institute International | 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器 |
JP2011524551A (ja) * | 2008-06-17 | 2011-09-01 | ボイスセンス エルティーディー. | スピーチ分析による話者の特徴化 |
JP2016071050A (ja) * | 2014-09-29 | 2016-05-09 | シャープ株式会社 | 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム |
JP2017010309A (ja) * | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | 意思決定支援装置および意思決定支援方法 |
WO2017130497A1 (ja) * | 2016-01-28 | 2017-08-03 | ソニー株式会社 | 通信システムおよび通信制御方法 |
JP2018045118A (ja) * | 2016-09-15 | 2018-03-22 | 富士ゼロックス株式会社 | 対話装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6144938A (en) * | 1998-05-01 | 2000-11-07 | Sun Microsystems, Inc. | Voice user interface with personality |
JP2007025140A (ja) * | 2005-07-14 | 2007-02-01 | Yaskawa Electric Corp | ロボット装置およびロボット装置の情報提示方法 |
JP2008226400A (ja) * | 2007-03-15 | 2008-09-25 | Sony Computer Entertainment Inc | オーディオ再生装置およびオーディオ再生方法 |
JP6432177B2 (ja) | 2014-06-20 | 2018-12-05 | カシオ計算機株式会社 | 対話型通信システム、端末装置およびプログラム |
JP6122816B2 (ja) * | 2014-08-07 | 2017-04-26 | シャープ株式会社 | 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム |
EP3264258A4 (en) * | 2015-02-27 | 2018-08-15 | Sony Corporation | Information processing device, information processing method, and program |
JP6594646B2 (ja) * | 2015-04-10 | 2019-10-23 | ヴイストン株式会社 | ロボット及びロボット制御方法並びにロボットシステム |
US11295736B2 (en) * | 2016-01-25 | 2022-04-05 | Sony Corporation | Communication system and communication control method |
US11120063B2 (en) * | 2016-01-25 | 2021-09-14 | Sony Corporation | Information processing apparatus and information processing method |
US10331795B2 (en) * | 2016-09-28 | 2019-06-25 | Panasonic Intellectual Property Corporation Of America | Method for recognizing speech sound, mobile terminal, and recording medium |
CN109804358B (zh) * | 2016-11-11 | 2023-06-20 | 索尼移动通信株式会社 | 再现终端和再现方法 |
US11302317B2 (en) * | 2017-03-24 | 2022-04-12 | Sony Corporation | Information processing apparatus and information processing method to attract interest of targets using voice utterance |
EP3605316A4 (en) * | 2017-03-30 | 2020-04-01 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM |
KR102428911B1 (ko) * | 2017-05-24 | 2022-08-03 | 로비 가이드스, 인크. | 자동 음성 인식을 사용하여 생성되는 입력을 음성에 기초하여 정정하기 위한 방법 및 시스템 |
US10381005B2 (en) * | 2017-11-28 | 2019-08-13 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for determining user frustration when using voice control |
WO2019112625A1 (en) * | 2017-12-08 | 2019-06-13 | Google Llc | Signal processing coordination among digital voice assistant computing devices |
US10522143B2 (en) * | 2018-02-27 | 2019-12-31 | Microsoft Technology Licensing, Llc | Empathetic personal virtual digital assistant |
KR102699827B1 (ko) * | 2018-05-11 | 2024-08-29 | 삼성전자주식회사 | 음성 인식 모델을 개인화하는 방법 및 장치 |
US11152001B2 (en) * | 2018-12-20 | 2021-10-19 | Synaptics Incorporated | Vision-based presence-aware voice-enabled device |
-
2018
- 2018-05-24 JP JP2018099332A patent/JP7131077B2/ja active Active
-
2019
- 2019-05-14 CN CN201910401299.4A patent/CN110524547B/zh active Active
- 2019-05-17 US US16/414,850 patent/US11205424B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005342862A (ja) * | 2004-06-04 | 2005-12-15 | Nec Corp | ロボット |
JP2008278981A (ja) * | 2007-05-09 | 2008-11-20 | Advanced Telecommunication Research Institute International | 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器 |
JP2011524551A (ja) * | 2008-06-17 | 2011-09-01 | ボイスセンス エルティーディー. | スピーチ分析による話者の特徴化 |
JP2016071050A (ja) * | 2014-09-29 | 2016-05-09 | シャープ株式会社 | 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム |
JP2017010309A (ja) * | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | 意思決定支援装置および意思決定支援方法 |
WO2017130497A1 (ja) * | 2016-01-28 | 2017-08-03 | ソニー株式会社 | 通信システムおよび通信制御方法 |
JP2018045118A (ja) * | 2016-09-15 | 2018-03-22 | 富士ゼロックス株式会社 | 対話装置 |
Non-Patent Citations (1)
Title |
---|
松山 洋一: ""多人数会話活性化のための自発的行動タイミング検出と発話行動戦略"", 第67回 言語・音声理解と対話処理研究会資料 (SIG−SLUD−B203), JPN6022005334, 25 January 2013 (2013-01-25), JP, pages 17 - 24, ISSN: 0004705680 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113459100A (zh) * | 2021-07-05 | 2021-10-01 | 上海仙塔智能科技有限公司 | 基于机器人人格的处理方法、装置、设备以及介质 |
CN113459100B (zh) * | 2021-07-05 | 2023-02-17 | 上海仙塔智能科技有限公司 | 基于机器人人格的处理方法、装置、设备以及介质 |
Also Published As
Publication number | Publication date |
---|---|
JP7131077B2 (ja) | 2022-09-06 |
US20190362723A1 (en) | 2019-11-28 |
CN110524547B (zh) | 2023-04-25 |
US11205424B2 (en) | 2021-12-21 |
CN110524547A (zh) | 2019-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10832654B2 (en) | Recognizing accented speech | |
US10339166B1 (en) | Systems and methods for providing natural responses to commands | |
JP6570651B2 (ja) | 音声対話装置および音声対話方法 | |
TWI509595B (zh) | 用於名稱發音之系統與方法 | |
EP3824462B1 (en) | Electronic apparatus for processing user utterance and controlling method thereof | |
US20220148567A1 (en) | Method and electronic device for translating speech signal | |
US10468052B2 (en) | Method and device for providing information | |
US11074916B2 (en) | Information processing system, and information processing method | |
WO2017200072A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
WO2020213468A1 (ja) | 情報処理システム、情報処理方法、及びプログラム | |
WO2017200076A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP2014219594A (ja) | 会話処理システム及びプログラム | |
CN109377979B (zh) | 更新欢迎语的方法和系统 | |
JP7131077B2 (ja) | 会話装置、ロボット、会話装置制御方法及びプログラム | |
JP7268292B2 (ja) | コンテンツ改変装置、コンテンツ改変方法及びプログラム | |
JP7058588B2 (ja) | 会話システムおよび会話プログラム | |
CN115527542A (zh) | 车载语音助手的设计方法、装置、终端设备以及存储介质 | |
CN114514576A (zh) | 数据处理方法、装置和存储介质 | |
CN108364631B (zh) | 一种语音合成方法和装置 | |
CN114467141A (zh) | 语音处理方法、装置、设备以及存储介质 | |
EP4428854A1 (en) | Method for providing voice synthesis service and system therefor | |
WO2023210340A1 (ja) | 学習装置および学習方法 | |
KR20190106011A (ko) | 대화 시스템 및 그 방법, 그 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램 | |
US20240119930A1 (en) | Artificial intelligence device and operating method thereof | |
KR102604277B1 (ko) | 다자간 통화의 화자분리 stt를 이용한 복합 감정 분석 방법 및 이를 실행하는 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210513 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210513 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220808 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7131077 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |