JP2015118185A - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2015118185A JP2015118185A JP2013260462A JP2013260462A JP2015118185A JP 2015118185 A JP2015118185 A JP 2015118185A JP 2013260462 A JP2013260462 A JP 2013260462A JP 2013260462 A JP2013260462 A JP 2013260462A JP 2015118185 A JP2015118185 A JP 2015118185A
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- information
- processing apparatus
- speaker
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 66
- 238000003672 processing method Methods 0.000 title description 5
- 238000004458 analytical method Methods 0.000 claims description 34
- 238000004364 calculation method Methods 0.000 claims description 31
- 239000000284 extract Substances 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 27
- 238000000034 method Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000007704 transition Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- WZFUQSJFWNHZHM-UHFFFAOYSA-N 2-[4-[2-(2,3-dihydro-1H-inden-2-ylamino)pyrimidin-5-yl]piperazin-1-yl]-1-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)ethanone Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)N1CCN(CC1)CC(=O)N1CC2=C(CC1)NN=N2 WZFUQSJFWNHZHM-UHFFFAOYSA-N 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
1.システム構成
2.処理部の構成
3.処理フロー
3−1.話者の特定
3−2.会話区間の特定
4.適用例
4−1.会話時間
4−2.会話の音量
4−3.会話の速度
4−4.データの利用
5.ハードウェア構成
6.補足
図1は、本開示の一実施形態におけるユーザの生活環境での音声取得について説明するための図である。図1を参照すると、本実施形態では、ウェアラブル端末100によって、ユーザの生活環境での音声が取得される。
図3は、本開示の一実施形態における処理部の概略的な構成を示す図である。図3を参照すると、本実施形態に係る処理部は、音声解析部520と、指標算出部540と、情報生成部560と、話者特定部580とを含みうる。
(3−1.話者の特定)
図4は、本開示の一実施形態において、発話音声の話者を特定する処理の例を示すフローチャートである。なお、図示された例では、話者が母親または父親の場合が特定されるが、声の特徴を登録しておけば、兄弟や友人、学校の先生など、その他の話者を特定することも可能である。図4を参照すると、話者特定部580は、会話の開始後、音声データ510または発話音声データ530に含まれる発話音声の特徴と、予め登録されている母親の声の特徴とを比較する(S101)。ここで、発話音声の特徴が母親の声の特徴と一致すれば(YES)、話者特定部580は発話音声の話者が母親であることを登録する(S103)。なお、音声の特徴比較の処理には、公知の様々な技術を利用することが可能であるため、詳細な説明は省略する。
図5は、本開示の一実施形態において、会話区間を特定する処理の例を示すフローチャートである。本実施形態では、例えば音声解析部520が、音声データ510に含まれる発話音声によって構成される会話の区間を特定する。より具体的には、音声解析部520は、発話音声データ530を抽出するにあたり、会話に参加するユーザによる最初の発話が開始されてから、同じく会話に参加するユーザによる最後の発話が終了するまでの区間を会話区間として特定する。例えば、会話区間の長さを計測することによって、会話の継続時間を算出することができる。
次に、本実施形態の適用例について説明する。なお、以下で説明する適用例では、システムによって蓄積された情報が、子供の生活環境特性を示す情報として扱われる。
本適用例における会話の量的指標550は、例えば、家庭内での会話時間を含む。この場合、話者特定部580が特定する話者、つまり発話音声によって構成される会話の参加者にはユーザの家族の構成員が含まれる。家族の構成員は、より具体的にはユーザ(子供)の父親と母親でありうる。指標算出部540が会話の参加者(家族の構成員、例えば父親と母親)ごとに算出された会話の通算時間を含む量的指標550を生成し、情報生成部560が会話の参加者ごとの会話の通算時間に基づいて生活環境特性570を生成することによって、家族の構成員、例えば父親と母親のそれぞれとの会話の通算時間を示す情報が生成される。
また、本適用例における会話の量的指標550は、家庭内での会話の平均音量および/または最大音量を含んでもよい。この場合、平均音量および/または最大音量は、所定の時間窓(例えば1分)ごとに算出されうる。この場合、話者特定部580が、話者が例えば父親、母親、またはそれ以外の人物であることを特定し、指標算出部540が、会話の参加者(父親および母親を含む)ごとに平均音量および/または最大音量を算出してもよい。あるいは、指標算出部540は、会話の参加者を区別せずに平均音量および/または最大音量を算出してもよい。
また、本適用例における会話の量的指標550は、家庭内での会話の平均速度および/または最大速度を含んでもよい。この場合、平均速度および/または最大速度は、所定の時間窓(例えば1分)ごとに算出されうる。この場合も、話者特定部580が、話者が例えば父親、母親、またはそれ以外の人であることを特定し、指標算出部540が、会話の参加者(父親および母親を含む)ごとに平均速度および/または最大速度を算出してもよい。あるいは、指標算出部540は、話者を区別せずに平均速度および/または最大速度を算出してもよい。
近年、プロアクティブ医療が叫ばれる中、ユーザの生活環境に関する客観的なデータの取得が希求されている。特に、幼児期の生活環境が、将来の子供の成育に従来な影響を与えることが知られている。本適用例において取得されたデータは、例えば以下のような観点から利用することが考えられる。
次に、図6を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図6は、本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。図示された情報処理装置900は、例えば、上記の実施形態におけるウェアラブル端末100、スマートフォン200、およびサーバ300を実現しうる。
本開示の実施形態は、例えば、上記で説明したような情報処理装置(ウェアラブル端末、スマートフォン、またはサーバ)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
(1)ユーザの生活環境に置かれたマイクロフォンによって取得された発話音声によって構成される会話に関する量的指標を算出する指標算出部と、
前記量的指標に基づいて前記生活環境の特性を示す情報を生成する情報生成部と
を備える情報処理装置。
(2)前記指標算出部は、前記会話の参加者ごとに前記量的指標を算出する、前記(1)に記載の情報処理装置。
(3)前記量的指標は、前記会話の通算時間を含み、
前記情報生成部は、前記会話の参加者ごとの前記通算時間に基づいて前記情報を生成する、前記(2)に記載の情報処理装置。
(4)前記会話の参加者は、前記ユーザの家族の構成員を含み、
前記情報生成部は、前記構成員ごとの前記通算時間に基づいて前記情報を生成する、前記(3)に記載の情報処理装置。
(5)前記通算時間は、単位期間ごとに算出され、
前記情報生成部は、前記会話の参加者ごとの前記通算時間の増減傾向に基づいて前記情報を生成する、前記(3)または(4)に記載の情報処理装置。
(6)前記量的指標は、前記会話の音量を含み、
前記情報生成部は、前記会話の参加者ごとの、前記音量がその平均から推定される通常の範囲を超えた時間または回数に基づいて前記情報を生成する、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記量的指標は、前記会話の速度を含み、
前記情報生成部は、前記会話の参加者ごとの、前記速度がその平均から推定される通常の範囲を超えた時間または回数に基づいて前記情報を生成する、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(8)前記量的指標は、前記会話の音量および速度を含み、
前記情報生成部は、前記会話の参加者ごとの、前記速度が平均から推定される通常の範囲を超え、かつ前記音量が平均から推定される通常の範囲を超えた時間または回数に基づいて前記情報を生成する、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(9)前記量的指標は、前記会話の音量または速度を含み、
前記情報生成部は、前記ユーザを参加者に含まない前記会話の音量または速度に基づいて前記情報を生成する、前記(2)〜(8)のいずれか1項に記載の情報処理装置。
(10)前記量的指標は、前記会話の通算時間を含み、
前記情報生成部は、前記通算時間に基づいて前記情報を生成する、前記(1)に記載の情報処理装置。
(11)前記量的指標は、前記会話の音量を含み、
前記情報生成部は、前記音量に基づいて前記情報を生成する、前記(1)に記載の情報処理装置。
(12)前記量的指標は、前記会話の速度を含み、
前記情報生成部は、前記速度に基づいて前記情報を生成する、前記(1)に記載の情報処理装置。
(13)前記発話音声の話者の少なくとも一部を特定する話者特定部をさらに備える、前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)前記話者特定部は、前記話者を、予め登録された1または複数の話者と、それ以外の話者とに区分する、前記(13)に記載の情報処理装置。
(15)前記マイクロフォンから提供される音声データを解析することによって前記発話音声を示すデータを抽出する音声解析部をさらに備える、前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(16)前記発話音声の話者の少なくとも一部を特定する話者特定部をさらに備え、
前記音声解析部は、前記話者を時系列で示すデータを抽出する、前記(15)に記載の情報処理装置。
(17)前記音声解析部は、単位時間ごとに前記話者特定部に話者の特定を依頼し、前記話者特定部において各話者が特定された回数によって前記話者を時系列で示すデータを抽出する、前記(16)に記載の情報処理装置。
(18)プロセッサが、
ユーザの生活環境に置かれたマイクロフォンによって取得された発話音声によって構成される会話に関する量的指標を算出することと、
前記量的指標に基づいて前記生活環境の特性を示す情報を生成することと
を含む情報処理方法。
(19)ユーザの生活環境に置かれたマイクロフォンによって取得された発話音声によって構成される会話に関する量的指標を算出する機能と、
前記量的指標に基づいて前記生活環境の特性を示す情報を生成する機能と
をコンピュータに実現させるためのプログラム。
100 ウェアラブル端末
120 処理部
200 スマートフォン
220 処理部
300 サーバ
320 処理部
520 音声解析部
540 指標算出部
560 情報生成部
580 話者特定部
Claims (19)
- ユーザの生活環境に置かれたマイクロフォンによって取得された発話音声によって構成される会話に関する量的指標を算出する指標算出部と、
前記量的指標に基づいて前記生活環境の特性を示す情報を生成する情報生成部と
を備える情報処理装置。 - 前記指標算出部は、前記会話の参加者ごとに前記量的指標を算出する、請求項1に記載の情報処理装置。
- 前記量的指標は、前記会話の通算時間を含み、
前記情報生成部は、前記会話の参加者ごとの前記通算時間に基づいて前記情報を生成する、請求項2に記載の情報処理装置。 - 前記会話の参加者は、前記ユーザの家族の構成員を含み、
前記情報生成部は、前記構成員ごとの前記通算時間に基づいて前記情報を生成する、請求項3に記載の情報処理装置。 - 前記通算時間は、単位期間ごとに算出され、
前記情報生成部は、前記会話の参加者ごとの前記通算時間の増減傾向に基づいて前記情報を生成する、請求項3に記載の情報処理装置。 - 前記量的指標は、前記会話の音量を含み、
前記情報生成部は、前記会話の参加者ごとの、前記音量がその平均から推定される通常の範囲を超えた時間または回数に基づいて前記情報を生成する、請求項2に記載の情報処理装置。 - 前記量的指標は、前記会話の速度を含み、
前記情報生成部は、前記会話の参加者ごとの、前記速度がその平均から推定される通常の範囲を超えた時間または回数に基づいて前記情報を生成する、請求項2に記載の情報処理装置。 - 前記量的指標は、前記会話の音量および速度を含み、
前記情報生成部は、前記会話の参加者ごとの、前記速度が平均から推定される通常の範囲を超え、かつ前記音量が平均から推定される通常の範囲を超えた時間または回数に基づいて前記情報を生成する、請求項2に記載の情報処理装置。 - 前記量的指標は、前記会話の音量または速度を含み、
前記情報生成部は、前記ユーザを参加者に含まない前記会話の音量または速度に基づいて前記情報を生成する、請求項2に記載の情報処理装置。 - 前記量的指標は、前記会話の通算時間を含み、
前記情報生成部は、前記通算時間に基づいて前記情報を生成する、請求項1に記載の情報処理装置。 - 前記量的指標は、前記会話の音量を含み、
前記情報生成部は、前記音量に基づいて前記情報を生成する、請求項1に記載の情報処理装置。 - 前記量的指標は、前記会話の速度を含み、
前記情報生成部は、前記速度に基づいて前記情報を生成する、請求項1に記載の情報処理装置。 - 前記発話音声の話者の少なくとも一部を特定する話者特定部をさらに備える、請求項1に記載の情報処理装置。
- 前記話者特定部は、前記話者を、予め登録された1または複数の話者と、それ以外の話者とに区分する、請求項13に記載の情報処理装置。
- 前記マイクロフォンから提供される音声データを解析することによって前記発話音声を示すデータを抽出する音声解析部をさらに備える、請求項1に記載の情報処理装置。
- 前記発話音声の話者の少なくとも一部を特定する話者特定部をさらに備え、
前記音声解析部は、前記話者を時系列で示すデータを抽出する、請求項15に記載の情報処理装置。 - 前記音声解析部は、単位時間ごとに前記話者特定部に話者の特定を依頼し、前記話者特定部において各話者が特定された回数によって前記話者を時系列で示すデータを抽出する、請求項16に記載の情報処理装置。
- プロセッサが、
ユーザの生活環境に置かれたマイクロフォンによって取得された発話音声によって構成される会話に関する量的指標を算出することと、
前記量的指標に基づいて前記生活環境の特性を示す情報を生成することと
を含む情報処理方法。 - ユーザの生活環境に置かれたマイクロフォンによって取得された発話音声によって構成される会話に関する量的指標を算出する機能と、
前記量的指標に基づいて前記生活環境の特性を示す情報を生成する機能と
をコンピュータに実現させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013260462A JP6164076B2 (ja) | 2013-12-17 | 2013-12-17 | 情報処理装置、情報処理方法、およびプログラム |
US14/564,284 US20150170674A1 (en) | 2013-12-17 | 2014-12-09 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013260462A JP6164076B2 (ja) | 2013-12-17 | 2013-12-17 | 情報処理装置、情報処理方法、およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015118185A true JP2015118185A (ja) | 2015-06-25 |
JP2015118185A5 JP2015118185A5 (ja) | 2016-02-12 |
JP6164076B2 JP6164076B2 (ja) | 2017-07-19 |
Family
ID=53369252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013260462A Expired - Fee Related JP6164076B2 (ja) | 2013-12-17 | 2013-12-17 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20150170674A1 (ja) |
JP (1) | JP6164076B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018081679A (ja) * | 2017-10-04 | 2018-05-24 | キヤノン株式会社 | システムと携帯型端末、制御方法及びプログラム |
JP2019121125A (ja) * | 2017-12-28 | 2019-07-22 | 株式会社日立製作所 | プロジェクト支援システム及び方法 |
US11335360B2 (en) * | 2019-09-21 | 2022-05-17 | Lenovo (Singapore) Pte. Ltd. | Techniques to enhance transcript of speech with indications of speaker emotion |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017187712A1 (ja) * | 2016-04-26 | 2017-11-02 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
KR102596430B1 (ko) * | 2016-08-31 | 2023-10-31 | 삼성전자주식회사 | 화자 인식에 기초한 음성 인식 방법 및 장치 |
US11948577B1 (en) | 2018-03-30 | 2024-04-02 | 8X8, Inc. | Analysis of digital voice data in a data-communication server system |
US11017782B2 (en) * | 2018-11-14 | 2021-05-25 | XMOS Ltd. | Speaker classification |
US11575791B1 (en) | 2018-12-12 | 2023-02-07 | 8X8, Inc. | Interactive routing of data communications |
US11445063B1 (en) | 2019-03-18 | 2022-09-13 | 8X8, Inc. | Apparatuses and methods involving an integrated contact center |
US11196866B1 (en) | 2019-03-18 | 2021-12-07 | 8X8, Inc. | Apparatuses and methods involving a contact center virtual agent |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020188455A1 (en) * | 2001-06-11 | 2002-12-12 | Pioneer Corporation | Contents presenting system and method |
JP2010210730A (ja) * | 2009-03-09 | 2010-09-24 | Univ Of Fukui | 乳幼児の感情診断装置及び方法 |
US8078465B2 (en) * | 2007-01-23 | 2011-12-13 | Lena Foundation | System and method for detection and analysis of speech |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6185534B1 (en) * | 1998-03-23 | 2001-02-06 | Microsoft Corporation | Modeling emotion and personality in a computer user interface |
US6363145B1 (en) * | 1998-08-17 | 2002-03-26 | Siemens Information And Communication Networks, Inc. | Apparatus and method for automated voice analysis in ACD silent call monitoring |
US7222075B2 (en) * | 1999-08-31 | 2007-05-22 | Accenture Llp | Detecting emotions using voice signal analysis |
JP3863053B2 (ja) * | 2002-04-12 | 2006-12-27 | シャープ株式会社 | 情報配信方法、情報配信装置、情報配信プログラムならびにそれを記録したコンピュータ読み取り可能な記録媒体 |
US7457404B1 (en) * | 2003-12-19 | 2008-11-25 | Nortel Networks Limited | Methods of monitoring communications sessions in a contact centre |
US9300790B2 (en) * | 2005-06-24 | 2016-03-29 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
JP2007213176A (ja) * | 2006-02-08 | 2007-08-23 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP5365199B2 (ja) * | 2009-01-06 | 2013-12-11 | ソニー株式会社 | ライフスタイルを評価するための方法、情報処理装置及びプログラム |
US20110035221A1 (en) * | 2009-08-07 | 2011-02-10 | Tong Zhang | Monitoring An Audience Participation Distribution |
JP2013200423A (ja) * | 2012-03-23 | 2013-10-03 | Toshiba Corp | 音声対話支援装置、方法、およびプログラム |
JP6131537B2 (ja) * | 2012-07-04 | 2017-05-24 | セイコーエプソン株式会社 | 音声認識システム、音声認識プログラム、記録媒体及び音声認識方法 |
-
2013
- 2013-12-17 JP JP2013260462A patent/JP6164076B2/ja not_active Expired - Fee Related
-
2014
- 2014-12-09 US US14/564,284 patent/US20150170674A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020188455A1 (en) * | 2001-06-11 | 2002-12-12 | Pioneer Corporation | Contents presenting system and method |
JP2002366166A (ja) * | 2001-06-11 | 2002-12-20 | Pioneer Electronic Corp | コンテンツ提供システム及び方法、並びにそのためのコンピュータプログラム |
US8078465B2 (en) * | 2007-01-23 | 2011-12-13 | Lena Foundation | System and method for detection and analysis of speech |
JP2010210730A (ja) * | 2009-03-09 | 2010-09-24 | Univ Of Fukui | 乳幼児の感情診断装置及び方法 |
Non-Patent Citations (2)
Title |
---|
小川恭平,外4名: "発話率のフィードバックによる食事コミュニケーション支援", 電子情報通信学会技術研究報告, vol. 111, no. 101, JPN6016017170, 21 June 2011 (2011-06-21), JP, pages 1 - 6, ISSN: 0003313540 * |
野本済央,外5名: "発話の時間的関係性を用いた対話音声からの怒り感情推定", 電子情報通信学会論文誌, vol. 96, no. 1, JPN6016017171, 1 January 2013 (2013-01-01), JP, pages 15 - 24, ISSN: 0003313541 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018081679A (ja) * | 2017-10-04 | 2018-05-24 | キヤノン株式会社 | システムと携帯型端末、制御方法及びプログラム |
JP2019121125A (ja) * | 2017-12-28 | 2019-07-22 | 株式会社日立製作所 | プロジェクト支援システム及び方法 |
US10860960B2 (en) | 2017-12-28 | 2020-12-08 | Hitachi, Ltd. | Project support system and method |
US11335360B2 (en) * | 2019-09-21 | 2022-05-17 | Lenovo (Singapore) Pte. Ltd. | Techniques to enhance transcript of speech with indications of speaker emotion |
Also Published As
Publication number | Publication date |
---|---|
US20150170674A1 (en) | 2015-06-18 |
JP6164076B2 (ja) | 2017-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6164076B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6756328B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20190220933A1 (en) | Presence Granularity with Augmented Reality | |
JP5930432B2 (ja) | ソーシャル・グラフ、会話モデル、およびユーザ・コンテキストを介した、モバイル装置のユーザ付近の人の特定 | |
Ghosh et al. | Recognizing human activities from smartphone sensor signals | |
JP6812604B2 (ja) | オーディオアクティビティ追跡および要約 | |
JP6760271B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2016089594A2 (en) | Conversation agent | |
JP2014134922A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20210350823A1 (en) | Systems and methods for processing audio and video using a voice print | |
JPWO2016136104A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20200357504A1 (en) | Information processing apparatus, information processing method, and recording medium | |
WO2016158003A1 (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
JP2021033646A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN113764099A (zh) | 基于人工智能的心理状态分析方法、装置、设备及介质 | |
US20200301398A1 (en) | Information processing device, information processing method, and program | |
EP3340240B1 (en) | Information processing device, information processing method, and program | |
WO2016143415A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
EP3576392A1 (en) | Information processing device, information processing method, and information processing system | |
WO2018061346A1 (ja) | 情報処理装置 | |
JP2020010831A (ja) | 情報処理システム、情報処理装置およびプログラム | |
JP6605774B1 (ja) | 情報処理システム、情報処理装置、情報処理方法およびコンピュータプログラム | |
US11183167B2 (en) | Determining an output position of a subject in a notification based on attention acquisition difficulty | |
CN113241077A (zh) | 用于可穿戴设备的语音录入方法和装置 | |
Rahman et al. | Online Detection of Speaking from Respiratory Measurement Collected in the Natural Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170605 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6164076 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |