JP7354992B2 - 発言評価システム、発言評価方法、及び、プログラム - Google Patents
発言評価システム、発言評価方法、及び、プログラム Download PDFInfo
- Publication number
- JP7354992B2 JP7354992B2 JP2020192345A JP2020192345A JP7354992B2 JP 7354992 B2 JP7354992 B2 JP 7354992B2 JP 2020192345 A JP2020192345 A JP 2020192345A JP 2020192345 A JP2020192345 A JP 2020192345A JP 7354992 B2 JP7354992 B2 JP 7354992B2
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- timing
- evaluation
- comment
- statement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 173
- 238000004364 calculation method Methods 0.000 claims description 57
- 238000004891 communication Methods 0.000 claims description 46
- 238000001514 detection method Methods 0.000 claims description 32
- 230000033001 locomotion Effects 0.000 claims description 31
- 230000001133 acceleration Effects 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 21
- 230000005540 biological transmission Effects 0.000 description 35
- 238000012545 processing Methods 0.000 description 17
- 238000006243 chemical reaction Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000013500 data storage Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/56—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
- H04M3/563—User guidance or feature selection
- H04M3/566—User guidance or feature selection relating to a participants right to speak
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/56—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
- H04M3/568—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants
- H04M3/569—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants using the instant speaker's algorithm
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P15/00—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
- G01P15/18—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
好ましくは、前記第2のタイミングは、対応する発言の前記終了タイミングから所定時間経過したタイミングに設定される。以上の構成によれば、前記第2のタイミングを設定するのに要する演算が簡素となるので、前記第2のタイミングを低コストに設定することができる。
好ましくは、前記第2のタイミングは、対応する発言に続く他の発言が開始したタイミングに設定される。以上の構成によれば、他の発言に対する反応を除外して評価値を算出できるので、対応する発言に対する評価値を精度よく求めることができる。
好ましくは、前記第2のタイミングは、対応する発言の前記終了タイミングから所定時間経過したタイミングに設定され、対応する発言の前記終了タイミングから所定時間経過する前に、対応する発言に続いて他の発言が開始した場合、前記第2のタイミングは、対応する発言に続く他の発言が開始したタイミングに設定される。以上の構成によれば、対応する発言の前記終了タイミングから所定時間経過する前に、対応する発言に続いて他の発言が開始しなかった場合は、前記第2のタイミングを低コストに設定することができるし、対応する発言の前記終了タイミングから所定時間経過する前に、対応する発言に続いて他の発言が開始した場合は、他の発言に対する反応を除外して評価値を算出できるので、対応する発言に対する評価値を精度よく求めることができる。
好ましくは、前記センサは、加速度センサを含む。
好ましくは、前記評価値算出部は、前記加速度センサの出力値が、対応するウェアラブル端末を装着した参加者の首を縦に振る動作を示す場合、対応する発言に対する評価値が高まるように評価値を算出する。
好ましくは、前記評価値算出部は、前記加速度センサの出力値が、対応するウェアラブル端末を装着した参加者の首を横に振る動作を示す場合、対応する発言に対する評価値が低まるように評価値を算出する。
本願発明の第2の観点によれば、複数の参加者から構成されるコミュニケーションにおいて、発言毎に当該発言に対する評価値を求める発言評価方法であって、前記複数の参加者のそれぞれには、各々が少なくとも集音部を含むセンサを有する、複数のウェアラブル端末が装着されており、前記複数のウェアラブル端末の集音部の出力値に基づいて、前記コミュニケーションにおける発言を検出すると共に、検出した発言に対応するウェアラブル端末を特定することと、検出した発言毎に、当該発言の開始タイミングと終了タイミングを検出することと、検出した発言毎に、当該発言の前記開始タイミング以降であって前記終了タイミングよりも前である第1のタイミングから、当該発言の前記終了タイミングよりも後である第2のタイミングまでの間の発言評価対象期間における、当該発言に対応したウェアラブル端末以外のウェアラブル端末の前記センサの出力値に基づいて、当該発言に対する評価値を算出すること、を含む、発言評価方法が提供される。以上の方法によれば、発言中の聞き手の反応に加えて発言に対して遅れて発生した聞き手の反応も当該発言に対する評価値の算出に反映されるので、発言毎に、当該発言に対する評価値を精度良く求めることができる。
また、コンピュータに、上記の発言評価方法を実行させるためのプログラムが提供される。
図1に示すように、複数のウェアラブル端末3は、それぞれ、複数の参加者2に装着されて用いられる。即ち、一人の参加者2が1つのウェアラブル端末3を装着する。本実施形態において、ウェアラブル端末3は、参加者2の上半身に着るトップスに着脱可能なバッジであって、好ましくは鳩尾(みぞおち)よりも上に取り付けられる。ただし、ウェアラブル端末3は、バッジであることに代えて、ヘッドセットやイヤホン、メガネ、ネックレス、ペンダント等であってもよい。
図4は、評価装置4の機能ブロック図を示している。図4に示すように、評価装置4は、中央演算処理器としてのCPU4a(Central Processing Unit)と、読み書き自由のRAM4b(Random Access Memory)、読み出し専用のROM4c(Read Only Memory)を備えている。そして、CPU4aがROM4cに記憶されている制御プログラムを読み出して実行することで、制御プログラムは、CPU4aなどのハードウェアを、データ送受信部20、データ記憶部21、発言検出部22、発言期間検出部23、同調割合算出部24、強調処理部25、評価値算出部26、評価値出力部27、として機能させる。
具体的には、評価値算出部26は、発言aに対応する評価期間の開始タイミング(第1のタイミング)を、発言aの開始タイミングである時刻t1以降であって終了タイミングである時刻t2よりも前に設定する。本実施形態において評価値算出部26は、発言aに対応する評価期間の開始タイミングを、発言aの開始タイミングである時刻t1に設定する。なお、発言の開始直後の頷き動作は必ずしも当該発言に対する頷き動作であるとは限らず、当該発言の直前の発言に対する頷き動作である可能性がある。従って、発言aに対する頷き動作と、発言aの直前の発言に対する頷き動作と、をうまく切り分けるために、評価値算出部26は、発言aに対応する評価期間の開始タイミングを、発言aの開始タイミングである時刻t1から所定時間経過したタイミングに設定してもよい。
評価値算出部26は、同様の方法により、発言bに対応する評価期間の開始タイミングを時刻t4に設定する。
評価値算出部26は、発言bと同様の方法により、発言cに対応する評価期間の開始タイミングと終了タイミングを設定し、発言cに対応する評価期間におけるf(p)値を合算することで、発言cに対する評価値を算出する。
評価値算出部26は、発言aと同様の方法により、発言dに対応する評価期間の開始タイミングと終了タイミングを設定し、発言dに対応する評価期間におけるf(p)値を合算することで、発言dに対する評価値を算出する。
まず、評価装置4は、複数の参加者2で構成されるコミュニケーションが開始したか判定する。コミュニケーションが開始していないと判定した場合は(S100:NO)、評価装置4は、S100を繰り返す。一方、コミュニケーションが開始したと判定した場合は(S100:YES)、評価装置4は、処理をS110に進める。例えば、評価装置4と複数のウェアラブル端末3との通信が確立した場合、評価装置4は、コミュニケーションが開始したと判定することができる。
次に、データ送受信部20は、複数のウェアラブル端末3から送信データ14aを受信してデータ記憶部21に蓄積する。
次に、評価装置4は、複数の参加者2で構成されるコミュニケーションが終了したか判定する。コミュニケーションが終了していないと判定した場合は(S120:NO)、評価装置4は、処理をS110に戻す。一方、コミュニケーションが終了したと判定した場合は(S120:YES)、評価装置4は、処理をS130に進める。例えば、評価装置4と通信状態にあったすべてのウェアラブル端末3と評価装置4との通信が切断された場合、評価装置4は、コミュニケーションが終了したと判定することができる。
次に、発言検出部22は、データ記憶部21に蓄積された送信データ14aを参照して、コミュニケーションにおける発言を検出すると共に、検出した発言に対応するウェアラブル端末3を特定する。
次に、発言期間検出部23は、発言検出部22が検出した発言毎に、当該発言の開始タイミングと終了タイミングを検出する。
次に、同調割合算出部24は、所定の時間区間毎に同調割合を算出する。
次に、強調処理部25は、同調割合算出部24が算出した同調割合に対して、同調割合の高低を強調する強調処理を行う。
次に、評価値算出部26は、発言検出部22が検出した発言毎に、当該発言に対応する評価期間を設定すると共に、当該発言に対する評価値を算出する。
そして、評価値出力部27は、評価データを所望の方法により出力する。
2 参加者
3 ウェアラブル端末
4 評価装置
10 端末ID情報記憶部
11 マイクロフォン
12 加速度センサ
13 時刻カウント部
14 送信データ生成部
14a 送信データ
15 データ送受信部
16 センサ
20 データ送受信部
21 データ記憶部
22 発言検出部
23 発言期間検出部
24 同調割合算出部
25 強調処理部
26 評価値算出部
27 評価値出力部
a 発言
b 発言
c 発言
d 発言
Claims (9)
- 複数の参加者から構成されるコミュニケーションにおいて、発言毎に当該発言に対する評価値を求める発言評価システムであって、
前記複数の参加者のそれぞれに装着され、各々が少なくとも集音部を含むセンサを有する、複数のウェアラブル端末と、
前記複数のウェアラブル端末の集音部の出力値に基づいて、前記コミュニケーションにおける発言を検出すると共に、検出した発言に対応するウェアラブル端末を特定する発言検出部と、
前記発言検出部が検出した発言毎に、当該発言の開始タイミングと終了タイミングを検出する発言期間検出部と、
前記発言検出部が検出した発言毎に、当該発言の前記開始タイミング以降であって前記終了タイミングよりも前である第1のタイミングから、当該発言の前記終了タイミングよりも後である第2のタイミングまでの間の発言評価対象期間における、当該発言に対応したウェアラブル端末以外のウェアラブル端末の前記センサの出力値に基づいて、当該発言に対する評価値を算出する評価値算出部と、
を備えた、
発言評価システム。 - 請求項1に記載の発言評価システムであって、
前記第2のタイミングは、対応する発言の前記終了タイミングから所定時間経過したタイミングに設定される、
発言評価システム。 - 請求項1に記載の発言評価システムであって、
前記第2のタイミングは、対応する発言に続く他の発言が開始したタイミングに設定される、
発言評価システム。 - 請求項1に記載の発言評価システムであって、
前記第2のタイミングは、対応する発言の前記終了タイミングから所定時間経過したタイミングに設定され、
対応する発言の前記終了タイミングから所定時間経過する前に、対応する発言に続いて他の発言が開始した場合、前記第2のタイミングは、対応する発言に続く他の発言が開始したタイミングに設定される、
発言評価システム。 - 請求項1から4までの何れか1項に記載の発言評価システムであって、
前記センサは、加速度センサを含む、
発言評価システム。 - 請求項5に記載の発言評価システムであって、
前記評価値算出部は、前記加速度センサの出力値が、対応するウェアラブル端末を装着した参加者の首を縦に振る動作を示す場合、対応する発言に対する評価値が高まるように評価値を算出する、
発言評価システム。 - 請求項5に記載の発言評価システムであって、
前記評価値算出部は、前記加速度センサの出力値が、対応するウェアラブル端末を装着した参加者の首を横に振る動作を示す場合、対応する発言に対する評価値が低まるように評価値を算出する、
発言評価システム。 - 複数の参加者から構成されるコミュニケーションにおいて、発言毎に当該発言に対する評価値を求める発言評価方法であって、
前記複数の参加者のそれぞれには、各々が少なくとも集音部を含むセンサを有する、複数のウェアラブル端末が装着されており、
コンピュータが、前記複数のウェアラブル端末の集音部の出力値に基づいて、前記コミュニケーションにおける発言を検出すると共に、検出した発言に対応するウェアラブル端末を特定することと、
前記コンピュータが、検出した発言毎に、当該発言の開始タイミングと終了タイミングを検出することと、
前記コンピュータが、検出した発言毎に、当該発言の前記開始タイミング以降であって前記終了タイミングよりも前である第1のタイミングから、当該発言の前記終了タイミングよりも後である第2のタイミングまでの間の発言評価対象期間における、当該発言に対応したウェアラブル端末以外のウェアラブル端末の前記センサの出力値に基づいて、当該発言に対する評価値を算出すること、
を含む、
発言評価方法。 - コンピュータに、請求項8に記載の発言評価方法を実行させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020192345A JP7354992B2 (ja) | 2020-11-19 | 2020-11-19 | 発言評価システム、発言評価方法、及び、プログラム |
DE102021125686.0A DE102021125686B4 (de) | 2020-11-19 | 2021-10-04 | Sprechevaluationssystem, Sprechevaluationsverfahren und Programm |
US17/528,359 US20220157299A1 (en) | 2020-11-19 | 2021-11-17 | Speech evaluation system, speech evaluation method, and non-transitory computer readable medium storing program |
CN202111365493.5A CN114550723A (zh) | 2020-11-19 | 2021-11-18 | 发言评价系统、发言评价方法以及计算机记录介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020192345A JP7354992B2 (ja) | 2020-11-19 | 2020-11-19 | 発言評価システム、発言評価方法、及び、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022081050A JP2022081050A (ja) | 2022-05-31 |
JP7354992B2 true JP7354992B2 (ja) | 2023-10-03 |
Family
ID=81345659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020192345A Active JP7354992B2 (ja) | 2020-11-19 | 2020-11-19 | 発言評価システム、発言評価方法、及び、プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220157299A1 (ja) |
JP (1) | JP7354992B2 (ja) |
CN (1) | CN114550723A (ja) |
DE (1) | DE102021125686B4 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011221683A (ja) | 2010-04-07 | 2011-11-04 | Seiko Epson Corp | 接客支援装置、接客支援方法およびプログラム |
JP2016103081A (ja) | 2014-11-27 | 2016-06-02 | Kddi株式会社 | 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム |
JP2016157388A (ja) | 2015-02-26 | 2016-09-01 | 日本電信電話株式会社 | コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム |
JP2020086853A (ja) | 2018-11-22 | 2020-06-04 | 富士ゼロックス株式会社 | 情報処理システム、プログラムおよび情報処理方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040243416A1 (en) * | 2003-06-02 | 2004-12-02 | Gardos Thomas R. | Speech recognition |
JP6373179B2 (ja) | 2014-11-28 | 2018-08-15 | シャープ株式会社 | デジタル放送受信装置、デジタル放送受信方法、およびプログラム |
US10692516B2 (en) | 2017-04-28 | 2020-06-23 | International Business Machines Corporation | Dialogue analysis |
KR102429498B1 (ko) * | 2017-11-01 | 2022-08-05 | 현대자동차주식회사 | 차량의 음성인식 장치 및 방법 |
JP7047626B2 (ja) * | 2018-06-22 | 2022-04-05 | コニカミノルタ株式会社 | 会議システム、会議サーバ及びプログラム |
-
2020
- 2020-11-19 JP JP2020192345A patent/JP7354992B2/ja active Active
-
2021
- 2021-10-04 DE DE102021125686.0A patent/DE102021125686B4/de active Active
- 2021-11-17 US US17/528,359 patent/US20220157299A1/en active Pending
- 2021-11-18 CN CN202111365493.5A patent/CN114550723A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011221683A (ja) | 2010-04-07 | 2011-11-04 | Seiko Epson Corp | 接客支援装置、接客支援方法およびプログラム |
JP2016103081A (ja) | 2014-11-27 | 2016-06-02 | Kddi株式会社 | 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム |
JP2016157388A (ja) | 2015-02-26 | 2016-09-01 | 日本電信電話株式会社 | コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム |
JP2020086853A (ja) | 2018-11-22 | 2020-06-04 | 富士ゼロックス株式会社 | 情報処理システム、プログラムおよび情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20220157299A1 (en) | 2022-05-19 |
DE102021125686B4 (de) | 2024-02-08 |
JP2022081050A (ja) | 2022-05-31 |
CN114550723A (zh) | 2022-05-27 |
DE102021125686A1 (de) | 2022-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11290826B2 (en) | Separating and recombining audio for intelligibility and comfort | |
JP5607627B2 (ja) | 信号処理装置及び信号処理方法 | |
JP5581329B2 (ja) | 会話検出装置、補聴器及び会話検出方法 | |
CN106992013B (zh) | 语音情感修改 | |
US20150168996A1 (en) | In-ear wearable computer | |
JP6400445B2 (ja) | 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム | |
WO2019055586A1 (en) | LOW-LOW AUDIO IMPROVEMENT | |
US11184723B2 (en) | Methods and apparatus for auditory attention tracking through source modification | |
JP6217682B2 (ja) | 情報処理装置及びプログラム | |
WO2021123710A1 (en) | Biometric identification | |
CN114328851A (zh) | 用于私密对话的耳语转换 | |
JP7354992B2 (ja) | 発言評価システム、発言評価方法、及び、プログラム | |
US11627398B2 (en) | Hearing device for identifying a sequence of movement features, and method of its operation | |
JP6874437B2 (ja) | コミュニケーションロボット、プログラム及びシステム | |
WO2020240169A1 (en) | Detection of speech | |
JP2022038344A (ja) | コミュニケーションシステム | |
JP2022038487A (ja) | コミュニケーションシステム | |
CN113924542A (zh) | 用于确定情绪状态的头戴式耳机信号 | |
JP2021108021A5 (ja) | ||
JP2022037453A (ja) | コミュニケーションシステム | |
JP2019197179A (ja) | 発声方向判定プログラム、発声方向判定方法、及び、発声方向判定装置 | |
WO2023286224A1 (ja) | 会話処理プログラム、会話処理システムおよび会話型ロボット | |
CN113314121B (zh) | 无声语音识别方法、装置、介质、耳机及电子设备 | |
JP5602753B2 (ja) | 懐く挙動を示す玩具 | |
JP2024041380A (ja) | ゲームプログラムおよびゲーム装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230904 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7354992 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |