JP7354992B2 - 発言評価システム、発言評価方法、及び、プログラム - Google Patents

発言評価システム、発言評価方法、及び、プログラム Download PDF

Info

Publication number
JP7354992B2
JP7354992B2 JP2020192345A JP2020192345A JP7354992B2 JP 7354992 B2 JP7354992 B2 JP 7354992B2 JP 2020192345 A JP2020192345 A JP 2020192345A JP 2020192345 A JP2020192345 A JP 2020192345A JP 7354992 B2 JP7354992 B2 JP 7354992B2
Authority
JP
Japan
Prior art keywords
utterance
timing
evaluation
comment
statement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020192345A
Other languages
English (en)
Other versions
JP2022081050A (ja
Inventor
光留 菅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020192345A priority Critical patent/JP7354992B2/ja
Priority to DE102021125686.0A priority patent/DE102021125686B4/de
Priority to US17/528,359 priority patent/US20220157299A1/en
Priority to CN202111365493.5A priority patent/CN114550723A/zh
Publication of JP2022081050A publication Critical patent/JP2022081050A/ja
Application granted granted Critical
Publication of JP7354992B2 publication Critical patent/JP7354992B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/563User guidance or feature selection
    • H04M3/566User guidance or feature selection relating to a participants right to speak
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/568Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants
    • H04M3/569Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants using the instant speaker's algorithm
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/18Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、発言評価システム、発言評価方法、及び、プログラムに関する。
複数の参加者から構成されるコミュニケーションにおいては、複数の参加者の個々の発言の中で特に聞き手が納得するような重要な発言を抽出したいというニーズがある。
この種の技術として、特許文献1は、複数のユーザが参加する会話コミュニケーションにおいて、特定の話し手が装着したウェアラブル端末を用いて、特定の話し手が会話している間に聞き手が頷いた回数をカウントし、聞き手の頷き回数を特定の話し手の会話時間で割った値に基づいて、特定の話し手に対する聞き手受容度Rcを算出している(段落0080、0093)。そして、聞き手受容度Rcが高いほど、その会話が聞き手に受け入れられたとしている。
特開2016-103081号公報
特許文献1の技術には、発言に対する評価の検出精度について改善の余地が残されている。
本発明の目的は、複数の参加者から構成されるコミュニケーションにおいて、発言毎に当該発言に対する評価値を精度良く求める技術を提供することにある。
本願発明の第1の観点によれば、複数の参加者から構成されるコミュニケーションにおいて、発言毎に当該発言に対する評価値を求める発言評価システムであって、前記複数の参加者のそれぞれに装着され、各々が少なくとも集音部を含むセンサを有する、複数のウェアラブル端末と、前記複数のウェアラブル端末の集音部の出力値に基づいて、前記コミュニケーションにおける発言を検出すると共に、検出した発言に対応するウェアラブル端末を特定する発言検出部と、前記発言検出部が検出した発言毎に、当該発言の開始タイミングと終了タイミングを検出する発言期間検出部と、前記発言検出部が検出した発言毎に、当該発言の前記開始タイミング以降であって前記終了タイミングよりも前である第1のタイミングから、当該発言の前記終了タイミングよりも後である第2のタイミングまでの間の発言評価対象期間における、当該発言に対応したウェアラブル端末以外のウェアラブル端末の前記センサの出力値に基づいて、当該発言に対する評価値を算出する評価値算出部と、を備えた、発言評価システムが提供される。以上の構成によれば、発言中の聞き手の反応に加えて発言に対して遅れて発生した聞き手の反応も当該発言に対する評価値の算出に反映されるので、発言毎に、当該発言に対する評価値を精度良く求めることができる。
好ましくは、前記第2のタイミングは、対応する発言の前記終了タイミングから所定時間経過したタイミングに設定される。以上の構成によれば、前記第2のタイミングを設定するのに要する演算が簡素となるので、前記第2のタイミングを低コストに設定することができる。
好ましくは、前記第2のタイミングは、対応する発言に続く他の発言が開始したタイミングに設定される。以上の構成によれば、他の発言に対する反応を除外して評価値を算出できるので、対応する発言に対する評価値を精度よく求めることができる。
好ましくは、前記第2のタイミングは、対応する発言の前記終了タイミングから所定時間経過したタイミングに設定され、対応する発言の前記終了タイミングから所定時間経過する前に、対応する発言に続いて他の発言が開始した場合、前記第2のタイミングは、対応する発言に続く他の発言が開始したタイミングに設定される。以上の構成によれば、対応する発言の前記終了タイミングから所定時間経過する前に、対応する発言に続いて他の発言が開始しなかった場合は、前記第2のタイミングを低コストに設定することができるし、対応する発言の前記終了タイミングから所定時間経過する前に、対応する発言に続いて他の発言が開始した場合は、他の発言に対する反応を除外して評価値を算出できるので、対応する発言に対する評価値を精度よく求めることができる。
好ましくは、前記センサは、加速度センサを含む。
好ましくは、前記評価値算出部は、前記加速度センサの出力値が、対応するウェアラブル端末を装着した参加者の首を縦に振る動作を示す場合、対応する発言に対する評価値が高まるように評価値を算出する。
好ましくは、前記評価値算出部は、前記加速度センサの出力値が、対応するウェアラブル端末を装着した参加者の首を横に振る動作を示す場合、対応する発言に対する評価値が低まるように評価値を算出する。
本願発明の第2の観点によれば、複数の参加者から構成されるコミュニケーションにおいて、発言毎に当該発言に対する評価値を求める発言評価方法であって、前記複数の参加者のそれぞれには、各々が少なくとも集音部を含むセンサを有する、複数のウェアラブル端末が装着されており、前記複数のウェアラブル端末の集音部の出力値に基づいて、前記コミュニケーションにおける発言を検出すると共に、検出した発言に対応するウェアラブル端末を特定することと、検出した発言毎に、当該発言の開始タイミングと終了タイミングを検出することと、検出した発言毎に、当該発言の前記開始タイミング以降であって前記終了タイミングよりも前である第1のタイミングから、当該発言の前記終了タイミングよりも後である第2のタイミングまでの間の発言評価対象期間における、当該発言に対応したウェアラブル端末以外のウェアラブル端末の前記センサの出力値に基づいて、当該発言に対する評価値を算出すること、を含む、発言評価方法が提供される。以上の方法によれば、発言中の聞き手の反応に加えて発言に対して遅れて発生した聞き手の反応も当該発言に対する評価値の算出に反映されるので、発言毎に、当該発言に対する評価値を精度良く求めることができる。
また、コンピュータに、上記の発言評価方法を実行させるためのプログラムが提供される。
本発明によれば、発言中の聞き手の反応に加えて発言に対して遅れて発生した聞き手の反応も当該発言に対する評価値の算出に反映されるので、発言毎に、当該発言に対する評価値を精度良く求めることができる。
発言評価システムの概略図である。 ウェアラブル端末の機能ブロック図である。 送信データの構成を例示する図である。 評価装置の機能ブロック図である。 評価装置に蓄積された送信データを示す図である。 検出された発言と同調割合を示す図である。 強調処理に用いられる単調増加関数を示すグラフである。 検出された発言とf(p)値を示す図である。 評価データの構成を例示する図である。 発言評価システムの制御フローである。 強調処理に用いられるステップ関数を示すグラフである。
以下、発明の実施形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
図1には、発言評価システム1の概略図を示している。発言評価システム1は、複数の参加者2から構成されるコミュニケーションにおいて、発言毎に当該発言に対する評価値を求めるシステムである。発言評価システム1は、複数のウェアラブル端末3と評価装置4を含む。
本実施形態において、同一のコミュニケーションを構成する参加者2の人数は3人としているが、これに限定されず、2人でもよいし、4人以上でもよく、例えば10人でもよい。コミュニケーションは、典型的には、各人の発言によって成立する会話形式のコミュニケーションである。この種のコミュニケーションは、例えば、討論会、座談会、研修会である。ただし、コミュニケーションは、参加者全員が同じ現実の空間に集合して行われるものに限らず、オンライン上の仮想の空間に集合して行われるものも含み得る。
(ウェアラブル端末3)
図1に示すように、複数のウェアラブル端末3は、それぞれ、複数の参加者2に装着されて用いられる。即ち、一人の参加者2が1つのウェアラブル端末3を装着する。本実施形態において、ウェアラブル端末3は、参加者2の上半身に着るトップスに着脱可能なバッジであって、好ましくは鳩尾(みぞおち)よりも上に取り付けられる。ただし、ウェアラブル端末3は、バッジであることに代えて、ヘッドセットやイヤホン、メガネ、ネックレス、ペンダント等であってもよい。
図2には、各ウェアラブル端末3の機能ブロック図を示している。図2に示すように、ウェアラブル端末3は、端末ID情報記憶部10と、マイクロフォン11と、加速度センサ12と、を含む。ウェアラブル端末3は、更に、中央演算処理器としてのCPU3a(Central Processing Unit)と、読み書き自由のRAM3b(Random Access Memory)、読み出し専用のROM3c(Read Only Memory)を備えている。そして、CPU3aがROM3cに記憶されている制御プログラムを読み出して実行することで、制御プログラムは、CPU3aなどのハードウェアを、時刻カウント部13、送信データ生成部14、データ送受信部15として機能させる。各ウェアラブル端末3は、データ送受信部15を介して評価装置4と双方向無線通信可能とされている。
端末ID情報記憶部10は、対応するウェアラブル端末3を他のウェアラブル端末3から識別するための端末ID情報を記憶する。端末ID情報は、典型的には、ウェアラブル端末3に固有のMACアドレスが挙げられる。しかし、端末ID情報は、ウェアラブル端末3の起動時に評価装置4によって設定される数字、文字、またはそれらの組み合わせであってもよい。本実施形態において端末ID情報は、ウェアラブル端末3の起動時に評価装置4によって設定される自然数としている。
マイクロフォン11は、集音部の一具体例であって、対応するウェアラブル端末3の周囲の音を電圧値に変換し、送信データ生成部14に出力する。
加速度センサ12は、対応するウェアラブル端末3の3軸加速度を電圧値に変換し、送信データ生成部14に出力する。対応するウェアラブル端末3を装着した参加者2が首を『縦』に振った場合、参加者2の上体がロール軸(左肩と右肩を結ぶ軸に対して平行な軸)まわりで屈曲と伸展を繰り返す。従って、この場合、加速度センサ12の出力値のうち鉛直成分値が所定範囲内で増減を繰り返すように変動する。一方、対応するウェアラブル端末3を装着した参加者2が首を『横』に振った場合、参加者2の上体がヨー軸(背骨が延びる方向に対して平行な軸)まわりで捻転を繰り返す。従って、この場合、加速度センサ12の出力値のうち水平成分値に対応する出力値が所定範囲内で増減を繰り返すように変動する。
マイクロフォン11及び加速度センサ12は、対応するウェアラブル端末3を装着した参加者2の言動を検出するためのセンサ16を構成する。ただし、加速度センサ12は省略してもよい。
時刻カウント部13は、時刻データを有し、所定の方法により初期化された時刻データを所定の周期でインクリメントすると共に、時刻データを送信データ生成部14に出力する。時刻カウント部13が有する時刻データは、典型的には、評価装置4から受信した時刻データによって初期化される。これに代えて、時刻カウント部13が有する時刻データは、対応するウェアラブル端末3が評価装置4及びインターネットを介してネットワークタイムプロトコル(Network Time Protocol、NTP)にアクセスして最新の時刻データを取得することによって初期化してもよい。
送信データ生成部14は、図3に示す送信データ14aを所定のインターバルで生成する。図3に示すように、送信データ14aは、端末ID情報と、時刻データと、音声データと、加速度データと、を含む。所定のインターバルは、典型的には1秒である。音声データは、時刻データが示す時刻から1秒経過するまでのマイクロフォン11の出力値である。同様に、加速度データは、時刻データが示す時刻から1秒経過するまでの加速度センサ12の出力値である。
図2に戻り、データ送受信部15は、送信データ14aを評価装置4に送信する。本実施形態においてデータ送受信部15は、Bluetooth(登録商標)等の近距離無線通信により、評価装置4に送信データ14aを送信する。しかし、これに代えて、データ送受信部15は、有線通信により、評価装置4に送信データ14aを送信してもよい。また、データ送受信部15は、インターネット等のネットワークを介して、評価装置4に送信データ14aを送信してもよい。
(評価装置4)
図4は、評価装置4の機能ブロック図を示している。図4に示すように、評価装置4は、中央演算処理器としてのCPU4a(Central Processing Unit)と、読み書き自由のRAM4b(Random Access Memory)、読み出し専用のROM4c(Read Only Memory)を備えている。そして、CPU4aがROM4cに記憶されている制御プログラムを読み出して実行することで、制御プログラムは、CPU4aなどのハードウェアを、データ送受信部20、データ記憶部21、発言検出部22、発言期間検出部23、同調割合算出部24、強調処理部25、評価値算出部26、評価値出力部27、として機能させる。
データ送受信部20は、各ウェアラブル端末3から送信データ14aを受信し、受信した送信データ14aをデータ記憶部21に蓄積する。図5は、データ記憶部21に蓄積された送信データ14aを示している。図5に示すように、データ記憶部21には、各ウェアラブル端末3から受信した送信データ14aが受信した順番のまま蓄積される。
図4に戻り、発言検出部22は、複数のウェアラブル端末3のマイクロフォン11の出力値に基づいて、コミュニケーションにおける発言を検出すると共に、検出した発言に対応するウェアラブル端末3を特定する。
具体的には、発言検出部22は、データ記憶部21に蓄積された音声データを分析し、ある時刻における複数の送信データ14aの何れか1つの送信データ14aの音声データが所定値を超えている場合、当該ある時刻においてコミュニケーションにおいて発言があったと検出すると共に、当該送信データ14aの端末ID情報を参照することで、検出した発言に対応するウェアラブル端末3を特定する。
図6は、発言検出部22が検出した発言a、発言b、発言c、発言dを例示している。図6の横軸は時間である。発言検出部22は、発言a、発言b、発言c、発言dを互いに重複なく、この記載順で検出している。発言a及び発言cは、端末ID:1のウェアラブル端末3を装着した参加者2による発言である。同様に、発言bは、端末ID:2のウェアラブル端末3を装着した参加者2による発言であり、発言dは、端末ID:3のウェアラブル端末3を装着した参加者2による発言である。
なお、発言検出部22が発言を検出すると共に、検出した発言に対応するウェアラブル端末3を特定する方法は、上記の方法に限られない。
例えば、ある時刻における複数の送信データ14aの何れか1つの送信データ14aの音声データが同時刻の他の送信データ14aの音声データよりも所定量以上大きい場合、当該ある時刻においてコミュニケーションにおいて発言があったと検出すると共に、当該送信データ14aの端末ID情報を参照することで、検出した発言に対応するウェアラブル端末3を特定することができる。
また、発言検出部22は、発言を検出するための前処理として、音声データに含まれる定常ノイズを除去するようにしてもよい。定常ノイズとは、例えば、エアコンの稼働音や周囲のざわつきに起因するノイズである。また、発言検出部22は、発言を検出するための前処理として、音声データに含まれる非定常ノイズを除去するようにしてもよい。非定常ノイズとは、コミュニケーションに参加していない非参加者の突発的な大声やドアの開閉に起因する物音に起因するノイズである。このような非定常ノイズは、ある時刻における複数の送信データ14aの音声データにほとんど同じレベルで現れる性質を有する。
図4に戻り、発言期間検出部23は、発言検出部22が検出した発言毎に、当該発言の開始タイミングと終了タイミングを検出する。図6の例では、発言aの開始タイミングは時刻t1であり、終了タイミングは時刻t2である。発言bの開始タイミングは時刻t4であり、終了タイミングは時刻t5である。発言cの開始タイミングは時刻t6であり、終了タイミングは時刻t7である。発言dの開始タイミングは時刻t8であり、終了タイミングは時刻t9である。なお、本明細書において『タイミング』は、時間軸上のある時点を特定する概念であるが、時分秒から構成される時刻であってもよいし、時間の経過と共にインクリメントされる単なる自然数であってもよい。従って、本明細書において『タイミング』は単に『時刻』と読み替えてもよい。
図4に戻り、同調割合算出部24は、所定の時間区間毎に同調割合を算出する。ここで、同調割合とは、複数の聞き手のうち頷いた聞き手の人数を聞き手全員の人数で割ることで求められる割合であって、0以上1以下の値である。所定の時間区間は、例えば5秒間である。この時間区間が過大であると、異なるタイミングでの頷き動作であっても同じタイミングでの頷き動作として取り扱ってしまうので、発言に対する同調動作を過大評価してしまう。この時間区間が過小であると、ほとんど同じタイミングでの頷き動作であっても異なるタイミングでの頷き動作として取り扱ってしまうので、発言に対する同調動作を過小評価してしまう。
同調割合算出部24は、まず、図5に示す蓄積された送信データ14aを参照して、発言aの最中における同調割合を算出する。即ち、同調割合算出部24は、t1から5秒経過するまでの間に、端末ID:2に対応する送信データ14aの加速度データを分析し、端末ID:2に対応するウェアラブル端末3を装着した参加者2が頷き動作をしたか判定する。加速度データから頷き動作の有無を判定する具体例は以下の通りである。
即ち、同調割合算出部24は、時刻t1から5秒経過するまでの間の加速度データの鉛直成分値を抽出し、抽出した鉛直成分値の平均値と標準偏差を算出し、標準偏差が所定の値よりも小さく、平均値から所定量離れた鉛直成分値が単発的に存在する場合、時刻t1から5秒経過するまでの間に端末ID:2に対応するウェアラブル端末3を装着した参加者2が頷き動作をしたと判定する。端末ID:3についても同様である。同調割合算出部24は、上記の同調割合の算出を時刻t1から5秒経過した後も同様に繰り返し、発言a以外の発言があった時刻t4で終了する。
同調割合算出部24が頷き動作の有無を判定するに際し、加速度データの鉛直成分値の標準偏差が所定の値よりも小さいことを前提条件とすることで、参加者2の歩行動作や姿勢の変更といった頷き動作以外の大きな動作に起因するノイズを除去することができる。
図6の例では、時刻t1から時刻t2にかけて、同調割合は0付近から一度急上昇し、一旦降下した後、再度上昇している。同調割合は、時刻t2の前後で一定に推移し、その後、時刻t4に至る前にほぼゼロに戻っている。
なお、図6の例では、聞き手の人数が2人だけであるので、本来であれば同調割合は0、0.5、1.0の何れかの値となる。しかしながら、理解促進のため、あたかも聞き手の人数が30人程度であるかの如く、同調割合を緩やかに変化させている。
次に、同調割合算出部24は、発言bの最中における同調割合を算出する。即ち、同調割合算出部24は、時刻t4から5秒経過するまでの間に、端末ID:1に対応する送信データ14aの加速度データを分析し、端末ID:1に対応するウェアラブル端末3を装着した参加者2が頷き動作をしたか判定する。端末ID:3についても同様である。同調割合算出部24は、上記の同調割合の算出を時刻t4から5秒経過した後も同様に繰り返し、発言b以外の発言があった時刻t6で終了する。
図6の例では、時刻t4から時刻t5にかけて同調割合は0.5未満で推移し、時刻t5前後ではほぼ0を示している。
同調割合算出部24は、時刻t6以降の同調割合についても同様に算出する。
なお、同調割合算出部24が頷き動作の有無を判定する他の方法としては、送信データ14aから所定の時間区間毎に鉛直成分値を抽出し、抽出した鉛直成分値を学習済みの畳み込みニューラルネットワーク(Convolution Neural NetworkCNN)に入力し、畳み込みニューラルネットワークの出力値が所定値以上であった場合、当該時間区間において、当該ウェアラブル端末3を装着した参加者2が頷き動作をしたと判定するようにしてもよい。また、同調割合算出部24が頷き動作の有無を判定する他の方法としては、送信データ14aから所定の時間区間毎に鉛直成分値を抽出し、抽出した鉛直成分値の様々な特徴量(最大値と最小値との差分、分散値、周波数分布など)を算出し、算出した特徴量を学習済みのサポートベクターマシン(support vector machine, SVM)に入力し、その出力値を用いてもよい。
図4に戻り、強調処理部25は、同調割合算出部24が算出した同調割合に対して、同調割合の高低を強調する強調処理を行う。強調処理には、例えば、単調増加関数である下記式(1)を使用し得る。ここで、pは同調割合を示し、kは調整パラメータである。
Figure 0007354992000001
図7には、強調処理部25による強調処理で用いられる上記式(1)のグラフであって、横軸は同調割合であり、縦軸はf(p)値を示す。調整パラメータkが大きいほど、f(p)値が描く曲線はグラフ上では右下に向かて鋭い凸となる曲線となる。上記式(1)による強調処理によれば、聞き手のほとんどが一斉に頷き動作をした場合、f(p)値は大きな値となり、聞き手が異なるタイミングで散発的に頷き動作をした場合、f(p)値は小さな値となる。このような強調処理により、聞き手のほとんどが一斉に頷き動作をするような重要な発言を相対的に重要でない発言と比較して際立たせることができる。
図8には、強調処理後のf(p)値を示している。図8によれば、聞き手のほとんどが一斉に頷き動作をしなかった場合、ある程度の聞き手が頷き動作をした時間区間であっても、その時間区間におけるf(p)値が半減或いはゼロに近い値に圧縮される。
評価値算出部26は、発言検出部22が検出した発言毎に、当該発言に対応する発言評価対象期間としての評価期間を設定すると共に、当該発言に対する評価値を算出する。
(発言a)
具体的には、評価値算出部26は、発言aに対応する評価期間の開始タイミング(第1のタイミング)を、発言aの開始タイミングである時刻t1以降であって終了タイミングである時刻t2よりも前に設定する。本実施形態において評価値算出部26は、発言aに対応する評価期間の開始タイミングを、発言aの開始タイミングである時刻t1に設定する。なお、発言の開始直後の頷き動作は必ずしも当該発言に対する頷き動作であるとは限らず、当該発言の直前の発言に対する頷き動作である可能性がある。従って、発言aに対する頷き動作と、発言aの直前の発言に対する頷き動作と、をうまく切り分けるために、評価値算出部26は、発言aに対応する評価期間の開始タイミングを、発言aの開始タイミングである時刻t1から所定時間経過したタイミングに設定してもよい。
また、評価値算出部26は、発言aに対する評価期間の終了タイミング(第2のタイミング)を、発言aの終了タイミングである時刻t2から所定時間経過したタイミングである時刻t3に設定する。ここで、所定時間は、例えば、5秒から15秒の範囲とすることが好ましく、本実施形態では15秒としている。
そして、評価値算出部26は、発言aに対応する評価期間におけるf(p)値を合算することで、発言aに対する評価値を算出する。
(発言b)
評価値算出部26は、同様の方法により、発言bに対応する評価期間の開始タイミングを時刻t4に設定する。
一方、図8によれば、発言bの終了タイミングである時刻t5から上記所定時間が経過する前に発言cが開始している。従って、発言bに対応する評価期間の終了タイミングを、発言aに対応する評価期間の終了タイミングと同様に時刻t5から上記所定時間経過したタイミングに設定すると、発言cに対する頷き動作を発言bに対する頷き動作として取り扱ってしまう虞がある。従って、この場合、評価値算出部26は、発言bに対応する評価期間の終了タイミングは、発言cが開始した時刻t6に設定する。
図8の例では、発言bの最中のf(p)値は極めて低調だったものの、発言cが開始するやいなや大きなある程度大きなf(p)値が観測されている。恐らくは、時刻t6直後のある程度大きなf(p)値は、発言bによるものではなく発言cによるものだと考えられる。従って、上記の通り発言bに対応する評価期間の終了タイミングを発言cが開始した時刻t6に設定したことで、発言bを過大評価することを免れている。
そして、評価値算出部26は、発言bに対応する評価期間におけるf(p)値を合算することで、発言bに対する評価値を算出する。
(発言c)
評価値算出部26は、発言bと同様の方法により、発言cに対応する評価期間の開始タイミングと終了タイミングを設定し、発言cに対応する評価期間におけるf(p)値を合算することで、発言cに対する評価値を算出する。
(発言d)
評価値算出部26は、発言aと同様の方法により、発言dに対応する評価期間の開始タイミングと終了タイミングを設定し、発言dに対応する評価期間におけるf(p)値を合算することで、発言dに対する評価値を算出する。
そして、評価値算出部26は、図9に示すように、発言検出部22が検出した発言を、当該発言の開始時刻、音声データ、及び、当該発言に対する評価値と関連付けてデータ記憶部21に評価データとして格納する。発言に対する評価値は、当該発言の重要度を示す有力な指標となり得る。
そして、評価値出力部27は、評価データを所望の方法により出力する。
複数の参加者2は、出力された評価データを参照することにより、コミュニケーションにおいて重要と思われる高評価な発言の音声データを短時間で簡単に入手することができる。従って、コミュニケーションの議事録を作成しようとする参加者2にとっては、高評価な発言の音声データを優先的に視聴することにより、より短時間でコミュニケーションの内容を反芻することができ、より短時間で的確な議事録を作成することができる。
以下、図10を参照して、発言評価システム1の動作を説明する。
S100:
まず、評価装置4は、複数の参加者2で構成されるコミュニケーションが開始したか判定する。コミュニケーションが開始していないと判定した場合は(S100:NO)、評価装置4は、S100を繰り返す。一方、コミュニケーションが開始したと判定した場合は(S100:YES)、評価装置4は、処理をS110に進める。例えば、評価装置4と複数のウェアラブル端末3との通信が確立した場合、評価装置4は、コミュニケーションが開始したと判定することができる。
S110:
次に、データ送受信部20は、複数のウェアラブル端末3から送信データ14aを受信してデータ記憶部21に蓄積する。
S120:
次に、評価装置4は、複数の参加者2で構成されるコミュニケーションが終了したか判定する。コミュニケーションが終了していないと判定した場合は(S120:NO)、評価装置4は、処理をS110に戻す。一方、コミュニケーションが終了したと判定した場合は(S120:YES)、評価装置4は、処理をS130に進める。例えば、評価装置4と通信状態にあったすべてのウェアラブル端末3と評価装置4との通信が切断された場合、評価装置4は、コミュニケーションが終了したと判定することができる。
S130:
次に、発言検出部22は、データ記憶部21に蓄積された送信データ14aを参照して、コミュニケーションにおける発言を検出すると共に、検出した発言に対応するウェアラブル端末3を特定する。
S140:
次に、発言期間検出部23は、発言検出部22が検出した発言毎に、当該発言の開始タイミングと終了タイミングを検出する。
S150:
次に、同調割合算出部24は、所定の時間区間毎に同調割合を算出する。
S160:
次に、強調処理部25は、同調割合算出部24が算出した同調割合に対して、同調割合の高低を強調する強調処理を行う。
S170:
次に、評価値算出部26は、発言検出部22が検出した発言毎に、当該発言に対応する評価期間を設定すると共に、当該発言に対する評価値を算出する。
S180:
そして、評価値出力部27は、評価データを所望の方法により出力する。
以上に、本願発明の好適な実施形態を説明したが、上記実施形態は、以下の特徴を有する。
即ち、複数の参加者2から構成されるコミュニケーションにおいて、発言毎に当該発言に対する評価値を求める発言評価システム1は、複数のウェアラブル端末3と、発言検出部22と、発言期間検出部23と、評価値算出部26と、を備える。
複数のウェアラブル端末3は、複数の参加者2のそれぞれに装着され、各々が少なくともマイクロフォン11(集音部)を含むセンサ16を有する。発言検出部22は、複数のウェアラブル端末3のマイクロフォン11の出力値に基づいて、コミュニケーションにおける発言を検出すると共に、検出した発言に対応するウェアラブル端末3を特定する。発言期間検出部23は、発言検出部22が検出した発言毎に、当該発言の開始タイミングと終了タイミングを検出する。評価値算出部26は、発言検出部22が検出した発言毎に、当該発言の開始タイミング以降であって終了タイミングよりも前である第1のタイミングから、当該発言の終了タイミングよりも後である第2のタイミングまでの間の評価期間(発言評価対象期間)における、当該発言に対応したウェアラブル端末3以外のウェアラブル端末3の加速度センサ12の出力値に基づいて、当該発言に対する評価値を算出する。以上の構成によれば、発言中の聞き手の反応に加えて発言に対して遅れて発生した聞き手の反応も当該発言に対する評価値の算出に反映されるので、発言毎に、当該発言に対する評価値を精度良く求めることができる。
また、第2のタイミングは、対応する発言の終了タイミングから所定時間経過したタイミングに設定される。例えば、図8の時刻t3や時刻t10を参照されたい。以上の構成によれば、第2のタイミングを設定するのに要する演算が簡素となるので、第2のタイミングを低コストに設定することができる。
また、第2のタイミングは、対応する発言に続く他の発言が開始したタイミングに設定される。例えば、図8の時刻t6や時刻t8を参照されたい。以上の構成によれば、他の発言に対する反応を除外して評価値を算出できるので、対応する発言に対する評価値を精度よく求めることができる。
また、第2のタイミングは、対応する発言の終了タイミングから所定時間経過したタイミングに設定され(時刻t3や時刻t10を参照)、対応する発言の終了タイミングから所定時間経過する前に、対応する発言に続いて他の発言(発言cや発言d)が開始した場合、第2のタイミングは、対応する発言に続く他の発言が開始したタイミングに設定される。例えば、図8の時刻t6や時刻t8を参照されたい。以上の構成によれば、対応する発言の終了タイミングから所定時間経過する前に、対応する発言に続いて他の発言が開始しなかった場合は、第2のタイミングを低コストに設定することができるし、対応する発言の終了タイミングから所定時間経過する前に、対応する発言に続いて他の発言が開始した場合は、他の発言に対する反応を除外して評価値を算出できるので、対応する発言に対する評価値を精度よく求めることができる。
評価値算出部26は、加速度センサ12の出力値が、対応するウェアラブル端末3を装着した参加者の首を縦に振る動作を示す場合、対応する発言に対する評価値が高まるように評価値を算出する。即ち、首を縦に振る動作は同調行為とみなせるので、対応する発言は相対的に高評価であるとみなすことができる。
上記の実施形態は以下のように変更できる。
上記実施形態では、同調割合算出部24は、加速度データの鉛直成分値を抽出し、抽出した鉛直成分値に基づいて参加者2の頷き動作を検出している。しかし、これに代えて、又は、これに加えて、加速度データの水平成分値を抽出し、抽出した水平成分値に基づいて参加者2の首を横に振る動作、即ち拒否動作を検出するようにしてもよい。首を横に振る動作は、頷き動作、即ち、首を縦に振る動作と対照的な動作であって、発言に対して否定的で不同意な意思表示を示唆する。この場合、同調割合算出部24は、頷き動作と拒否動作が相殺するように同調割合を算出してもよい。従って、例えば、コミュニケーションに参加している参加者2の人数が10人であり、ある時間区間において、そのうち8人が頷き動作をし、残りの2人が拒否動作をした場合、同調割合算出部24は、当該ある時間区間における同調割合を(8-2)/10=0.6と算出してもよい。要するに、評価値算出部26は、加速度センサ12の出力値が、対応するウェアラブル端末3を装着した参加者の首を横に振る動作を示す場合、対応する発言に対する評価値が低まるように評価値を算出してもよい。
上記実施形態では、各ウェアラブル端末3が加速度センサ12を備え、同調割合算出部24は、各ウェアラブル端末3の加速度センサ12の出力値に基づいて、同調割合を算出している。しかし、加速度センサ12は省略することができる。この場合、同調割合算出部24は、各ウェアラブル端末3のマイクロフォン11の出力値に基づいて、同調割合を算出する。例えば、各ウェアラブル端末3のマイクロフォン11が「なるほど」「確かに」「その通りだ」などの同調を示唆する発声を拾った場合、同調割合算出部24は、当該発声を頷き動作と同等の同調表現とみなして同調割合を算出することができる。
また、評価装置4をクラウドシステム上で構築し、各ウェアラブル端末3がインターネットを経由して評価装置4と通信するようにしてもよい。また、評価装置4が実行する情報処理は、複数の装置によって分散処理されてもよい。
また、例えば、図7に示すように、上記実施形態において強調処理部25は、同調割合算出部24が算出した同調割合に対して同調割合の高低を強調する強調処理を行うに際し単調増加関数を用いた。しかし、これに代えて、図11に示すように、強調処理部25は、同調割合算出部24が算出した同調割合に対して同調割合の高低を強調する強調処理を行うに際し、下記式(2)で示すステップ関数を用いてもよい。
Figure 0007354992000002
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)を含む。非一時的なコンピュータ可読媒体の例は、更に、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROMを含む。非一時的なコンピュータ可読媒体の例は、更に、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
各ウェアラブル端末3が有する機能の一部を評価装置4が発揮するようにしてもよく、評価装置4が有する機能の一部を何れかのウェアラブル端末3が発揮するようにしてもよい。
1 発言評価システム
2 参加者
3 ウェアラブル端末
4 評価装置
10 端末ID情報記憶部
11 マイクロフォン
12 加速度センサ
13 時刻カウント部
14 送信データ生成部
14a 送信データ
15 データ送受信部
16 センサ
20 データ送受信部
21 データ記憶部
22 発言検出部
23 発言期間検出部
24 同調割合算出部
25 強調処理部
26 評価値算出部
27 評価値出力部
a 発言
b 発言
c 発言
d 発言

Claims (9)

  1. 複数の参加者から構成されるコミュニケーションにおいて、発言毎に当該発言に対する評価値を求める発言評価システムであって、
    前記複数の参加者のそれぞれに装着され、各々が少なくとも集音部を含むセンサを有する、複数のウェアラブル端末と、
    前記複数のウェアラブル端末の集音部の出力値に基づいて、前記コミュニケーションにおける発言を検出すると共に、検出した発言に対応するウェアラブル端末を特定する発言検出部と、
    前記発言検出部が検出した発言毎に、当該発言の開始タイミングと終了タイミングを検出する発言期間検出部と、
    前記発言検出部が検出した発言毎に、当該発言の前記開始タイミング以降であって前記終了タイミングよりも前である第1のタイミングから、当該発言の前記終了タイミングよりも後である第2のタイミングまでの間の発言評価対象期間における、当該発言に対応したウェアラブル端末以外のウェアラブル端末の前記センサの出力値に基づいて、当該発言に対する評価値を算出する評価値算出部と、
    を備えた、
    発言評価システム。
  2. 請求項1に記載の発言評価システムであって、
    前記第2のタイミングは、対応する発言の前記終了タイミングから所定時間経過したタイミングに設定される、
    発言評価システム。
  3. 請求項1に記載の発言評価システムであって、
    前記第2のタイミングは、対応する発言に続く他の発言が開始したタイミングに設定される、
    発言評価システム。
  4. 請求項1に記載の発言評価システムであって、
    前記第2のタイミングは、対応する発言の前記終了タイミングから所定時間経過したタイミングに設定され、
    対応する発言の前記終了タイミングから所定時間経過する前に、対応する発言に続いて他の発言が開始した場合、前記第2のタイミングは、対応する発言に続く他の発言が開始したタイミングに設定される、
    発言評価システム。
  5. 請求項1から4までの何れか1項に記載の発言評価システムであって、
    前記センサは、加速度センサを含む、
    発言評価システム。
  6. 請求項5に記載の発言評価システムであって、
    前記評価値算出部は、前記加速度センサの出力値が、対応するウェアラブル端末を装着した参加者の首を縦に振る動作を示す場合、対応する発言に対する評価値が高まるように評価値を算出する、
    発言評価システム。
  7. 請求項5に記載の発言評価システムであって、
    前記評価値算出部は、前記加速度センサの出力値が、対応するウェアラブル端末を装着した参加者の首を横に振る動作を示す場合、対応する発言に対する評価値が低まるように評価値を算出する、
    発言評価システム。
  8. 複数の参加者から構成されるコミュニケーションにおいて、発言毎に当該発言に対する評価値を求める発言評価方法であって、
    前記複数の参加者のそれぞれには、各々が少なくとも集音部を含むセンサを有する、複数のウェアラブル端末が装着されており、
    コンピュータが、前記複数のウェアラブル端末の集音部の出力値に基づいて、前記コミュニケーションにおける発言を検出すると共に、検出した発言に対応するウェアラブル端末を特定することと、
    前記コンピュータが、検出した発言毎に、当該発言の開始タイミングと終了タイミングを検出することと、
    前記コンピュータが、検出した発言毎に、当該発言の前記開始タイミング以降であって前記終了タイミングよりも前である第1のタイミングから、当該発言の前記終了タイミングよりも後である第2のタイミングまでの間の発言評価対象期間における、当該発言に対応したウェアラブル端末以外のウェアラブル端末の前記センサの出力値に基づいて、当該発言に対する評価値を算出すること、
    を含む、
    発言評価方法。
  9. コンピュータに、請求項8に記載の発言評価方法を実行させるプログラム。
JP2020192345A 2020-11-19 2020-11-19 発言評価システム、発言評価方法、及び、プログラム Active JP7354992B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020192345A JP7354992B2 (ja) 2020-11-19 2020-11-19 発言評価システム、発言評価方法、及び、プログラム
DE102021125686.0A DE102021125686B4 (de) 2020-11-19 2021-10-04 Sprechevaluationssystem, Sprechevaluationsverfahren und Programm
US17/528,359 US20220157299A1 (en) 2020-11-19 2021-11-17 Speech evaluation system, speech evaluation method, and non-transitory computer readable medium storing program
CN202111365493.5A CN114550723A (zh) 2020-11-19 2021-11-18 发言评价系统、发言评价方法以及计算机记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020192345A JP7354992B2 (ja) 2020-11-19 2020-11-19 発言評価システム、発言評価方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2022081050A JP2022081050A (ja) 2022-05-31
JP7354992B2 true JP7354992B2 (ja) 2023-10-03

Family

ID=81345659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020192345A Active JP7354992B2 (ja) 2020-11-19 2020-11-19 発言評価システム、発言評価方法、及び、プログラム

Country Status (4)

Country Link
US (1) US20220157299A1 (ja)
JP (1) JP7354992B2 (ja)
CN (1) CN114550723A (ja)
DE (1) DE102021125686B4 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221683A (ja) 2010-04-07 2011-11-04 Seiko Epson Corp 接客支援装置、接客支援方法およびプログラム
JP2016103081A (ja) 2014-11-27 2016-06-02 Kddi株式会社 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム
JP2016157388A (ja) 2015-02-26 2016-09-01 日本電信電話株式会社 コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム
JP2020086853A (ja) 2018-11-22 2020-06-04 富士ゼロックス株式会社 情報処理システム、プログラムおよび情報処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243416A1 (en) * 2003-06-02 2004-12-02 Gardos Thomas R. Speech recognition
JP6373179B2 (ja) 2014-11-28 2018-08-15 シャープ株式会社 デジタル放送受信装置、デジタル放送受信方法、およびプログラム
US10692516B2 (en) 2017-04-28 2020-06-23 International Business Machines Corporation Dialogue analysis
KR102429498B1 (ko) * 2017-11-01 2022-08-05 현대자동차주식회사 차량의 음성인식 장치 및 방법
JP7047626B2 (ja) * 2018-06-22 2022-04-05 コニカミノルタ株式会社 会議システム、会議サーバ及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221683A (ja) 2010-04-07 2011-11-04 Seiko Epson Corp 接客支援装置、接客支援方法およびプログラム
JP2016103081A (ja) 2014-11-27 2016-06-02 Kddi株式会社 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム
JP2016157388A (ja) 2015-02-26 2016-09-01 日本電信電話株式会社 コミュニケーションスキル評価フィードバック装置、コミュニケーションスキル評価フィードバック方法及びコミュニケーションスキル評価フィードバックプログラム
JP2020086853A (ja) 2018-11-22 2020-06-04 富士ゼロックス株式会社 情報処理システム、プログラムおよび情報処理方法

Also Published As

Publication number Publication date
US20220157299A1 (en) 2022-05-19
DE102021125686B4 (de) 2024-02-08
JP2022081050A (ja) 2022-05-31
CN114550723A (zh) 2022-05-27
DE102021125686A1 (de) 2022-05-19

Similar Documents

Publication Publication Date Title
US11290826B2 (en) Separating and recombining audio for intelligibility and comfort
JP5607627B2 (ja) 信号処理装置及び信号処理方法
JP5581329B2 (ja) 会話検出装置、補聴器及び会話検出方法
CN106992013B (zh) 语音情感修改
US20150168996A1 (en) In-ear wearable computer
JP6400445B2 (ja) 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム
WO2019055586A1 (en) LOW-LOW AUDIO IMPROVEMENT
US11184723B2 (en) Methods and apparatus for auditory attention tracking through source modification
JP6217682B2 (ja) 情報処理装置及びプログラム
WO2021123710A1 (en) Biometric identification
CN114328851A (zh) 用于私密对话的耳语转换
JP7354992B2 (ja) 発言評価システム、発言評価方法、及び、プログラム
US11627398B2 (en) Hearing device for identifying a sequence of movement features, and method of its operation
JP6874437B2 (ja) コミュニケーションロボット、プログラム及びシステム
WO2020240169A1 (en) Detection of speech
JP2022038344A (ja) コミュニケーションシステム
JP2022038487A (ja) コミュニケーションシステム
CN113924542A (zh) 用于确定情绪状态的头戴式耳机信号
JP2021108021A5 (ja)
JP2022037453A (ja) コミュニケーションシステム
JP2019197179A (ja) 発声方向判定プログラム、発声方向判定方法、及び、発声方向判定装置
WO2023286224A1 (ja) 会話処理プログラム、会話処理システムおよび会話型ロボット
CN113314121B (zh) 无声语音识别方法、装置、介质、耳机及电子设备
JP5602753B2 (ja) 懐く挙動を示す玩具
JP2024041380A (ja) ゲームプログラムおよびゲーム装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230904

R151 Written notification of patent or utility model registration

Ref document number: 7354992

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151