JPWO2019187397A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JPWO2019187397A1
JPWO2019187397A1 JP2019527271A JP2019527271A JPWO2019187397A1 JP WO2019187397 A1 JPWO2019187397 A1 JP WO2019187397A1 JP 2019527271 A JP2019527271 A JP 2019527271A JP 2019527271 A JP2019527271 A JP 2019527271A JP WO2019187397 A1 JPWO2019187397 A1 JP WO2019187397A1
Authority
JP
Japan
Prior art keywords
opinion
time
person
unit
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019527271A
Other languages
English (en)
Other versions
JP6747592B2 (ja
Inventor
祐毅 小林
祐毅 小林
菜美 西村
菜美 西村
知子 真野
知子 真野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Publication of JPWO2019187397A1 publication Critical patent/JPWO2019187397A1/ja
Application granted granted Critical
Publication of JP6747592B2 publication Critical patent/JP6747592B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

画像形成装置としての情報処理装置(1)は、発言時間検出部(101)と、相槌・意見判定部(102)と、HDD(114)と備える。発言時間検出部(101)は、音声データから、人の各発言についての発言時間を検出する。相槌・意見判定部(102)は、音声データをテキスト化し、検出された発言時間が、第1の時間内の発言が予め定められたキーワードを含む場合に当該発言を相槌と判定し、第1の時間よりも長い第2の時間でされた発言を意見と判定し、人毎に、発言に予め定められた数以上出現する頻出キーワードを抽出する。HDD(114)は、相槌・意見判定部(102)による判定結果と、相槌及び意見の各発言時間とが頻出キーワードと共に記憶する。

Description

本発明は、情報処理装置に関し、特に、人により発話された内容を解析する技術に関する。
今日では、グループ毎に討論の活性化を推定してその状況を明示する技術が提案されている(下記特許文献1参照)。この技術は、グループの各メンバーが発話した発話時刻及び発話時間長を記憶しておき、グループ毎に、各メンバーの発話時刻及び発話時間長を時系列に区分し、グループ全メンバーの発話時間長に対する各メンバーの発話時間長の比を算出して、グループ毎に、各メンバーの発話密度寄与率を描画したグラフを生成するというものである。
特開2016−162339号公報
上記技術は、各メンバーの発話密度寄与率をグループの討論が活性化しているかの判定のために提供するが、この発話密度寄与率は、グループ全メンバーの発話時間長に対する各メンバーの発話時間長の比に過ぎない。すなわち、上記技術では、メンバー各自が発話した時間のみが発話密度寄与率の算出に用いられており、メンバー各自の発言内容までは、発話密度寄与率の算出に用いられていない。このため、上記技術では、メンバー各自の発言の種類までを判定することはできない。
本発明は、上記の事情に鑑みなされたものであり、人が発話した際に当該人の発言の種類までを解析してその結果を提供することを目的とする。
本発明の一局面に係る情報処理装置は、外部とのデータ通信を行う通信インターフェイスと、通信インターフェイスを介して取得された音声データから、人の各発言を抽出し、抽出された各発言についての発言時間を検出する発言時間検出部と、音声データをテキスト化し、発言時間検出部によって検出された発言時間が、予め定められた第1の時間内であるか否かを判定し、第1の時間内の発言が予め定められたキーワードを含む場合に当該発言を相槌と判定し、第1の時間よりも長い予め定められた第2の時間でされた発言を意見と判定し、人毎に、発言に予め定められた数以上出現する頻出キーワードを抽出する相槌・意見判定部と、相槌・意見判定部によって判定された結果と、相槌及び意見の各発言時間とを頻出キーワードと共に記憶する記憶部と、を備え、相槌・意見判定部は、予め定められたキーワードの中から更に特定された特定キーワードが発言に含まれている場合に、当該発言を、相槌と判定すると共に、同意を示す頷きと判定するものである。
本発明の他の一局面に係る情報処理装置は、外部とのデータ通信を行う通信インターフェイスと、記憶部と、プロセッサーを含み、当該プロセッサーが発話解析プログラムを実行することにより、通信インターフェイスを介して取得された音声データから、人の各発言を抽出し、抽出された各発言についての発言時間を検出する発言時間検出部と、音声データをテキスト化し、発言時間検出部によって検出された発言時間が、予め定められた第1の時間内であるか否かを判定し、第1の時間内の発言が予め定められたキーワードを含む場合に当該発言を相槌と判定し、第1の時間よりも長い予め定められた第2の時間でされた発言を意見と判定し、人毎に、発言に予め定められた数以上出現する頻出キーワードを抽出し、発言が相槌か意見かを示す判定結果と、相槌及び意見の各発言時間とを頻出キーワードと共に記憶部に記憶させる相槌・意見判定部と、して機能する制御ユニットと、を備える。相槌・意見判定部は、予め定められたキーワードの中から更に特定された特定キーワードが発言に含まれている場合に、当該発言を、相槌と判定すると共に、同意を示す頷きと判定する。
本発明によれば、人が発話した際に当該人の発言の種類までを解析してその結果を提供することができる。
本発明の第1実施形態に係る情報処理装置、及び当該情報処理装置により発話解析が行われる対象者を示す図である。 第1実施形態に係る情報処理装置の内部構成の概略を示すブロック図である。 音声データの一例を示す図である。 第1実施形態に係る情報処理装置による発話解析処理を示すフローチャートである。 各人の各発言をその発言時間に応じて形状を異ならせて示すイメージ図である。 情報処理装置による発話解析処理の第1変形例を示すフローチャートである。 情報処理装置による発話解析処理の第2変形例を示すフローチャートである。 各人について異なる第1の時間及び第2の時間を決定する決定処理を示すフローチャートである。 第2実施形態に係る情報処理装置の内部構成の概略を示すブロック図である。 第2実施形態に係る情報処理装置による各人の発言に対する評価処理を示すフローチャートである。 第1の評価ポイント及び第2の評価ポイントを人毎に集計した集計結果をグラフ化した画像の一例を示す図である。 意見に対する第2の評価ポイントを、当該意見に対する相槌の有無に応じて異ならせて付与する処理を示すフローチャートである。 意見に対する第2の評価ポイントを、当該意見に含まれるキーワードに応じて異ならせて付与する処理を示すフローチャートである。 各人について評価を行う評価レベル判定処理を示すフローチャートである。 各人について評価を行う評価レベル判定処理の第1変形例を示すフローチャートである。 各人について評価を行う評価レベル判定処理の第2変形例を示すフローチャートである。 評価部によって作成された、評価ポイントの合計値をグラフ化した画像の例を示す図である。
以下、本発明の一実施形態に係る画像形成装置等の情報処理装置、発話解析プログラム、評価プログラム、発話解析方法、及び評価方法について図面を参照して説明する。図1は、本発明の第1実施形態に係る情報処理装置、及び当該情報処理装置により発話解析が行われる対象者を示す図である。
情報処理装置1は、複数人からなる会話グループの各人が発した音声を音声データとして取得する。例えば、人P1,P2,P3の複数人(本実施形態では3人として説明するが、これに限定されるものではない)からなる会話グループがミーティング、授業、又は会議など(以下、総称して単に会議という。)を行っているものとする。当該会話グループの各人は、マイクロフォン機能を備えたヘッドセット2を使用した状態で発声する。すなわち、当該各人が用いるそれぞれのヘッドセット2は、ヘッドセット2を装着した人の会話の音声を取得し、当該音声を示す電気信号に変換して、情報処理装置1に出力する。情報処理装置1と、各ヘッドセット2とは、例えば、ケーブル接続による有線通信、又は、Bluetooth(登録商標)若しくは無線LAN等の無線通信により接続されている。情報処理装置1は、各ヘッドセット2から出力されてくる上記音声を示す電気信号を、ディジタルの音声信号からなる音声データに変換し、ヘッドセット2毎、すなわち、人P1,P2,P3についての音声データをそれぞれに蓄積する。
次に、第1実施形態に係る情報処理装置1の構成を説明する。図2は、第1実施形態に係る情報処理装置1の内部構成の概略を示すブロック図である。
情報処理装置1は、例えばコンピューターである。情報処理装置1は、制御ユニット10と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113と、HDD(Hard Disk Drive)114と、表示部115と、通信インターフェイス118と、入力部119とを備える。これら各部は、互いにCPU(Central Processing Unit)バスによりデータ又は信号の送受信が可能とされている。
制御ユニット10は、情報処理装置1全体の動作制御を司る。ROM112は、情報処理装置1の基本動作についての動作プログラムを記憶する。RAM113は、制御ユニット10の動作領域等として使用される。
HDD114は、その記憶領域の一部に、本発明の一実施形態に係る発話分析プログラムを記憶している。また、HDD114は、人P1,P2,P3についてのそれぞれの上記音声データを記憶する。なお、HDD114は、特許請求の範囲における記憶部の一例でもある。なお、情報処理装置1が備えている不揮発性ROM(例えば、制御ユニット10が内蔵している)が記憶部として機能してもよい。
情報処理装置1と接続されているヘッドセット2には、当該ヘッドセット2を特定するための識別情報が予め付されている。識別情報としては、ヘッドセット2を特定可能な情報であれば特に限定されないが、例えば、識別番号がある。HDD114は、ヘッドセット2ごとに当該識別情報を予め記憶している。
表示部115は、LCD(Liquid Crystal Display)等からなり、情報処理装置1を操作する操作者に対する操作案内等が表示される。
通信インターフェイス118は、USBインターフェイス又は無線LANインターフェイス等を有する。通信インターフェイス118は、上記各ヘッドセット2とのデータ通信を行うためのインターフェイスとして機能する。
入力部119は、キーボード又はマウス等から構成され、操作指示が操作者から入力される。
制御ユニット10は、プロセッサー、RAM、及びROMなどから構成される。プロセッサーは、CPU、MPU(Micro Processing Unit)、又はASIC(Application Specific Integrated Circuit)等である。制御ユニット10は、HDD114に記憶されている発話解析プログラムが上記のプロセッサーで実行されることにより、制御部100、発言時間検出部101、及び相槌・意見判定部102として機能する。なお、制御部100、発言時間検出部101、及び相槌・意見判定部102は、ハード回路により構成されてもよい。
制御部100は、情報処理装置1全体の動作制御を司る機能を有する。
発言時間検出部101は、HDD114に記憶されている人P1,P2,P3についての音声データのそれぞれから、音声データに記録されている発話の中でされている各発言についての発言時間を検出する。図3は、音声データの一例を示す図である。図3の縦軸は音の振幅(単位db)、横軸は時刻を示す。発言時間検出部101は、音声データを解析し、音声データが示す振幅のうち、予め定められた規定時間(例えば、0.25秒)以上連続して、予め定められた大きさ以上の振幅(例えば、20dB)が続く部分を発言として抽出する。図3に示す音声データでは、発言時間検出部101は、a部分、b部分、及びc部分を発言として抽出する。発言時間検出部101は、当該抽出した各発言が続いている時間を発言時間として検出する。
相槌・意見判定部102は、発言時間検出部101によって検出された上記発言時間が、予め定められた第1の時間(上記規定時間から、当該規定時間よりも長い予め定められた時間までの時間帯。例えば、上記規定時間としての0.25秒以上であって2.0秒までの時間帯)内であれば、この発言時間でされた発言を、相槌と判定する(図3の例ではb)。また、相槌・意見判定部102は、発言時間検出部101によって検出された上記発言時間が、上記第1の時間よりも長い予め定められた第2の時間(上記第1の時間を超える時間)であれば、この発言時間でされた発言を、意見と判定する(図3の例ではa,c)。相槌・意見判定部102は、当該判定した相槌か意見かの結果と、当該相槌及び意見の各発言時間とをHDD114に記憶させる。
また、相槌・意見判定部102は、既知の音声認識機能を備え、これにより、音声データをキャラクター変換してテキスト化する。相槌・意見判定部102は、例えば人P1がした全ての発言から、それらに含まれる単語を検出し、同一の単語が複数回検出される場合は当該単語の検出回数をカウントする。相槌・意見判定部102は、検出された単語のうち、予め定められた数(例えば、5回)以上出現する単語を頻出キーワードとして抽出する。相槌・意見判定部102は、全ての人の音声データについて、同様にして頻出キーワードを抽出する。
次に、第1実施形態に係る情報処理装置1による発話解析処理について説明する。図4は、情報処理装置1による発話解析処理を示すフローチャートである。
当該発話解析が行われる場面は、人P1,P2,P3の複数人からなる会話グループが会議を行っている場面である。人P1,P2,P3は、各自がヘッドセット2を装着し、各ヘッドセット2は上述したように情報処理装置1に対して通信可能に接続されている。この状態で、人P1,P2,P3は、会議中に発話を行う。人P1,P2,P3によって発話された音声は、人P1,P2,P3それぞれのヘッドセット2により集音され、情報処理装置1に出力される。
情報処理装置1は、通信インターフェイス118を介して、各ヘッドセット2から音声データを取得する(ステップS1)。すなわち、通信インターフェイス118が、各ヘッドセット2から出力されてくる上記音声を示す電気信号を受信すると、発言時間検出部101は、当該取得された音声を示す電気信号を、ディジタルの音声信号からなる音声データに変換してHDD114に記憶させる。発言時間検出部101は、人P1,P2,P3毎に、すなわち、HDD114に記憶されている識別情報に対応付けて、当該音声データをHDD114に記憶させる。
続いて、発言時間検出部101は、人P1,P2,P3毎にHDD114に記憶されている音声データのそれぞれから、当該音声データが示す発話の中でされている各発言を、上述したようにして抽出する(ステップS2)。そして、発言時間検出部101は、当該抽出した各発言の発言時間を検出する(ステップS3)。
更に、相槌・意見判定部102は、各発言の発言時間が第1の時間内であるか第2の時間であるかを判定する(ステップS4)。相槌・意見判定部102は、発言時間が第1の時間内であれば(ステップS4で「第1の時間」)、当該発言時間でされた発言を相槌と判定する(ステップS5)。また、相槌・意見判定部102は、発言時間が第2の時間であれば(ステップS4で「第2の時間」)、当該発言時間でされた発言を意見と判定する(ステップS8)。
更に、相槌・意見判定部102は、音声認識機能により人P1,P2,P3の各音声データをキャラクター変換してテキスト化し、人P1,P2,P3毎に、音声データから頻出キーワードを抽出する(ステップS6)。相槌・意見判定部102は、発言が相槌か意見かを示す上記判定結果と、当該相槌及び意見の各発言時間と、抽出されている頻出キーワードとを、人P1,P2,P3毎に纏めて、HDD114に記憶させる(ステップS9)。
相槌・意見判定部102は、発言が相槌か意見かを示す上記判定結果を、図5に例を示すように、人P1,P2,P3毎に区分けして示す画像を作成する(ステップS10)。制御部100は、作成された画像を表示部115に表示させる(ステップS11)。ここで、情報処理装置1が画像形成装置である場合には、ステップS10で作成された画像と、音声データをテキスト化したデータとを印刷してもよい。
情報処理装置1が画像形成装置である場合には、情報処理装置1は、記録媒体の一例としての記録紙に、画像を形成するための機構を含む。当該機構は、例えば、画像形成部、定着部、及び、給紙部を含む。
画像形成部は、感光体ドラム、帯電装置、露光装置、現像装置、及び転写装置を含む。画像形成部は、ステップS10で作成された画像、又は、テキスト化された音声データを示す画像等に対応するトナー像を、給紙部から供給される記録紙に形成する。
定着部は、画像形成部によって表面にトナー像が形成された記録紙を加熱及び加圧することによって、トナー像を記録紙に定着させる。定着部によって定着された後、画像が形成された記録紙は、情報処理装置1の外部に排出される。
給紙部は、用紙カセットに収容される記録紙、又は手差しトレイに載置される記録紙をピックアップローラーによって1枚ずつ引出して画像形成部へと送り出す。
図5は人P1,P2,P3の各発言をその発言時間に応じて形状を異ならせて示すイメージ図である。
制御部100は、相槌・意見判定部102によって判定された相槌か意見かを示す結果を、図5に例を示すように、人P1,P2,P3毎に区分けして、表示部115に表示させる。
例えば、図5において、横軸は時間軸を示し、人P1,P2,P3のそれぞれの欄に示される短冊状の画像im(図5に示される全ての短冊状の画像を指す)は、発言を表す画像である。人P1,P2,P3のそれぞれの欄には、発言の回数分の画像imが発言した時刻に対応する位置に並べて表示される。また、画像imの横幅は、発言の時間に応じて長く設定され、すなわち、発言の時間が長いほど画像imの横幅は長く設定される。なお、画像imの縦方向の形状は、発言の時間の長さに拘わらず同一に設定される。
上記イメージ図によれば、当該イメージ図を視認したユーザーは、人P1,P2,P3が行った発言について、人毎に、画像imの数から発言回数を把握可能となり、画像imの表示位置から発言時刻が把握可能となる。
また、上記第1の時間を図5に示す幅wとすると、この幅w未満の横幅からなる画像imが相槌を示し、幅w以上の横幅からなる画像imが意見を示すものとなる。なお、相槌・意見判定部102は、相槌又は意見の別に応じて、(i)画像imの色を異ならせたり、(ii)相槌又は意見の別を示す表記を画像im中の画像に隣接させて、各画像imを作成してもよい。
ユーザーは、図5に示すイメージ図を視認することで、更に、人P1,P2,P3の各人がどのような発言をいつの時点で行ったかを把握できる。また、図5では、人P1,P2,P3について共通の時間軸を用いているため、ある人と他の人がそれぞれに行った発言同士のタイミングの先後を把握することも可能になる。
例えば、図5によれば、人P1が全ての人の中で最初に意見を行い(画像im211)、人P1の意見に続いて、人P2も意見を行い(画像im221)、人P2の意見に続いて、更に人P3も意見を行っている(画像im231)ことを、ユーザーが把握可能である。
また、人P1は、人P2による意見(画像im221)の直後に連続して相槌(画像im111,im112)を行い、人P3は、人P1による意見(画像im212)の直後に連続して相槌(画像im131,im132)を行っていること等を、ユーザーが把握可能である。
また、図5からは、人P1は、10分間に意見を6回行っており、人P2は、10分間に意見を4回行っており、人P3は、10分間に意見を2回行っていることから、人P1が最も多くの意見を行っていることをユーザーが把握可能である。ユーザーは、この結果から、人P1が最も積極的に意見を行っていることを想定可能となる。
一方、人P1は、10分間に相槌を5回行っており(画像im111〜im115)、人P2は、10分間に相槌を4回行っており(画像im121〜im124)、人P3は、10分間に相槌を7回行っている(画像im131〜im137)ことから、人P3が最も多くの相槌を行っていることが把握される。ユーザーは、この結果から、人P3が最も他人の意見を聞く意思を有していることを想定できる。
なお、相槌・意見判定部102は、意見と判定した発言の直後に当該発言に連続してされた発言のみを相槌と判定するようにしてもよい。この場合、例えば、図5では、画像im111,im112,im123,im124,im131,im132,im135,im136のみが相槌・意見判定部102により相槌と判定されることになる。
これにより、第1実施形態によれば、人が発話した際に当該人の発言の種類までを解析してその結果を提供することが可能になる。
次に、情報処理装置1による発話解析処理の第1変形例について説明する。図6は情報処理装置1による発話解析処理の第1変形例を示すフローチャートである。なお、第1変形例における説明では、第1実施形態と同様の処理については説明を省略する。
第1変形例では、第1実施形態におけるステップS1〜ステップS3と同様の処理であるステップS11〜ステップS13の処理を行った後、ステップS14において、相槌・意見判定部102は、発言の発言時間が第1の時間内であると判定したとき(ステップS14で「第1の時間」)、更に、当該発言が、予め定められたキーワードを含むか否かを判定する(ステップS15)。例えば、相槌・意見判定部102は、ステップS15の時点で、音声認識機能により人P1,P2,P3の各音声データをテキスト化し、各発言について、予め定められたキーワードとして、例えば、「そうですね」「そうでしょうか」「なるほど」「あり得ない」「はい」「いいえ」「ええ」又は「いやいや」等が含まれるか否かを判定する。このようにテキスト化されたデータは、ステップS17における頻出キーワードの抽出時にも用いられる。
ここで、相槌・意見判定部102は、当該発言に予め定められたキーワードが含まれると判定した場合(ステップS15でYES)、当該発言を相槌と判定する(ステップS16)。すなわち、第1変形例では、相槌・意見判定部102は、発言の発言時間が第1の時間内であって、かつ、当該発言が予め定められたキーワードを含むという条件を満たす場合に、当該発言を相槌と判定する。
なお、相槌・意見判定部102は、当該発言に予め定められたキーワードが含まれないと判定した場合(ステップS15でNO)、当該発言を相槌及び意見のいずれでもないと判定する(ステップS19)。
第1変形例によれば、相槌・意見判定部102による相槌又は意見の判定を、時間の要素のみではなく、予め定められたキーワードを含むという要素を用いて行うため、相槌・意見判定部102が相槌であるという判定を行った場合における、各人の発言が相槌であるという確からしさが更に高まる。
次に、情報処理装置1による発話解析処理の第2変形例について説明する。図7は情報処理装置1による発話解析処理の第2変形例を示すフローチャートである。なお、第2変形例における説明では、第1実施形態又は第1変形例と同様の処理については説明を省略する。
第2変形例では、第1変形例におけるステップS11〜ステップS14と同様の処理であるステップS21〜ステップS24の処理を行った後、ステップS25において、相槌・意見判定部102が、当該発言に上記予め定められたキーワードが含まれると判定した場合(ステップS25でYES)、更に、相槌・意見判定部102は、上記予め定められたキーワードの中から更に特定された特定キーワードが、ステップS25で処理対象となっている発言に含まれている場合に(ステップS26でYES)、当該発言を、相槌であってその中でも特に同意を示す頷きと判定する(ステップS31)。例えば、相槌・意見判定部102は、ステップS25で処理対象となっている発言について、特定キーワードとして、例えば、「そうですね」「なるほど」「はい」又は「ええ」等が含まれている場合に、頷きと判定する。
第2変形例によれば、相槌・意見判定部102による相槌の中から更に頷きを判定することによって、相槌をした人が、他者による意見に同意しているか否かまで判別することが可能になる。
なお、上記第1実施形態、第1変形例、及び第2変形例では、相槌・意見判定部102は、相槌の判定に用いる第1の時間及び意見の判定に用いる第2の時間として、人P1,P2,P3の各人について同一の時間を用いているが、相槌・意見判定部102は、第1の時間及び第2の時間として、各人について異なる時間を用いてもよい。図8は、各人について異なる第1の時間及び第2の時間を決定する決定処理を示すフローチャートである。当該決定処理は、第1実施形態におけるステップS3とステップS4との間、第1変形例におけるステップS13とステップS14との間、第2変形例におけるステップS23とステップS24との間に行われる。
例えば、発言時間検出部101によって各発言の発言時間を検出する処理が行われた後(ステップS3,ステップS13,ステップS23)、相槌・意見判定部102は、人P1,P2,P3の各人による全ての発言の内容を例えば音声認識機能によりテキスト化し、各発言についてそれぞれのテキスト量を検出する(ステップS51)。
続いて、相槌・意見判定部102は、検出されたテキスト量を、当該テキスト量を検出する対象とした発言の発言時間で割った値を発言速度として算出する。相槌・意見判定部102は、当該発言速度の算出を、人P1,P2,P3の各人による全ての発言について行い、人毎に、その人がした全発言についての発言速度の平均速度を算出し、当該算出した平均速度をその人についての発言速度とする(ステップS52)。
更に、相槌・意見判定部102は、算出された各人の発言速度に応じて、第1の時間及び第2の時間を人毎に決定する(ステップS53)。例えば、相槌・意見判定部102は、各発言速度と、各発言速度に対応付けられたそれぞれの第1の時間及び第2の時間を示すデータテーブルを保有しており、当該データテーブルを参照して、人毎に、算出された発言時間に対応する第1の時間及び第2の時間を読み出し、読み出された第1の時間及び第2の時間を、相槌又は意見の判定に用いる第1の時間及び第2の時間として決定する。なお、上記データテーブルは、発言速度が遅くなるほど長くなる第1の時間及び第2の時間を記憶している。
上記したように、相槌・意見判定部102は、人P1,P2,P3の各人が話す速度に応じて、相槌又は意見の判定に用いる第1の時間及び第2の時間を決定するため、より正確に各人の発言が相槌又は意見であるかを判定することが可能になる。
次に、第2実施形態に係る情報処理装置1の構成を説明する。図9は、第2実施形態に係る情報処理装置1の内部構成の概略を示すブロック図である。なお、第2実施形態についての説明では、図2を用いて説明した第1実施形態に係る情報処理装置1の構成と同一の構成及び機能については説明を省略する。
第2実施形態では、情報処理装置1において、制御ユニット10は、図2に示した構成と同様に、プロセッサー、RAM、及びROMなどから構成される。プロセッサーは、CPU、MPU、又はASIC等である。制御ユニット10は、HDD114に記憶されている評価プログラムが上記のプロセッサーで実行されることにより、制御部100、発言時間検出部101、相槌・意見判定部102に加え、更に、評価部103及び集計部104として機能する。なお、制御部100、発言時間検出部101、相槌・意見判定部102、評価部103及び集計部104は、ハード回路により構成されてもよい。
制御部100、発言時間検出部101、及び相槌・意見判定部102は、図2を用いて説明した第1実施形態の構成と同様の機能を有する。本実施形態においても、相槌・意見判定部102は、発言が相槌か意見かを示す判定結果と、当該相槌及び意見の各発言時間と、抽出した頻出キーワードとを、人P1,P2,P3毎に纏めて、HDD114に記憶させる。
評価部103は、HDD114に記憶されている各人の判定結果毎に、相槌に対しては予め定められた第1の評価ポイントを付与し、意見に対しては第1の評価ポイントとは異なる予め定められた第2の評価ポイントを付与する。例えば、評価部103は、相槌に対する第1の評価ポイント(例えば、1ポイント)よりも、意見に対する第2の評価ポイントを大きい値(例えば、10ポイント)として付与する。
集計部104は、評価部103によって付与された第1の評価ポイント及び第2の評価ポイントを人P1,P2,P3毎に集計する。制御部100は、人毎の集計結果を例えば表示部115に出力して、表示部115に人毎の集計結果を表示させる。或いは、制御部100は、情報処理装置1にネットワーク接続されているコンピューターに、人毎の集計結果を示すデータを、通信インターフェイス118を介して出力する。当該コンピューターでは、人毎の集計結果を示すデータの印刷又は表示が可能になる。
また、集計部104は、人毎の集計結果をグラフ化した画像データを作成する。制御部100は、人毎の集計結果がグラフ化された画像データを表示部115に出力して表示させる。
次に、第2実施形態に係る情報処理装置1による各人の発言に対する評価処理を説明する。図10Aは、第2実施形態に係る情報処理装置1による各人の発言に対する評価処理を示すフローチャートである。図10Bは、第1の評価ポイント及び第2の評価ポイントを人P1,P2,P3毎に集計した集計結果をグラフ化した画像の一例を示す図である。なお、図4を用いて説明した第1実施形態に係る発話解析処理と同様の処理については説明を省略する。
第2実施形態に係る評価処理では、図4を用いて説明した発話解析処理と同様にして、相槌・意見判定部102が相槌の判定(ステップS65)及び意見の判定(ステップS70)までを行った後、評価部103が、HDD114に記憶されている各人の発言が相槌か意見かを示す判定結果毎に、更に、当該判定結果が示す相槌又は意見毎に、相槌に対して第1の評価ポイント(例えば、1ポイント)を付与し、意見に対して第2の評価ポイント(例えば、10ポイント)を付与する(ステップS66)。相槌・意見判定部102は、人P1,P2,P3の各人による全ての発言(相槌又は意見)に対して、第1の評価ポイント又は第2の評価ポイントの付与を行う。
続いて、集計部104は、評価部103によって付与された第1の評価ポイント及び第2の評価ポイントを人P1,P2,P3毎に集計する(ステップS67)。更に、集計部104は、集計結果をグラフ化した画像を作成する(ステップS68)。制御部100は、図10Bに示すように、人毎の集計結果がグラフ化された画像を表示部115に出力して表示させる(ステップS69)。
第2実施形態によれば、相槌・意見判定部102が判定した相槌及び意見のそれぞれに対して、数字で示される第1の評価ポイント又は第2の評価ポイントが付与され、付与された第1の評価ポイント及び第2の評価ポイントが人P1,P2,P3毎に集計されるので、人毎の集計結果に基づいて、会議における各人による発言を評価してその評価結果を客観的に提示することが可能になる。これにより、ユーザーは、会議における各人の発言の評価を客観的に把握することが可能になる。
ここで、評価部103は、意見に対する第2の評価ポイントを、当該意見に対する相槌の有無に応じて異ならせて付与するようにしてもよい。図11は、意見に対する第2の評価ポイントを、当該意見に対する相槌の有無に応じて異ならせて付与する処理を示すフローチャートである。当該処理は、図10Aに示したステップS66のポイント付与処理時に行われる。
評価部103は、相槌・意見判定部102が相槌の判定(ステップS65)及び意見の判定(ステップS70)までを行った後、ある人による意見がされた直後のタイミングで、当該意見に連続して他の人により行われた相槌があるかを判定する(ステップS71)。評価部103は、当該タイミングで行われた相槌があると判定したときは(ステップS71でYES)、当該意見の評価ポイントを、第2の評価ポイントよりも大きい予め定められた第3の評価ポイント(例えば、20ポイント)を、当該意見に付与する(ステップS72)。
なお、評価部103は、ステップS71において、ある人による意見がされた直後のタイミングで行われた相槌が複数あると判定したときは、第3の評価ポイントを更に増加させた値(例えば、25ポイント)として、当該意見に付与するようにしてもよい。「相槌が複数ある」の意味は、複数の人によって相槌がされた場合と、同じ人が複数回相槌をした場合のいずれでもよい。
更に、評価部103は、ある人による意見の直後のタイミングで連続して行われた相槌に対しては、第1の評価ポイントよりも大きい予め定められた第4の評価ポイント(例えば、2ポイント)を付与する(ステップS73)。
なお、評価部103は、ステップS73において、ある人による意見がされた直後のタイミングで行われた相槌が複数あると判定したときは、第4の評価ポイントを更に増加させた値(例えば、3ポイント)として、当該相槌に付与するようにしてもよい。「相槌が複数ある」の意味は、複数の人によって相槌がされた場合と、同じ人が複数回相槌をした場合のいずれでもよい。
一方、評価部103は、ある人による意見がされた直後のタイミングで行われた相槌がないと判定したときは(ステップS71でNO)、当該意見の評価ポイントを、第2の評価ポイントとして、当該意見に付与する(ステップS74)。
更に、評価部103は、ある人による意見の直後に連続しないタイミングで行われた相槌に対しては、第1の評価ポイントを付与する(ステップS75)。なお、第2実施形態において、第3の評価ポイントは、第4の評価ポイントより大きく設定されるものとする。
上記したように、意見の直後に連続して他の人により相槌がされており、他の人の関心を惹き付けた良質な意見であると想定される意見については、当該相槌がされなかった他の意見よりも高い評価ポイントが付与されるため、良質と想定される意見に対して高評価を的確に与えることが可能になる。
また、意見の直後に連続してされた相槌は、他の人の意見に対して自身の意思を表明する的確な相槌であると想定されるため、当該相槌には、他のタイミングでされた相槌よりも高い評価ポイントを付与する。これにより、的確に行われたと想定される相槌に対して高評価を与えることが可能になる。
また、評価部103は、意見に対する第2の評価ポイントを、当該意見に含まれるキーワードに応じて異ならせて付与するようにしてもよい。図12は、意見に対する第2の評価ポイントを、当該意見に含まれるキーワードに応じて異ならせて付与する処理を示すフローチャートである。当該処理は、図10Aに示したステップS66のポイント付与処理時に行われる。また、当該処理によって決定される第2の評価ポイントは、図11に示す処理における第2の評価ポイントとしても用いられる。
相槌・意見判定部102は、相槌の判定(ステップS65)及び意見の判定(ステップS70)までを行った後、人P1,P2,P3の各人による全ての発言(少なくとも意見について)の内容を例えば音声認識機能によりテキスト化しておく(ステップS81)。なお、当該テキスト化の処理は、評価部103が行うものとしてもよい。
評価部103は、相槌・意見判定部102により上記テキスト化処理が行われた後、人P1,P2,P3の各人による全ての意見について、それらに含まれる単語を検出し、同一の単語(キーワード)が複数回検出される場合は当該各単語についてその検出回数をカウントする。評価部103は、当該カウントを意見毎に行う。
そして、評価部103は、同一の単語を予め定められた数(例えば、5回)以上含む意見があるか否かを判定する(ステップS82)。評価部103は、同一の単語が予め定められた数以上含む意見があると判定した場合は(ステップS82でYES)、当該意見に対しては第2の評価ポイントを付与しないものとして設定する(ステップS87)。評価部103は、同一の単語が予め定められた数以上出現する意見がない場合は、当該設定を行わない(ステップS82でNO)。
更に、評価部103は、人P1,P2,P3の各人による全ての意見について、予め定められた不要キーワード(例えば、今回の会議には無関係として予め定められている単語。或いは、「やってられない」等の予め定められた不適切な単語)を含む意見があるか否かを判定する(ステップS83)。評価部103は、不要キーワードを含む意見があると判定した場合には(ステップS83でYES)、不要キーワードを含む当該意見に対して付与する第2の評価ポイントの値を、予め定められた減算値(例えば、5ポイント)だけ減算した値(例えば、5ポイント)に設定する(ステップS86)。評価部103は、不要キーワードを含む意見がない場合は、当該減算を行わない(ステップS83でNO)。
続いて、評価部103は、人P1,P2,P3の各人による全ての意見について、予め定められた重要キーワード(例えば、今回の会議において発言して欲しいとして予め定められた単語。例えば、画像形成装置の画像形成機構部分の開発についての会議である場合に、「帯電」「現像」「露光」等の単語)を含む意見があるか否かを判定する(ステップS84)。
評価部103は、重要キーワードを含む意見があると判定した場合には(ステップS84でYES)、重要キーワードを含む当該意見に対して付与する第2の評価ポイントの値を、予め定められた加算値(例えば、5ポイント)だけ加算した値(例えば、15ポイント)に設定する(ステップS88)。評価部103は、重要キーワードを含む意見がない場合は、当該加算を行わない(ステップS84でNO)。
この後、評価部103は、上記加算又は/及び減算がされた第2の評価ポイントの値、或いは、第2の評価ポイントそのもの等、図12に示される上記の処理が終了した時点で算出されている第2の評価ポイントを、各意見に対する第2の評価ポイントとして用いる。
このような評価処理によれば、1つの意見の中で同じことを繰り返して多く述べており、役に立たないと想定される意見に対しては、第2の評価ポイントを付与しない低評価とし(ステップS87)、不要な単語を発言しており、会議に対する貢献度が低いと想定される意見に対しては、第2の評価ポイントを減算することで評価を下げ(ステップS86)、重要な単語を発言しており、会議に対する貢献度が高いと想定される意見に対しては、第2の評価ポイントに加算することで評価を上げる(ステップS88)、といったように、意見の内容に応じた的確な評価内容を決定することが可能になる。
次に、上記のように評価ポイントを付与した後に、人P1,P2,P3の各人についての評価レベルを判定する評価レベル判定処理について説明する。図13は、人P1,P2,P3の各人について評価を行う評価レベル判定処理を示すフローチャートである。
各人について評価レベルを判定する評価レベル判定処理としては、各人が行った意見に注目して行う方法を説明する。この場合、集計部104は、人P1,P2,P3の人毎に、各意見について付与された第2の評価ポイントを集計して合計値を算出する(ステップS101)。
そして、評価部103は、集計部104によって集計された人毎の合計値のそれぞれについて、予め定められた第1意見評価値以上か否かを判定する(ステップS102)。ここで、評価部103が、上記第1意見評価値未満である合計値があると判定した場合には(ステップS102でNO)、意見について当該合計値を有する人に対する評価を第2の低レベルと判定する(ステップS105)。第2の低レベルとは、会議において、意見を行っていない人、或いは、それに近似する人として、当該人に与えられる低い評価レベルである。
また、評価部103は、第1意見評価値以上の合計値があると判定した場合には(ステップS102でYES)、更に、当該合計値が、第1意見評価値よりも大きい予め定められた第2意見評価値以上か否かを判定する(ステップS103)。すなわち、第2意見評価値は、過度に多いと想定される意見の回数を示す値である。
ここで、評価部103が、当該合計値が上記第2意見評価値以上であると判定した場合は(ステップS103でYES)、意見について当該合計値を有する人に対する評価を第1の低レベルと判定する(ステップS106)。第1の低レベルとは、会議において、意見を行っているものの、意見の回数が過度に多くて会議に貢献していない人、或いは、それに近似する人として、当該人に与えられる低い評価レベルである。
一方、評価部103が、当該合計値が上記第2意見評価値未満であると判定した場合は(ステップS103でNO)、意見について当該合計値を有する人に対する評価を第1の高レベルと判定する(ステップS104)。第1の高レベルとは、会議において、意見を適正な回数で行っており会議に貢献している人、或いは、それに近似する人として、当該人に与えられる高い評価レベルである。
このような評価レベル判定処理によれば、当該意見を行った人の会議への貢献度を、意見を行った回数に応じて的確に判定することが可能になる。
次に、上記のように評価ポイントを付与した後に、人P1,P2,P3の各人について評価レベルを判定する評価レベル判定処理の第1変形例について説明する。図14は、人P1,P2,P3の各人について評価を行う評価レベル判定処理の第1変形例を示すフローチャートである。
各人について評価レベルを判定する評価レベル判定処理として、各人が行った相槌に注目して行う方法を説明する。この場合、集計部104は、人P1,P2,P3の人毎に、各相槌について付与された第1の評価ポイントを集計して合計値を算出する(ステップS201)。
そして、評価部103は、集計部104によって集計された人毎の合計値のそれぞれについて、予め定められた第1相槌評価値以上か否かを判定する(ステップS202)。ここで、評価部103が、第1相槌評価値未満の合計値があると判定した場合には(ステップS202でNO)、相槌についての当該合計値を有する人に対する評価を第3の低レベルと判定する(ステップS206)。第3の低レベルとは、会議において、相槌を行っていない人(他人の意見を聞いていないと想定される人)、或いは、それに近似する人として、当該人に与えられる低い評価レベルである。
また、評価部103が、第1相槌評価値以上の合計値があると判定した場合には(ステップS202でYES)、更に、当該合計値が、第1相槌評価値よりも大きい予め定められた第2相槌評価値以上か否かを判定する(ステップS203)。
ここで、評価部103は、当該合計値が上記第2相槌評価値未満であると判定した場合は(ステップS203でNO)、相槌についての当該合計値を有する人に対する評価を予め定められた第2の高レベルと判定する(ステップS208)。第2の高レベルとは、会議において、相槌を適正な回数で行っており、他人の意見をよく聞く人、或いは、それに近似する人として、当該人に与えられる高い評価レベルである。
一方、評価部103は、当該合計値が第2相槌評価値以上であると判定した場合(ステップS203でYES)、更に、集計部104が、人P1,P2,P3の人毎に、各意見について付与された第2の評価ポイントを集計して意見についての合計値を算出し、評価部103は、当該意見についての合計値が、上述した第1意見評価値以上であるか否かを判定する(ステップS204)。
ここで、評価部103が、当該意見についての合計値が第1意見評価値未満であると判定した場合は(ステップS204でNO)、当該意見についての合計値を有する人に対する評価を第4の低レベルと判定する(ステップS205)。第4の低レベルとは、会議において、相槌を行っているものの、相槌の回数が多すぎて会議において意見を余りしていない人、或いは、それに近似する人として、当該人に与えられる低い評価レベルである。
また、評価部103が、当該意見についての合計値が第1意見評価値以上であると判定した場合は(ステップS204でYES)、当該意見についての合計値を有する人に対する評価を第3の高レベルと判定する(ステップS207)。第3の高レベルとは、会議において、相槌の回数が多すぎるが、意見を多く行っており会議に貢献している人、或いは、それに近似する人として、当該人に与えられる高い評価レベルである。
このような評価レベル判定処理によれば、当該相槌を行った人の会議への貢献度を、相槌を行った回数及び意見を行った回数に応じて的確に判定することが可能になる。
次に、上記のように評価ポイントを付与した後に、人P1,P2,P3の各人について評価レベルを判定する評価レベル判定処理の第2変形例について説明する。図15は、人P1,P2,P3の各人について評価を行う評価レベル判定処理の第2変形例を示すフローチャートである。
各人について評価レベルを判定する評価レベル判定を、各人が行った相槌及び意見に対して付与された評価ポイントの合計値に注目して行う処理を説明する。
この場合、集計部104は、人P1,P2,P3の人毎に、相槌及び意見に対して付与された評価ポイントの合計値を算出する(ステップS301)。なお、集計部104は、第2実施形態において相槌及び意見に対して付与されるいずれの評価ポイントであっても、当該合計値として算出することが可能である。
続いて、評価部103は、当該合計値が、予め定められた総合評価値以上か否かを判定する(ステップS302)。総合評価値は、各人が会議に貢献しているか否かを判定するために予め定められた値である。例えば、10分の会議で50ポイントが総合評価値として用いられる。
ここで、評価部103が、当該意見についての合計値が上記総合評価値以上であると判定した場合は(ステップS302でYES)、当該総合評価値を有する人に対する総合評価を予め定められた高水準レベルと判定する(ステップS303)。高水準レベルとは、会議において、相槌及び意見を適度に行っており、会議に貢献している人、或いは、それに近似する人として、当該人に与えられる高評価である。
一方、評価部103が、当該意見についての合計値が総合評価値未満であると判定した場合は(ステップS302でNO)、当該総合評価値を有する人に対する総合評価を予め定められた一般レベルと判定する(ステップS304)。一般レベルとは、高水準レベルの人ほどには会議に貢献していない人、或いは、それに近似する人として、当該人に与えられる評価である。
続いて、評価部103は、人P1,P2,P3の人毎に算出された上記評価ポイントの合計値をグラフ化した画像を作成する(ステップS305)。制御部100は、当該作成された画像を表示部115に表示させる(ステップS306)。
図16は、評価部103によって作成された、評価ポイントの合計値をグラフ化した画像の例を示す図である。図16に示す画像は、横軸を時刻(時間経過)、縦軸を各人のポイント割合(縦方向において各人のポイントを示す幅をポイント割合に応じた幅とする)として、評価部103により作成されている。ポイント割合とは、人毎に算出された評価ポイントの合計値を合算した合算値に対する、各人の合計値の割合である。
図16に示す画像によれば、時間経過に沿って、人P1,P2,P3の各人による会議に対する貢献度、及び当該貢献度の割合の時系列的変化をユーザーに視覚的に把握させることが可能になる。例えば、会議開始当初の10分経過時点では、人P1、人P2、人P3の順に貢献度が高いが、15分経過時点あたりから人P2の貢献度がもっとも高くなり、会議終了時の60分経過時には、人P1、人P2、人P3の貢献度はほぼ同じになっていることを把握することができる。
図1乃至図16を用いて上記実施形態により示した構成及び処理は、本発明の一実施形態に過ぎず、本発明を当該構成及び処理に限定する趣旨ではない。例えば、情報処理装置1としては、少なくとも図2に示す構成と同様の構成を備える画像形成装置の他、図2に示す構成を備えるパーソナルコンピューター又は通信端末装置等の情報処理装置を本発明に適用することができる。

Claims (6)

  1. 外部とのデータ通信を行う通信インターフェイスと、
    前記通信インターフェイスを介して取得された音声データから、人の各発言を抽出し、抽出された各発言についての発言時間を検出する発言時間検出部と、
    前記音声データをテキスト化し、前記発言時間検出部によって検出された前記発言時間が、予め定められた第1の時間内であるか否かを判定し、前記第1の時間内の発言が予め定められたキーワードを含む場合に当該発言を相槌と判定し、前記第1の時間よりも長い予め定められた第2の時間でされた発言を意見と判定し、前記人毎に、前記発言に予め定められた数以上出現する頻出キーワードを抽出する相槌・意見判定部と、
    前記相槌・意見判定部によって判定された結果と、前記相槌及び意見の各発言時間とを前記頻出キーワードと共に記憶する記憶部と、を備え、
    前記相槌・意見判定部は、前記予め定められたキーワードの中から更に特定された特定キーワードが前記発言に含まれている場合に、当該発言を、相槌と判定すると共に、同意を示す頷きと判定する情報処理装置。
  2. 前記記憶部に記憶されている前記判定された結果と、前記相槌及び意見の各発言時間とを表示する表示部を更に備える請求項1に記載の情報処理装置。
  3. 前記発言時間検出部は、複数人の前記音声データについてそれぞれ別個に前記発言時間を検出し、
    前記相槌・意見判定部は、前記発言時間検出部によって検出された各人についてのそれぞれの前記発言時間に基づいて前記相槌及び意見を判定し、
    前記記憶部は、前記人毎に、前記相槌・意見判定部によって判定された結果と、前記相槌及び意見の各発言時間とを記憶する請求項1に記載の情報処理装置。
  4. 外部とのデータ通信を行う通信インターフェイスと、
    記憶部と、
    プロセッサーを含み、当該プロセッサーが発話解析プログラムを実行することにより、
    前記通信インターフェイスを介して取得された音声データから、人の各発言を抽出し、抽出された各発言についての発言時間を検出する発言時間検出部と、
    前記音声データをテキスト化し、前記発言時間検出部によって検出された前記発言時間が、予め定められた第1の時間内であるか否かを判定し、前記第1の時間内の発言が予め定められたキーワードを含む場合に当該発言を相槌と判定し、前記第1の時間よりも長い予め定められた第2の時間でされた発言を意見と判定し、前記人毎に、前記発言に予め定められた数以上出現する頻出キーワードを抽出し、前記発言が前記相槌か前記意見かを示す判定結果と、前記相槌及び意見の各発言時間とを前記頻出キーワードと共に前記記憶部に記憶させる相槌・意見判定部と、して機能する制御ユニットと、を備え、
    前記相槌・意見判定部は、前記予め定められたキーワードの中から更に特定された特定キーワードが前記発言に含まれている場合に、当該発言を、相槌と判定すると共に、同意を示す頷きと判定する、情報処理装置。
  5. 表示部をさらに備え、
    前記制御ユニットはさらに、前記記憶部に記憶されている前記判定結果と、前記相槌及び意見の各発言時間とを、前記表示部に表示させる制御部として機能する、請求項4に記載の情報処理装置。
  6. 記録媒体に画像を形成する画像形成部をさらに備え、
    前記制御ユニットはさらに、前記画像形成部に対し、前記記憶部に記憶されている前記判定結果と、前記相槌及び意見の各発言時間と、を示す画像を、前記記録媒体に形成させる制御部として機能する、請求項4に記載の情報処理装置。
JP2019527271A 2018-03-29 2018-12-18 情報処理装置 Expired - Fee Related JP6747592B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018066137 2018-03-29
JP2018066137 2018-03-29
PCT/JP2018/046437 WO2019187397A1 (ja) 2018-03-29 2018-12-18 情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2019187397A1 true JPWO2019187397A1 (ja) 2020-04-30
JP6747592B2 JP6747592B2 (ja) 2020-08-26

Family

ID=68061179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019527271A Expired - Fee Related JP6747592B2 (ja) 2018-03-29 2018-12-18 情報処理装置

Country Status (4)

Country Link
US (1) US11282518B2 (ja)
JP (1) JP6747592B2 (ja)
CN (1) CN110612568B (ja)
WO (1) WO2019187397A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7528638B2 (ja) 2020-08-26 2024-08-06 トヨタ自動車株式会社 コミュニケーションシステム
WO2022173044A1 (ja) * 2021-02-12 2022-08-18 正林 真之 情報処理装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252458A (ja) * 2005-03-14 2006-09-21 Yamaha Corp 複数話者の音声信号を処理する音声信号処理装置およびプログラム
JP2007286097A (ja) * 2006-04-12 2007-11-01 Nippon Telegr & Teleph Corp <Ntt> 音声受付クレーム検出方法、装置、音声受付クレーム検出プログラム、記録媒体
JP2011205243A (ja) * 2010-03-24 2011-10-13 Sharp Corp 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム
WO2014069122A1 (ja) * 2012-10-31 2014-05-08 日本電気株式会社 表現分類装置、表現分類方法、不満検出装置及び不満検出方法
JP2016162339A (ja) * 2015-03-04 2016-09-05 Kddi株式会社 グループ毎の討論の活性化を推定するプログラム、端末及びシステム
JP2018045676A (ja) * 2016-09-07 2018-03-22 パナソニックIpマネジメント株式会社 情報処理方法、情報処理システム及び情報処理装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006098919A (ja) * 2004-09-30 2006-04-13 Oki Electric Ind Co Ltd 音声情報検出装置及び方法
JP2008011272A (ja) * 2006-06-29 2008-01-17 Canon Marketing Japan Inc 会議システム及び制御方法、並びにプログラム及び記憶媒体
US7962525B2 (en) * 2007-11-05 2011-06-14 Microsoft Corporation Automated capture of information generated at meetings
US8370142B2 (en) * 2009-10-30 2013-02-05 Zipdx, Llc Real-time transcription of conference calls
US8204759B2 (en) * 2009-11-30 2012-06-19 International Business Machines Corporation Social analysis in multi-participant meetings
US20110225013A1 (en) * 2010-03-10 2011-09-15 Avaya Inc Conference productivity and thick client method
US9053750B2 (en) * 2011-06-17 2015-06-09 At&T Intellectual Property I, L.P. Speaker association with a visual representation of spoken content
US9245254B2 (en) * 2011-12-01 2016-01-26 Elwha Llc Enhanced voice conferencing with history, language translation and identification
US20130266127A1 (en) * 2012-04-10 2013-10-10 Raytheon Bbn Technologies Corp System and method for removing sensitive data from a recording
US9002938B2 (en) * 2012-04-26 2015-04-07 International Business Machines Corporation Notifying electronic meeting participants of interesting information
US9257117B2 (en) * 2014-02-04 2016-02-09 Avaya Inc. Speech analytics with adaptive filtering
US20150310863A1 (en) * 2014-04-24 2015-10-29 Nuance Communications, Inc. Method and apparatus for speaker diarization
US9661474B2 (en) * 2014-07-23 2017-05-23 International Business Machines Corporation Identifying topic experts among participants in a conference call
DE102014018205A1 (de) * 2014-12-09 2016-06-09 Unify Gmbh & Co. Kg Konferenzsystem und Verfahren zum Steuern des Konferenzsystems
US9672829B2 (en) * 2015-03-23 2017-06-06 International Business Machines Corporation Extracting and displaying key points of a video conference
JP2017049471A (ja) * 2015-09-03 2017-03-09 カシオ計算機株式会社 対話制御装置、対話制御方法及びプログラム
US20180232705A1 (en) * 2017-02-15 2018-08-16 Microsoft Technology Licensing, Llc Meeting timeline management tool
US11386381B2 (en) * 2018-06-06 2022-07-12 International Business Machines Corporation Meeting management
US10636427B2 (en) * 2018-06-22 2020-04-28 Microsoft Technology Licensing, Llc Use of voice recognition to generate a transcript of conversation(s)

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252458A (ja) * 2005-03-14 2006-09-21 Yamaha Corp 複数話者の音声信号を処理する音声信号処理装置およびプログラム
JP2007286097A (ja) * 2006-04-12 2007-11-01 Nippon Telegr & Teleph Corp <Ntt> 音声受付クレーム検出方法、装置、音声受付クレーム検出プログラム、記録媒体
JP2011205243A (ja) * 2010-03-24 2011-10-13 Sharp Corp 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム
WO2014069122A1 (ja) * 2012-10-31 2014-05-08 日本電気株式会社 表現分類装置、表現分類方法、不満検出装置及び不満検出方法
JP2016162339A (ja) * 2015-03-04 2016-09-05 Kddi株式会社 グループ毎の討論の活性化を推定するプログラム、端末及びシステム
JP2018045676A (ja) * 2016-09-07 2018-03-22 パナソニックIpマネジメント株式会社 情報処理方法、情報処理システム及び情報処理装置

Also Published As

Publication number Publication date
WO2019187397A1 (ja) 2019-10-03
JP6747592B2 (ja) 2020-08-26
CN110612568B (zh) 2023-01-03
US20210335352A1 (en) 2021-10-28
CN110612568A (zh) 2019-12-24
US11282518B2 (en) 2022-03-22

Similar Documents

Publication Publication Date Title
JP6341092B2 (ja) 表現分類装置、表現分類方法、不満検出装置及び不満検出方法
Lu et al. Stresssense: Detecting stress in unconstrained acoustic environments using smartphones
JP5189354B2 (ja) オペレータ受付監視・切替システム
TWI727476B (zh) 適性化職缺媒合系統及方法
JP6519413B2 (ja) 迷惑電話検出装置、迷惑電話検出方法、及びプログラム
Morales et al. A linguistically-informed fusion approach for multimodal depression detection
JP6747592B2 (ja) 情報処理装置
CN106486134B (zh) 话语状态确定装置及方法
US20230154457A1 (en) Communication System And Related Methods
CN113470698B (zh) 一种说话人转换点检测方法、装置、设备及存储介质
JP2010176544A (ja) 会議支援装置
Sharma et al. Talker change detection: A comparison of human and machine performance
JP5347455B2 (ja) 会話異常検知装置、会話異常検知方法、及び会話異常検知プログラム
JP6327252B2 (ja) 分析対象決定装置及び分析対象決定方法
JP2014123813A (ja) オペレータ対顧客会話自動採点装置およびその動作方法
JP2017211586A (ja) 心理分析装置、心理分析方法、およびプログラム
JP2019174768A (ja) 情報処理装置
WO2020196743A1 (ja) 評価システム及び評価方法
JP2019175382A (ja) 情報処理装置
Lepp Pardon the Interruption: Automatic Analysis of Gender and Competitive Turn-Taking in United States Supreme Court Hearings.
WO2009130785A1 (ja) 問題解決時間推定処理プログラム,処理装置および処理方法
JPWO2020235039A1 (ja) 情報処理装置、サウンドマスキングシステム、制御方法、及び制御プログラム
Moriya et al. Estimation of conversational activation level during video chat using turn-taking information.
JP7584567B1 (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP7561101B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200720

R150 Certificate of patent or registration of utility model

Ref document number: 6747592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees