JP2014044346A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2014044346A
JP2014044346A JP2012187136A JP2012187136A JP2014044346A JP 2014044346 A JP2014044346 A JP 2014044346A JP 2012187136 A JP2012187136 A JP 2012187136A JP 2012187136 A JP2012187136 A JP 2012187136A JP 2014044346 A JP2014044346 A JP 2014044346A
Authority
JP
Japan
Prior art keywords
listener
comment
presentation
data
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012187136A
Other languages
English (en)
Other versions
JP6171288B2 (ja
Inventor
Tomoshi Moriya
智志 森谷
Koji Nishitani
耕司 西谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012187136A priority Critical patent/JP6171288B2/ja
Publication of JP2014044346A publication Critical patent/JP2014044346A/ja
Application granted granted Critical
Publication of JP6171288B2 publication Critical patent/JP6171288B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】プレゼンテーションにおける聴講者の反応を定量的に評価する。
【解決手段】プレゼンテーションデータに基づくプレゼンテーション時に録音された音声データに含まれるコメントが聞き手(聴講者)によるものであるかを判別し、音声データに含まれるコメントを音声認識してテキストデータに変換する。次に、聞き手によるものであると判別されたコメントを音声認識して得られたテキストデータに基づいて、当該コメントがプレゼンテーションに対して肯定的なものであるか、否定的なものであるかを判別する。音声データのプレゼンテーションデータの各ページに対応する部分毎に、聞き手によるものであると判別されたコメントに対する肯否判別の判別結果に基づいて、聞き手(聴講者)の反応を示す手ごたえ指数を算出する。
【選択図】図3

Description

本発明は、情報処理装置及びプログラムに関する。
近年、プレゼンテーションを行う際には、説明者がPC(Personal Computer)やタブレット型情報端末を用いて発表用資料の各ページを表示させながら、表示されているページに対応した内容を説明する機会が多くなってきている。
プレゼンテーションの効果を高めるために、例えば、プレゼンテーション実施時に、発表者の音声の大きさ及び抑揚を分析し、音声が大きい場合又は抑揚が大きい場合に、資料が表示されている画面を強調表示したり、注意を引く音声を発したりするプレゼンテーションシステムが提案されている(特許文献1参照)。
また、プレゼンテーションの説明者は、プレゼンテーション中のどのポイントで聞き手が良い反応を示したか、又は、悪い反応を示したか、に興味を持っている。聞き手の反応に応じて、プレゼンテーションの内容を改善することができるからである。
特開2002−023716号公報
しかしながら、説明者は、プレゼンテーション中は発表に集中しているため、聞き手の反応を自ら分析することは困難であった。
ボイスレコーダ等を用いて聞き手のコメントを記録することは可能であるが、記録された音声データのどこに聞き手のコメントがあるかわからないため、聞き手の反応を確認するには時間と手間がかかっていた。また、聞き手の反応を定量的に測定する手段はなかった。
本発明の課題は、プレゼンテーションにおける聴講者の反応を定量的に評価することである。
本発明の情報処理装置は、プレゼンテーションを聴講した聴講者の反応を認識し、聴講者の反応が肯定的であるか否定的であるかを判別する判別部と、前記判別部による判別結果に基づいて、聴講者の反応を示す評価値を算出する算出部と、を備える。
本発明によれば、プレゼンテーションにおける聴講者の反応を定量的に評価することができる。
情報処理装置の機能的構成を示すブロック図である。 発言者リストのデータ構成例を示す図である。 コメント分析データのデータ構成例を示す図である。 音声蓄積処理を示すフローチャートである。 音声データ解析処理を示すフローチャートである。 発言者判別処理を示すフローチャートである。 コメント分析処理を示すフローチャートである。
以下、図面を参照して本発明に係る実施の形態について説明する。なお、本発明は、図示例に限定されるものではない。
図1は、本実施の形態に係る情報処理装置10の機能的構成を示すブロック図である。
情報処理装置10は、判別部、算出部としてのCPU(Central Processing Unit)11と、操作部12と、表示部13と、通信部14と、音声入力部15と、音声出力部16と、RAM(Random Access Memory)17と、ROM(Read Only Memory)18と、記憶部19と、を備え、各部はバス20を介して接続されている。情報処理装置10は、一般的なPCやタブレット型情報端末により構成される。
CPU11は、情報処理装置10の各部の処理動作を統括的に制御する。具体的には、CPU11は、ROM18に記憶されている各種処理プログラムを読み出してRAM17に展開し、当該プログラムとの協働により各種処理を行う。
操作部12は、文字入力キー、数字入力キー、各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスと、を含む構成である。操作部12は、ユーザによるキーボードに対するキー操作やマウス操作により入力された操作信号をCPU11に出力する。また、操作部12は、表示部13の表示画面に設けられたタッチパネルを含み、ユーザの指等によるタッチ操作の位置を検出し、その位置に応じた操作信号をCPU11に出力することとしてもよい。
表示部13は、LCD(Liquid Crystal Display)等で構成され、CPU11からの表示制御信号に従って画面表示を行う。
通信部14は、ネットワークインターフェース等により構成され、通信ネットワークを介して接続された外部機器との間でデータの送受信を行う。
音声入力部15は、ステレオマイク15a、A/D変換回路15bを備える。ステレオマイク15aは、音声を電気信号(アナログ信号)に変換し、このアナログ信号をA/D変換回路15bに出力する。A/D変換回路15bは、ステレオマイク15aから出力されたアナログ信号をデジタル信号に変換し、このデジタル信号をCPU11に出力する。
音声出力部16は、スピーカ16a、D/A変換回路16bを備える。D/A変換回路16bは、記憶部19に記憶されている音声データ192又は分割音声データ194に基づくデジタル信号をアナログ信号に変換し、このアナログ信号をスピーカ16aに出力する。スピーカ16aは、D/A変換回路16bから出力されたアナログ信号に基づいて、音声を出力する。
RAM17は、揮発性のメモリである。RAM17には、実行される各種プログラムやこれら各種プログラムに係るデータ等が格納される。
ROM18は、各種プログラム及び各種データを記憶する読み出し専用の半導体メモリである。ROM18には、プレゼンテーションツールプログラム181、音声蓄積プログラム182、音声データ解析プログラム183、解析結果出力プログラム184が記憶されている。
記憶部19は、HDD(Hard Disk Drive)や不揮発性メモリ等により構成され、情報を読み出し及び書き込み可能に記憶する。
記憶部19には、資料データとしてのプレゼンテーションデータ191が記憶されている。プレゼンテーションデータ191は、複数のページからなるプレゼンテーション用の資料の電子データであり、スライド形式で文字や図表を表示するプレゼンテーションツールプログラム181により作成されたものである。プレゼンテーションデータ191には、テキストデータが含まれる。
本実施の形態において、プレゼンテーションとは、プレゼンテーションデータ191として記憶された資料データに基づいて発表者が発表を行い、それを聴講者が聴講するという発表形態に限らず、プレゼンテーションデータとして映像データや画像データを表示装置に表示し、それを聴講者が視聴するという発表形態や、プレゼンテーションデータとして音声データを音響装置から出力し、それを聴講者が聴講するという発表形態や、プレゼンテーションデータとして映像データ及び音声データをプレゼンテーション装置に出力し、それを聴講者が視聴及び聴講するという発表形態も含まれる。
また、記憶部19には、音声蓄積処理(図4参照)において生成される音声データ192が記憶される。音声データ192は、プレゼンテーションデータ191に基づいて行われたプレゼンテーション時に録音されたものであり、例えば、avi形式のファイルとして生成される。
また、記憶部19には、音声データ解析処理(図5参照)において生成される発言者リスト193、分割音声データ194、コメント分析データ195が記憶される。
図2に、発言者リスト193のデータ構成例を示す。発言者リスト193は、音声データ192に含まれる発言(以下、コメントという。)の発言者毎に、波形の特徴が対応付けられたものである。
分割音声データ194は、音声データ192をプレゼンテーションデータ191の各ページに対応する部分毎に分割したデータである。すなわち、分割音声データ194は、プレゼンテーションデータ191のページ数分、生成される。分割音声データ194は、例えば、avi形式のファイルとして生成される。
図3に、コメント分析データ195のデータ構成例を示す。コメント分析データ195には、プレゼンテーションデータ191のページ、コメント(テキストデータ)、発言者、発言時間、肯否フラグ、コメント毎の手ごたえ指数、ページ毎の手ごたえ指数が含まれる。コメント、発言者、発言時間、肯否フラグ及びコメント毎の手ごたえ指数は、音声データ192に含まれるコメント毎に対応付けられて記憶されるデータであり、ページ及びページ毎の手ごたえ指数は、ページ毎に対応付けられて記憶されるデータである。コメント分析データ195は、例えば、csv形式、xls形式のファイルとして生成される。
肯否フラグは、聞き手(聴講者)によるコメントがプレゼンテーションに対して肯定的であるか、否定的であるかを示す情報であり、「肯定」を意味する「1」、「否定」を意味する「−1」、「判別不能」を意味する「0」のいずれかの値をとる。
CPU11は、音声データ解析プログラム183との協働により、プレゼンテーションデータ191に基づくプレゼンテーション時に録音された音声データ192に含まれるコメントのそれぞれが説明者によるものであるか、又は、聞き手(聞き手A、聞き手B、・・・)によるものであるかを判別する。説明者は、プレゼンテーションにおいて説明を行う人物であり、聞き手は、プレゼンテーションの参加者のうち説明者以外の人物である。
具体的には、CPU11は、音声データ192に含まれる各コメントの波形から発言者の特徴を抽出して発言者リスト193を生成し、発言者リスト193に登録された各発言者の特徴を用いて発言者を判別する。
CPU11は、予め用意されている音声認識辞書を参照することにより、音声データ192に含まれるコメントを音声認識してテキストデータに変換する。
CPU11は、聞き手(聴講者)によるものであると判別されたコメントを音声認識して得られたテキストデータに基づいて、当該コメントの中に所定の肯定的文言が含まれる場合に、当該コメントがプレゼンテーションに対して肯定的なものであると判別し、当該コメントの中に所定の否定的文言が含まれる場合に、当該コメントがプレゼンテーションに対して否定的なものであると判別する(肯否判別)。
具体的には、CPU11は、聞き手によるものであると判別されたコメントの中に同意又は賞賛を示す言葉が含まれる場合に、当該コメントがプレゼンテーションに対して肯定的なものであると判別する。CPU11は、聞き手によるものであると判別されたコメントの中に反対又は批判を示す言葉が含まれる場合に、当該コメントがプレゼンテーションに対して否定的なものであると判別する。
また、CPU11は、聞き手によるものであると判別されたコメントを音声認識して得られたテキストデータとプレゼンテーションデータ191に含まれるテキストデータとを比較して、当該コメントから得られたテキストデータの内容とプレゼンテーションデータ191に含まれるテキストデータの内容とが一致する場合に、当該コメントがプレゼンテーションに対して肯定的なものであると判別する。
CPU11は、音声認識により変換されたテキストデータと記憶部19に記憶されているプレゼンテーションデータ191の各ページに含まれるテキストデータとを比較して、音声データ192のプレゼンテーションデータ191の各ページに対応する部分を検出する。
CPU11は、検出された音声データ192のプレゼンテーションデータ191の各ページに対応する部分毎に、聞き手によるものであると判別されたコメントに対する肯否判別の判別結果に基づいて、聞き手の反応を示す評価値としての手ごたえ指数を算出する。
例えば、CPU11は、聞き手によるコメントが肯定的なものであると判別された場合に、手ごたえ指数がより大きくなるように手ごたえ指数を算出し、聞き手によるコメントが否定的なものであると判別された場合に、手ごたえ指数がより小さくなるように手ごたえ指数を算出する。
また、CPU11は、聞き手によるものであると判別されたコメントの時間を考慮して、手ごたえ指数を算出する。
例えば、CPU11は、聞き手による肯定的なコメントの時間が長いほど、手ごたえ指数がより大きくなるように手ごたえ指数を算出し、聞き手による否定的なコメントの時間が長いほど、手ごたえ指数がより小さくなるように手ごたえ指数を算出する。
また、CPU11は、音声データ192のプレゼンテーションデータ191の各ページに対応する部分に聞き手によるものであると判別されたコメントが複数含まれる場合に、当該複数のコメントに基づいて、手ごたえ指数を算出する。
例えば、CPU11は、聞き手による肯定的なコメントの回数が多いほど、手ごたえ指数がより大きくなるように手ごたえ指数を算出し、聞き手による否定的なコメントの回数が多いほど、手ごたえ指数がより小さくなるように手ごたえ指数を算出する。
次に、情報処理装置10における動作について説明する。
図4は、情報処理装置10において実行される音声蓄積処理を示すフローチャートである。この処理は、プレゼンテーションを実施する際に行われる処理であって、CPU11とROM18に記憶されている音声蓄積プログラム182との協働によるソフトウェア処理によって実現される。
まず、CPU11は、説明者による操作部12からの操作に基づいて、音声入力部15を制御して、音声の録音を開始させる(ステップS1)。音声入力部15は、ステレオマイク15aから入力された音声のアナログ信号をA/D変換回路15bによりデジタル信号に変換して得られた音声データ192をCPU11に出力する。
CPU11は、プレゼンテーションツールプログラム181との協働により、プレゼンテーションデータ191を読み出し、プレゼンテーションデータ191に基づいて、複数のページからなるプレゼンテーション用の資料を表示部13に表示させる(ステップS2)。説明者は、表示部13に表示される資料に合わせて説明を行う。CPU11は、音声入力部15から入力される説明者及び聞き手のコメントを含む音声データ192を記憶部19に蓄積していく。
プレゼンテーションの終了後、CPU11は、説明者による操作部12からの操作に基づいて、音声入力部15を制御して、音声の録音を停止させる(ステップS3)。
以上で、音声蓄積処理が終了する。
次に、図5を参照して、音声データ解析処理について説明する。この処理は、プレゼンテーション後に行われる処理であって、CPU11とROM18に記憶されている音声データ解析プログラム183との協働によるソフトウェア処理によって実現される。
まず、CPU11は、記憶部19に記憶されている音声データ192を読み出し、音声データ192内の発言者の波形をリスト化し、発言者リスト193を生成する(ステップS11)。具体的には、CPU11は、音声データ192の全体を通して分析し、音の高低や話す速度、ステレオマイク15aから入力された2方向の音声の大きさの差分(音源の位置に対応する)に基づいて、音声データ192内に出現する音声(発言者)を区別し、発言者毎に波形の特徴を発言者リスト193に登録する。CPU11は、生成した発言者リスト193を記憶部19に記憶させる。
例えば、CPU11は、発言者リスト193を生成する際に、音声データ192の中で最も発言時間の合計が長い発言者を「説明者」であると判別し、他の発言者を「聞き手A」、「聞き手B」、・・・であると判別する。
なお、発言内容とプレゼンテーションデータ191の内容とを比較して、プレゼンテーションデータ191の内容を一番多く語っている人を「説明者」であると判別することとしてもよい。この場合、ステップS11の前に、音声データ192の音声認識を行っておく必要がある。
また、説明者は、プレゼンテーションデータ191のページが切り替えられた直後に長く話す傾向があるので、音声データ192においてページ毎の区切りを判別した後に、「説明者」を特定することとしてもよい。
次に、CPU11は、音声データ192をコメント毎に区切り、無声部分を削除する(ステップS12)。例えば、CPU11は、音声データ192の中で、無声部分の時間が所定の値以上の場合に、コメントの区切りであると判断する。
次に、CPU11は、処理対象とするコメントを音声データ192の先頭から順に選択し(ステップS13)、発言者判別処理を行う(ステップS14)。
ここで、図6を参照して、発言者判別処理について説明する。
CPU11は、音声データ192の処理対象のコメント部分を、記憶部19に記憶されている発言者リスト193の各波形の特徴と照合する(ステップS31)。そして、CPU11は、音声データ192の処理対象のコメント部分と一致した波形の特徴に対応する発言者を発言者リスト193から取得し、処理対象のコメントの発言者を特定する(ステップS32)。このようにして、CPU11は、音声データ192に含まれるコメントのそれぞれが説明者によるものであるか、聞き手によるものであるかを判別する。コメントが聞き手によるものである場合には、CPU11は、更に、聞き手A、聞き手B、・・・のいずれによるものであるかを判別する。CPU11は、記憶部19のコメント分析データ195の処理対象のコメントに対応するレコードの「発言者」フィールドに、特定した発言者を格納する。
発言者判別処理(ステップS14)の後、CPU11は、音声データ192に含まれる処理対象のコメントを音声認識してテキストデータに変換する(ステップS15)。CPU11は、コメント分析データ195の処理対象のコメントに対応するレコードの「コメント」フィールドに、音声認識により得られたテキストデータを格納する。
次に、処理対象のコメントが発言者判別処理において聞き手のコメントであると判別された場合には(ステップS16;YES)、CPU11は、コメント分析処理を行う(ステップS17)。
ここで、図7を参照して、コメント分析処理について説明する。
CPU11は、聞き手によるものであると判別された処理対象のコメントを音声認識して得られたテキストデータとプレゼンテーションデータ191に含まれるテキストデータとを比較して(ステップS41)、処理対象のコメントから得られたテキストデータの内容がプレゼンテーションデータ191に含まれるテキストデータの内容と一致するか否かを判別する(ステップS42)。処理対象のコメントから得られたテキストデータの内容がプレゼンテーションデータ191に含まれるテキストデータの内容と一致する場合には(ステップS42;YES)、CPU11は、コメント分析データ195の処理対象のコメントに対応するレコードの「肯否フラグ」を「1」にする(ステップS43)。
なお、CPU11は、処理対象のコメントから得られたテキストデータとプレゼンテーションデータ191の対象ページに含まれるテキストデータのみを比較することとしてもよい。
例えば、図3に示すコメント分析データ195のコメントC1の「○○について、とても興味があります。」の「○○」がプレゼンテーションデータ191の内容と一致する場合には、「肯否フラグ」が「1」となる。
ステップS42において、処理対象のコメントから得られたテキストデータの内容がプレゼンテーションデータ191に含まれるテキストデータの内容と一致しない場合には(ステップS42;NO)、CPU11は、処理対象のコメントの中に同意又は賞賛を示す言葉(「同じ意見です。」等)が含まれるか否かを判別する(ステップS44)。例えば、同意又は賞賛を示す言葉を列挙したリストを予め用意しておき、処理対象のコメントとこのリスト内の言葉とを比較することにより、同意又は賞賛を示す言葉が含まれるか否かを判別する。
処理対象のコメントの中に同意又は賞賛を示す言葉が含まれる場合には(ステップS44;YES)、CPU11は、コメント分析データ195の処理対象のコメントに対応するレコードの「肯否フラグ」を「1」にする(ステップS43)。
例えば、図3に示すコメント分析データ195のコメントC2の「これはいいね。更にこんなことはできる?」の「これはいいね」は賞賛を示す言葉であるため、「肯否フラグ」が「1」となる。
なお、コメントC1の「○○について、とても興味があります。」についても、「とても興味があります」を同意又は賞賛を示す言葉であると判別して、「肯否フラグ」を「1」としてもよい。
ステップS44において、処理対象のコメントの中に同意又は賞賛を示す言葉が含まれない場合には(ステップS44;NO)、CPU11は、処理対象のコメントの中に反対又は批判を示す言葉(「反対です。」等)が含まれるか否かを判別する(ステップS45)。例えば、反対又は批判を示す言葉を列挙したリストを予め用意しておき、処理対象のコメントとこのリスト内の言葉とを比較することにより、反対又は批判を示す言葉が含まれるか否かを判別する。
処理対象のコメントの中に反対又は批判を示す言葉が含まれる場合には(ステップS45;YES)、CPU11は、コメント分析データ195の処理対象のコメントに対応するレコードの「肯否フラグ」を「−1」にする(ステップS46)。
例えば、図3に示すコメント分析データ195のコメントC3の「そこまでの機能はいらないかも。」の「いらない」は反対を示す言葉であるため、「肯否フラグ」が「−1」となる。
ステップS45において、処理対象のコメントの中に反対又は批判を示す言葉が含まれない場合には(ステップS45;NO)、CPU11は、コメント分析データ195の処理対象のコメントに対応するレコードの「肯否フラグ」を「0」にする(ステップS47)。
ステップS43、ステップS46又はステップS47の後、CPU11は、音声データ192における処理対象のコメント部分の長さに基づいて、処理対象のコメントの発言時間を取得する(ステップS48)。CPU11は、コメント分析データ195の処理対象のコメントに対応するレコードの「発言時間」フィールドに、取得した発言時間を格納する。
次に、CPU11は、肯否フラグの値と発言時間とを掛け合わせて、処理対象のコメントに対する手ごたえ指数を計算する(ステップS49)。
コメント毎の手ごたえ指数=(肯否フラグの値)×(発言時間(秒))
CPU11は、コメント分析データ195の処理対象のコメントに対応するレコードの「コメント毎の手ごたえ指数」フィールドに、計算した手ごたえ指数を格納する。
例えば、図3に示すコメント分析データ195のコメントC1に対しては、「肯否フラグ」が「1」、「発言時間」が「10秒」であるから、コメント毎の手ごたえ指数は「+10」となる。
コメント分析処理(ステップS17)の後、又は、処理対象のコメントが発言者判別処理において説明者のコメントであると判別された場合には(ステップS16;NO)、CPU11は、処理対象のコメントの内容が次のページのものであるか否かを判別する(ステップS18)。具体的には、CPU11は、処理対象のコメントを音声認識して得られたテキストデータと記憶部19に記憶されているプレゼンテーションデータ191の各ページに含まれるテキストデータとを比較して、コメントの内容が対象ページの内容ではなく、次のページの内容と一致する場合に、コメントの内容が次のページのものであると判別する。
処理対象のコメントの内容が次のページのものでない場合には(ステップS18;NO)、CPU11は、処理対象のコメントが音声データ192の最終のコメントであるか否かを判別する(ステップS19)。
処理対象のコメントが音声データ192の最終のコメントでない場合には(ステップS19;NO)、ステップS13に戻り、次のコメントを処理対象として処理が繰り返される。
ステップS18において、コメントの内容が次のページのものである場合には(ステップS18;YES)、CPU11は、直前のコメントで音声データ192を分割し、分割音声データ194を生成する(ステップS20)。すなわち、ステップS13〜ステップS18において処理対象としていたコメントについては、次の分割音声データ194に含まれることになる。分割音声データ194のファイル名は、例えば、「ページ番号.avi」とする。CPU11は、生成された分割音声データ194を記憶部19に記憶させる。
次に、CPU11は、生成された分割音声データ194に対する手ごたえ指数、すなわち、音声データ192のプレゼンテーションデータ191の1ページ分に対応する部分の手ごたえ指数を集計する(ステップS21)。具体的には、CPU11は、音声データ192のプレゼンテーションデータ191の1ページ分に対応する部分に含まれるコメント毎の手ごたえ指数の和をとる。CPU11は、コメント分析データ195の処理対象のページに対応する「ページ毎の手ごたえ指数」フィールドに、集計した手ごたえ指数を格納する。
ステップS21の後、ステップS13に戻り、次のコメントを処理対象として処理が繰り返される。
ステップS19において、処理対象のコメントが音声データ192の最終のコメントである場合には(ステップS19;YES)、CPU11は、最終のコメントで音声データ192を分割し、分割音声データ194を生成する(ステップS22)。CPU11は、生成された分割音声データ194を記憶部19に記憶させる。
次に、CPU11は、生成された分割音声データ194に対する手ごたえ指数、すなわち、音声データ192のプレゼンテーションデータ191の最終ページ分に対応する部分の手ごたえ指数を集計する(ステップS23)。具体的には、CPU11は、音声データ192のプレゼンテーションデータ191の最終ページ分に対応する部分に含まれるコメント毎の手ごたえ指数の和をとる。CPU11は、コメント分析データ195の最終ページに対応する「ページ毎の手ごたえ指数」フィールドに、集計した手ごたえ指数を格納する。
以上で、音声データ解析処理が終了する。
音声データ解析処理によりコメント分析データ195が生成された後、CPU11は、ROM18に記憶されている解析結果出力プログラム184との協働により、記憶部19からコメント分析データ195を読み出して、解析結果を表示部13に表示させる。例えば、CPU11は、コメント分析データ195を図3と同様に、表形式で表示させる。また、肯否フラグについては、見やすいように、「1」を「肯定」、「−1」を「否定」、「0」を「判別不能」と変換して表示してもよい。
また、CPU11は、コメント分析データ195に基づいて、解析結果を印刷させるための印刷データを生成し、生成した印刷データを、通信部14を介してプリンタに送信することとしてもよい。
以上説明したように、情報処理装置10によれば、プレゼンテーション時に録音された音声データ192を解析して、音声データ192のプレゼンテーションデータ191の各ページに対応する部分毎に、聞き手(聴講者)の反応を示す手ごたえ指数を算出するので、プレゼンテーションにおける聞き手の反応を定量的に評価することができる。
説明者は、プレゼンテーション後にコメント分析データ195を参照し、聞き手の反応が良かった部分を強く推す内容に変更したり、聞き手の反応が悪かった部分については、聞き手の興味を引くように説明方法を変更したりする等、プレゼンテーションの内容を改善することができる。
また、聞き手によるものであると判別されたコメントの時間を考慮して、手ごたえ指数を算出するので、コメントの時間に応じた聞き手の反応の評価が可能となる。
また、音声データ192のプレゼンテーションデータ191の各ページに対応する部分に聞き手によるものであると判別されたコメントが複数含まれる場合に、当該複数のコメントに基づいて、手ごたえ指数を算出するので、複数のコメントの内容に応じた聞き手の反応の評価が可能となる。
また、聞き手によるものであると判別されたコメントの中に同意又は賞賛を示す言葉が含まれる場合に、当該コメントがプレゼンテーションに対して肯定的なものであると判別し、聞き手によるものであると判別されたコメントの中に反対又は批判を示す言葉が含まれる場合に、当該コメントがプレゼンテーションに対して否定的なものであると判別するので、聞き手のコメント自体が肯定的であるか否か、否定的であるか否かを判別することができる。
また、聞き手によるものであると判別されたコメントを音声認識して得られたテキストデータの内容とプレゼンテーションデータ191に含まれるテキストデータの内容とが一致する場合に、当該コメントがプレゼンテーションに対して肯定的なものであると判別するので、プレゼンテーションの内容に沿って、聞き手のコメントが肯定的であるか否かを判別することができる。
なお、上記実施の形態における記述は、本発明に係る情報処理装置の例であり、これに限定されるものではない。装置を構成する各部の細部構成及び細部動作に関しても本発明の趣旨を逸脱することのない範囲で適宜変更可能である。
例えば、発言者の役職、立場等で、コメントに重み付けをしてもよい。この場合、情報処理装置10が音声データ192から自動的に発言者の役職、立場等を判断することは困難であるため、音声データ解析処理の後、プレゼンテーションの説明者等のユーザがコメント分析データ195を参照して、各発言者の重要度を手動で追加し、手ごたえ指数に重要度を掛けた値を、重み付け後の手ごたえ指数として算出し直すこととする。
また、コメント分析データ195に基づいて、ページ毎に分割された分割音声データ194から聞き手のコメントのみを抽出して、音声出力部16により聞き手の音声のみを出力することとしてもよい。具体的には、分割音声データ194を生成する際に、無声部分を削除しておく。そして、コメント分析データ195から「発言者」が「聞き手(聞き手A、聞き手B、・・・)」であるコメントのみを抽出し、抽出された各コメントが含まれる「ページ」に対応する分割音声データ194の聞き手のコメント部分のみ(コメント分析データ195において同一ページに含まれるコメントのうち、該当コメントより前の全コメントの「発言時間」の合計から該当コメントの「発言時間」分)を再生する。聞き手のコメントのみを聞き返すことができるので、聞き手の反応を確認したい場合の時間を短縮することができる。
また、コメント分析データ195に基づいて、ページ毎に分割された分割音声データ194から説明者のコメントのみを抽出して、説明者のコメントのみをまとめた音声データを生成し、この音声データを聞き手やプレゼンテーションに参加していなかった人に送信することとしてもよい。具体的には、分割音声データ194を生成する際に、無声部分を削除しておく。そして、コメント分析データ195から「発言者」が「説明者」であるコメントのみを抽出し、抽出された各コメントが含まれる「ページ」に対応する分割音声データ194の説明者のコメント部分のみ(コメント分析データ195において同一ページに含まれるコメントのうち、該当コメントより前の全コメントの「発言時間」の合計から該当コメントの「発言時間」分)を繋いで音声データを生成する。また、製品紹介のプレゼンテーションの場合には、説明者のコメントのみを含むように生成された音声データを、営業担当者を教育する際の教材として使用することとしてもよい。
上記実施の形態では、プレゼンテーション時に録音された音声データを解析して、聞き手(聴講者)の反応を示す手ごたえ指数を算出するようにしたが、変形例としては、プレゼンテーション時に録画された画像データを解析して、聞き手(聴講者)の反応を示す手ごたえ指数を算出するようにしてもよい。
即ち、プレゼンテーション時に録画された画像データを解析して、画像データのプレゼンテーションデータの各ページに対応する部分毎に、聞き手(聴講者)の反応を示す手ごたえ指数を算出するようにしてもよい。
この場合、画像データを解析して、聞き手(聴講者)が行う動作を認識し、認識した動作に基づいて聞き手(聴講者)の反応を認識し、聞き手(聴講者)の反応が肯定的であるか否定的であるかを判別するようにする。ここで、動作とは、聞き手(聴講者)がプレゼンテーションに反応して行う身振り、手振り、うなずき、拍手等の身体的動きを意味する。
また、音声データや画像データのプレゼンテーションデータ191のブロックに対応する部分毎に、聞き手(聴講者)の反応を示す手ごたえ指数を算出することとしてもよい。ブロックは、例えば、プレゼンテーションデータ191に含まれるテーマや章等の纏まりを意味し、複数のページから構成されていてもよいし、1ページの一部分から構成されていてもよい。
また、プレゼンテーション時に録画された画像データについて、プレゼンテーションデータ191の各ページ又は各ブロックに対応する部分を検出する際には、音声データの場合と同様、画像データに含まれる音声を認識して、プレゼンテーションデータ191の各ページ又は各ブロックに含まれるテキストデータと比較すればよい。あるいは、録画する際に、予めプレゼンテーションデータ191のページ又はブロック毎の区切りを、画像データと対応付けて記録しておいてもよい。
以上の説明では、各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体としてROMを使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)を適用することとしてもよい。
本発明の実施の形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
プレゼンテーションを聴講した聴講者の反応を認識し、聴講者の反応が肯定的であるか否定的であるかを判別する判別部と、
前記判別部による判別結果に基づいて、聴講者の反応を示す評価値を算出する算出部と、
を備える情報処理装置。
<請求項2>
前記判別部は、前記聴講者の反応を前記聴講者が発する音声に基づいて認識し、前記聴講者の反応が肯定的であるか否定的であるかを判別する、
請求項1に記載の情報処理装置。
<請求項3>
前記判別部は、前記聴講者が発する音声の中に同意又は賞賛を示す言葉が含まれる場合に、前記聴講者の反応が肯定的であると判別し、前記聴講者が発する音声の中に反対又は批判を示す言葉が含まれる場合に、前記聴講者の反応が否定的であると判別する、
請求項2に記載の情報処理装置。
<請求項4>
前記判別部は、前記聴講者の反応を前記聴講者が行う動作に基づいて認識し、前記聴講者の反応が肯定的であるか否定的であるかを判別する、
請求項1に記載の情報処理装置。
<請求項5>
前記判別部は、前記聴講者が行う動作の中に同意又は賞賛を示す動作が含まれる場合に、前記聴講者の反応が肯定的であると判別し、前記聴講者が行う動作の中に反対又は批判を示す動作が含まれる場合に、前記聴講者の反応が否定的であると判別する、
請求項4に記載の情報処理装置。
<請求項6>
前記算出部は、前記プレゼンテーションに伴う発言内容毎に、前記聴講者の反応を示す評価値を算出する、
請求項1〜3のいずれか一項に記載の情報処理装置。
<請求項7>
前記算出部は、前記プレゼンテーションに伴うプレゼンテーション資料のページ毎に、前記聴講者の反応を示す評価値を算出する、
請求項1〜5のいずれか一項に記載の情報処理装置。
<請求項8>
前記算出部は、前記プレゼンテーションに伴うプレゼンテーション資料のブロック毎に、前記聴講者の反応を示す評価値を算出する、
請求項1〜5のいずれか一項に記載の情報処理装置。
<請求項9>
前記算出部は、前記判別部により判別された前記聴講者の反応の時間に基づいて、前記聴講者の反応を示す評価値を算出する、
請求項1〜8のいずれか一項に記載の情報処理装置。
<請求項10>
前記算出部は、前記判別部により判別された前記聴講者の反応の回数に基づいて、前記聴講者の反応を示す評価値を算出する、
請求項1〜8のいずれか一項に記載の情報処理装置。
<請求項11>
前記算出部は、前記判別部により聴講者の反応が肯定的であると判別された場合は評価値を加算し、前記判別部により聴講者の反応が否定的であると判別された場合は評価値を減算し、前記聴講者の反応を示す評価値を算出する、
請求項1〜10のいずれか一項に記載の情報処理装置。
<請求項12>
コンピュータを、
プレゼンテーションを聴講した聴講者の反応を認識し、聴講者の反応が肯定的であるか否定的であるかを判別する判別部、
前記判別部による判別結果に基づいて、聴講者の反応を示す評価値を算出する算出部、
として機能させるためのプログラム。
10 情報処理装置
11 CPU
12 操作部
13 表示部
14 通信部
15 音声入力部
16 音声出力部
17 RAM
18 ROM
19 記憶部
183 音声データ解析プログラム
191 プレゼンテーションデータ
192 音声データ
193 発言者リスト
194 分割音声データ
195 コメント分析データ

Claims (12)

  1. プレゼンテーションを聴講した聴講者の反応を認識し、聴講者の反応が肯定的であるか否定的であるかを判別する判別部と、
    前記判別部による判別結果に基づいて、聴講者の反応を示す評価値を算出する算出部と、
    を備える情報処理装置。
  2. 前記判別部は、前記聴講者の反応を前記聴講者が発する音声に基づいて認識し、前記聴講者の反応が肯定的であるか否定的であるかを判別する、
    請求項1に記載の情報処理装置。
  3. 前記判別部は、前記聴講者が発する音声の中に同意又は賞賛を示す言葉が含まれる場合に、前記聴講者の反応が肯定的であると判別し、前記聴講者が発する音声の中に反対又は批判を示す言葉が含まれる場合に、前記聴講者の反応が否定的であると判別する、
    請求項2に記載の情報処理装置。
  4. 前記判別部は、前記聴講者の反応を前記聴講者が行う動作に基づいて認識し、前記聴講者の反応が肯定的であるか否定的であるかを判別する、
    請求項1に記載の情報処理装置。
  5. 前記判別部は、前記聴講者が行う動作の中に同意又は賞賛を示す動作が含まれる場合に、前記聴講者の反応が肯定的であると判別し、前記聴講者が行う動作の中に反対又は批判を示す動作が含まれる場合に、前記聴講者の反応が否定的であると判別する、
    請求項4に記載の情報処理装置。
  6. 前記算出部は、前記プレゼンテーションに伴う発言内容毎に、前記聴講者の反応を示す評価値を算出する、
    請求項1〜3のいずれか一項に記載の情報処理装置。
  7. 前記算出部は、前記プレゼンテーションに伴うプレゼンテーション資料のページ毎に、前記聴講者の反応を示す評価値を算出する、
    請求項1〜5のいずれか一項に記載の情報処理装置。
  8. 前記算出部は、前記プレゼンテーションに伴うプレゼンテーション資料のブロック毎に、前記聴講者の反応を示す評価値を算出する、
    請求項1〜5のいずれか一項に記載の情報処理装置。
  9. 前記算出部は、前記判別部により判別された前記聴講者の反応の時間に基づいて、前記聴講者の反応を示す評価値を算出する、
    請求項1〜8のいずれか一項に記載の情報処理装置。
  10. 前記算出部は、前記判別部により判別された前記聴講者の反応の回数に基づいて、前記聴講者の反応を示す評価値を算出する、
    請求項1〜8のいずれか一項に記載の情報処理装置。
  11. 前記算出部は、前記判別部により聴講者の反応が肯定的であると判別された場合は評価値を加算し、前記判別部により聴講者の反応が否定的であると判別された場合は評価値を減算し、前記聴講者の反応を示す評価値を算出する、
    請求項1〜10のいずれか一項に記載の情報処理装置。
  12. コンピュータを、
    プレゼンテーションを聴講した聴講者の反応を認識し、聴講者の反応が肯定的であるか否定的であるかを判別する判別部、
    前記判別部による判別結果に基づいて、聴講者の反応を示す評価値を算出する算出部、
    として機能させるためのプログラム。
JP2012187136A 2012-08-28 2012-08-28 情報処理装置及びプログラム Active JP6171288B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012187136A JP6171288B2 (ja) 2012-08-28 2012-08-28 情報処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012187136A JP6171288B2 (ja) 2012-08-28 2012-08-28 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2014044346A true JP2014044346A (ja) 2014-03-13
JP6171288B2 JP6171288B2 (ja) 2017-08-02

Family

ID=50395642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012187136A Active JP6171288B2 (ja) 2012-08-28 2012-08-28 情報処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6171288B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022004567A1 (ja) * 2020-07-02 2022-01-06

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200440A (ja) * 1993-12-28 1995-08-04 Nec Corp インタラクティブプレゼンテーション装置
JP2011066794A (ja) * 2009-09-18 2011-03-31 Sharp Corp 会議管理装置及び会議管理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200440A (ja) * 1993-12-28 1995-08-04 Nec Corp インタラクティブプレゼンテーション装置
JP2011066794A (ja) * 2009-09-18 2011-03-31 Sharp Corp 会議管理装置及び会議管理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022004567A1 (ja) * 2020-07-02 2022-01-06
WO2022004567A1 (ja) * 2020-07-02 2022-01-06 パナソニックIpマネジメント株式会社 コミュニケーション解析システム、及び、コミュニケーション解析方法
JP7369942B2 (ja) 2020-07-02 2023-10-27 パナソニックIpマネジメント株式会社 コミュニケーション解析システム、及び、コミュニケーション解析方法

Also Published As

Publication number Publication date
JP6171288B2 (ja) 2017-08-02

Similar Documents

Publication Publication Date Title
US10347250B2 (en) Utterance presentation device, utterance presentation method, and computer program product
US20200294487A1 (en) Hands-free annotations of audio text
KR101826714B1 (ko) 말하기 학습 기능을 구비한 외국어 학습 시스템 및 외국어 학습 방법
CN108847214B (zh) 语音处理方法、客户端、装置、终端、服务器和存储介质
US11950020B2 (en) Methods and apparatus for displaying, compressing and/or indexing information relating to a meeting
WO2014069122A1 (ja) 表現分類装置、表現分類方法、不満検出装置及び不満検出方法
WO2005069171A1 (ja) 文書対応付け装置、および文書対応付け方法
US11281707B2 (en) System, summarization apparatus, summarization system, and method of controlling summarization apparatus, for acquiring summary information
JP2013222347A (ja) 議事録生成装置及び議事録生成方法
CN113095204B (zh) 双录数据质检方法、装置及系统
JP6176041B2 (ja) 情報処理装置及びプログラム
JP2020095210A (ja) 議事録出力装置および議事録出力装置の制御プログラム
US8868419B2 (en) Generalizing text content summary from speech content
CA3115974A1 (en) Presentation assistance device for calling attention to words that are forbidden to speak
JP2010176544A (ja) 会議支援装置
JP6171288B2 (ja) 情報処理装置及びプログラム
US12080288B2 (en) Learning support device, learning support method, and recording medium
JP4595934B2 (ja) 音声評価装置及び音声評価方法
KR20160047822A (ko) 화자 유형 정의 방법 및 장치
CN110099332B (zh) 一种音频环境展示方法及装置
US11081100B2 (en) Sound processing device and method
CN110890095A (zh) 语音检测方法、推荐方法、装置、存储介质和电子设备
US20210335352A1 (en) Information processing apparatus
AU2021104203A4 (en) Intelligent system & method for recognizing fake speech using artificial intelligence & blockchain technology
JP2011170622A (ja) コンテンツ提供システム、コンテンツ提供方法、およびコンテンツ提供プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170619

R150 Certificate of patent or registration of utility model

Ref document number: 6171288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150