JP2018097239A - 音声再生装置及びプログラム - Google Patents

音声再生装置及びプログラム Download PDF

Info

Publication number
JP2018097239A
JP2018097239A JP2016243038A JP2016243038A JP2018097239A JP 2018097239 A JP2018097239 A JP 2018097239A JP 2016243038 A JP2016243038 A JP 2016243038A JP 2016243038 A JP2016243038 A JP 2016243038A JP 2018097239 A JP2018097239 A JP 2018097239A
Authority
JP
Japan
Prior art keywords
voice
recording
audio
sound
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016243038A
Other languages
English (en)
Inventor
重雄 倉掛
Shigeo Kurakake
重雄 倉掛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016243038A priority Critical patent/JP2018097239A/ja
Publication of JP2018097239A publication Critical patent/JP2018097239A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】一連の音声の中で所定の箇所の音声を適切に再生することである。
【解決手段】音声再生装置10は、ボイスレコーダー20によって音声を記録し、音声の記録中に電子ペーパー30に表示された表示情報を表示情報が表示されたときに記録された箇所の音声と対応付けて記録し、音声の記録中に電子ペーパー30に入力された入力情報を入力情報が入力されたときに記録された箇所の音声と対応付けて記録し、記録された音声から所定のイベントを検出し、検出されたイベントに対応する箇所の音声にスキップして再生するとともに、その箇所に対応する表示情報と入力情報を合わせて表示する。
【選択図】図14

Description

本発明は、音声再生装置及びプログラムに関する。
会議の内容を記録する方法として書記等が要点のみを筆記する方法とボイスレコーダー等によって会議全体を録音する方法が知られている。さらに、これらを組み合わせることで、会議内容をより活用しやすい形で記録する方法が知られている。
例えば、マイクやビデオカメラ等によって会議の内容を録音、録画している際にユーザによってキーボード、マウス等から文字図形情報が入力されたら、入力された時刻と対応付けて文字図形情報を記録する。そして、会議が終了した後に記憶された文字図形情報を指定することで、これに対応する時刻の会議の内容を再生することができるものが知られている(特許文献1)。
特開平06−343146号公報
しかし、上記従来の方法は、文字図形情報が入力された時刻に録音、録画された箇所の音声等を再生するものではあるが、対応する再生箇所が必ずしも重要であるとは限らない。例えば、会議中に文字図形情報を入力する、即ち、メモを取る回数は非常に多いと考えられるため、取ったメモに対応する再生箇所が把握できてもどの箇所が重要であるかまでは把握できない。そのため、記録されている音声等から重要な箇所を検出した上で、その箇所の音声を容易に再生できるようにすることが望まれる。
本発明の課題は、一連の音声の中で所定の箇所の音声を適切に再生することである。
上記課題を解決するために、本発明の音声再生装置は、音声を記録する音声記録手段と、前記音声記録手段により記録された音声から所定のイベントを検出する検出手段と、前記音声記録手段により記録された音声を再生する際に、前記検出手段により検出されたイベントに対応する箇所にスキップして音声を再生する再生手段と、を備えたことを特徴とする。
本発明によれば、一連の音声の中で所定の箇所の音声を適切に再生することができる。
音声再生システムを示すブロック図である。 音声再生装置の物理的構成を示すブロック図である。 音声再生装置の機能的構成を示すブロック図である。 音声DBの構成を示す図である。 イベントDBの構成を示す図である。 資料DBの構成を示す図である。 メモDBの構成を示す図である。 表示される資料とメモ書き(その1)を示す図である。 表示される資料とメモ書き(その2)を示す図である。 録音処理を示すフローチャートである。 資料登録処理を示すフローチャートである。 メモ登録処理を示すフローチャートである。 再生開始画面を示す図である。 再生画面(その1)を示す図である。 再生画面(その2)を示す図である。 再生処理を示すフローチャートである。 発言DBの構成を示す図である。 再生画面(その3)を示す図である。
以下、添付図面を参照して本発明に係る実施の形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。
(第1の実施の形態)
図1、図2を参照して、システム構成、及び、装置構成を説明する。まず、図1を参照して、音声再生処理システム1を説明する。図1は、音声再生処理システム1を示すブロック図である。
音声再生システム1は、音声再生装置10と、ボイスレコーダー20と、電子ノート30と、を備え、主に会議の内容の記録と再生を行う。音声再生システム1に備えられる電子ノート30の台数は任意であるが、ここでは複数台接続されているものとし、実際には、会議に参加する人数分の台数を備える構成等にすると良い。
音声再生装置10は、例えば、ネットワークを利用したサーバ・クライアントシステムのサーバ装置であるとするが、これに限定されるものではなく、クラウドシステム上で動作する仮想マシンであっても良い。
ボイスレコーダー20は、音声の記録が可能な装置であり、例えば、IC(Integrated Circuit)レコーダーであるとする。電子ノート30は、各種表示データの表示、ユーザによる情報の入力が可能なタブレット端末であるとする。電子ノート30は、例えば、会議の場面において各参加者に配られるものであり、会議中にはこの電子ノート30に会議資料が表示される。また、会議の参加者は、電子ノート30に表示されている会議資料に対して専用のペン等を用いてメモ書きを行うことが可能である。
ボイスレコーダー20と電子ノート30は、通信ネットワークNを介して音声再生装置10と接続されている。そのため、音声再生装置10は、電子ノート30に会議資料を送信して表示させたり、ボイスレコーダー20で録音された音声データや電子ノート30に書き込まれたメモ書きのデータを受信したりすることが可能である。なお、各装置は、必ずしも通信ネットワークNを介して接続される必要はなく、例えば、Bluetooth(登録商標)等の近距離無線通信を行うものであっても良い。
次に、図2を参照して、音声再生装置10の物理的構成を説明する。図2は、音声再生装置10の物理的構成を示す図である。
図2に示すように、音声再生装置10は、CPU(Central Processing Unit)11と、操作部12と、RAM(Random Access Memory)13と、表示部14と、記憶部15と、通信部16と、計時部17と、音声再生部18と、を備える。音声再生装置10の各部は、バス19を介して接続されている。
CPU11は、音声再生装置10の各部を制御する。CPU11は、記憶部15に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出してRAM13に展開し、RAM13に展開されたプログラムとの協働で、各種処理を実行する。
操作部12は、キーボード等のキー入力部と、マウス等のポインティングデバイスとを有し、キー入力及び位置入力を受け付け、その操作情報をCPU11に出力する。
RAM13は、揮発性のメモリであり、各種データやプログラムを一時的に格納するワークエリアを形成する。表示部14は、LCD(Liquid Crystal Display)、EL(ElectroLuminescent)ディスプレイ等で構成され、CPU11から指示された表示情報に従い各種表示を行う。
記憶部15は、HDD(Hard Disk Drive)、SSD(Solid State Drive)等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。特に、記憶部15は、後述する音声DB(DataBase)50、イベントDB(DataBase)60、資料DB(DataBase)70、メモDB(DataBase)80を記憶している。
通信部16は、ネットワークカード等により構成され、通信ネットワークNに通信接続されて、通信ネットワークN上の機器との通信を行う。
計時部17は、リアルタイムクロックであり、現在年月日時を計時し、その現在年月日時を示す現在時刻情報をCPU11に出力する。
音声再生部18は、スピーカー等により構成され、CPU11から指示された音声情報の再生を行う。
次に、図3を参照して、音声再生装置10の機能的構成を説明する。図3は、音声再生装置10の機能的構成を示すブロック図である。
音声再生装置10は、データ取得部41と、イベント検出部42と、データ管理部43と、出力制御部44と、出力部45と、を備える。
データ取得部41は、ボイスレコーダー20で録音された音声データや電子ノート30に書き込まれたメモ等のデータを通信部16を介して取得する。
イベント検出部42は、データ取得部41によって取得された音声データを解析することで各イベントの検出を行う。なお、イベントとは、例えば、笑い、拍手、沈黙等の会議中に起こる所定の出来事のことである。イベントの検出方法は、特に限定されるものではないが、例えば、予め各イベントに対応する音声パターンを記憶部15に記憶させておき、録音された音声データから一致する音声パターンを検出する構成にすると良い。
データ管理部43は、取得されたデータの登録、及び、登録されたデータの呼び出し等の管理を行う。具体的には、データ取得部41によって取得された各データとイベント検出部42によって検出されたイベントを対応する各種DBに登録を行ったり、登録された各データの出力を行うためにデータを各種DBから呼び出したりする。
出力制御部44は、登録されたデータの出力を行うための制御をする。具体的には、ユーザによる出力に関する設定の入力を受け付け、受け付けた内容に基づいて出力を行えるように制御する。
出力部45は、出力制御部44から指示された内容の出力を表示部14、音声出力部18等によって行う。
次に、図4を参照して、音声再生装置10の記憶部15に記憶される音声DB50を説明する。図4は、音声DB50の構成を示す図である。
音声DB50は、音声再生装置10が記憶しているこれまでに録音された音声ファイルが登録されているものであり、図4に示すように、音声DB50は、音声管理IDを示す項目51、音声ファイル名を示す項目52、再生時間を示す項目53、を有する。
項目51には、登録されている音声ファイルを管理するためにファイル毎に割り振られた識別情報である音声管理IDが登録されている。項目52には、各音声ファイルを表す音声ファイル名が登録されている。項目53には、各音声ファイルの再生時間が登録されている。
以上のような音声DB50の各項目に登録されている内容は、各音声ファイル夫々に対応して記憶されている。例えば、音声ファイル「会議1」の音声管理IDは「A001」、再生時間は「1時間30分30秒」となっている。
次に、図5を参照して、音声再生装置10の記憶部15に記憶されるイベントDB60を説明する。図5は、イベントDB60の構成を示す図である。
イベントDB60は、音声DB50に登録されている音声ファイルから検出されたイベントが登録されているものであり、図5に示すように、イベントDB60は、イベント管理IDを示す項目61、イベント名を示す項目62、イベント種類を示す項目63、音声ファイル名を示す項目64、開始時刻を示す項目65、終了時刻を示す項目66、を有する。
項目61には、登録されているイベントを管理するためにイベント毎に割り振られた識別情報であるイベント管理IDが登録されている。項目62には、各イベントを表すイベント名が登録されている。項目63には、各イベントのイベント種類が登録されている。この項目63に登録されているイベント種類は、例えば、笑い、沈黙、拍手等のイベント検出部42によって検出対象となるイベントの種類分けを表すものである。なお、イベント種類の数や内容は任意であり、特に限定されるものではない。イベント検出をする際には、録音された音声に含まれる音声パターンから任意の種類に分けて登録できる構成にすると良い。
項目64には、登録されているイベントがどの音声ファイルに対応するものであるかを示す音声ファイル名が登録されている。項目65には、項目64の音声ファイルにおいてそのイベントが開始される時刻、項目66にはそのイベントが終了する時刻が夫々登録されている。なお、項目64、65に登録されている時間は音声ファイルを最初から再生した際の経過時間で表されており、後述する各種DBに登録される開始時刻、終了時刻はどれも音声ファイル上の経過時間で表されるものである。項目64〜66によってそのイベントがどの音声ファイルのどの箇所で起こったものであるかを特定することが可能である。
以上のようなイベントDB60の各項目に登録されている内容は、各イベント夫々に対応して記憶されている。例えば、「笑い1」のイベント管理IDは「B001」、イベント種類は「笑い」、イベントに対応する音声ファイル名は「会議1」で、対応箇所は「10分30秒〜10分50秒」となっている。
次に、図6を参照して、音声再生装置10の記憶部15に記憶される資料DB70を説明する。図6は、資料DB70の構成を示す図である。
資料DB70は、録音中に電子ノート30に表示された資料の各ページ毎が各情報と対応付けて登録されているものであり、図6に示すように、資料DB70は、資料管理IDを示す項目71、資料名を示す項目72、ページ番号を示す項目73、音声ファイル名を示す項目74、開始時刻を示す項目75、終了時刻を示す項目76、を有する。
項目71には、登録されている資料を管理するために資料毎に割り振られた識別情報である資料管理IDが登録されている。項目72には、各資料を表す資料名が登録されている。項目73には、各資料のページ番号が登録されている。項目72、73によって電子ノート30に表示された資料及びそのページを特定することができる。
項目74には、登録されている資料のページがどの音声ファイルに対応するものであるかを示す音声ファイル名が登録されている。項目75には、項目74の音声ファイルにおいてその資料のページの表示が開始される時刻、項目76には、その表示が終了する時刻が夫々登録されている。即ち、項目74〜76によってその資料のページがどの音声ファイルのどの箇所で表示されたものであるかを特定することができる。
以上のような資料DB70の各項目に登録されている内容は、各資料のページ夫々に対応して記憶されている。例えば、「会議資料1」の「1ページ」の資料管理IDは「C001」、資料に対応する音声ファイル名は「会議1」で、対応箇所は「5分15秒〜18分13秒」となっている。
次に、図7を参照して、音声再生装置10の記憶部15に記憶されるメモDB80を説明する。図7は、メモDB80の構成を示す図である。
メモDB80は、録音中に電子ノート30に書き込まれたメモが各情報と対応付けて登録されているものであり、図7に示すように、メモDB80は、メモ管理IDを示す項目81、メモ名を示す項目82、資料名を示す項目83、ページ番号を示す項目84、入力内容を示す項目85、音声ファイル名を示す項目86、開始時刻を示す項目87、終了時刻を示す項目88、を有する。なお、ここでは簡単のためにどの電子ペーパー30に書き込まれたメモであるかを区別していないが、実際には書き込む内容は会議の参加者夫々で異なることが予想されるため、登録されたメモと各電子ノート30を対応付けて登録するか、各電子ノート30夫々にメモDB80を用意する構成にすると良い。
項目81には、登録されているメモを管理するためにメモ毎に割り振られた識別情報であるメモ管理IDが登録されている。項目82には、各メモを表すメモ名が登録されている。項目83には、登録されているメモがどの資料に書き込まれたものであるかを示す資料名が登録されており、項目84には、その資料のどのページに書き込まれたものであるかを示すページ番号が登録されている。項目85には、メモ書きの詳しい内容が登録されている。ここでは簡単のため記載を省略したが、項目85には具体的な座標情報等が含まれているものとする。項目83〜85によって、そのメモが書かれた資料とそのページ、及び、そのメモ書きの内容を特定することができる。
項目86には、登録されているメモがどの音声ファイルに対応するものであるかを示す音声ファイル名が登録されている。項目87には、項目86の音声ファイルにおいてそのメモ書きが開始される時刻、項目88には、そのメモ書きが終了する時刻が夫々登録されている。なお、メモ書きにおける開始、終了の区切りはあいまいではあるが、例えば、最後にメモ書きがされてから一定時間経過してもメモ書きが行わなければ、そこまでを一つのメモとして開始時刻と終了時刻を登録すると良い。項目86〜88によってそのメモがどの音声ファイルのどの箇所で書かれたものであるかを特定することができる。
以上のようなメモDB80の各項目に登録されている内容は、各メモに対応して記憶されている。例えば、「メモ1」のメモ管理IDは「D001」、メモが書かれた資料名は「会議用資料1」でページは「1ページ」、入力内容は「内容1」、メモに対応する音声ファイル名は「会議1」で、対応箇所は「10分40秒〜10分45秒」となっている。
次に、図8、図9を参照して、会議中に表示される資料とメモを説明する。図8は、会議中に表示される資料とメモを表しており、ここでは資料DB70における「会議資料1」の「1ページ」であるものとする。
図8に示すように、電子ノート30に表示される資料90には、メモ書き91と、ページ番号92と、が含まれる。
メモ書き91は、会議の参加者によって電子ノート30へ書き込まれたものである。このメモが書き込まれると、メモDB80に対応する項目の内容と合わせて登録される。ページ番号92は、その資料のページ番号が示されており、ここでは1となっていることがわかる。
図9も図8と同様に、会議中に表示される資料とメモを表しており、ここでは資料DB70における「会議資料1」の「2ページ」であるものとする。そのため、ページ番号102が2となっていることがわかる。
次に、図10を参照して、録音処理のフローを説明する。図10は、録音処理を示すフローチャートである。録音処理は、ボイスレコーダー20によって録音を行い、その音声データからイベントを検出して、音声DB50とイベントDB60に登録する処理である。
まず、ユーザがボイスレコーダー20を操作することによって録音を開始する(ステップS11)。次に、ユーザによって録音を終了する操作が合ったか否かを判別する(ステップS12)。録音が続行している間はそのまま待機し(ステップS12;NO)、ユーザがボイスレコーダー20を操作することによって録音が終了されたら(ステップS12;YES)、CPU11は、通信部16を介して録音された音声データを取得する(ステップS13)。即ち、CPU11は、データ取得部41として機能する。
次に、CPU11は、取得した音声データを解析して、イベントの検出を行う(ステップS14)。即ち、CPU11は、イベント検出部42として機能する。イベントの検出が完了したら、取得された音声データを音声DB50に、検出されたイベントをイベントDB60に登録する(ステップS15)。即ち、CPU11は、データ管理部43として機能する。
次に、図11を参照して、資料登録処理のフローを説明する。図11は、資料登録処理を示すフローチャートである。資料登録処理は、電子ノート30に表示された資料をページ毎に各情報と対応付けて資料DB70に登録する処理である。
まず、CPU11は、現在が録音時間中であるか否かを判別する(ステップS21)。現在、録音時間中ではないと判別された場合はそのまま待機する(ステップS21;NO)。一方現在が録音時間中であると判断されたら(ステップS21;YES)、CPU11は、電子ノート30に新しく資料等の表示が行われたか否かを判断する(ステップS22)。
新しく表示が行われたと判別されない場合はそのまま待機する(ステップS22;NO)。一方、電子ノート30に新しく資料が表示されたと判別された場合(ステップS22;YES)、表示されたときの録音開始からの経過時間をそのページの表示が開始された時刻として一時的に記録する(ステップS23)。次に、CPU11は、電子ノート30の表示が変更されたか否かを判別する(ステップS24)。表示の変更が行われたと判別された場合(ステップS24;YES)、変更が行われたときの録音開始からの経過時間をそのページの表示が終了された時刻として一時的に記録する(ステップS25)。そして、表示されていたページと一時的に記録した開始時刻と終了時刻を対応付けて資料DB70に登録する(ステップS26)。即ち、CPU11は、データ取得部41、データ管理部43として機能する。
ステップS26において、資料DB70への登録が完了したら、ステップS23に戻り、新しく表示されたページの開始時刻を記録する。また、ステップS24において、ページの表示が行われたと判別されない場合に(ステップS24;NO)、録音が終了された場合(ステップS27;YES)、現在表示されていたページが最終ページであるということになるので、録音が終了された時刻を終了時刻として記録し(ステップS28)、そのページと開始時刻、終了時刻を対応付けて資料DB70に登録する(ステップS29)。
次に、図12を参照して、メモ登録処理のフローを説明する。図12は、メモ登録処理を示すフローチャートである。メモ登録処理は、電子ノート30に表示された資料にユーザがメモ書きを行った際にメモの内容と各情報を対応付けてメモDB80に登録する処理である。
まず、CPU11は、現在が録音時間中であるかを判別する(ステップS31)。現在、録音時間中ではないと判別された場合はそのまま待機する(ステップS31;NO)。一方、現在が録音時間中であると判別されたら(ステップS31;YES)、CPU11は、電子ノート30にユーザによってメモ書きが行われたか否かを判別する(ステップS32)。
メモ書きが行われたと判別された場合(ステップS32;YES)、CPU11は、メモ書きが行われたときの録音開始からの経過時間を、そのメモ書きが開始された時刻として一時的に記録する(ステップS33)。その後、CPU11は、メモ書きが終了したか否か、即ち、最後にメモ書きがされてから一定時間経過したか否かを判別する(ステップS34)。メモ書きがまだ継続中であると判別されたら(ステップS34;NO)、メモ書きが終了するまで待機する。一方、メモ書きが終了したと判別されたら(ステップS34;YES)、最後にメモ書きがされたときの録音開始からの経過時間をそのメモ書きが終了された時刻として一時的に記憶する(ステップS35)。そして、メモ書きの内容、メモ書きが書かれた資料とページ番号、一時的に記録した開始時刻、終了時刻を対応付けてメモDB80に登録する(ステップS36)。即ち、CPU11は、データ取得部41、データ管理部43として機能する。登録が完了したら、CPU11は、録音が終了したか否かを判別し(ステップS37)、まだ録音が続いている場合は(ステップS37;NO)、ステップS32に戻り新しいメモ書きを受け付ける。
次に、図13を参照して、再生開始画面について説明する。図13は、再生開始画面を示す図である。再生開始画面は、ユーザによって音声DB50に登録されている音声ファイルの出力が指示された際に、表示部14へ表示させる画面であり、再生に関する設定を行うことができる。
図13に示すように、再生開始画面110には、再生ファイル名111と、全て再生ボタン112と、イベント再生ボタン113と、イベント指定ボタン114と、再生ボタン115と、閉じるボタン116と、が含まれる。
再生ファイル名111は、ユーザが再生を希望している音声ファイルの項目52に登録されているファイル名が表示されているものである。全て再生ボタン112とイベント再生ボタン113は、どちらか一方だけを選択可能なラジオボタンである。全て再生ボタン112が選択されると、対応する音声ファイルが全て再生される。一方、イベント再生ボタン113が選択されると、詳しくは後述するが指定されたイベントに対応する箇所の音声のみが再生される。
イベント指定ボタン114は、イベント再生ボタン113が選択された際にのみ選択可能なボタンであり、具体的に再生するイベント種類の指定を行う。即ち、イベントDB60の項目63に登録されているイベント種類がここに表示される。なお、ここでは複数のイベントの中から1つのみ選択可能な構成となっているが、これに限定されるものではなく、複数のイベントが選択可能であるとしても良い。
再生ボタン115は、再生を開始するためのボタンであり、このボタンが操作されると後述する再生画面に移行するとともに、再生開始画面110で指定した内容で音声ファイルの再生を行う。閉じるボタン116は、再生開始画面110を閉じるためのボタンであり、このボタンが操作されると、再生開始画面110が閉じられ、音声ファイルの再生は行われない。
次に、図14、図15を参照して、再生画面について説明する。図14は、再生画面の一例を示す図である。再生画面は、音声DB50に登録されている音声ファイルを再生する際に表示部14に表示される画面であり、図13の再生開始画面110において再生ボタン115が選択されると、音声の再生が開始されるとともにこの再生画面が表示される。なお、ここでの再生画面は、再生開始画面110において「笑い」のイベントを指定した際のものであるとする。
図14に示すように、再生画面120には、音声ファイル名121と、シークバー122と、イベントポイント123と、資料表示124と、現在再生時刻125と、戻るボタン126と、一時停止ボタン127と、進むボタン128と、閉じるボタン129と、が含まれる。
音声ファイル名121は、現在再生されている音声ファイル名を表すものであり、音声DB50の項目52に対応する。シークバー122は、現在の再生箇所を表すものである。イベントポイント123は、再生開始画面110において指定されたイベントに対応する再生箇所が強調して表示されているものである。なお、イベントポイント123を操作部12を介して選択することで、選択されたイベントに対応する箇所の音声が再生される。
資料表示124は、現在再生している箇所の録音時に表示されていた資料のページが表示される領域である。また、現在再生している箇所の録音時に書かれたメモがある場合には、合わせて表示する。具体的には、現在の再生箇所が資料DB70の項目75、76とメモDB80の項目87、88に登録されている時刻に含まれるか否かを判別し、含まれると判別された場合はその資料、及び、メモを各種DBから呼び出して資料表示124に表示させる。
現在再生時刻125は、現在の再生箇所を経過時間で表している。戻るボタン126は、前のイベントに戻るためのボタンであり、戻るボタン126が選択されると、現在再生されている箇所の直前のイベントに対応する箇所の音声の再生を行う。一時停止ボタン127は、再生の一時停止を行うためのボタンである。進むボタン128は、次のイベントに進むためのボタンであり、進むボタン128が選択されると、現在再生されている箇所の直後のイベントに対応する箇所の音声の再生を行う。閉じるボタン129は、現在の再生を停止して、再生画面120を閉じるためのボタンである。
図14の再生画面は、「会議1」の音声ファイルを「笑い」のイベントを指定して再生しているものである。そのため、それ以外の部分はスキップして再生され、図5のイベントDB60の項目65に登録されているように「笑い1」のイベントに対応する「10分30秒」から再生される。そして、「笑い1」のイベントが項目66から「10分50秒」までとなっているので、そこまで再生された後は項目65に登録されているように「笑い2」のイベントに対応する「30分34秒」までスキップされる。その際の再生画面120は後述する図15において説明する。
また、図14では、現在再生時刻125に示すように「10分49秒」の箇所が再生されている。そのため、資料表示124には、資料DB70の項目75、76に登録されている開始時刻、終了時刻から「会議1用資料」の「1ページ」が呼び出されて表示されている。また、メモDB80の項目87、88に登録されている開始時刻、終了時刻から「メモ1」が呼び出されて表示されている。
図15は、「笑い2」のイベントが再生されているときの再生画面120を示す図である。「笑い1」のイベントに対応する箇所の再生が終了した後は、次の「笑い」のイベントであるここまでスキップされる。そのため、資料表示124には図14のときとは異なり、「会議1用資料」の「2ページ」、及び、「メモ4」が呼び出されて表示されている。また、「笑い2」のイベントが起こったのはイベントDB60の項目65、66に登録されているように「30分34秒」から「30分50秒」であるため、「30分50秒」まで再生されたら、「笑い3」のイベントに対応する「37分40秒」までスキップされる。
次に、図16を参照して、再生処理のフローチャートを説明する。図16は、再生処理を示すフローチャートである。再生処理は、登録されている音声ファイルの再生を行う処理である。
まず、CPU11は、ユーザから音声ファイル再生の操作を受け付けたら、再生開始画面110を表示部14へ表示させ(ステップS41)、ユーザによる操作入力を受け付ける(ステップS42)。次に、受け付けた内容から音声ファイルを全て再生するのかイベントを指定して再生するのかを判別する(ステップS43)。即ち、CPU11は、出力制御部44として機能する。
CPU11は、受け付けた内容が、全て再生を行うであると判別された場合は(ステップS43;全て)、再生画面を表示して音声ファイルを最初から再生する(ステップS44)。一方、受け付けた内容が、イベントを指定して再生であると判別された場合は(ステップS43;イベント)、再生する音声ファイルの中から指定されたイベントをイベントDB60より抽出し、対応する箇所の音声を再生する(ステップS45)。なお、ステップS44、S45における再生処理に関しては、図14、図15で説明を行ったため、ここでは省略する。
(第2の実施の形態)
第1の実施の形態において、録音された音声から各種のイベントを検出し、イベントDB60に登録していた。第2の実施の形態においては、このイベントに代わって録音された音声から各発言を発言者とともに検出して、発言DB130に登録する。
図17を参照して、音声再生装置10の記憶部15に記憶される発言DB130を説明する。図17は、発言DB130の構成を示す図である。
発言DB130は、音声DB50に登録されている音声ファイルから検出された発言が発言者と対応付けて登録されているものであり、図17に示すように、発言DB130は、発言管理IDを示す項目131、発言名を示す項目132、発言者を示す項目133、音声ファイル名を示す項目134、開始時刻を示す項目135、終了時刻を示す項目136、を有する。
項目131には、登録されている発言を管理するために発言毎に割り振られた識別情報である発言管理IDが登録されている。項目132には、各発言を表す発言名が登録されている。項目133には、各発言が誰によって行われたものであるかを示す発言者名が登録されている。なお、登録する際に、各発言が誰による発言であるのかを解析する必要があるが、例えば、予め会議の出席者の声を登録しておくことで、誰の発言であるかを特定できるような構成にすると良い。
項目134は、登録されている発言がどの音声ファイルに対応するものであるかを示す音声ファイル名が登録されている。項目135には、項目134の音声ファイルにおいてその発言が開始される時刻、項目136にはその発言が終了する時刻が夫々登録されている。即ち、項目134〜136によってその発言がどの音声ファイルのどの箇所で起こったものであるかを特定することが可能である。
以上のような発言DB130の各項目に登録されている内容は、各発言夫々に対応して記憶されている。例えば、「A発言1」の発言管理IDは「E001」、発言者は「発言者A」、発言に対応する音声ファイル名は「会議1」で、対応箇所は「0分3秒〜15分20秒」となっている。
次に、図18を参照して、第2の実施の形態における再生画面について説明する。図18は、第2の実施の形態における再生画面の一例を示す図である。なお、図18の再生画面は、第1の実施の形態における図14、図15に対応するものであり、イベントに代えて、発言者が指定されていること以外は同様の構成となっている。ここでの再生画面は、「会議1」の音声ファイルを「発言者B」の発言を指定して再生しているものとする。
図18に示すように、第2の実施の形態における再生画面140には、音声ファイル名141と、シークバー142と、発言ポイント143と、資料表示144と、現在再生時刻145と、戻るボタン146と、一時停止ボタン147と、進むボタン148と、閉じるボタン149と、が含まれる。ここでは、図14、図15と異なる部分である発言ポイント143以外については説明を省略する。
発言ポイント143は、指定された発言者の発言に対応する再生箇所が強調して表示されているものであり、ここでは「発言者B」が指定されているため、発言DB130から「B発言1」、「B発言2」が表示されている。なお、図14、図15のイベントポイント123と同様に、発言ポイント143を操作部12を介して選択することで、選択された発言に対応する箇所の音声が再生される。
図18の再生画面は、「会議1」の音声ファイルを「発言者B」の発言を指定して再生しているものである。そのため、それ以外の部分はスキップして再生され、図17の発言DB130の項目135に登録されているように「発言者B」の「B発言1」に対応する「15分40秒」から再生される。そして、「B発言1」が項目136から「16分40秒」までとなっているので、そこまで再生された後は項目135に登録されているように「発言者B」の「B発言2」に対応する「18分2秒」までスキップされる。
また、図18では、現在再生時刻145に示すように「15分41秒」の箇所が再生されている。そのため、資料表示144には、資料DB70の項目75、76に登録されている開始時刻、終了時刻から「会議1用資料」の「1ページ」が呼び出されて表示されている。また、メモDB80の項目87、88に登録されている開始時刻、終了時刻から、対応する箇所のメモは存在しないため、メモは表示されない。
第2の実施の形態では、第1の実施の形態におけるイベントDB60に代わって発言DB130が用いられる。それ以外の処理等は第1の実施の形態と同様である。即ち、音声の再生処理を行う際には第1の実施の形態においてイベントを指定して対応する箇所のみを再生したのと同様に、発言者を指定して対応する発言の箇所のみを再生することが可能である。
以上、本実施の形態によれば、音声再生装置10は、音声を記録し、記録された音声から所定のイベントを検出し、記録された音声を再生する際に、検出されたイベントに対応する箇所にスキップして音声を再生する。即ち、音声再生装置10は、音声記録手段と、検出手段と、再生手段と、を備える。
このため、一連の音声の中で所定の箇所の音声を適切に再生することができる。
また、音声再生装置10は、記録された音声から予め登録している音声パターンとの一致を検出することで、所定のイベントに対応する箇所を検出する。このため、一連の音声の中で希望する箇所の音声を適切に再生することができる。
また、音声再生装置10は、音声の記録中に表示された表示情報を、表示された時間と対応付けて記録し、検出されたイベントに対応する箇所の音声を再生する際に、前記箇所の音声を記録した時間と対応付けて記録されている表示情報を表示して再生する。このため、音声に合わせて他の出力も行うことができる。
また、音声再生装置10は、音声の記録中に入力された入力情報を入力された時間と対応付けて記録し、検出されたイベントに対応する箇所の音声を再生する際に、前記箇所の音声を記録した時間と対応付けて記録されている入力情報を表示して再生する。このため、音声に合わせて他の出力も行うことができる。
また、音声再生装置10は、記録された音声から所定のイベントを複数の種類に分類して検出し、検出されたイベントの中から所定の種類のイベントに対応する箇所の音声を再生する。このため、一連の音声の中で希望する箇所の音声を適切に再生することができる。
また、音声再生装置10は、音声を再生する際に、再生に関連する情報を表示し、記録された音声の中でイベントに対応する箇所がわかるように表示する。このため、一連の音声の中で所定の箇所を視覚的に容易に把握できる。
また、音声再生装置10は、記録された音声から発言毎に発言者を特定し、特定された発言者の発言に対応する箇所の音声を再生する。このため、一連の音声の中で所定の箇所の音声を適切に再生することができる。
また、音声再生装置10は、検出されたイベントに対応し、且つ、特定された発言者の発言に対応する箇所の音声を再生する。このため、一連の音声の中で所定の箇所の音声を適切に再生することができる。
なお、上記実施の形態における記述は、本発明に係る音声再生装置及びプログラムの一例であり、これに限定されるものではない。
上記実施の形態では、1つの音声ファイルに対してイベントを指定した再生を行っていたが、これに限定されるものではなく、例えば、複数の音声ファイルに対してイベントを指定して再生を行うことで、音声DB50に登録されている音声ファイル全てから指定されたイベントに対応する箇所の音声を再生することが可能である。
また、上記実施の形態では、イベントを検出した音声ファイルの活用として再生時にイベントを指定し、対応箇所の再生を自動的に行っていたが、これに限定されるものではなく、例えば、イベントを検索条件にした検索機能を設けることで、そのイベントに対応する音声ファイルや対応箇所を検索できるようにしても良い。
また、上記実施の形態では、音声からイベントや発言者を検出していたが、これに限定されるものではなく、例えば、記録された音声を解析することで盛り上がり度を検出する構成としても良い。音声の再生を行う場合には、この盛り上がり度を指定することで、音声ファイルの中から活発である箇所を再生できるようにしても良い。
また、上記実施の形態では、再生開始画面110において指定されるイベントは一つであったが、複数選択可能であるとしても良く、選択された複数のイベントに対応する箇所を再生する構成としても良い。
また、上記実施の形態では、イベントが発生した際に書かれたメモを対応する箇所の音声再生時に表示していたが、これに限定されるものではなく、例えば、そのイベントから一番近い時間に書かれたメモを表示しても良いし、単に表示されている資料に書かれたメモを全て表示する構成としても良い。
また、上記実施の形態では、第1の実施の形態においてはイベントを、第2の実施の形態では発言者を検出して、対応する箇所の音声を再生していたが、これらを組み合わせても良い。即ち、イベントと発言者の両方を検出して登録し、音声を再生する際にはイベントと発言者を指定することで、対応する箇所を再生することができる。なお、両方を指定した場合には、少なくともどちらか一方に対応する箇所を再生しても良いし、両方に対応する箇所のみを再生しても良い。
また、上記の実施の形態では、イベントを指定して再生する際には音声ファイルの中に含まれるイベントが全て再生されるが、音声ファイルの中で所定の時間に含まれるイベントに対応する箇所のみを再生する構成としても良い。
また、上記実施の形態では、第2の実施の形態において1人の発言者を指定して対応する箇所を再生していたが、これに限定されるものではなく、例えば、2人の発言者を指定して、発言者達が連続して発言している箇所を再生しても良い。即ち、特定の発言者達の会話を指定して再生をすることができる。
また、上記の実施の形態では、イベントの検出を行うタイミングは、記録した音声を音声DB50に登録するタイミングとしていたが、これに限定されるものではなく、例えば、音声を記録しているタイミングで同時に行っても良いし、対応する音声ファイルが再生されるタイミングでイベントの検出を行っても良い。
また、上記実施の形態では、イベントを検出する際には、そのイベントの種類まで検出し、各種DBに登録していたが、さらにそのイベントの重要度を合わせて判定するようにしても良い。例えば、同じ「笑い」のイベントを検出した場合でも、声の大きさなどから重要度を夫々判定して登録する。そして、イベントを指定して音声の再生する場合には、重要度も合わせて指定できるようにすると良い。こうすることで、単に指定されたイベントに対応する箇所の音声を一律に再生するのではなく、指定されたイベント中でも重要度が高いものに対応する箇所の音声を再生することができる。
さらに、検出したイベントに重要度を付けるのではなく、イベントとして検出するか否かを判別するための判別手段として所定の閾値を設け、必要に応じてその閾値を変更することが可能な慎重レベルを設定できる構成にしても良い。閾値としては声の大きさを用いると良い。例えば、慎重レベルを高く設定した際には、閾値を低くすることで声の小さいものも1つのイベントとして検出する。一方、慎重レベルを低く設定した際には、閾値を大きくすることで声の大きなものだけをイベントとして検出する。これによって、検出されるイベントを限定することが可能となる。
本発明の実施の形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
音声を記録する音声記録手段と、
前記音声記録手段により記録された音声から所定のイベントを検出する検出手段と、
前記音声記録手段により記録された音声を再生する際に、前記検出手段により検出されたイベントに対応する箇所にスキップして音声を再生する再生手段と、
を備えたことを特徴とする音声再生装置。
<請求項2>
前記検出手段は、前記音声記録手段により音声を記録するタイミングまたは前記再生手段により音声を再生するタイミングで所定のイベントを検出する、
ことを特徴とする請求項1に記載の音声再生装置。
<請求項3>
前記検出手段は、前記音声記録手段により記録された音声から予め登録されている音声パターンとの一致を検出することで、所定のイベントを検出する、
ことを特徴とする請求項1または2に記載の音声再生装置。
<請求項4>
慎重レベルを設定する設定手段を備え、
前記検出手段は、前記設定手段により設定された慎重レベルに対応したイベントを検出する、
ことを特徴とする請求項1から3何れかに記載の音声再生装置。
<請求項5>
前記音声記録手段による音声の記録中に表示された表示情報を、前記表示情報が表示された時間と対応付けて記録する表示記録手段を備え、
前記再生手段は、前記検出手段により検出されたイベントに対応する箇所の音声を再生する際に、前記箇所の音声を記録した時間と対応付けて前記表示記録手段に記録されている表示情報を表示して再生する、
ことを特徴とする請求項1から4何れかに記載の音声再生装置。
<請求項6>
前記音声記録手段による音声の記録中に入力された入力情報を、前記入力情報が入力された時間と対応付けて記録する入力記録手段を備え、
前記再生手段は、前記検出手段により検出されたイベントに対応する箇所の音声を再生する際に、前記箇所の音声を記録した時間と対応付けて前記入力記録手段に記録されている入力情報を表示して再生する、
ことを特徴とする請求項1から5何れかに記載の音声再生装置。
<請求項7>
前記検出手段は、前記音声記録手段により記録された音声から所定のイベントを複数の種類に分類して検出し、
前記再生手段は、前記検出手段により検出されたイベントの中から所定の種類のイベントに対応する箇所の音声を再生する、
ことを特徴とする請求項1から6何れかに記載の音声再生装置。
<請求項8>
前記再生手段により音声を再生する際に、再生に関連する情報を表示する再生情報表示手段を備え、
前記再生情報表示手段は、前記音声記録手段により記録された音声の中で前記イベントに対応する箇所がわかるように表示する、
ことを特徴とする請求項1から7何れかに記載の音声再生装置。
<請求項9>
前記検出手段により検出されたイベントを検索条件にして、前記音声記録手段により記録された音声の中で前記イベントに対応する箇所を検索する検索手段と、
を備えたことを特徴とする請求項1から8何れかに記載の音声再生装置。
<請求項10>
音声を記録する音声記録手段と、
前記音声記録手段により記録された音声から所定の発言者の発言を特定する特定手段と、
前記音声記録手段により記録された音声を再生する際に、前記特定手段により特定された発言者の発言に対応する箇所にスキップして音声を再生する再生手段と、
を備えたことを特徴とする音声再生装置。
<請求項11>
音声を記録する音声記録手段と、
前記音声記録手段により記録された音声から所定のイベントを検出する検出手段と、
前記音声記録手段により記録された音声から所定の発言者の発言を特定する特定手段と、
前記音声記録手段により記録された音声を再生する際に、前記検出手段により検出されたイベントに対応し、且つ、前記特定手段により特定された発言者の発言に対応する箇所にスキップして音声を再生する再生する再生手段と、
を備えたことを特徴とする音声再生装置。
<請求項12>
コンピュータを、
音声を記録する音声記録手段、
前記音声記録手段により記録された音声から所定のイベントを検出する検出手段、
前記音声記録手段により記録された音声を再生する際に、前記検出手段により検出されたイベントに対応する箇所にスキップして音声を再生する再生手段、
として機能させることを特徴とするプログラム。
<請求項13>
コンピュータを、
音声を記録する音声記録手段、
前記音声記録手段により記録された音声から所定の発言者の発言を特定する特定手段、
前記音声記録手段により記録された音声を再生する際に、前記特定手段により特定された発言者の発言に対応する箇所にスキップして音声を再生する再生手段、
として機能させることを特徴とするプログラム。
<請求項14>
コンピュータを、
音声を記録する音声記録手段、
前記音声記録手段により記録された音声から所定のイベントを検出する検出手段、
前記音声記録手段により記録された音声から所定の発言者の発言を特定する特定手段、
前記音声記録手段により記録された音声を再生する際に、前記検出手段により検出されたイベントに対応し、且つ、前記特定手段により特定された発言者の発言に対応する箇所にスキップして音声を再生する再生する再生手段、
として機能させることを特徴とするプログラム。
1 音声再生システム
10 音声再生装置
11 CPU
12 操作部
13 RAM
14 表示部
15 記憶部
16 通信部
17 計時部
18 音声再生部
19 バス
20 ボイスレコーダー
30 電子ノート

Claims (14)

  1. 音声を記録する音声記録手段と、
    前記音声記録手段により記録された音声から所定のイベントを検出する検出手段と、
    前記音声記録手段により記録された音声を再生する際に、前記検出手段により検出されたイベントに対応する箇所にスキップして音声を再生する再生手段と、
    を備えたことを特徴とする音声再生装置。
  2. 前記検出手段は、前記音声記録手段により音声を記録するタイミングまたは前記再生手段により音声を再生するタイミングで所定のイベントを検出する、
    ことを特徴とする請求項1に記載の音声再生装置。
  3. 前記検出手段は、前記音声記録手段により記録された音声から予め登録されている音声パターンとの一致を検出することで、所定のイベントを検出する、
    ことを特徴とする請求項1または2に記載の音声再生装置。
  4. 慎重レベルを設定する設定手段を備え、
    前記検出手段は、前記設定手段により設定された慎重レベルに対応したイベントを検出する、
    ことを特徴とする請求項1から3何れかに記載の音声再生装置。
  5. 前記音声記録手段による音声の記録中に表示された表示情報を、前記表示情報が表示された時間と対応付けて記録する表示記録手段を備え、
    前記再生手段は、前記検出手段により検出されたイベントに対応する箇所の音声を再生する際に、前記箇所の音声を記録した時間と対応付けて前記表示記録手段に記録されている表示情報を表示して再生する、
    ことを特徴とする請求項1から4何れかに記載の音声再生装置。
  6. 前記音声記録手段による音声の記録中に入力された入力情報を、前記入力情報が入力された時間と対応付けて記録する入力記録手段を備え、
    前記再生手段は、前記検出手段により検出されたイベントに対応する箇所の音声を再生する際に、前記箇所の音声を記録した時間と対応付けて前記入力記録手段に記録されている入力情報を表示して再生する、
    ことを特徴とする請求項1から5何れかに記載の音声再生装置。
  7. 前記検出手段は、前記音声記録手段により記録された音声から所定のイベントを複数の種類に分類して検出し、
    前記再生手段は、前記検出手段により検出されたイベントの中から所定の種類のイベントに対応する箇所の音声を再生する、
    ことを特徴とする請求項1から6何れかに記載の音声再生装置。
  8. 前記再生手段により音声を再生する際に、再生に関連する情報を表示する再生情報表示手段を備え、
    前記再生情報表示手段は、前記音声記録手段により記録された音声の中で前記イベントに対応する箇所がわかるように表示する、
    ことを特徴とする請求項1から7何れかに記載の音声再生装置。
  9. 前記検出手段により検出されたイベントを検索条件にして、前記音声記録手段により記録された音声の中で前記イベントに対応する箇所を検索する検索手段と、
    を備えたことを特徴とする請求項1から8何れかに記載の音声再生装置。
  10. 音声を記録する音声記録手段と、
    前記音声記録手段により記録された音声から所定の発言者の発言を特定する特定手段と、
    前記音声記録手段により記録された音声を再生する際に、前記特定手段により特定された発言者の発言に対応する箇所にスキップして音声を再生する再生手段と、
    を備えたことを特徴とする音声再生装置。
  11. 音声を記録する音声記録手段と、
    前記音声記録手段により記録された音声から所定のイベントを検出する検出手段と、
    前記音声記録手段により記録された音声から所定の発言者の発言を特定する特定手段と、
    前記音声記録手段により記録された音声を再生する際に、前記検出手段により検出されたイベントに対応し、且つ、前記特定手段により特定された発言者の発言に対応する箇所にスキップして音声を再生する再生する再生手段と、
    を備えたことを特徴とする音声再生装置。
  12. コンピュータを、
    音声を記録する音声記録手段、
    前記音声記録手段により記録された音声から所定のイベントを検出する検出手段、
    前記音声記録手段により記録された音声を再生する際に、前記検出手段により検出されたイベントに対応する箇所にスキップして音声を再生する再生手段、
    として機能させることを特徴とするプログラム。
  13. コンピュータを、
    音声を記録する音声記録手段、
    前記音声記録手段により記録された音声から所定の発言者の発言を特定する特定手段、
    前記音声記録手段により記録された音声を再生する際に、前記特定手段により特定された発言者の発言に対応する箇所にスキップして音声を再生する再生手段、
    として機能させることを特徴とするプログラム。
  14. コンピュータを、
    音声を記録する音声記録手段、
    前記音声記録手段により記録された音声から所定のイベントを検出する検出手段、
    前記音声記録手段により記録された音声から所定の発言者の発言を特定する特定手段、
    前記音声記録手段により記録された音声を再生する際に、前記検出手段により検出されたイベントに対応し、且つ、前記特定手段により特定された発言者の発言に対応する箇所にスキップして音声を再生する再生する再生手段、
    として機能させることを特徴とするプログラム。
JP2016243038A 2016-12-15 2016-12-15 音声再生装置及びプログラム Pending JP2018097239A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016243038A JP2018097239A (ja) 2016-12-15 2016-12-15 音声再生装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016243038A JP2018097239A (ja) 2016-12-15 2016-12-15 音声再生装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2018097239A true JP2018097239A (ja) 2018-06-21

Family

ID=62632894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016243038A Pending JP2018097239A (ja) 2016-12-15 2016-12-15 音声再生装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2018097239A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022052695A (ja) * 2020-09-23 2022-04-04 ネイバー コーポレーション 音声ファイルに対するテキスト変換記録とメモをともに管理する方法、システム、およびコンピュータ読み取り可能な記録媒体
JP2022096852A (ja) * 2020-12-18 2022-06-30 株式会社ミルプラトー 音声認識プログラム、音声認識方法、音声認識装置および音声認識システム
TWI807428B (zh) * 2020-09-23 2023-07-01 南韓商納寶股份有限公司 一同管理與語音檔有關的文本轉換記錄和備忘錄的方法、系統及電腦可讀記錄介質

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09294239A (ja) * 1996-04-24 1997-11-11 Fuji Xerox Co Ltd 情報蓄積装置および情報蓄積再生装置
JP2004191780A (ja) * 2002-12-12 2004-07-08 Sony Corp 音響信号処理装置及び方法、信号記録装置及び方法、並びにプログラム
JP2010054991A (ja) * 2008-08-29 2010-03-11 Yamaha Corp 録音装置
JP2010239210A (ja) * 2009-03-30 2010-10-21 Toshiba Corp 情報処理装置
WO2011105003A1 (ja) * 2010-02-25 2011-09-01 パナソニック株式会社 信号処理装置及び信号処理方法
JP2012084008A (ja) * 2010-10-13 2012-04-26 Sony Corp サーバ、サーバのカンファレンスルーム管理方法およびネットワークカンファレンスシステム
JP2016063477A (ja) * 2014-09-19 2016-04-25 株式会社日立ソリューションズ 会議システム、情報処理方法、及びプログラム
JP2016208501A (ja) * 2015-04-24 2016-12-08 京セラ株式会社 電子機器、画像表示システム及び制御プログラム並びに電子機器の動作方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09294239A (ja) * 1996-04-24 1997-11-11 Fuji Xerox Co Ltd 情報蓄積装置および情報蓄積再生装置
JP2004191780A (ja) * 2002-12-12 2004-07-08 Sony Corp 音響信号処理装置及び方法、信号記録装置及び方法、並びにプログラム
JP2010054991A (ja) * 2008-08-29 2010-03-11 Yamaha Corp 録音装置
JP2010239210A (ja) * 2009-03-30 2010-10-21 Toshiba Corp 情報処理装置
WO2011105003A1 (ja) * 2010-02-25 2011-09-01 パナソニック株式会社 信号処理装置及び信号処理方法
JP2012084008A (ja) * 2010-10-13 2012-04-26 Sony Corp サーバ、サーバのカンファレンスルーム管理方法およびネットワークカンファレンスシステム
JP2016063477A (ja) * 2014-09-19 2016-04-25 株式会社日立ソリューションズ 会議システム、情報処理方法、及びプログラム
JP2016208501A (ja) * 2015-04-24 2016-12-08 京セラ株式会社 電子機器、画像表示システム及び制御プログラム並びに電子機器の動作方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022052695A (ja) * 2020-09-23 2022-04-04 ネイバー コーポレーション 音声ファイルに対するテキスト変換記録とメモをともに管理する方法、システム、およびコンピュータ読み取り可能な記録媒体
JP7166373B2 (ja) 2020-09-23 2022-11-07 ネイバー コーポレーション 音声ファイルに対するテキスト変換記録とメモをともに管理する方法、システム、およびコンピュータ読み取り可能な記録媒体
TWI807428B (zh) * 2020-09-23 2023-07-01 南韓商納寶股份有限公司 一同管理與語音檔有關的文本轉換記錄和備忘錄的方法、系統及電腦可讀記錄介質
JP2022096852A (ja) * 2020-12-18 2022-06-30 株式会社ミルプラトー 音声認識プログラム、音声認識方法、音声認識装置および音声認識システム
JP7103681B2 (ja) 2020-12-18 2022-07-20 株式会社ミルプラトー 音声認識プログラム、音声認識方法、音声認識装置および音声認識システム

Similar Documents

Publication Publication Date Title
US10681408B2 (en) Systems and methods for creating composite videos
US9691429B2 (en) Systems and methods for creating music videos synchronized with an audio track
US20060075347A1 (en) Computerized notetaking system and method
US10860345B2 (en) System for user sentiment tracking
US9202469B1 (en) Capturing noteworthy portions of audio recordings
US20180295427A1 (en) Systems and methods for creating composite videos
CN104239392A (zh) 与显示内容关联地记录音频
JP2016157225A (ja) 音声検索装置、音声検索方法及びプログラム
JP2015028625A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2018097239A (ja) 音声再生装置及びプログラム
JP2017129720A (ja) 情報処理システム、情報処理装置、情報処理方法および情報処理プログラム
US9711181B2 (en) Systems and methods for creating, editing and publishing recorded videos
JP2006251898A (ja) 情報処理装置、情報処理方法およびプログラム
JP6865701B2 (ja) 音声認識誤り修正支援装置およびそのプログラム
CN113377326A (zh) 一种音频数据处理方法、装置、终端及存储介质
CN111726693A (zh) 音视频播放方法、装置、设备及介质
JP2001272990A (ja) 対話記録編集装置
JP2009283020A (ja) 記録装置、再生装置、及びプログラム
JP4172655B2 (ja) ゲームシステム、プログラムおよび情報記憶媒体
JP2005109928A (ja) 電子会議システム及び電子会議管理方法
CN105373585B (zh) 歌曲收藏方法和装置
CN113535116A (zh) 音频文件的播放方法、装置、终端及存储介质
JP2005141284A (ja) 記録、再生方法及び装置
JP6326917B2 (ja) サーバ装置、会議振り返りシステム、及び会議振り返り方法
JP7103681B2 (ja) 音声認識プログラム、音声認識方法、音声認識装置および音声認識システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200828

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201215