JP4096132B2 - Time-series information specific section determination device, information storage device, and information storage / playback device - Google Patents

Time-series information specific section determination device, information storage device, and information storage / playback device Download PDF

Info

Publication number
JP4096132B2
JP4096132B2 JP04749198A JP4749198A JP4096132B2 JP 4096132 B2 JP4096132 B2 JP 4096132B2 JP 04749198 A JP04749198 A JP 04749198A JP 4749198 A JP4749198 A JP 4749198A JP 4096132 B2 JP4096132 B2 JP 4096132B2
Authority
JP
Japan
Prior art keywords
information
user input
input
time
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04749198A
Other languages
Japanese (ja)
Other versions
JPH11136606A (en
Inventor
隆 大澤
浩 桂林
恵理子 田丸
哲 市村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP04749198A priority Critical patent/JP4096132B2/en
Publication of JPH11136606A publication Critical patent/JPH11136606A/en
Application granted granted Critical
Publication of JP4096132B2 publication Critical patent/JP4096132B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、例えば会議録記録システムや取材記録システムのように、会議や取材での会話音声、会議や取材風景の画像と、それらに関係する会議メモや取材メモなどの情報を記憶蓄積する装置に関する。
【0002】
【従来の技術】
従来から、会議や講演、取材、インタビュー、電話やテレビ電話を使用した会話、テレビ映像、監視カメラ映像等の記録を、デジタルディスク、デジタルスチルカメラ、ビデオテープ、半導体メモリなどに記録し、再生する装置が提案されている。これらの装置を用いて情報の蓄積を行なえば、記録すべき情報の要点のみを記録者が筆記等して記録する方法に比べ、入力情報である音声や画像を漏らさず記録できるという利点がある。
【0003】
これらの装置には、コンピュータネットワークを介して伝送されたデジタル信号を蓄積媒体に記録するものや、ビデオカメラやマイクからのアナログ入力信号をそのまま蓄積媒体に記録するものや、符号化してデジタル信号に変換し、記録するものなどがある。
【0004】
しかしながら、記録された音声や画像の中から欲しい部分を瞬時に検索することができないという問題点があった。
【0005】
この問題点に対し、順次入力される音声信号または画像信号と、任意のタイミングで記録者が入力したペンやキーボードによるユーザ入力情報とを対応付けて蓄積記録し、再生する装置が提案されている。これらの装置を用いれば、記録者がメモを取るようにペンやキーボードで入力を行なうとともに、音声信号または画像信号を記録しておけば、後で、入力されたメモを参照することにより、音声信号または画像信号の再生したい箇所を容易に選択して再生することができる。
【0006】
例えば、特開平7−182365号公報、特開平6−343146号公報等には、記録の際に、音声信号または画像信号とユーザ入力情報とを時間刻印に基づいて対応付け、再生の際に、画面に表示されたユーザ入力情報の1つを指定することにより、その指定されたユーザ入力情報が記録された時刻に記録された音声信号または画像信号を再生する装置が記載されている。
【0007】
また、特開平6−205151号公報には、ユーザ入力が一定時間途切れたことを検知したタイミングで、入力音声信号または入力画像信号にインデックスを付加して記録し、再生の際に、画面に表示された特定のユーザ入力情報の一つを指定することにより、その指定されたユーザ入力情報に対応したインデックス部分からの音声信号または画像信号を再生する装置が記載されている。
【0008】
しかしながら、前述の特開平7−182365号公報、特開平6−205151号公報に記載されている情報蓄積装置では、入力される全ての音声信号または画像信号を圧縮せずに記録する仕組みになっているため、限られた記録容量の中に長時間の入力音声信号または入力画像信号を記録することは困難であるという問題があった。一般に、順次入力される音声信号または画像信号などの時系列データを長時間に渡って記録する場合には、必要な記憶容量は膨大なものになるからである。
【0009】
公知の方法として、音声信号や画像信号を常に圧縮しながら記憶媒体に記憶する方法が提案されているが、入力されたすべての音声信号または画像信号は同じ圧縮率で記憶されるのが一般的である。この方式の場合、重要部分のみを高音質/高画質で記録して記憶容量を節約するというようなことができず、後から参照される可能性の少ない情報を大量に記録してしまったり、重要な情報にもかかわらず記憶容量の関係で記録できないという問題があった。
【0010】
例えば、インタビューの風景を、Video for Windows(”Microsoft Video for Windows 1.0 ユーザーズガイド”pp.57−59,pp.102−108)を用いて長時間記録しているような場合において、記憶容量を節約する目的で画像信号を5秒間に1フレームだけ記憶するように間引き圧縮率を設定していたとする。このとき、記録者が、記録時に重要だと感じた部分を後から再生したいと思ったとしても、5秒間に1フレームの画像信号しか再生できないため、話者が話しながら行なった動き(ジェスチャなど)や、話しぶりや、微妙なニュアンスを再現できないという問題がある。逆に、入力される画像信号を、1秒間30フレームですべて記憶したとした場合、長時間のインタビューを記憶するためには前述したように記憶容量が膨大になるため、実現が非常に困難である。
【0011】
そこで、特開平7−15519号公報には、記憶媒体の空き容量がある量以下になったと認識された場合に、既に記憶されている音声情報を再圧縮することによって、記憶媒体の空き領域を確保する音声情報蓄積装置が述べられている。
【0012】
また、特開平5−64144号公報には、画像記憶媒体の使用量(データ記憶量)が予め定めた量を超えた場合に、既に記憶されている画像情報の古いフレームから順に圧縮したり、フレームを間引いたりして、記憶容量を節約しようとする情報蓄積装置が述べられている。これらは、後に記憶された情報ほど重要な情報であると見なすことによって、先に記憶された情報を新しい入力情報によって上書きしたり、先に記憶された情報ほど圧縮率を高くしたりして、記憶容量を節約する装置である。
【0013】
また、特開平6−149902号公報記載の動画像記録装置は、自動シーンチェンジ検出を行ない、長いシーンほど重要なシーンであると見なすことによって、ダイジェストを生成する際には、ユーザが指定した時間長になるように、高い重要度を持ったシーンから順に抽出する装置である。この公報記載の装置で生成されたダイジェストに含まれたシーンのみを残し、ダイジェストに含まれなかったシーンを削除するように構成すれば、重要情報を失うことなく記憶容量を節約することができる。
【0014】
さらに、記録時に情報の取捨選択を行ない、重要と認識された情報のみを記録したり、圧縮率を変化させて記録する装置が提案されている。たとえば、特開平6−343146号公報には、ユーザ入力があったタイミングで一定時間だけ映像信号を記録する方法が記載されている。また、さらに、市販されてるテープレコーダの中には、無音区間は音声を記憶しないという無音区間検出機能を持ったものがある。
【0015】
また、会議情報として画像情報や音声情報などの時系列情報がすべて記録された場合に、その時系列情報から重要な区間を検索するシステムも、従来から種々提案されている。
【0016】
これらの従来のシステムでは、会議などの音声情報・映像情報などの時系列情報を記録する一方で、会議参加者のペン入力やキーボード入力などのユーザ入力情報と、その入力時刻を記録し、後でその入力時刻を利用して、各ユーザ入力情報に関連する時系列情報を再現できるような仕組みが備えられている。
【0017】
例えば、特開平6−343146号公報においては、ペン入力の筆跡の任意の箇所をポイントすると、そのペン入力が行われた時刻付近の音声波形を表示したポップアップウィンドウを表示し、そのポップアップウィンドウ上で音声情報や画像情報の再生の制御を行えるようになっている。具体的な再生の形態としては、次のようなものが例として挙げられている。
【0018】
▲1▼ペン入力時刻Tより、ある一定の時間幅twだけ再生する。ただし、twは、ユーザが変化させることができる。例えば、ポップアップウィンドウ上に表示されたバーをスライドさせることによって再生時間を変化させる。
【0019】
▲2▼ペン入力時刻Tから再生して最後まで再生する。ただし、ポップアップウィンドウ上に停止、巻き戻し、早送り等のボタンが具備されており、ユーザは任意のタイミングで操作できる。
【0020】
▲3▼ペン入力時刻Tより少し前の時点から再生する。時刻T−taから時刻T+tbまでの時間幅ta+tbだけ再生する。ta,tbは予め定められていてもよいし、ユーザがポップアップウィンドウ上のバーをスライドさせてから決定してもよい。
【0021】
このように特開平6−343146号公報においては、ペン入力に対応するマルチメディア情報を再生する際に、ユーザにいくつかの再生方法を提供している。
【0022】
【発明が解決しようとする課題】
しかしながら、記録装置に関する従来技術において、例えば特開平7−15519号公報に記載の装置は、記憶されていた音声信号を、全体に渡って同じ圧縮率で再圧縮する装置であり、記録している内容の重要箇所のみを部分的に圧縮率を低くし高音質で記録するというようなことはできないという問題があった。
【0023】
また、会議、講演、取材、インタビュー等を記憶蓄積する情報蓄積装置において、特開平5−64144号公報または特開平5−134907号公報に記載されているように、ただ単に、新しい記録を重要情報として残し、古い記録を不要情報として消去するように構成したとすると、重要な会議や重要な取材等の記録が、先に記録されたという理由だけで、新しい入力情報によって上書きされてしまうという問題があった。一般に、会議や取材が行なわれた日時だけに基づいて、その会議内容や取材内容の重要度を判定することはできないからである。
【0024】
また、シーンの長さによってシーンの重要度を判定する特開平6−149902号公報記載の装置については、会議や講演を無人カメラで撮影しているような時には、カットチェンジやシーンチェンジによってシーンを切り分けることが非常に困難であり、シーンの長さを検出できないという問題があった。加えて、会議や講演を撮影しているような場合には、短いシーンの中にでも重要な発言が含まれることがあるため、シーンの長さだけに基づいて、その会議内容や取材内容の重要度を判定することはできないという問題があった。
【0025】
さらなる問題点として、以上に挙げた従来装置には、ユーザが入力に用いる入力装置の種類やユーザの入力意図などの入力状況は考慮されていないため、ユーザ入力があったときの入力状況に応じた適切な選択的記録ができないという問題があった。
【0026】
例えば、会議参加者の一人が共用電子ホワイトボード装置に議論の過程や結論を筆記し、その他の会議参加者も独自に個人用電子ノート装置にメモをとっているような場合を想定すると、共用電子ホワイトボード装置に筆記する筆記者は、書きながら関連情報を発言したり、筆記者以外の会議出席者によって発言されたらそれをすぐ共用電子ホワイトボード装置に筆記する傾向が強い。したがって、共用電子ホワイトボード上のメモ筆記時点と関連情報が発言されている時点とは近接しているという特徴がある。
【0027】
他方、会議参加者が個人用電子ノート装置に筆記する場合は、聞いた言葉を一旦自分の中で咀嚼したのち手元メモを入力したり、自分の言葉に置き換えたのち手元メモを筆記することが多く、個人用電子ノート装置上のメモ筆記時点と関連情報が発言されている時点とは比較的離れるという特徴がある。
【0028】
このように、ユーザ入力が、どのような状況で行われるかにより、対応する音声情報や画像情報の区間のタイミングや長さは変わると考えられる。
【0029】
しかしながら、従来のこの種の装置は、例えば特開平6−343146号公報記載の装置の場合のように、ユーザ入力があったタイミングで一定時間だけ信号を記録するようにしており、上述のようなユーザ入力装置の種類の違いや入力意図などの入力状況によって音声信号または画像信号を記録するタイミングや長さを変化させることができず、このため、情報を適切かつ選択的に記録することができなかった。また、再生時にユーザ入力に適切に対応した部分の情報を選択的に再生することもできなかったという問題がある。
【0030】
また、前述した再生時の検索に関する従来技術は、音声や映像などのマルチメディア情報(時系列情報)を記録する一方で、メモ入力等のユーザ入力情報およびその入力時刻も記録し、あとでユーザ入力情報からそれに関連する時系列情報を再生しやすくするためのものである。
【0031】
しかしながら、ユーザが情報を入力した時刻と、それに対応する音声情報や画像情報が存在した時間は、一般には、ずれており、また、そのずれ具合もそれぞれの場合で異なる。このため、再生時に、それぞれのユーザ入力情報に対応する時系列情報の正確な時間区間を知るためには、自らの記憶や勘に基づいて探索することになり、記憶が曖昧・不正確になれば、たとえ、ユーザ入力情報と、それに対応する音声情報や画像情報の存在位置が時間的に近いものであったとしても、探索には多くの時間がかかってしまうという問題がある。
【0032】
また、ユーザ入力情報に対応する適切な音声情報や画像情報などのマルチメディア情報の存在時間区間に関するユーザの記憶は、時間が経過すればするほど薄らぎ、その探索に多くの時間を必要とする。また、ユーザ入力情報を入力したユーザ以外の第三者が探索をする場合には、なおさら時間を必要とするだけでなく、更にそれが正しい時間区間位置かどうかの確信は持てないことになる。
【0033】
したがって、ユーザ入力情報に対応するマルチメディア情報を状況に応じて適切に再現すること、もしくは再現はできなくとも、そのマルチメディア情報の探索を助ける適切な情報を如何にユーザに提示するか、そして、そのマルチメディア情報が入力情報に対応するものであることを確信づける情報を、ユーザに提供することが効率的な情報を探索する上で大きな課題となる。
【0034】
しかしながら、上述した従来の再生方法は、ユーザ入力情報が入力された時刻よりも一定時刻前からマルチメディア情報を再生させたり、あるいはユーザ入力情報が入力された時刻付近の時間区間の情報が表示されているポップアップウィンドウを提示して、再生箇所を選択させる方法である。
【0035】
ユーザ入力情報の入力時刻と、それに対応するマルチメディア情報の区間の時間関係は、前述したように、状況によって異なるため、再生区間、表示区間の適切さは状況によって異なる。
【0036】
特開平6−343146号公報の実施例で示されている例で言えば、ポップアップウィンドウ上に表示する音声波形を、適切な区間だけ表示するための手段は、前記公報にはなく、場合によっては表示区間が短すぎたり、長すぎたりする可能性がある。表示区間が短すぎる場合には、その表示上で適切なマルチメディア情報の開始点を指定することができないばかりか、ユーザがマルチメディア情報の存在位置について想起、推測するための情報が不足するために、マルチメディア情報を探索するための時間が多くかかってしまうという問題がある。また、表示区間が長すぎる場合には、マルチメディア情報が存在する時間区間は表示されているが、表示領域が有限であることを考慮すると、不必要な情報が表示されている分だけ、非効率な表示領域の利用形態になってしまう問題がある。
【0037】
この発明は、上記の問題点を解決したもので、入力音声信号または入力画像信号のうち特徴的な事象が起こっている音声信号または画像信号の重要期間を、ユーザ入力に関連させて検出して特定することができるようにすると共に、この重要期間の音声信号または画像信号を限られた蓄積媒体の中に数多く記憶し、重要期間以外の音声または画像信号であっても少ないデータ量で長時間記憶できるようにすることを課題とする。
【0038】
また、この発明は、ユーザ入力に関連する音声信号または画像信号の重要部分を選択的に確実に再生できる、あるいは容易に検索できるようにすることを課題としている。
【0039】
【課題を解決するための手段】
上記課題を解決するため、請求項1に記載の発明は、
少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
音声情報または画像情報を入力するための時系列情報入力手段と、
前記ユーザ入力情報検出手段によって検出された前記ユーザ入力情報と、前記ユーザ入力状況特定手段によって特定された前記入力状況とに基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
を備える時系列情報の特定区間決定装置を提供することを特徴とする。
【0044】
また、請求項の発明においては、
少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
音声情報または画像情報を入力するための時系列情報入力手段と、
前記ユーザ入力情報検出手段によって検出された前記ユーザ入力情報と、前記ユーザ入力状況特定手段によって特定された前記入力状況とに基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
前記時系列情報入力手段から入力された前記音声情報または前記画像情報を記憶する時系列情報記憶手段と、
前記時系列情報記憶手段に記憶された音声情報または画像情報のデータ量を圧縮する手段であって、前記特定区間決定手段で決定された区間と、他の区間とで、圧縮率あるいは圧縮方式を変更して、前記時系列情報記憶手段に記憶された前記音声情報または前記画像情報のデータ圧縮を行う圧縮手段と、
を備えることを特徴とする情報蓄積装置を提供する。
【0045】
また、請求項の発明においては、
少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
音声情報または画像情報を入力するための時系列情報入力手段と、
前記ユーザ入力情報検出手段によって検出された前記ユーザ入力情報と、前記ユーザ入力状況特定手段によって特定された前記入力状況とに基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
前記時系列情報入力手段から入力された前記音声情報または前記画像情報を記憶する時系列情報記憶手段と、
記特定区間決定手段で決定された区間を示す区間情報と、当該区間情報に対応する前記音声情報または前記画像情報の前記時系列情報記憶手段における記憶位置との対応関係を記憶する対応関係記憶手段と、
前記時系列情報記憶手段に記憶された前記音声情報または前記画像情報のデータ量を圧縮する手段であって、前記対応関係記憶手段に記憶された区間情報によって定められる区間と、他の区間とで、圧縮率あるいは圧縮方式を変更して、前記時系列情報記憶手段に記憶された前記音声情報または画像情報のデータ圧縮を行う圧縮手段と、
を備えることを特徴とする情報蓄積装置を提供する。
【0048】
また、請求項の発明においては、
少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
音声情報または画像情報を入力するための時系列情報入力手段と、
前記ユーザ入力情報検出手段によって検出された前記ユーザ入力情報と、前記ユーザ入力状況特定手段によって特定された前記入力状況とに基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
前記音声情報または画像情報を一時記憶する一時記憶手段と、
前記一時記憶手段に一時記憶された音声情報または画像情報のうちの、前記特定区間決定手段により決定された区間の音声情報または画像情報を、前記ユーザ入力情報検出手段で検出されたユーザ入力情報に対応する情報として記憶する時系列情報記憶手段と、
記特定区間決定手段で決定された区間の区間情報と、当該区間に対応する前記音声情報または画像情報の前記一時記憶手段における記憶位置との対応関係を記憶する対応関係記憶手段と、
前記一時記憶手段に記憶された前記音声情報または前記画像情報の内の、前記時系列情報記憶手段に記憶する前記音声情報または前記画像情報のデータ量を圧縮する手段であって、前記対応関係記憶手段に記憶されている前記特定区間決定手段によって定められる区間と、他の区間とで、圧縮率あるいは圧縮方式を変更して、前記音声情報または前記画像情報のデータ圧縮を行う圧縮手段と、
を備えることを特徴とする情報蓄積装置を提供する。
【0051】
また、請求項の発明においては、
少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
音声情報または画像情報を入力するための時系列情報入力手段と、
前記ユーザ入力情報検出手段によって検出された前記ユーザ入力情報と、前記ユーザ入力状況特定手段によって特定された前記入力状況とに基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
前記時系列情報入力手段から入力された前記音声情報または前記画像情報を記憶する時系列情報記憶手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報を表示画面に表示する表示手段と、
前記ユーザ入力情報と、前記ユーザ入力情報の前記表示画面上の表示位置を特定するための情報と、前記ユーザ入力情報のそれぞれについて、前記特定区間決定手段で決定された区間に対応する前記音声情報または画像情報の前記時系列情報記憶手段における記憶位置との対応関係を記憶する対応関係記憶手段と、
前記表示画面に表示されたユーザ入力情報に関連する表示部分を指定する指定手段と、
前記指定手段により指定されたユーザ入力情報によって特定される、前記対応関係記憶手段に記憶されている前記時系列情報記憶手段における記憶位置に基づいて特定される区間の音声情報または画像情報を再生する再生手段と、
を具備することを特徴とする情報蓄積装置を提供する。
【0054】
また、請求項の発明においては、
少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報と、前記ユーザ入力情報の入力時間に関する情報と、前記ユーザ入力情報に関して前記ユーザ入力状況特定手段で特定された前記入力状況とを記録するユーザ入力情報記録手段と、
音声情報または画像情報の時系列情報を入力するための時系列情報入力手段と、
前記時系列情報入力手段から入力された前記音声情報または前記画像情報を記録する時系列情報記録手段と、
前記ユーザ入力情報記録手段に記録された前記ユーザ入力情報を表示する表示手段と、
前記表示手段により表示された前記ユーザ入力情報のうちの一つを選択指示する指定手段と、
前記指定手段により指定された前記ユーザ入力情報の、少なくとも、入力時間に関する情報と、前記入力状況とに基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
前記時系列情報記録手段に記録されている前記時系列情報のうちの、前記特定区間決定手段により決定された特定の区間に対応する前記時系列情報を再生する時系列情報再生手段と、
を備えることを特徴とする情報蓄積再生装置を提供する。
【0063】
また、請求項の発明においては、
少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報と、前記ユーザ入力情報の入力時間に関する情報と、前記ユーザ入力情報に関して前記ユーザ入力状況特定手段で特定された前記入力状況とを記録するユーザ入力情報記録手段と、
音声情報または画像情報の時系列情報を入力するための時系列情報入力手段と、
前記時系列情報入力手段から入力された前記音声情報または前記画像情報を記録する時系列情報記録手段と、
前記ユーザ入力情報記録手段に記録された前記ユーザ入力情報を表示する表示手段と、
前記表示手段により表示された前記ユーザ入力情報のうちの一つを選択指示する指定手段と、
前記指定手段により指定された前記ユーザ入力情報の、少なくとも、入力時間に関する情報に基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
前記特定区間決定手段により決定された区間を、前記指定手段で選択指示された前記ユーザ入力情報の直前のユーザ入力情報の入力時刻に基づいて補正する特定区間補正手段と、
前記時系列情報記録部に記録されている前記時系列情報のうちの、前記特定区間決定手段により決定された特定の区間に対応する前記時系列情報を再生する時系列情報再生手段と、
を備えることを特徴とする情報蓄積再生装置を提供する。
【0066】
【作用】
上記の構成の請求項1の発明においては、ユーザがユーザ入力手段により、例えばメモ入力などのユーザユーザ入力情報を入力すると、これがユーザ入力情報検出手段で検出されると共に、そのユーザ入力が、例えば個人用として入力されたのか、共用として入力されたのか等の入力状況が、ユーザ入力状況特定手段で特定される。そして、特定された入力状況により、ユーザ入力情報と対応する時系列情報の区間が時系列情報区間特定手段で特定される。
【0067】
すなわち、ユーザ入力情報が入力されたときの入力状況に応じたタイミングおよび長さの区間が特定され、ユーザ入力に適切に対応した部分の情報区間を特定することができる。
【0071】
すなわち、請求項の発明においては、ユーザ入力情報が入力されたユーザ入力装置が共用入力装置である場合と、個人用入力装置である場合とで、異なる情報区間を対応させるように特定することができ、入力状況に応じた適切な時系列情報区間の特定ができる。
【0072】
上記の構成の請求項の発明においては、時系列情報の特定区間検出装置で検出された区間は、例えば重要な情報区間として、他の区間とは異なる圧縮率あるいは圧縮方式で、圧縮する。この場合、異なる圧縮率あるいは圧縮方式には、「圧縮する」と、「圧縮しない」という場合も含むものである。
【0073】
そして、例えば前記重要区間の音声情報あるいは画像情報は高品質で蓄積記憶し、前記他の区間は、それに比較して高圧縮率で音声情報あるいは画像情報を記憶することができる。したがって、重要な区間の情報は、高品質を保って保存しながら、時系列情報記憶手段の使用容量を削減することができる。
【0074】
請求項7の発明においては、時系列情報の特定区間検出装置により定められる区間を示す区間情報と、当該区間情報に対応する前記音声情報または前記画像情報の前記時系列情報記憶手段における記憶位置との対応関係が対応関係記憶手段により記憶されている。このため、圧縮手段で圧縮するに当たって、例えば高品質を保つべき前記区間情報と、当該区間の音声情報または画像情報との対応付けが、この対応関係記憶手段の記憶内容にしたがって容易に行える。
【0077】
請求項の発明においては、時系列情報記憶手段には、時系列情報入力手段から入力された音声情報または画像情報のすべてがそのまま記憶されるのではない。すなわち、時系列情報入力手段から入力された音声情報または画像情報は一時記憶手段に順次に記憶される。そして、一時記憶手段に記憶されている音声情報または画像情報は、対応関係記憶手段に記憶されている前記時系列情報の特定区間決定装置によって定められる区間と、他の区間とで、圧縮率あるいは圧縮方式が変更されて圧縮されて、時系列情報記憶手段に記憶される。これにより、時系列情報記憶手段の記憶容量は、すべての時系列情報をそのまま記憶する場合に比べて少なくて済む。
【0080】
請求項の発明の情報蓄積装置においては、再生時に、表示画面に表示されるユーザ入力情報を指示することにより、時系列情報の特定区間決定装置によって定められる区間の音声情報または画像情報が、対応する時系列情報として再生される。すなわち、ユーザ入力情報に関連すると考えられる区間の音声情報あるいは画像情報が、その最初から最後まで再生されることになる。
【0083】
請求項の情報蓄積再生装置においては、例えば、会議システムの場合、音声情報または画像情報の時系列会議情報は、あますことなくすべて時系列情報記録手段に記録される。また、ユーザ入力情報記録手段には、ユーザ入力情報検出手段で検出されたユーザ入力情報と、このユーザ入力情報の入力時間に関する情報と、このユーザ入力情報に関して前記ユーザ入力状況特定手段で特定された入力状況とが記録される。
【0084】
そして、ユーザ入力情報記録手段に記録されているユーザ入力情報が表示画面に表示されて、そのうちの一つが指定されると、ユーザ入力情報記録手段に記録されているその指定されたユーザ入力情報の入力時間の情報および入力状況が取り出され、特定区間決定手段に渡される。
【0085】
特定区間決定手段は、ユーザ入力情報の入力時間の情報および入力状況とに基づいて、時系列情報記録手段に記録されている音声情報または画像情報の内の、指定されたユーザ入力情報に対応する特定の区間を決定する。この決定を受けて、再生手段は、特定区間決定手段により決定された、時系列情報記録部に記録されている特定の区間の時系列情報を抽出して再生する。
【0094】
また、請求項の発明の情報蓄積再生装置においては、音声情報または画像情報の時系列会議情報は、すべて時系列情報記録手段に記録される。また、ユーザ入力情報記録手段には、ユーザ入力情報検出手段で検出されたユーザ入力情報と、このユーザ入力情報の入力時間に関する情報とが記録される。
【0095】
そして、ユーザ入力情報記録手段に記録されているユーザ入力情報が表示画面に表示されて、そのうちの一つが指定されると、ユーザ入力情報記録手段に記録されているその指定されたユーザ入力情報の入力時間の情報が取り出され、特定区間決定手段に渡される。
【0096】
特定区間決定手段は、ユーザ入力情報の入力時間の情報に基づいて、時系列情報記録手段に記録されている音声情報または画像情報の内の、指定されたユーザ入力情報に対応する特定の区間を決定する。
【0097】
特定区間補正手段は、特定区間決定手段で決定された特定区間内に、指定手段で選択指示されたユーザ入力情報の直前のユーザ入力情報があるかどうかチェックし、前記直前のユーザ入力情報があれば、その入力時刻により、特定区間決定手段で決定された特定区間を補正する。特定区間内に前記直前のユーザ入力情報がなければ、特定区間決定手段で決定された特定区間は補正されない。
【0098】
再生手段は、特定区間決定手段により決定された特定区間、あるいは特定区間補正手段により補正された特定区間に対応する時系列情報を時系列情報記録部から抽出して再生する。
【0099】
そして、請求項の発明においては、ユーザ入力状況特定手段で、ユーザ入力情報の入力状況が、ユーザ入力情報が入力されたユーザ入力装置が共用入力装置である場合と、個人用入力装置である場合とのいずれであるかが特定される。そして、特定区間決定手段では、ユーザ入力情報の入力時間だけでなく、ユーザ入力情報の入力状況に基づいて、選択指示されたユーザ入力情報に関する特定区間が決定される。
【0101】
【発明の実施の形態】
以下、図面を参照して、この発明の実施の形態について説明する。
【0102】
[情報蓄積装置の第1の実施の形態]
第1の実施の形態は、この発明による情報蓄積装置を会議記録に適用した場合である。
【0103】
概して、数日前に行なわれた会議を後から参照する可能性に比べて、1カ月前に行なわれた会議を参照する可能性は極めて低い。参照する可能性の小さくなった映像情報などの会議情報を高品質で蓄積したままにしておくことは、メモリ容量を節約するという面で非常に非効率的であり、適当なタイミングで、削除または間引き圧縮等を施し、情報量を削減することが望ましい。
【0104】
しかし、昔の会議記録であっても、重要な場面については、話者が話しながら行なった動き(ジェスチャなど)や、話しぶりや、微妙なニュアンスを再現したいという要求がある。したがって、このような特徴的な事象が起こっている重要区間の音声情報または画像情報は、高品質のままで保存しておくようにすることが要求される。
【0105】
この場合に、音声情報または画像情報の時系列情報の重要区間をどのように特定するかが問題である。この実施の形態では、会議出席者(会議の司会者や進行役も含む)の指示入力やメモ入力などのユーザ入力情報の検出時点と、そのユーザ入力がなされたときの状況(入力状況)と、音声情報または画像情報について予め定められた条件に一致する区間と、に基づいて重要区間を決定する。
【0106】
入力状況としては、この例では、例えば共用電子ホワイトボード装置などの共用入力装置にユーザ入力される場合と、個人用電子ノート装置などの個人用入力装置にユーザ入力される場合の2つの状況を想定し、そのいずれの状況であるかを区別してユーザ入力状況特定手段は特定するものとする。
【0107】
また、条件に一致する区間としては、この例では、会議出席者の一人の発言区間とする。したがって、発言区間と話者の交替を検出する必要がある。
【0108】
第1の実施の形態では、会議について音声情報および映像情報を記録し、その記録時点から1ヶ月が経過したときに、記録した会議映像の中の重要部分の映像だけを残し、その他の部分は消去するという、情報量削減処理(圧縮処理)を施す例について説明する。さらに、第1の実施の形態では、音声情報についても、記録した会議音声の中の重要部分の音声情報だけを残し、その他の部分は消去するようにする。
【0109】
この第1の実施の形態によれば、後述するように、会議の重要場面のみを残して他の部分を消去できるので、蓄積保存すべき情報量は非常に少なくなる。すなわち、この例においては、会議参加者がメモをとった時点は、会議の重要場面であるとする。この重要場面をとらえて、会議参加者がメモをとった時点の周辺のみを保存し、それ以外の部分を消去することで、会議映像および会議音声を保存するための情報量を大幅に少なくすることができる。
【0110】
図2は、この実施の形態の場合の会議風景を示すもので、20は、情報蓄積再生装置を構成する電子会議装置である。この電子会議装置20は共用ホワイトボード装置としての機能も備えるもので、マーカーペンでホワイトボードに書き込むのと同じ感覚で、プロジェクタスクリーン上に電子ペン23を使用して自在に書き込みを行なうことができ、議論の過程や、結論を電子ファイルとして記憶蓄積することができるものである。このため、この電子会議装置20は、パーソナルコンピュータ(図示せず)を内蔵する。
【0111】
また、会議出席者(会議の司会者や進行役も含む)は、その手元に、個人用電子ノート装置として機能する小型コンピュータ30を備え、会議中に、この小型コンピュータに個人用のメモなどの入力を行うことができる。
【0112】
この実施の形態では、電子会議装置20が内蔵するコンピュータと、各個人が手元に所持する小型コンピュータ30とは、無線ネットワークで接続されており、複数の小型コンピュータ30から入力されたユーザ入力情報と後述するユーザ入力装置情報とは、電子会議装置20が内蔵するコンピュータに伝送されるようになっている。したがって、図示しないが、各小型コンピュータ30と、電子会議装置20とは、それぞれ無線送受信部を備えるものである。
【0113】
以下の説明において、電子会議装置20を共用入力装置として使用する場合には、これを共用ホワイトボード装置20と称し、小型コンピュータは、個人用電子ノート装置30と称することとする。
【0114】
そして、図2に示すように、この電子会議装置20は、表示画面21を備える。この表示画面21への画像の表示方式は、スクリーンに背面から投射して表示する、いわゆるプロジェクション方式である。さらに、この電子会議装置20は、表示画面21上の電子ペン23の接触入力座標位置を検出する機能を備えており、検出された接触入力座標位置は、共用ホワイトボード装置からのユーザ入力情報として、パーソナルコンピュータに入力され、蓄積媒体27に記憶蓄積される。
【0115】
電子会議装置20のパーソナルコンピュータは、後述もするように、この電子ペン23による表示画面21上でのユーザ入力情報(共用ホワイトボード装置からのユーザ入力情報)を、前述した個人用電子ノート装置30からのユーザ入力情報とは区別して検出して記憶蓄積する。
【0116】
また、会議の場における音声情報や画像情報などの時系列情報の入力のために、電子会議装置20は音声入力端子および画像入力端子を備える。この実施の形態においては、複数の会議出席者29の各々にマイクロホン25が割り当てられ、それぞれのマイクロホン25により収音された会議出席者29の発言の音声信号は、一旦、音声信号解析器26に入力される。この音声信号解析器26の出力端子は、電子会議装置20の音声入力端子に接続されている。
【0117】
音声信号解析器26は、複数のマイクロホン25から入力された音声信号を解析し、入力音声信号がどのマイクロホンから入力されたのかを識別して、その識別結果を音声信号と共に電子会議装置20に対し出力するものである。
【0118】
また、ビデオカメラ24で撮影された紙文書や会議風景の画像信号は、電子会議装置20の画像入力端子に入力され、電子会議装置20の表示画面21に表示される。
【0119】
なお、順次入力される時系列情報は、ビデオカメラ/マイクロホン/ビデオデッキ/テープレコーダ/センサ等から入力されたアナログ信号でもよいし、それを符号化したデジタル信号でもよい。さらには、計算機ネットワーク/計算機バスを通じて入力されるデジタル信号でもよい。すなわち、時間の経過とともに順次入力される情報は、いずれもこの発明でいう時系列情報に相当する。
【0120】
電子会議装置20の表示画面21には、当該電子会議装置20の画像入力端子に接続されているビデオカメラ24からの画像情報による画像と、この電子会議装置20のパーソナルコンピュータを通じて入力される電子文書の画像とが、図2に示すように、それぞれ別のウインドウ画像22A、22Bとして表示される。この表示画面21に表示される画像情報も、前記ユーザ入力情報および音声情報と関連付けされて記憶蓄積される。
【0121】
また、この電子会議装置20に内蔵のパーソナルコンピュータは、機能的に情報圧縮蓄積装置をその内部に備える。この情報圧縮蓄積装置は、前記ユーザ入力情報と、会議風景を撮影するビデオカメラ24からの画像情報と、マイクロホン25からの音声情報とを、記憶媒体27に記憶蓄積し、この記憶媒体27に記憶蓄積された音声または画像情報を、後述するようにして圧縮する機能を備えている。
【0122】
そして、蓄積媒体27に蓄積された画像情報は、ユーザからの再生要求に応じて表示画面21に表示されるとともに、蓄積媒体27に蓄積された音声情報がスピーカ28から再生される。電子会議装置20は、このための再生部も備える。この再生部は、表示画面21に表示されたユーザ入力情報のうちから、ユーザが任意のユーザ入力情報を指定した際に、この指定されたユーザ入力情報が入力された時刻に記録された音声情報または画像情報を、蓄積媒体27から読み出し、再生するものである。
【0123】
なお、ユーザが任意のユーザ入力情報を指定した際に、この指定されたユーザ入力情報が入力された時刻に表示画面21に表示されていた画像を、蓄積媒体27から読み出して再生して表示画面21に表示するようにしてもよい。
【0124】
なお、電子会議装置20は、パーソナルコンピュータを介して、例えばISDNによるネットワークに接続することにより、会議の過程の音声情報や画像情報を遠隔地間で同時に共有し、あたかも同じ部屋で会議を行なっているような環境を実現することも可能である。
【0125】
図1は、この実施の形態の電子会議装置の情報蓄積再生装置としての機能部分を示したブロック図である。すなわち、この実施の形態の情報蓄積装置は、システムバスに対して、音声情報入力部1、画像情報入力部2、条件一致区間検出部3、時系列情報記憶部4、ユーザ入力情報入力部5、ユーザ入力情報検出部6、ユーザ入力装置特定部7、重要区間決定部8、対応関係記憶部9、圧縮部10、時刻情報記憶部11、再生部12、再生指定部13、表示部14、制御部15が、それぞれ接続されて構成される。この例の場合、音声情報入力部1の出力端は、条件一致区間検出部3にも接続される。
【0126】
図1の各部はそれぞれ別のブロックとして構成されていてもよいし、1つのブロックが幾つかの部を含むように構成されていてもよい。また、1つの部が、幾つかのブロックに分割されて実装されていても構わない。
【0127】
音声情報入力部1は、マイクロホン25からの音声信号を受けてデジタル音声信号に変換し、システムバスに送出すると共に、条件一致区間検出部3に送出する。
【0128】
画像情報入力部2は、ビデオカメラ24からの画像信号を受け付ける。そして、ビデオカメラ24からの画像信号がデジタル信号であれば、それを受け付けてシステムバスに送出する。また、入力画像信号がデジタル信号でなければ、画像情報入力部2は、入力画像信号をデジタル画像信号に変換してシステムバスに出力する。
【0129】
条件一致区間検出部3は、音声情報入力部1からのデジタル音声信号を監視して、予め定められている条件に合致する音声区間を検出する。この例では、所定レベル以上の音声信号入力が有り、かつ、この入力音声信号から話者の交替を検出したことを条件として条件一致区間を検出する。この条件一致区間検出部3は、音声信号解析器26と電子会議装置20の一部とがその役割を果たす。
【0130】
所定レベル以上の音声信号の有無を検知する方法としては、図3に示すように、条件一致区間検出部3は、入力される音声レベルが所定のレベル以上になったことを検知して話者の発言の開始点を認識し、音声レベルが所定の閾値レベル以下になったことを検知して話者の発言の終了点を認識する検出機能を持つ。
【0131】
ただし、図3に示すように、音声レベルが閾値レベルと交差する音声レベル変化点F101そのものを発言の開始点または終了点とすると、発言の最初の部分と最後の部分が条件一致区間に含まれないので、音声レベルが小レベルから大レベルに変化するときの変化点F101よりも一定時間T1だけ前の時点F100を発言開始点とし、また、音声信号レベルが大レベルから小レベルに変化するときの変化点F101よりも一定時間T2だけ後の時点F102を発言終了点とする。
【0132】
なお、この実施の形態において、ある時刻における音声レベルとは、その時刻の前後の音声レベルを平滑化した値であり、例えば、ある時刻の前後の2秒間の瞬間音声レベルの平均値である。
【0133】
この実施の形態では、図2に示されるように、マイクロホン25を発言者毎に設置し、発言者各自のマイクロホンからの音声入力レベルを音声信号解析器26で比較することで、音声信号解析器26が、入力音声信号を発信した話者を特定する。そして、この話者の特定により、話者の交替を検出する。
【0134】
発言者を特定する方法としては、この他にも、音声信号の特徴(声紋など)から話者を特定してもよいし、画像情報による顔や口の動きから発言者を特定してもよい。その場合には、マイクロホンは、会議出席者のすべてに対応して複数本設ける必要はなく、1本あるいは会議出席者の数よりも少ない複数本でよい。また、複数のマイクロホンを設置し、それらのマイクロホンから入力される音声信号の位相差を解析して音源の位置を検知して、発言者を特定するようにすることもできる。
【0135】
時系列情報記憶部4は、音声情報入力部1から入力される音声情報および画像情報入力部2から入力される画像情報を、それぞれデジタル情報として記憶する。記憶情報の格納装置としては、ディスク装置や、磁気テープ装置や、半導体メモリ装置を用いられる。
【0136】
ユーザ入力情報入力部5は、共用電子ホワイトボード装置からのユーザ入力情報を受けると共に、個人用電子ノート装置からのユーザ入力情報を受ける。前述したように、この実施の形態では、個人用電子ノート装置30からのユーザ入力情報は、無線通信されてくるので、このユーザ入力情報入力部は、そのための無線受信部を備える。
【0137】
この実施の形態では、共用電子ホワイトボード装置からのユーザ入力情報には、共用入力装置であることを示す判別情報がそのヘッダ部に付加されている。一方、個人用電子ノート装置30からのユーザ入力情報のヘッダ部には、この判別情報は付加しない。このヘッダ部の判別情報の有無により、共用入力装置か、個人用入力装置であるかを判別することができる。
【0138】
なお、共用電子ホワイトボード装置からのユーザ入力情報には、共用入力装置であることを示す識別情報を付与しておくと共に、個人用電子ノート装置30からのユーザ入力情報のヘッダ部には、それを示す識別情報を付加するようにして、両者を判別するようにしても勿論よい。
【0139】
ユーザ入力情報検出部6は、ユーザ入力情報入力部5からのユーザ入力情報を検出し、検出したユーザ入力情報を対応関係記憶部9や表示部14に転送する。
【0140】
ユーザ入力情報は、表示位置の情報も含んでいる。また、ユーザ入力情報検出部6は、ユーザ入力情報の検出時点の情報もシステムバスに出力する。
【0141】
ユーザ入力装置特定部7は、ユーザ入力状況特定部の一例を構成するものであり、ユーザ入力情報検出部6で検出されたユーザ入力情報が、共用電子ホワイトボード装置からのものか、個人用電子ノート装置30からのものかを、ユーザ入力情報に含まれる前記ヘッダ部から特定する。そして、そのユーザ入力装置特定結果のユーザ入力装置情報をシステムバスに出力する。
【0142】
重要区間決定部8は、音声情報および画像情報の時系列情報のうちの、後述するような特定の区間を重要区間として特定する特定区間決定部を構成するもので、この実施の形態では、対応関係記憶部9の一部の機能とされる。この重要区間決定部8は、ユーザ入力情報検出部6からのユーザ入力情報の検出時点と、ユーザ入力装置特定部7からのユーザ入力装置情報と、条件一致区間検出部3からの条件一致区間の情報とに基づいて、音声情報および画像情報について、当該ユーザ入力情報に関連する特定区間、すなわち、重要区間を決定する。この重要区間の決定の仕方の詳細な例は後述する。
【0143】
対応関係記憶部9は、ユーザが例えば電子ペン23により入力したユーザ入力情報と、このユーザ入力情報の画面上での表示位置を特定する情報(例えば、X−Y座標軸上の絶対座標や相対座標など)と、重要区間決定部8で決定された重要区間内に入力された音声情報または画像情報の時系列情報記憶部4内での記憶アドレスとを、対応付けて記憶する。
【0144】
この実施の形態では、前記重要区間の情報として、対応関係記憶部9には、ユーザ入力情報が入力された時点を含む重要区間の開始アドレスと終了アドレスとを記憶するようにしている。すなわち、対応関係記憶部9は、それぞれのユーザ入力情報と条件一致区間情報とユーザ入力装置情報とによって特定される区間を重要区間とし、この重要区間の音声情報または画像情報の、前記時系列情報記憶部4における記憶アドレスと、それぞれのユーザ入力情報とを対応させて記憶するものである。この対応関係記憶部9の記憶装置も、例えばディスク記憶装置や半導体メモリ装置等で構成される。
【0145】
圧縮部10は、この実施の形態においては、前記時系列情報記憶部4に蓄積された音声情報および画像情報のデータ間引き処理を行なう。この場合、圧縮部10は、対応関係記憶部9の重要区間決定部8において、ユーザ入力情報が入力されたタイミングと条件一致区間情報とユーザ入力装置情報とによって決定された重要区間の情報に基づいて、重要区間以外の区間の音声情報および画像情報は、消去することもできるように構成されている。
【0146】
時刻情報記憶部11は、入力された音声信号および画像信号が、時系列情報記憶部4に記録開始された時刻を記憶するためのもので、例えばディスク記憶媒体や半導体メモリ等で構成される。
【0147】
さらに、時刻情報記憶部11は、前記記録開始時刻からの経過時間を測定する機能を持つ。このため、この時刻情報記憶部11には、図示しない時計回路部からの現在時刻情報が供給される。そして、この実施の形態では、この時刻情報記憶部11は、前記記録開始時刻からの経過時間が予め定められた所定時間以上となったときに、圧縮部10で時系列情報記憶部4の画像情報の前述したような圧縮を開始する契機となる圧縮トリガタイミング信号を出力する。
【0148】
再生部12は、前述したように、時系列情報記憶部4に記憶されている音声信号や画像信号を再生する機能部である。
【0149】
再生指定部13は、蓄積記憶したユーザ入力情報、音声情報、画像情報を、ユーザ入力情報を指定して再生する際に使用される。この再生指定部13は、後述するように、表示画面21や個人用電子ノート装置30に表示されたユーザ入力情報のうちから、タブレットを通じてユーザが指定を行ったときに、その指定部分を再生部分として検出するものである。
【0150】
表示部14は、前述した表示画面21を備えるプロジェクション方式の表示装置部分である。そして、この例では、ペン/タブレット一体型入出力装置をも兼用する構成とされている。このため、この表示部14には、各自が手元に所有する個人用電子ノート装置30の表示装置部分も含むものとする。したがって、前記再生指定部13も、電子会議装置20の表示画面21を通じての再生指定と、個人用電子ノート装置30の表示画面を通じての再生指定も含むものとする。なお、この表示部14としては、例えばCRTモニタや、液晶モニタで構成することもできる。
【0151】
電子会議装置のユーザ入力情報検出部6は、例えば表示画面21に貼付されたタブレットにより構成され、電子ペン23によるユーザ入力を検出し、そのペン筆跡情報をユーザ入力情報として出力する。このとき、表示部14の表示画面21には、ペン筆跡情報に応じたペン軌跡が表示される。
【0152】
そして、このときのユーザ入力情報には、共用入力装置のユーザ入力情報であることを示す識別情報が含まれるので、ユーザ入力装置特定部7は、それを検知してユーザ入力装置情報を出力する。
【0153】
また、同様に、手元の個人用電子ノート装置30から入力されたペン筆跡情報は、その入力が行なわれた該個人用電子ノート装置30の表示装置部に表示される。さらに、ユーザからの入力を検出した個人用電子ノート装置30は、電子会議装置20にその識別情報を含むユーザ入力情報を伝送する。ユーザ入力情報検出部6は、この個人用電子ノート装置30からのユーザ入力情報を受信して検出する。また、ユーザ入力装置特定部7は、ユーザ入力情報に含まれる識別情報を検知してユーザ入力装置情報を出力する。
【0154】
なお、ユーザ入力情報としては、ペン(またはマウス/トラックボール/タッチパネルなど)からの筆跡あるいは図形(線、四角形、円などのオブジェクト)の他に、筆跡データを文字認識したコード情報、キーボードからのコード情報でもよい。また、表示されているユーザ入力情報を移動/複写/削除したという編集情報、ページ切り替えを行ったという情報、スチルカメラのシャッターを押したという情報、ユーザがセンサー付きの椅子に座ったという情報、仮想的な消しゴムが用いられたという情報など、ユーザ入力情報が表示されない性質のものであってもよく、この場合は、そのユーザ入力情報の存在を示す所定のしるしを表示部3に表示する。すなわち、入力される時系列情報(例えば、音声信号または画像信号)が存在する間に、ユーザが計算処理能力を持つ装置に対して行った入力は、いずれもこの発明でいうユーザ入力情報に相当する。
【0155】
[重要区間の決定について]
対応関係記憶部9の重要区間決定部8は、ユーザ入力情報が検出されたタイミングと、特定されたユーザ入力装置情報と、条件一致区間検出部3で検出された条件一致区間とから、音声情報および画像情報についての重要区間を決定する。この決定に際して、この実施の形態では、次の点を考慮している。
【0156】
前述したように、共用電子ホワイトボード装置に筆記する筆記者は、書きながら関連情報を発言する場合が多い。また、筆記者以外の会議出席者によって発言されたことを、共用電子ホワイトボードの筆記者が書き留める時は、関連情報が発言されたら、それをすぐ共用電子ホワイトボード装置に筆記する傾向が強い。したがって、共用電子ホワイトボード上のメモ筆記時点と関連情報が発言されている時点とは近接しているという特徴がある。
【0157】
他方、会議参加者が個人用電子ノート装置に筆記する場合は、聞いた言葉を一旦自分の中で咀嚼したのち手元メモを入力したり、自分の言葉に置き換えたのち手元メモを筆記することが多い。したがって、個人用電子ノート装置上のメモ筆記時点と関連情報が発言されている時点とは比較的離れるという特徴がある。
【0158】
本願の発明者らが実施した実験の結果によると、ユーザ入力として例えばメモ筆記の場合を例にとると、メモ筆記入力に対して必要な発言の開始点が、決定される重要区間に含まれる確立を95%(危険率5%)以上にするためには、個人用電子ノート装置に筆記する場合は筆記時点の少なくとも200秒前から記録を開始する必要があり、一方、共用電子ホワイトボード装置に筆記する場合は筆記時点の少なくとも130秒前から記録を開始する必要があることがわかった。
【0159】
また、メモ筆記入力に対して必要な発言の終了点が、決定される重要区間に含まれる確立を95%(危険率5%)以上にするためには、個人用電子ノート装置に筆記する場合は筆記時点の少なくとも180秒後まで記録を継続する必要があり、一方、共用電子ホワイトボード装置に筆記する場合は筆記時点の少なくとも70秒後まで記録を継続する必要があることがわかった。
【0160】
以上のことを考慮して、この実施の形態の重要区間決定部8においては、音声情報や画像情報の時系列情報の内から、次のようにして、重要区間を決定するようにする。
【0161】
すなわち、図4において、共用電子ホワイトボード装置20の表示画面21または個人用電子ノート装置30の表示画面において、ユーザ入力情報として入力ペンにより時点tpで筆記入力がなされた場合の重要区間の特定は、次のようになされる。
【0162】
まず、ユーザ入力情報の入力が検出された時点tpから所定時間前にさかのぼった時点t1を特定し、この時点t1よりさらにさかのぼる時点であって、この時点t1に最も近い話者交替時点ts(t1に最も近い条件一致区間の開始点ts)を重要区間IPの始まりとする。この場合に、図5の表に示すように、ユーザ入力が、共用電子ホワイトボード装置上の筆記であれば、そのユーザ入力が検出された時点tpと時刻t1との時間間隔(tp−t1)は130秒とし、個人用電子ノート装置上の筆記であれば、時間間隔(tp−t1)は200秒となるように時刻t1を定める。
【0163】
次に、ユーザ入力情報の入力が検出された時点tpから所定時間後の時点t2を特定し、この時点t2よりも後の時点であって、このt2に最も近い話者交替時点te(t2に最も近い条件一致区間の終了点te)を重要区間IPの終わりとする。この場合に、図5の表に示すように、ユーザ入力が、共用電子ホワイトボード装置上の筆記であれば、そのユーザ入力が検出された時点tpと時刻t2との時間間隔(t2−tp)は70秒とし、個人用電子ノート装置上の筆記であれば、時間間隔(t2−tp)は180秒となるように時刻t2を定める。
【0164】
また、例えばユーザからの入力が十分な間隔を置かずに続けざまに行われた等の理由により、重要として決定すべき区間が重なった場合は、区間をつないで決定する。
【0165】
例えば、図6のように、共用電子ホワイトボード装置からのユーザ入力が時点tp1でなされ、これに近接した時点tp2で、個人用電子ノート装置30からのユーザ入力があった場合を考える。この場合には、ユーザ入力時点tp1について決定される重要区間と、ユーザ入力時点tp2について決定される重要区間とが時間的に重なるので、時点tp1について決定される重要区間の開始点から、時点tp2について決定される重要区間の終了点までを、求める重要区間IPとして決定するようにする。
【0166】
すなわち、図6では、共用電子ホワイトボード装置からのユーザ入力時点tp1から所定時間前にさかのぼった時点t1を特定し、この時点t1よりさらにさかのぼる時点であって、この時点t1に最も近い話者交替時点tsを重要区間の始まりとする。この場合、共用電子ホワイトボード装置上の筆記であるので、図7の表に示すように、ユーザ入力が検出された時点tp1と時刻t1との時間間隔(tp1−t1)が130秒となるように時点t1を定める。
【0167】
また、個人用電子ノート装置からのユーザ入力時点tp2から所定時間後の時点t2を特定し、この時点t2よりも後の時点であって、この時点t2に最も近い話者交替時点teを重要区間の終わりとする。この場合、個人用電子ノート装置上の筆記であるので、図7の表に示すように、ユーザ入力が検出された時点tp2と時刻t2との時間間隔(t2−tp2)が180秒となるように時刻t2を定める。図6において、WPは、個々のユーザ入力について決定される重要区間が重なった区間を示している。
【0168】
図6のように、複数のユーザ入力装置により入力されたユーザ入力情報を合わせてユーザ入力情報検出部6によって検出するようにした場合や、複数のユーザからのユーザ入力情報を合わせてユーザ入力情報検出部6によって検出するようにした場合は、入力される音声情報または画像情報を同一の時系列情報記憶部4に記憶するように構成することで、装置個別に音声情報または画像情報を蓄積する必要がなくなり記憶容量の節約ができる。
【0169】
[情報蓄積装置の第1の実施の形態の記録時の動作]
次に、以上のような構成の情報蓄積装置の例としての電子会議装置20における記録時の動作について説明する。図8は、この実施の形態における記録時の動作を、その際の各種情報の流れ、および、各部の出力の流れと共に説明する図である。
【0170】
会議が始まり、マイクロホン25からの音声信号およびカメラ24からの画像信号が、電子会議装置20に供給されると、音声信号および画像信号は、時系列情報記憶部4に順次に蓄積記憶される。また、音声信号は、条件一致区間検出部3にも入力される。
【0171】
この場合、音声信号解析器26が、条件一致区間検出部3の機能を果たす。すなわち、前述したように、マイクロホン25が発言者毎に設置されており、発言者各自のマイクロホンからの音声入力レベルが音声信号解析器26において、閾値レベルと比較されることで、音声信号解析器26で、入力音声信号を発信した話者が特定され、1人の話者の1つの発話の開始点および終了点が検出される。この実施の形態の場合、1人の話者の1つの発話区間が条件一致区間となる。この条件一致区間の情報は対応関係記憶部9の重要区間決定部8に供給される。
【0172】
図9は、条件一致区間検出部3の動作を説明するフローチャートである。
【0173】
条件一致区間検出部3に、音声情報入力部1からの音声信号がデジタル信号として供給されると、ステップS100において、前述の発言区間の検出と、発話者の特定が行なわれる。発話者の特定方法としては、前述したように、発言者毎に設置されたマイクロホン25からの音声入力レベルを音声信号解析器26で比較することで実施される。
【0174】
このステップS100の後、ステップS101において、話者が交替したかどうかを認識し、話者の交替が検出された場合には、ステップS102に進み、ステップS101において特定された条件一致区間を重要区間決定部8に出力し、その後ステップS100に戻って、新たな条件一致区間の検出を始める。また、ステップS101において、話者が交替していないと認識された場合にも、ステップS100に戻って、新たな条件一致区間の検出を始める。
【0175】
一方、ユーザ入力情報検出部6が、ペン筆跡情報(ユーザ入力情報)の入力を検出すると、検出されたペン筆跡情報は、表示部14に表示される。そして、検出されたペン筆跡情報は、対応関係記憶部9に供給されて、その重要区間決定部8で重要区間の決定のための要素の一つとして用いられると共に、記憶蓄積される。
【0176】
図10は、ユーザ入力情報検出部6の動作を説明するフローチャートである。ユーザ入力情報検出部6は、電子ペン23が表示画面21に接触した座標位置をそのユーザ入力情報として検出し、あるいは個人用電子ノート装置30からの、その表示画面に接触した座標位置からなるユーザ入力情報を検出し(ステップS200)、検出したユーザ入力情報を、逐次、表示部14に出力して表示すると共に、対応関係記憶部9に出力し、この対応関係記憶部9に、検出したユーザ入力情報を記憶させるようにする(ステップS201)。
【0177】
また、ユーザ入力情報検出部6からのユーザ入力情報中のユーザ入力装置の識別情報から、ユーザ入力装置特定部7で、ユーザ入力情報は、共用ホワイトボード装置20からのものか、個人用電子ノート装置30からのものかを示すユーザ入力装置情報が生成される。このユーザ入力装置情報は、対応関係記憶部9の重要区間決定部8に供給されて、重要区間の決定のための要素の一つとして用いられる。
【0178】
図11は、この実施の形態における、ユーザ入力装置特定部7の動作を説明したフローチャートである。前述もしたように、ユーザ入力情報が共用電子ホワイトボード装置20から入力された情報か、個人用電子ノート装置30から入力された情報かを判別できるようにするために、共用電子ホワイトボード装置20は、ユーザ入力情報のヘッダに、共用ホワイトボード装置判別情報を付加する。
【0179】
すなわち、共用電子ホワイトボード装置から出力されたユーザ入力情報のヘッダに、共用電子ホワイトボード装置から入力されたことを示す共用ホワイトボード装置判別情報を付加し、他方、個人用電子ノート装置から入力されたユーザ入力情報のヘッダーには前記共用ホワイトボード装置判別情報を付加しないようにする。これにより、両入力装置を容易に判別できるようにする。
【0180】
図11に示すように、ユーザ入力情報検出部6からの入力があった場合には、ステップS210によってそのことが検出され、ステップS211に進む。ステップS211では、ユーザ入力情報検出部6からのユーザ入力情報のヘッダに共用ホワイトボード装置判別情報が付加されているかどうかを検出し、共用ホワイトボード装置判別情報が付加されていなかった場合には、ステップS212に進み、個人用電子ノート装置30からの入力であるとするユーザ入力装置情報を対応関係記憶部9に供給する。一方、ステップS211において、共用ホワイトボード装置判別情報が付加されていると判別された場合には、ステップS213に進み、共用電子ホワイトボード装置20からの入力であるとするユーザ入力装置情報を対応関係記憶部9に供給する。
【0181】
なお、前記共用ホワイトボード装置判別情報を生成する装置としては、共用電子ホワイトボード装置20以外にも、共用電子ホワイトボード装置20に書き込むための電子ペン23であってもよい。
【0182】
対応関係記憶部9の重要区間決定部8は、以上のユーザ入力情報と、条件一致区間の情報と、ユーザ入力装置情報とから、前述の図4〜図7を用いて説明したようにして、時系列情報についての重要区間を決定する。
【0183】
図12は、ユーザ入力情報検出部6の検出結果であるペン筆跡入力情報と、条件一致区間検出部3の検出結果と、ユーザ入力装置特定部7のユーザ入力装置の検出結果とから、重要区間決定部8により定められた重要区間と、画像情報および音声情報を記憶した時系列記憶部4の記憶状態(圧縮処理を施す前の状態)とを対応付けて説明する図である。これらの情報の対応関係情報は、前述したように、対応関係記憶部9に記憶される。
【0184】
対応関係記憶部9の重要区間決定部8は、前述したように、条件一致区間検出部3の検出結果とユーザ入力装置特定部7の検出結果とから定められた区間のうち、ユーザ入力情報が入力された時点を含む区間を、入力音声情報または画像情報の重要区間として記憶する。すなわち、条件一致区間検出部3で検出された区間であっても、その区間内にユーザ入力情報が検出されなかった場合には、重要区間としては認識しない。
【0185】
そして、画像情報および音声情報に関して、ユーザ入力情報としてのペン筆跡の入力時点を含む時刻tsから時刻teまでを重要区間として特定する。この重要区間の画像情報および音声情報は、後述する圧縮処理を施した時に時系列情報記憶部4から消去されないが、重要区間以外の区間の画像情報および音声情報は、後述する圧縮処理を施した時に消去される。
【0186】
図13は、対応関係記憶部9に記憶された対応関係情報の例である。この図13に示すように、ユーザが入力したペン筆跡情報としては、ユーザ入力情報を一意に特定する識別子とユーザ入力情報の種類を特定する情報が記憶されている。表示画面21上の表示位置としては、3つのX−Y座標(20、30)(30、40)(60、10)と座標情報の終端を表すnilとが記憶されている。
【0187】
また、時系列情報記憶部4上の記憶アドレスとしては、重要区間決定部8により決定されたアドレスas(開始点アドレス)およびアドレスae(終了点アドレス)が記憶されている。
【0188】
最後に、ユーザ入力情報が共用入力装置から入力されたものか、個人用入力装置から入力されたものかを示すためにユーザ入力装置情報が記憶されている。
【0189】
対応関係記憶部9に記憶されるのは、ペン筆跡情報、表示座標、記憶アドレスそのものではなく、それらを特定する特定情報であってもよいし、対応関係記憶部9のデータ記憶構造はテーブルの形式でなく、リスト構造などの他の記憶構造で構成されてもかまわない。
【0190】
また、この例のように、マルチプルラインなどを表現するまとまった座標点列を1つのペン筆跡情報として記憶させておけば、再生時にその座標点列のうちの、いずれかが指定されれば、その座標点列に対応するペン筆跡情報が特定できるようになり、同じ記憶アドレスから音声または画像を再生できるようになる。
【0191】
図14および図15は、対応関係記憶部9の動作を説明するフローチャートであるが、前述した記録動作に関与するステップは、ステップS300〜ステップS304の部分である。そして、ステップS305、ステップS306の部分は、後述する圧縮時の動作に関与する部分であり、また、図15のステップS307〜ステップS310の部分は後述する再生時の動作に関与する部分である。
【0192】
すなわち、この記録時においては、ステップS300において、条件一致区間検出部3から、条件一致区間を示す情報が入力されたかどうかを検出し、条件一致区間の入力が検出されなかった場合には、ステップS305およびステップS307を経由してステップS300に戻り、条件一致区間を示す情報の入力有無の検出を行う。
【0193】
ステップS300において、条件一致区間検出部3からの条件一致区間の入力が検出された場合には、ステップS301に進む。ステップS301では、当該条件一致区間内にユーザ入力情報が検出されたか否か判定し、当該条件一致区間内にユーザ入力情報が検出されないと判定されたときには、ステップS305およびステップS307を経由してステップS300に戻り、再び、条件一致区間を示す情報の入力有無の検出を行う。
【0194】
一方、ステップS301で、条件一致区間内にユーザ入力情報が検出されたと判定された場合には、ステップS302に進む。ステップS302では、前述したようにして重要区間を決定する。このステップS302は、重要区間決定部8が実行するステップである。次にステップS303に進み、前記重要区間に対応して時系列情報記憶部4に記憶されている音声情報または画像情報の、時系列情報記憶部4における記憶アドレスを取得するために、時系列情報記憶部4に対し、前記重要区間を示す情報と、記憶アドレスの問い合わせ要求を出力し、その返答を待つ。
【0195】
時系列情報記憶部4からの返答が返されるとステップS304に進み、前記ユーザ入力情報と、このユーザ入力情報の表示部14上における表示位置と、重要区間とされる音声情報および画像情報の時系列情報記憶部4における記憶アドレス(重要区間の記憶アドレス)と、ユーザ入力装置情報とを対応づけて記憶する。時系列情報記憶部4に記憶されている音声情報および画像情報の、重要区間の情報は、これにより、ユーザ入力情報、条件一致区間情報およびユーザ入力装置情報に対応して記憶されていることになる。
【0196】
ステップS304の次には、ステップS305およびステップS307を経由してステップS300に戻り、次の条件一致区間を示す情報の入力有無の検出を行う。
【0197】
次に、このときの対応する時系列情報記憶部4の動作を、図16のフローチャートを参照して説明する。この処理ルーチンのステップS400〜S404の部分が記録時の動作の部分であり、ステップS405,S406は再生時の動作部分である。
【0198】
すなわち、図16において、時系列情報記憶部4の記録時の動作を説明すると、まず、この記録動作が開始となると、時系列情報記憶部4は、ステップS400において、音声情報および画像情報の記憶開始時刻を時刻情報記憶部11に出力して、記録させる。次に、ステップS401、ステップS402と順次に進み、入力される画像情報と音声情報との入力を受け、順次記憶する。
【0199】
そして、次のステップS403では、対応関係記憶部9から、前記重要区間に対応する記憶アドレスの要求が到来したか否かを判別し、当該要求が到来したことを検出したときにはステップS404に進む。このステップS404では、重要区間に対応する音声情報および画像情報の記憶アドレスを、対応関係記憶部9に返答する。
【0200】
ステップS403で重要区間に対応する記憶アドレスの要求は到来していないと判別された後、またステップS404の後は、ステップS405を経由してステップS401に戻り、画像情報と音声情報の記憶を続ける。
【0201】
時刻情報記憶部11は、時系列情報記憶部4の前記ステップS400での処理による記憶開始時刻の情報を受信して、当該記憶開始時刻の記憶を行う。
【0202】
図17は、時刻情報記憶部11の動作を説明するフローチャートであり、また、図18は、時刻情報記憶部11の記憶構造を説明するための図である。図17において、ステップS500およびステップS501が、記録時の処理であり、時系列情報記憶部4から供給された、音声情報および画像情報の記憶開始時刻をステップS500において検出し、ステップS501においてこの記憶開始時刻を時刻情報記憶部11に記憶する。
【0203】
後述するように、時刻情報記憶部11は、音声情報および画像情報が時系列情報記憶部4に記録されてからの経過時間(すなわち情報保存時間)が、所定の時間以上になった場合に、対応関係記憶部9に対し圧縮処理開始指示を出力する。図17のステップS502およびステップS503は、その処理部であり、この圧縮開始指示処理については後述する。
【0204】
時刻情報記憶部11は、音声情報および画像情報を格納したファイルの名前と、記憶開始時刻との関係を、図18のようなテーブルで管理している。この例では、1つの会議の記録が1つのファイルに記録されている。ファイル名は各会議記録に付与されたファイル名称であり、図18のIDは各会議記録ファイルを識別する識別子(この例では番号)である。
【0205】
なお、この記憶開始時刻の記憶形式はテーブル形式に限られず、リスト構造やスタック構造等であっても構わない。さらに、音声情報および画像情報を格納したファイルやファイル名の中に、記憶開始時刻を特定する情報を記憶しておくように構成しても構わない。
【0206】
以上のようにして、この実施の形態においては、会議が開始され、会議記録が開始されると、その開始時点の時刻が、時刻情報記憶部11に記憶されると共に、会議開始時点(記憶開始時点に対応)から画像情報および音声情報が時系列情報記憶部4に記憶される。
【0207】
そして、会議進行中にユーザ入力情報検出部6でユーザ入力情報が検出されると、それが表示画面21上の位置情報と共に、対応関係記憶部9に順次に記憶される。さらに、会議進行中の音声情報について、条件一致区間検出部3で、話者交替が検出され、かつ、条件一致区間内でユーザ入力情報がユーザ入力情報検出部6で検出されると、対応関係記憶部9に、そのユーザ入力があった条件一致区間を重要区間として、この重要区間を特定する情報と、対応する時系列情報記憶部の記憶アドレスと、ユーザ入力装置情報とが対応付けて記憶される。
【0208】
[情報蓄積装置の第1の実施の形態の圧縮時の動作]
次に、圧縮時の動作について説明する。この第1の実施の形態では、時系列情報記憶部4に記憶した画像情報および/または音声情報は、記憶してから所定期間経過したときには、重要度が小さくなるとして情報圧縮して、時系列情報記憶部4のメモリに、空き容量を形成するようにするが、その区間内でユーザ入力情報が検出された近傍区間は、重要区間として、この区間は圧縮せず、あるいは、圧縮率を低くして高品質を保つようにする。
【0209】
この場合に、記憶してから圧縮を開始するまでの期間は一定期間とするようにしてもよいが、ユーザが任意に変更できるようにしてもよい。
【0210】
また、ファイルサイズに応じてその期間を変更するようにすることもできる。その場合に、音声情報および画像情報を格納したファイルやファイル名の中に、記憶開始時刻を特定する情報を記憶しておくように構成しても構わない。例えば、図19に示すように、ファイルサイズが5Mバイトを越える場合には、圧縮処理開始までの時間を1ヶ月とし、5Mバイトに満たない場合には、圧縮処理開始までの時間を2ヶ月にする。
【0211】
また、ファイル拡張子が、.AVIのファイルの場合には、圧縮処理開始までの時間を1ヶ月とし、ファイル拡張子が、.mpgのファイルの場合には、圧縮処理開始までの時間を2ヶ月とするというように、ファイル拡張子により自動的に圧縮処理開始までの時間を設定するようにしてもよい。その場合には、圧縮処理開始までの時間を各ファイル毎に指定する必要がなくなり、ユーザの手間が省けるという効果がある。
【0212】
図20は、この実施の形態における情報圧縮時の動作を、その際の各種情報の流れ、および、各部の出力の流れと共に説明する図である。
【0213】
時刻情報記憶部11は、音声情報および画像情報が時系列情報記憶部4に記録されてからの経過時間が、所定の時間以上になった場合に、対応関係記憶部9に対し圧縮処理開始指示を出力する。
【0214】
すなわち、図17の時刻情報記憶部11の処理ルーチンのステップS502において、図示しない時計回路部から供給される現在時刻と、時刻情報記憶部11に記憶されている記憶開始時刻とを比較し、情報の保存時間が所定の時間を経過したかどうかを判定する。所定の時間が経過したと判定されたときには、ステップS503に進み、対応関係記憶部9に圧縮処理開始を要求する。
【0215】
そして、この要求を出した後に、あるいはステップS502で所定の時間を経過していないと判定されたときには、ステップS500に戻る。
【0216】
例えば、前記所定の時間が、1ヶ月と定めてあった場合には、圧縮処理開始要求が記憶開始時点から1ヶ月後に発生し、時系列情報記憶部4に新規に蓄積された情報は、1ヶ月後に圧縮処理を施されることとなる。例えば、図19に示した1996年4月25日13時30分に記録されたファイル名「file10」の音声情報および画像情報は、1996年5月25日13時30分に前述の圧縮処理を施されることになる。
【0217】
なお、以上の圧縮処理の開始のタイミングは、設定された時間の近辺であればよく、システムがアイドリング状態になるのを待って圧縮処理を行なうように構成してもよい。
【0218】
対応関係記憶部9は、時刻情報記憶部11から圧縮開始指示が入力されると、図14のステップS305でその入力を検出する。圧縮開始指示が検出された場合には、ステップS306に進み、前記重要区間を特定する情報のそれぞれと、それぞれの重要区間に対応して前記時系列情報記憶部4に記憶されている音声情報および画像情報の、前記時系列情報記憶部4における記憶アドレスを特定する情報とを圧縮部10に出力する。すなわち、図13に示したユーザ入力情報ごとの情報の、一つの会議についてのすべてを一括して圧縮部10に出力する。
【0219】
なお、もちろん、各重要区間を特定する情報と、該重要区間に対応した記憶アドレスとの組を、1組1組づつ、順次圧縮部10に出力するように構成してもよい。また、音声情報および画像情報を格納した時系列情報記憶部4のファイルの中に、前記重要区間を特定する情報のそれぞれと、それぞれの重要区間に対応してファイルに記憶されている音声情報および画像情報の、該ファイルにおける記憶アドレスとを記憶しておくように構成しても構わない。
【0220】
対応関係記憶部9からの入力を受信した圧縮部10は、前記時系列情報記憶部4に蓄積された音声情報および画像情報の間引きデータ圧縮を行なう。この実施の形態の場合には、重要区間の情報については、データ圧縮を行わずに高品質を維持し、また、重要区間以外の区間の情報については、消去するようにする。このため、図20に示すように、圧縮部10は、時系列情報記憶部4に記憶された情報のうち、重要区間以外の区間の情報を消去するようにする。
【0221】
図21は、この圧縮部10の動作の、画像圧縮処理を説明するフローチャートである。
【0222】
以下、このフローチャートおよび説明図を用いて、圧縮動作の詳細な説明を行なう。
【0223】
時刻情報記憶部11は、前述の図17に示したフローチャートのステップS503において、音声情報および画像情報が時系列情報記憶部4に記録されてからの経過時間(すなわち情報保存時間)が、所定の時間以上になった場合に、対応関係記憶部9に対し圧縮処理開始指示を出力する。
【0224】
対応関係記憶部9は、時刻情報記憶部11から圧縮開始指示が入力されると、図14のステップS305でその入力を検出する。圧縮開始指示が検出された場合には、ステップS306に進み、重要区間の図9に示した情報のそれぞれと、それぞれの重要区間に対応して前記時系列情報記憶部4に記憶されている音声情報または画像情報の、前記時系列情報記憶部4における記憶アドレスとを圧縮部10に出力する。
【0225】
圧縮部10は、対応関係記憶部9からの圧縮開始要求を受信すると、ステップS600によって、これを検出し、ステップS601に進む。ステップS601では、対応関係記憶部9から入力される、重要区間のそれぞれと、それぞれの重要区間に対応して前記時系列情報記憶部4に記憶されている音声情報および画像情報の、前記時系列情報記憶部4における記憶アドレスとを入力し、圧縮部10の、図示しないワークメモリに記憶する。ワークメモリは、記憶媒体として、例えば半導体メモリを用いる。
【0226】
なお、重要区間と、該重要区間に対応した記憶アドレスとの組を、1組1組、順次圧縮部10に出力するように構成してもよい。また、音声情報および画像情報を格納したファイルの中に、前記重要区間のそれぞれと、それぞれの重要区間に対応してファイルに記憶されている音声情報および画像情報の、該ファイルにおける記憶アドレスとを記憶しておくように構成しても構わない。
【0227】
圧縮部10は、前記ワークメモリに記憶されている、重要区間と記憶アドレスの複数組を参照して、時系列情報記憶部4に記憶されている画像情報および音声情報の間引き圧縮を行なう。すなわち、ステップS602において、重要区間以外の区間の画像情報および音声情報を、時系列情報記憶部4から消去する。
【0228】
以上の圧縮処理によって、図22に示すような空きメモリが生成される。すなわち、図22は、時系列情報記憶部4に記憶された画像情報および音声情報のうち、重要区間として認識された情報(アドレスasからアドレスae)を保存し、それ以外の区間の情報を消去した場合の例を示した図である。
【0229】
図22において、アドレスasからアドレスaeの間のメモリ領域の画像データおよび音声データは、重要区間のデータであるので、圧縮前と比べて変化がない。一方、アドレスa0からアドレスas、および、アドレスaeからアドレスa2に蓄積されていた画像データおよび音声データは、重要区間ではないので消去されている。そして、情報量が減ったことにより、図22に示すように、時系列情報記憶部4の記憶媒体には、空きメモリ領域が生成される。
【0230】
なお、時系列データが、記憶媒体内で連続して記憶されていることが望ましい場合には、生成された空きメモリの部分を前後の時系列データによって詰めるようにする等して、メモリの隙間をなくすようにしてもよい。
【0231】
[情報蓄積装置の第1の実施の形態の再生時の動作]
次に、再生時の動作について説明する。
【0232】
この例においては、表示部14に表示された複数のペン筆跡情報の中の1つをユーザがペンを用いて指定(ポインティング)することにより、時系列情報記憶部4に記憶された音声信号または画像信号のうち、そのペン筆跡情報が入力された時点の近辺前後に入力された音声信号または画像信号のみを部分的に再生可能とされている。
【0233】
また、そのペン筆跡情報が入力された時点の前後に入力された音声信号または画像信号のうちの、前記重要区間の最初にさかのぼって音声信号または画像信号を再生できるように構成されている。
【0234】
この例の場合、指定に用いる再生指定部13としては、この実施の形態のように、入力用のペンと兼用されている。
【0235】
なお、再生指定部13としては、マウス、トラックボール、カーソルキー、タッチパネル等を用いることもできる。また、ペン筆跡情報の指定方法としては、ポインティングによる指定、囲み(閉曲線や楕円などによる囲み)による指定、識別子入力による指定、表示されている項目の下に線を引くような指定などによるものでもよい。
【0236】
また、囲みによる指定や下線による指定を行なった結果、複数のペン筆跡情報が選択された場合には、なんらかの優先順位に基づいて1つを特定するようにすることもできる。例えば、選択された中で最も早く入力されたペン筆跡情報や、最も左上に表示されたペン筆跡情報を自動的に選ぶ等、候補をリスト状に表示してユーザに再度選択を求めるようにしてもよい。
【0237】
さらに、特定の順番(例えば時系列)で静止画画像を並べ、それら目次画像の中から1つを指定するようにしても構わない。
【0238】
表示部14の表示画面21上の表示位置は、X−Y座標によって特定できるので、ペンなどの再生指定部13によってある表示位置が指定されると、その表示位置に対応するX−Y座標が特定される。
【0239】
このようにして、再生指定部13から再生要求があると、対応関係記憶部9での動作の図15のフローチャートのステップS307においてそれが検出され、ステップS308に進み、再生指定部13から得られた指定座標と、対応関係記憶部9に記憶されているX−Y座標から算出されるX−Y座標群(図13のペン筆跡座標を端点とするマルチプルラインを構成する全ての点座標群)とを比較して、対応するペン筆跡情報を特定する。
【0240】
続いて、ステップS309において、このペン筆跡情報に対応した音声信号または画像信号の再生開始アドレスおよび再生終了アドレスを、対応関係記憶部9から取得し、ステップS310に進んで、その再生開始アドレスおよび再生終了アドレスと、再生要求とを時系列情報記憶部4に出力する。
【0241】
その後、再生開始/終了アドレスと再生要求とを受け取った時系列情報記憶部4は、図16のフローチャートのステップS405において、その入力を検知し、ステップS406に進んで、再生部12に出力する。
【0242】
再生部12は、以上の動作によって求まった時系列情報記憶部4の再生開始アドレスから再生終了アドレスまでの音声情報または画像情報の再生を開始する。例えば、図13のID1000のマルチプルラインが指定された場合には、このマルチプルラインに対応する、記憶アドレスasから記憶アドレスaeまでの音声情報または画像情報が再生される。
【0243】
なお、前記座標比較の際に、少しずれた座標ともマッチングするようにしておけば、指定時に多少ずれた座標点を指定しても、所望の記憶アドレスを取得できるようになる。また、ユーザ入力情報が表示されない性質のものであった場合にでも、そのユーザ入力情報の存在を示す所定のしるしが表示部14に表示されているので、同様の方法によって所望の記憶アドレスを取得できる。また、所定時間間隔内に連続入力された複数の座標点列を1つのペン筆跡情報として記憶させておけば、例えば、1行の文字列を1つのペン筆跡情報と見なすことができるため、文字列を構成する座標点列のうちいずれかが指定されれば、同じ記憶アドレスから音声または画像を再生できる。
【0244】
再生時には再生速度を変化させたり少し巻き戻ししてゆっくり再生したい場合がよくあるので、早送り機能、巻き戻し機能、スロー再生機能、一時停止機能を再生部12に具備してもよいし、時間軸上のスライドバーを設け、現在再生している時刻を示すポインタをスライドバーに表示したりバーをスライドさせることによって再生位置を指定できるようにしてもよい。また、再現する速度に関して、必ずしも記録された時刻情報の通りに再現する必要はなく、記録された順序関係だけは守って速度を上げて再現するようにしてもよい。
【0245】
さらに、再生を一時停止した後、指示部によって再生を再び指示できるようにしてもよいし、新たなユーザ入力情報を追記できるようにしてもよい。
【0246】
[第1の実施の形態の変形例]
以上の第1の実施の形態の説明では、会議出席者の各々の発言区間を条件一致区間として検出するようにしたが、条件一致区間としては、これに限られるものではない。
【0247】
例えば、「扉の閉まる音」というような、単発的な音声信号を条件一致区間検出部3によって検出するようにすることもできる。この場合には、単発的な音声信号を検出した時点の所定時間前の時点を条件一致区間の開始点として検出し、該単発的な音声信号を検出した時点の所定時間後の時点を条件一致区間の終了点として検出するように構成する。また、外部センサからの単発的なトリガ信号を条件一致区間検出部3によって検出する場合にも、同様に構成すればよい。
【0248】
この他にも、条件一致区間検出部3が検出する事象は、音声信号の中の予め登録されたキーワードの出現、音声信号の中の予め登録された音声パターンの出現、音声信号の中の予め登録された文字列の出現、画像信号の中の状態変化、外部センサが検知した状態の変化、カメラワークまたはカメラワークの変化などであってもよい。
【0249】
例えば、笑い声のパターン、拍手のパターンなどの特徴的な音声パターンを登録しておき、入力音声信号からこれらのパターンを認識し、これらのパターンを含む区間を条件一致区間として検出するように構成することもできる。この場合には、条件一致区間検出部3には、公知のパターン認識技術、例えば、音声信号のパワーまたは周波数成分の時間的遷移を解析する技術などを用いて、パターン認識を行なうパターン認識手段が設けられる。
【0250】
すなわち、入力される時系列情報(例えば、音声情報または画像情報)の変化、または入力される時系列情報が存在する間に外部センサが検知した信号の変化を検出する装置も、いずれもこの発明でいう条件一致区間検出部3に相当する。その変化点を検出条件とする場合、終了点としては、その変化点から予め定めた一定時間とすることができる。
【0251】
また、この実施の形態では、圧縮部10は、画像情報および音声情報を間引き処理することによって圧縮する構成になっているが、画像情報の圧縮時に、記憶時間、フレーム内圧縮の圧縮率、フレーム間圧縮の圧縮率、間欠記録の時間間隔、色情報間引き率、輝度情報間引き率等の少なくとも一つを動的に変更する装置であればよい。特に、動画像情報を圧縮する方法としては、フレーム内での圧縮法とフレーム間の圧縮法があり、フレーム内の圧縮法としてはベクトル量子化を用いた方法と離散コサイン変換を用いた方法などがある。フレーム間の圧縮法としては前後フレームの画像情報の差分のみを記録する方法などがある。すなわち、単位時間あたりの情報量をより少ない情報量に変換する装置は、いずれもこの発明でいう圧縮部10に相当する。
【0252】
また、音声情報の圧縮にあたっては、サンプリング周波数、符号化ビット数の少なくとも一つを動的に変更するように構成する手段を備えてもよい。
【0253】
また、重要区間の情報と、重要区間以外の区間の情報とを、別々の蓄積媒体に分けて保存するようにしてもよい。例えば、情報の記録時は、重要区間の情報と重要区間以外の区間の情報とを同一の磁気ディスクに蓄積するようにし、情報の圧縮時に、重要区間の情報のみを前記磁気ディスクに残し、重要区間以外の区間の情報を光磁気ディスクや磁気テープに移動するように構成する。一般的に、光磁気ディスクや磁気テープは、磁気ディスクに比べて、情報へのアクセス速度は遅いが大量の情報を安価に蓄積することができるという特徴を有しているため、情報量の少なくなった重要区間以外の区間の情報を蓄積するために適している。
【0254】
以上の例では、初期状態において表示部14上に何も表示されている情報がない場合について説明したが、この発明の適用範囲はこの例に留まらず、例えば初期状態でいくらかのユーザ入力情報が既に表示されており、それに追加や変更を施す場合もこの発明の適用範囲に含まれる。ただしこの場合には、再生のために指定できるユーザ入力情報は、初期状態からの変位部分のみとなる。
【0255】
また、この発明の装置の用途としては、記録していた音声情報または画像情報を再生する際に、ユーザ入力情報をも画面上に順次再現させてゆく使い方がある。表示部14の表示を、再生指定部13によって特定されたペン筆跡情報が入力された時点の表示に一旦戻し、音声または画像情報とペン筆跡情報とを同期させて再現するものである。表示画面をその時点の表示に戻す方法としては、表示画面のUNDOをその時点まで繰り返してもよいし、画面を一旦消去した後、対応関係記憶部9に記憶されているユーザ入力情報をその時点まで高速に順次描画してもよい。
【0256】
さらに、以上の説明では、音声情報または画像情報が時系列情報記憶部4に記録されてからの経過時間(すなわち情報保存時間)が、所定の時間以上になった場合に圧縮処理を開始するようにしたが、この方法の代わりに、時系列情報記憶部4における空き領域がある値以下になったと認識されたタイミング、または、時系列情報記憶部4における記憶量がある値以上になったと認識されたタイミングで、前記圧縮処理を開始するようにしてもよい。この場合には、情報蓄積装置は記憶量検出手段を備えており、この記憶量検出手段は、情報が予め登録した記憶容量を超えて記録されたことを検出した場合に、前記対応関係記憶部9に対し圧縮処理開始指示を出力する。この圧縮処理開始指示の後の動作については、前述の各実施の形態と同様に行うことができる。
【0257】
また、第1の実施の形態では、共用電子ホワイトボード装置が、ユーザ入力情報のヘッダに、共用ホワイトボード装置判別情報を付加する例について説明したが、ユーザ入力装置の入力平面の傾きを検出して、ユーザ入力面がほぼ垂直である場合に共用電子ホワイトボードであると判別したり、装置が机の上または手の上に置かれていることをセンサーによって検出した場合に個人用電子ノート装置であると判別してもよい。この場合には、同一の装置であっても、その装置を個人用ノート装置として利用しているか共用電子ホワイトボード装置として利用しているかを判別することができる。さらに、情報を入力した装置を特定する方法としては、これら以外の公知の方法を利用することができる。
【0258】
[情報蓄積装置の第2の実施の形態]
第1の実施の形態では、順次入力される画像情報または音声情報のすべてを一旦時系列情報記憶部4に記録しておき、その記録時点から所定の時間が経過したときに、記録した会議映像の中の重要部分の映像だけを残し、その他の部分は消去するという、圧縮処理を施す例について説明した。第2の実施の形態では、時系列情報の記録時に、入力される会議映像の中の重要部分の映像だけを選択して、時系列情報記憶部4に記録する場合について説明する。
【0259】
図23は、この第2の実施の形態の情報蓄積装置を、その機能を中心にして示したブロック図である。図1のブロック図に対して、時刻情報記憶部11を取り除き、一時記憶部16を付加した構成になっている。そして、この第2の実施の形態では、重要区間決定部8は、一時記憶部16内に設けられる。この場合も、各部はそれぞれ別のブロックとして構成されていてもよいし、1つのブロックが幾つかの部を含むように構成されていてもよい。また、1つの部が、幾つかのブロックに分割されて実装されていても構わない。
【0260】
一時記憶部16の記憶装置は、例えば半導体メモリや磁気ディスク等で構成され、この第2の実施の形態では、音声情報および画像情報を、時系列情報記憶部4に記憶するに先立ち、一時記憶すると共に、条件一致区間検出部3により検出される条件一致区間の情報を、入力画像情報または入力音声情報と対応付けて、一時記憶するものである。
【0261】
第2の実施の形態は、第1の実施の形態と同様に、会議参加者がメモをとった時点は、会議の重要場面であるとし、この重要場面をとらえて、会議参加者がメモをとった時点の周辺のみを保存し、それ以外の部分を消去することで、会議映像および会議音声を保存するための情報量を大幅に少なくする場合である。
【0262】
また、第1の実施の形態と同様に、情報蓄積再生装置20が内蔵するコンピュータと、各個人が手元に所持する小型コンピュータ30とが無線ネットワークで接続されており、複数の小型コンピュータ30から入力されたユーザ入力情報とユーザ入力装置情報とは、情報蓄積再生装置が内蔵するコンピュータに伝送されるようになっている。
【0263】
第1の実施の形態と同様に、条件一致区間検出部3は、音声情報入力部1から所定レベル以上の音声信号入力が有り、かつ、この入力音声信号から話者の交替を検出したことを条件として条件一致区間を検出する。また、第1の実施の形態と同様に、ユーザ入力装置特定部7は、共用電子ホワイトボード装置20(電子会議装置)上に筆記された場合と個人用電子ノート装置30(小型コンピュータ)上に筆記された場合とを区別して、その区別を示すためのユーザ入力装置情報を出力する。
【0264】
圧縮部10は、この第2の実施の形態においては、後述する一時記憶部16に蓄積された音声情報および画像情報のデータ間引き処理を行なう。この場合、圧縮部10は、ユーザ入力情報が入力されたタイミングと条件一致区間情報とユーザ入力装置情報とによって重要区間決定部8において特定される重要区間の情報に基づいて、重要区間以外の区間の音声情報および画像情報を選択し、選択した音声情報および画像情報のみを時系列情報記憶部4に記憶する。
【0265】
次に、この第2の実施の形態の情報蓄積再生装置における記録時の動作について説明する。
【0266】
図24は、この実施の形態における記録時の動作を、その際の各種情報の流れ、および、各部の出力の流れと共に説明する図である。この図24に示すように、一時記憶部16には、音声情報および画像情報が順次に記憶されると共に、ユーザ入力情報の検出時点(ペン筆跡入力時点)の情報と、ユーザ入力装置特定部7からのユーザ入力装置情報と、条件一致区間検出部3からの条件一致区間情報が供給される。
【0267】
この場合、一時記憶部16のメモリ部は、図25に示すように、リングバッファ形式に構成され、順次入力される画像情報と条件一致区間検出部26の検出結果である話者交替時点を示す情報とを、書き込みアドレスを制御することによりリング状に取り込み続けながら、古い情報を新しい情報によって上書きしていく仕組みになっている。
【0268】
なお、この種の記録方法としては他にも、待ち行列方式、FIFO方式等の公知の方法が適用できる。また、図25の例の場合のリングバッファのメモリ(メ単位モリセル)数は16個であるが、もちろんメモリ数に制限はなく、1個のメモリの中に収容できるデータ記憶容量にも制限はない。一時記憶部16のリングバッファは、この実施の形態の場合は、少なくとも380秒間以上の入力音声情報および入力画像情報を記憶できるメモリである。
【0269】
図25において、最古データアドレスF200は、一時記憶部16に記憶されている画像情報または音声情報の中で最も古い情報が格納されているメモリを指すポインタであり、最新データアドレスF201は、一時記憶部16に最も新しく入力された画像情報または音声情報を格納しているメモリを指すポインタである。
【0270】
また、話者発言開始点F202およびF204と話者発言終了点F203は、条件一致区間検出部3の検出結果を一時記憶部16に記憶したものである。これらの話者交替タイミングを示す情報は、この例のように、リングバッファのメモリ中に格納されてもよいし、別のメモリを用意してその中に格納するようにしてもよい。
【0271】
そして、後述の図26および図27のフローチャートにおける動作に示すように、一時記憶部16の重要区間決定部8で、ユーザ入力情報検出時点とユーザ入力装置情報と条件一致区間情報とにより重要区間が決定されると、この実施の形態では、その重要区間の情報が圧縮されずに時系列情報記憶部4に転送されて記憶される。
【0272】
そして、このときに時系列情報記憶部4に記憶された重要区間の情報の、当該時系列情報記憶部4のアドレス情報(当該重要区間の先頭アドレスと最後尾のアドレス)が対応関係記憶部9に供給され、この対応関係記憶部9において、そのときのユーザ入力情報(ペン筆跡情報)と対応を付けて記憶される。なお、このとき、第1の実施の形態と同様に、ユーザ入力装置情報も対応関係記憶部9に対応付けて記憶するようにすることもできる。
【0273】
図26および図27は、一時記憶部16の動作を説明するフローチャートである。
【0274】
まず、ステップS700において、フラグが「0」にリセットされる。次に、単位時間あたりに入力された音声情報および画像情報は、ステップS701で受け入れられ、ステップS702でユーザ入力情報検出部6からのユーザ入力情報の検出出力の入力があるか否か判別する。
【0275】
ステップS702で、ユーザ入力情報が検出されたときには、ステップS707に進んで、フラグを「1」にセットし、ステップS703に進む。このとき、ユーザ入力情報が共用電子ホワイトボード装置から入力されたか、個人用電子ノート装置から入力されたかを、図示しないバッファメモリに記憶する。
【0276】
ユーザ入力情報が検出されないときには、フラグは「0」のままステップS703に進む。そして、ステップS703で、リングバッファにおいて、最新データが最古データを上書きしないと判別したときには、ステップS704に進んで、入力画像列が一時記憶部16の最新データアドレスの指すメモリ部に記憶される。
【0277】
また、ステップS704からステップS705に進み、条件一致区間検出部3から発言開始点または発言終了点を示す情報の入力があるか否か判別し、発言開始点または発言終了点を示す情報の入力がなかった場合には、ステップS705からステップS706に進んで、記憶したデータ量に応じて最新データアドレスを進める。
【0278】
また、ステップS705で、発言開始点または発言終了点を示す情報の入力があったと判別された場合には、ステップS705から、ステップS710に進み、条件一致区間検出部3からの情報が発言開始点か、あるいは発言終了点かの種類を判別する。
【0279】
そして、発言開始点であれば、ステップS711に進み、発言開始点マークを最新データアドレスの指し示すメモリ位置に記録し、その後、ステップS706に進んで、記憶したデータ量に応じて最新データアドレスを進める。
【0280】
また、ステップS710の判別の結果、音声レベルが所定レベル以下に変化する発言終了点であれば、ステップS712に進んで、発言終了点マークを最新データアドレスの指し示すメモリ位置に記録する。このステップS712の後、ステップS713に進み、フラグが「1」にセットされているか否か判別し、「1」にセットされていなければ、ステップS706に進み、前述のように、記憶したデータ量に応じて最新データアドレスを進める。その後、ステップS706からステップS701に戻る。
【0281】
また、ステップSS713での判別の結果、フラグが「1」にセットされているときにはステップS714に進んで、ステップS702において検出されたユーザ入力情報が、共用電子ホワイトボード装置から入力されたものか、個人用電子ノート装置から入力されたものかが判別される。
【0282】
ステップS714において、共用電子ホワイトボード装置からの入力であると判別された場合には、ステップS715で、ユーザ入力情報入力時点から180秒間経過したかどうかを判別し、70秒間経過したと認識された場合にはステップS716に進む。そして、ステップS716で、ユーザ入力情報入力時点から130秒間遡った時点に最も近い発言開始点から、200(=70+130)秒間分の音声情報および画像情報を時系列情報記憶部4に出力する。その後、ステップS719に進む。この間引き圧縮処理は圧縮部10が行なう。
【0283】
一方、ステップS714において、個人用電子ノート装置からの入力であると判別された場合には、ステップS717で、ユーザ入力情報入力時点から180秒間経過したかどうかを判別し、180秒間経過したと認識された場合にはステップS718に進む。そして、ステップS718で、ユーザ入力情報入力時点から200秒間遡った時点に最も近い発言開始点から、380(=180+200)秒間分の音声情報および画像情報を時系列情報記憶部4に出力する。その後、ステップS719に進む。この間引き圧縮処理は圧縮部10が行なう。
【0284】
ステップS719では、最古データアドレスを最新データアドレスまで進める。
【0285】
そして、ステップS720に進んで、フラグを「0」に戻し、ステップS701に戻る。
【0286】
なお、ステップS715において、ユーザ入力情報入力時点から70秒間経過していないと判定された場合、または、ステップS717において、ユーザ入力情報入力時点から180秒間経過していないと判定された場合は、ステップS701に戻って、新しい音声/画像情報を入力する。
【0287】
ステップS702で、ユーザ入力情報検出部6によってペン筆跡情報の入力が検出されないままに、ステップS703で、一時記憶部16から消去されるタイミング(最新データが最古データを上書きするタイミング)がめぐってきた場合には、ステップS708で、予め定めた一定量の音声情報および画像情報が消去される。一時記憶部16では、その後、ステップS709において、最古データアドレスを、消去したデータ量分だけ進める。その後、ステップS704に進み、前述したような処理を繰り返す。
【0288】
以上の説明から分かるように、ユーザ入力情報検出部6によってペン筆跡情報が入力されたことが検出されると、図26のステップS707によってフラグが「1」にセットされる。しかし、情報間引き圧縮処理はこの時点ではまだ開始されない。圧縮処理が開始されるのは、ステップS710によって条件一致区間検出部3で発言終了点が検出され、かつ、ステップS715またはステップS717において、ユーザ入力時点から所定の時間(70秒または180秒間)が経過したと認識された時である。
【0289】
なお、以上の説明では、ユーザ入力情報が検出された時点から、重要区間として特定される最後の時点になってから、一時記憶部16のリングバッファから、時系列情報記憶部4に音声情報および画像情報を転送するようにしたので、リングバッファは、少なくとも380秒分の時系列情報を記憶できるメモリとしたが、ユーザ入力情報を検知したときに、それが重要区間内であると検知したときに、重要区間の先頭時点に相当する時点にさかのぼって時系列情報記憶部に時系列情報を転送を開始する方式であれば、リングバッファは、少なくとも200秒分の時系列情報を記憶できる容量を有すればよい。
【0290】
また、以上の第2の実施の形態の説明では、一時記憶部16が重要区間決定部8を備えるように構成したが、この第2の実施の形態においても、対応関係記憶部9が重要区間決定部8を備えるようにし、この対応関係記憶部9の重要区間決定部8から重要区間の情報を一時記憶部16に与えることにより、上述と同様の動作を行わせるようにすることもできる。
【0291】
また、以上説明した第1の実施の形態から第2の実施の形態では、ユーザ入力情報が検出されたときの入力状況としては、ユーザ入力がなされたユーザ入力装置が共用入力装置か、個人用入力装置かを想定して、そのいずれであるかを重要区間の決定に反映させるようにしたが、これに限られるものではない。
【0292】
例えば、ユーザ入力装置の違いを特定する場合であっても、個人用入力装置の使用者により、重要区間を変える必要がある場合もある。例えば、書記の役割の会議出席者がメモする場合と、他の一般の会議出席者がメモする場合とでは状況が異なるので、個人用であっても、書記と一般会議出席者とで重要区間のタイミングおよび長さを変えるようにしてもよい。また、会議出席者の個人個人の判断力や、考えを纏める早さの違いなどを考慮して、個人用の入力装置のそれぞれを特定するようにすると共に、それぞれの会議出席者の能力にあった重要区間を決定するようにしてもよい。後者の場合には、重要区間を決定するに当たって、ユーザ入力時点に対してさかのぼる時間および後の時間を、各会議出席者のそれぞれについて設定しておくとよい。
【0293】
また、入力状況としては、ユーザ入力装置の特定に限られるものではない。例えば、ユーザ入力状況特定手段として、ユーザ入力情報の入力時点において会議出席者の間で笑いが発生した、拍手が沸き起こった、などの入力状況を特定する手段を設け、その特定した状況を、重要区間の決定要因に含めるようにしてもよい。
【0294】
また、上述の実施の形態では、圧縮方法として、重要区間以外は消去するようにしたが、重要区間の時系列情報は圧縮せずに記憶すると共に、重要区間以外の時系列情報は所定の圧縮をおこなって記憶するようにしてもよい。また、重要区間の時系列情報は高品質を保つ圧縮をして記憶すると共に、重要区間以外の時系列情報は、より圧縮率の大きい圧縮方法で圧縮して記憶するようにしてもよい。
【0295】
以上説明した、情報蓄積装置の第1の実施の形態から第2の実施の形態は、各実施の形態の説明中に明記したほかにも、適宜組み合わせて実施することが可能である。
【0296】
以上説明した情報蓄積装置の実施の形態からは、次に示すような効果が得られる。
【0297】
(1)ペン筆跡などのユーザ入力情報が入力されたタイミングと、どの装置からそのユーザ入力情報が入力されたかを判別した情報とによって定められる区間情報に基づいて、圧縮率または間欠記録の時間間隔を変更して時系列情報記憶部に記憶された音声情報または画像情報を圧縮するように構成したことにより、音声情報または画像情報のうちの、重要部分のみを限られた蓄積媒体の中に数多く保存でき、かつ、重要部分以外の音声情報または画像情報であっても少ないデータ量で長時間保存できる効果がある。
【0298】
(2)また、対応関係記憶部を備え、ユーザ入力情報によって定められる区間を示す区間情報と、当該区間情報に対応する音声情報または画像情報の時系列情報記憶部における記憶位置との対応関係を記憶するように構成したことにより、情報圧縮時において、ユーザ入力情報によって定められる区間と、当該区間に対応する音声情報または画像情報の時系列情報記憶部における記憶位置とを対応付けする処理が不要となり、音声情報または画像情報を圧縮する際のシステムの負荷を軽減できる効果がある。
【0299】
(3)また、ユーザ入力情報検出部がユーザから入力されるユーザ入力情報を検出し、このユーザ入力情報を検出したタイミングに基づいて、圧縮率または間欠記録の時間間隔を動的に変更して時系列情報記憶部に記憶された音声情報または画像情報を圧縮するように構成したことにより、音声情報または画像情報のうちの、特徴的な事象が起こっている重要部分のみを高品質で保存でき、かつ、重要部分以外の音声情報または画像情報であっても少ないデータ量で長時間保存できる効果がある。
【0300】
(4)また、ユーザ入力情報検出部がユーザから入力されるユーザ入力情報を検出し、このユーザ入力情報を検出したタイミングに基づいて、時系列情報記憶部に記憶された音声情報または画像情報のうち、重要区間以外の区間の音声情報または画像情報を削除するように構成したことにより、音声情報または画像情報のうちの、特徴的な事象が起こっている重要部分のみを保存できる効果がある。
【0301】
(5)また、条件一致区間検出部を備え、条件一致区間検出部によって情報入力手段からの音声情報または画像情報が予め設定された所定の条件に合致する条件一致区間を検出するようし、ユーザ入力情報を検出したタイミングとユーザ入力装置情報とこの条件一致区間とによって定められる区間と、他の区間とで、圧縮率または圧縮方式を変更して、時系列情報記憶部に記憶された音声情報または画像情報を圧縮するように構成したことにより、音声情報または画像情報のうちの、重要部分の最初から最後までを確実に高品質で保存できる効果がある。
【0302】
(6)また、対応関係記憶部を備え、対応関係記憶部によって、ユーザ入力情報検出部で検出されたユーザ入力情報とユーザ入力装置情報と条件一致区間検出部で検出された条件一致区間とから定められる区間を示す区間情報と、当該区間情報に対応する音声情報または画像情報の時系列情報記憶部における記憶位置との対応を記憶するように構成したことにより、情報圧縮時において、ユーザ入力情報が検出されたタイミングと条件一致区間とによって定められる区間と、当該区間に対応する音声情報または画像情報の時系列情報記憶部における記憶位置とを対応付けする処理が不要となり、音声情報または画像情報を圧縮する際のシステムの負荷を軽減できる効果がある。
【0303】
(7)また、条件一致区間検出部がセンサ情報に基づいて条件一致区間を検出し、この検出結果とユーザ入力情報検出部の検出結果とユーザ入力装置情報とに基づいて、圧縮率または間欠記録の時間間隔を動的に変更して時系列情報記憶部に記憶された音声情報または画像情報を圧縮するように構成した場合には、音声信号または画像信号の状態変化の検出が困難な事象が起きた場合や、入力される音声信号または画像信号に含まれない情報に状態変化が起きた場合にでも、音声情報または画像情報のうちの、特徴的な事象が起こっている重要部分のみを限られた蓄積媒体の中に数多く保存でき、かつ、重要部分以外の音声情報または画像情報であっても少ないデータ量で長時間保存できる効果がある。
【0304】
(8)また、条件一致区間検出部がセンサ情報に基づいて条件一致区間を検出し、この検出結果とユーザ入力情報検出部の検出結果とユーザ入力装置情報とから定められる区間を示す区間情報を対応関係記憶部に記憶し、この区間情報に基づいて、圧縮率または間欠記録の時間間隔を動的に変更して時系列情報記憶部に記憶された音声情報または画像情報を圧縮するように構成した場合には、音声信号または画像信号の状態変化の検出が困難な事象が起きた場合や、入力される音声信号または画像信号に含まれない情報に状態変化が起きた場合にでも、音声情報または画像情報のうちの、特徴的な事象が起こっている重要部分のみを限られた蓄積媒体の中に数多く保存でき、さらに、音声情報または画像情報を圧縮する際のシステムの負荷を軽減できる効果がある。
【0305】
(9)また、一時記憶部を備え、ペン筆跡などのユーザ入力情報が入力されたタイミングと、どの装置からそのユーザ入力情報が入力されたかを判別した情報と、音声情報または画像情報が予め設定された所定の条件に合致する条件一致区間を検出した条件一致区間情報とによって定められる区間情報に基づいて、一時記憶部に記憶された音声情報または画像情報を選択的に時系列情報記憶部に出力するように構成したことにより、音声情報または画像情報のうちの、特徴的な事象が起こっている重要部分のみを限られた蓄積媒体の中に数多く保存でき、さらに、音声情報または画像情報を圧縮する際のシステムの負荷を軽減できる効果がある。
【0306】
(10)また、条件一致区間検出部がセンサ情報に基づいて条件一致区間を検出し、この検出結果とペン筆跡などのユーザ入力情報が入力されたタイミングと、どの装置からそのユーザ入力情報が入力されたかを判別した情報とに基づいて、一時記憶部に記憶された音声情報または画像情報を選択的に時系列情報記憶部に出力するように構成したことにより、音声信号または画像信号の状態変化の検出が困難な事象が起きた場合や、入力される音声信号または画像信号に含まれない情報に状態変化が起きた場合にでも、音声情報または画像情報のうちの、特徴的な事象が起こっている重要部分のみを限られた蓄積媒体の中に数多く保存でき、さらに、音声情報または画像情報を圧縮する際のシステムの負荷を軽減できる効果がある。
【0307】
(11)また、ユーザ入力情報検出部がユーザ入力情報を検出する以前に入力された音声情報または画像情報を一時記憶部によって一時記憶するように構成したことにより、ユーザ入力があったタイミング以前に入力された音声情報または画像情報であっても、重要部分のみを限られた蓄積媒体の中に数多く記憶でき、かつ、重要部分以外の音声または画像信号であっても少ないデータ量で長時間記憶できる効果がある。
【0308】
(12)また、ユーザ入力情報検出部がユーザ入力情報を検出したタイミングと、条件一致区間検出部が検出した条件一致区間情報とに基づいて圧縮率または間欠記録の時間間隔を動的に変更して、時系列情報記憶部または一時記憶部に記憶された音声情報または画像情報を圧縮するように構成したことにより、音声情報または画像情報のうちの、特徴的な事象が起こっている重要部分の最初から最後までを高品質で保存でき、かつ、重要部分以外の音声情報または画像情報であっても少ないデータ量で長時間保存できる効果がある。
【0309】
(13)また、ユーザ入力情報検出部がユーザ入力情報を検出したタイミングと、条件一致区間検出部が検出した条件一致区間情報とに基づいて、時系列情報記憶部に記憶された音声情報または画像情報のうち、重要区間以外の区間の音声情報または画像情報を削除するように構成したことにより、音声情報または画像情報のうちの、特徴的な事象が起こっている重要部分のみを保存できる効果がある。
【0310】
(14)また、任意のタイミングで記録者が入力したペンやキーボードによるユーザ入力情報を表示する表示部と、表示部に表示されたユーザ入力情報のうち1つを指定する指定部と、時系列情報記憶部に記憶された音声情報または画像情報のうち、前記指定部によって指定されたユーザ入力情報に対応して記憶されている部分の音声情報または画像情報を再生する再生部とを備えるように構成した場合には、記録者がメモをとるようにペンやキーボードで入力を行なうとともに音声または画像信号を記録しておけば、後で、入力されたメモを参照することにより音声または画像信号の再生したい箇所を容易に選択して再生することができる効果がある。
【0311】
(15)また、ユーザ入力情報を表示する表示部と、表示部に表示されたユーザ入力情報のうち1つを指定する指定部と、この指定部によって指定されたユーザ入力情報に対応して記憶されている部分の音声情報または画像情報を再生する再生部と、条件一致区間検出部とを備えるように構成した場合には、指定されたユーザ入力情報に対応した音声情報または画像情報の、重要部分の最初から最後までを確実に再生できる効果がある。
【0312】
(16)また、音声情報または画像情報が時系列情報記憶部に記録されてからの経過時間(すなわち情報保存時間)が、所定の時間以上になった場合に圧縮処理を開始するように構成した場合には、参照する可能性の大きい最近の音声または画像情報を、高音質/高画質で保存でき、かつ、昔に記録された音声または画像情報であっても少ないデータ量で記憶できる効果がある。また、音声情報または画像情報が時系列情報記憶部に記録されてからの経過時間(すなわち情報保存時間)に応じて段階的に圧縮を施すように構成した場合には、後から参照される可能性がより低くなった場合に、より少ない情報量で蓄積できるので、より効果的に蓄積媒体を節約できる効果がある。
【0313】
(17)また、時系列情報記憶部における空き領域がある値以下になったと認識されたタイミング、または、時系列情報記憶部における記憶量がある値以上になったと認識されたタイミングで圧縮処理を開始するように構成した場合には、新たに入力される音声または画像情報が時系列情報記憶部の記憶容量を超えて入力される場合にでも、入力を継続できる効果がある。
【0314】
(18)また、音声の特定の発信者または発信者の交替を、入力される音声情報または画像情報から条件一致区間検出部によって検出するように構成した場合には、特定の発信者の音声または画像情報を、最初から最後まで高音質/高画質で保存でき、かつ、その他の発信者の音声情報または画像情報であっても少ないデータ量で保存でき、発信者が交替した時点にまでさかのぼって再生を開始できる効果がある。
【0315】
(19)また、音声の特定の発信者または発信者の交替を、センサ情報に基づいて検出するように構成した場合には、音声信号または画像信号の状態変化の検出が困難な事象が起きた場合や、入力される音声信号または画像信号に含まれない情報に状態変化が起きた場合にでも、特定の発信者の音声または画像情報を、最初から最後まで高音質/高画質で保存でき、かつ、その他の発信者の音声情報または画像情報であっても少ないデータ量で保存でき、発信者が交替した時点にまでさかのぼって再生を開始できる効果がある。
【0316】
(20)また、ユーザ入力装置特定部により、複数人が共用で用いる共用電子ホワイトボード装置と、各個人が私的に用いる個人用電子ノート装置とを検出するように構成した場合には、比較的離れている個人用電子ノート装置上のメモ筆記時点と関連情報が発言されている時点との間隔と、近接している共用電子ホワイトボード上のメモ筆記時点と関連情報が発言されている時点との間隔とのそれぞれに対応した重要区間の特定ができるので、重要区間の音声または画像情報を、最初から最後まで高音質/高画質で保存でき、かつ、その他の発信者の音声情報または画像情報であっても少ないデータ量で保存でき、重要区間の最初にまでさかのぼって再生を開始できる効果がある。
【0317】
(21)また、ユーザ入力装置特定部が、ユーザ入力装置の設置場所または設置状態を検出してユーザ入力装置を特定するように構成した場合には、同一の装置であっても、その装置を個人用ノート装置として利用しているか共用電子ホワイトボード装置として利用しているかを判別することができ、その装置の用途に応じた重要区間の特定ができる効果がある。
【0318】
(22)また、ユーザ入力装置特定部が、ユーザ入力装置が少なくとも机の上、手の上、壁の上、棚の上に置かれていることを検出する、または、ユーザ入力装置の入力平面の傾きを検出して、共用電子ホワイトボード装置と個人用電子ノート装置とを判別するように構成した場合には、同一の装置であっても、容易に、その装置を個人用ノート装置として利用しているか共用電子ホワイトボード装置として利用しているかを判別することができ、その装置の用途に応じた重要区間の特定ができる効果がある。
【0319】
(23)また、ユーザ入力の状況を検出するユーザ入力状況検出部と、このユーザ入力状況検出部により検出された状況に応じて時系列情報入力部より入力された時系列情報の区間または時刻を特定しその特定結果を出力する対象区間特定部とを備えるように構成した場合には、ユーザ入力の状況に応じて、時系列情報に対する入力処理、圧縮処理、蓄積処理、検索処理、表示処理、出力処理の区間を特定することができ、手元で書き込みが行なわれた、ホワイトボードに書き込みが行なわれた、などのユーザ入力状況に応じた処理を時系列情報の特定の区間に対して施すことができる効果がある。
【0320】
(24)また、音声情報または画像情報を入力するための時系列情報入力部と、この時系列情報入力部により検出された検出結果に応じて時系列情報の区間または時刻を特定しその特定結果を出力する対象区間特定部とを備えるように構成した場合には、時系列情報の状況に応じて、時系列情報に対する入力処理、圧縮処理、蓄積処理、検索処理、表示処理、出力処理の区間を特定することができ、笑いが起こった、拍手が起こった、議論が活発に行なわれた、長い発言があった、などの時系列情報の入力状況に応じた処理を時系列情報の特定の区間に対して施すことができる効果がある。
【0321】
[情報蓄積再生装置の実施の形態]
以下に説明する情報蓄積再生装置の実施の形態においては、ユーザ入力が行われたときの入力状況に応じて適切に音声情報や画像情報の再生を行うことを可能とする装置の実現を狙いとしている。この実施の形態では、ユーザ入力情報が他者に伝達する目的で行われたもの(状況1)か、他者から伝達された情報を記録する目的で行われたもの(状況2)か、という二つの状況を区別することによってそれを実現しようとしている。
【0322】
すなわち、会議のような状況を考えると、状況1では、ユーザ入力が行われたあとで、そのユーザ入力に関する説明が行われることが多いことに対し、状況2では、ユーザ入力の前にそのユーザ入力に関する情報が発言されるという、人間の行動特性の状況依存性に、この実施の形態では、着眼している。状況1は、この実施の形態では、いわゆるプレゼンテーションを行っている状況を想定し、状況2は、このプレゼンテーションによる講演や説明を、メモにとるような状況を想定する。
【0323】
この実施の形態の情報蓄積再生装置におけるシステム構成の概要は、前述の図2に示したような電子会議システムの場合と、ほぼ同様である。しかし、この実施の形態では、複数の会議参加者の一人が所定のテーマについてのプレゼンテーションを行い、他の会議参加者は、その講演や説明のメモを取るようにする形態である。
【0324】
この実施の形態の場合には、各会議参加者は、在席にて、プレゼンテーターになったり、そのプレゼンテーションを聴取する者になったりすることができるシステム構成である。各会議参加者は、図2の場合と同様に、共用電子黒板41にそれぞれ接続される個人用のパーソナルコンピュータ30を備えるが、この実施の形態の場合のパーソナルコンピュータ30のそれぞれは、共用モードで使用するか、個人モードで使用するかを設定することができる機能を備えている。
【0325】
共用モードに設定したときには、そのパーソナルコンピュータの表示画面の内容が共用電子黒板41に表示され、ユーザが自分のパーソナルコンピュータ30の表示画面を通じてユーザ入力情報の入力操作を行うと、それが、そのパーソナルコンピュータ30の表示画面だけでなく、共用電子黒板41にも反映され、プレゼンテーションができる。そこで、この共用モードをプレゼンテーションモードと称することとする。
【0326】
個人モードに設定したときには、パーソナルコンピュータ30の使用者は、プレゼンテーションを受ける参加者として、自分のパーソナルコンピュータ30で、個人用のメモとしてのユーザ入力情報の入力が可能である。個人用のメモ入力情報は、当該パーソナルコンピュータの画面に表示されるだけで、共用電子黒板41には、表示されない。
【0327】
図29は、パーソナルコンピュータ30において、その使用者が、前記モードを設定する方法を説明するための図である。
【0328】
図29において、30Dは、パーソナルコンピュータ30の表示画面である。この表示画面30Dには、状況設定用のボタンアイコン31が表示されており、使用者がこの状況設定用ボタンアイコン31を押下すると、状況設定メニューのポップアップウインドウ32が開かれる。この実施の形態では、使用者は、この状況設定メニューにおいて、プレゼンテーションモードと、メモ・モードと、オートモードのいずれかを選択することができる。
【0329】
プレゼンテーションモードは、自分の意見等を他の会議参加者が見ることが可能な共有書き込みエリアに書き込みを行いながら説明を行うときに選択される。メモ・モードは、他人の発言した情報に関してメモを取るモードである。メモ・モードは、個人用のメモを取る場合や、共有書き込みエリアに書記として他人の意見を書き取る場合に設定するモードである。どちらのモードに設定するかは、会議などの前に設定しても良いし、また、会議中にその状況の変化に応じて設定してもよい。
【0330】
また、この実施の形態では、システムが自動的にその状況を認識するモードが、オートモードとして設定可能である。このオートモードは、後述するように、音声情報や画像情報の時系列情報から、自動的にユーザ入力情報の入力操作がなされたときの状況を特定するモードである。
【0331】
図29では、ユーザBが自分のパーソナルコンピュータ30をプレゼンテーションモードに設定して、当該自分のパーソナルコンピュータ30の画面と同じ画面を電子共有黒板41に表示させている。他のユーザA,C,Dは、メモ・モードにそれぞれ設定している場合である。
【0332】
図30は、この発明による情報蓄積再生装置の実施の形態を、その各処理機能部をブロック化して示した構成図である。
【0333】
すなわち、この実施の形態の情報蓄積再生装置は、ユーザが情報を入力するためのユーザ入力部51と、ユーザが入力した情報を制御するユーザ入力情報制御部52と、ユーザが入力した情報およびその関連情報を記録するユーザ入力情報記録部53と、ユーザが入力した情報その他を表示する表示部54と、音声情報や映像情報などの時系列情報を入力する時系列情報入力部55と、時系列情報を処理するための時系列情報処理部56と、時系列情報を制御するための時系列情報制御部57と、時系列情報を出力するための時系列情報出力部58と、状況に応じて時系列情報の時間区間を出力する時系列情報特定区間決定部59と、時系列情報からチャートを作成するチャート作成部60と、時系列情報を記録する時系列情報記録部61と、ユーザが情報を入力したときの状況を特定するための状況特定部62と、ユーザが情報を入力したときのユーザ入力情報の座標情報を時間情報に変換する座標時間変換部63とから構成される。
【0334】
ユーザ入力情報入力手段は、ユーザ入力部51に対応し、ユーザ入力情報検出部は、ユーザ入力情報制御部52がその一部機能として備える。
【0335】
図30に示した、この実施の形態の情報蓄積再生装置は、図28のパーソナルコンピュータ30のそれぞれにより構成することができるものである。図31に、1台のパーソナルコンピュータ30を中心としたシステムの概観を示す。
【0336】
すなわち、この実施の形態の情報蓄積再生装置においては、時系列情報としての画像情報は、ビデオカメラ42から、各パーソナルコンピュータ30に入力される。このため、各パーソナルコンピュータ30には、ビデオ入力ボードが内蔵され、この内蔵のビデオ入力ボードにより画像情報がデジタル化され、パーソナルコンピュータ30内に、処理できる形で取り込まれる。
【0337】
また、音声情報は、各会議参加者であるユーザA〜Dのそれぞれに割り当てられている複数のマイクロホン43のすべてからの音声情報が、それぞれ各パーソナルコンピュータ30に、各参加者用のマイクロホンからの音声情報を識別可能な状態で、それに内蔵の音声入力ボードを通じて入力される。したがって、前述した時系列情報入力部55は、これらビデオカメラ42およびマイクロホン43により構成される。
【0338】
パーソナルコンピュータ30のそれぞれは、電子ペンによるユーザ入力を可能とするインターフェースを備えており、会議中にメモ等ができるようになっている。このペン入力インターフェースは、ユーザ入力部51の一つの構成要素である。ユーザ入力部51は、キーボードあるいはマウスなどのポインティングデバイスを用いたユーザインターフェースによっても構成できる。
【0339】
ユーザ入力情報記録部53、時系列情報記録部61の記録媒体は、具体的にはパーソナルコンピュータ30に内蔵の半導体メモリやハードディスクを用いている。なお、MOディスクやフロッピーディスク等の記録媒体であってもよい。
【0340】
表示部53、時系列情報出力部58は、パーソナルコンピュータ30に接続されるディスプレイ30Dおよびスピーカ30SPで実現している。
【0341】
ユーザ入力情報制御部52、時系列情報処理部56、時系列情報制御部57、時系列情報区間特定部59、チャート作成部60、状況特定部62、座標時間変換部63は、パーソナルコンピュータ30に搭載されるソフトウェアで実現されている。
【0342】
ユーザ入力情報制御部52は、ユーザ入力部51からのユーザ入力情報を受け取り、表示部54に送り、表示画面に表示させる。そして、受け取ったユーザ入力情報に応じた処理を、情報記録時(情報蓄積時)あるいは情報再生時に応じて行う。
【0343】
ユーザ入力情報制御部52は、記録時には、後述するように、会議情報としての時系列情報の記録時に入力されたユーザ入力情報と、その入力開始時刻および終了時刻と、そのときの状況等を、ユーザ入力情報記録部53に記録する。
【0344】
また、ユーザ入力情報制御部52は、再生時には、ユーザの指示に応じてユーザ入力情報記録部53に記録されている情報を読み出し、表示部54や時系列情報特定区間決定部59に、その情報を伝達する。さらに、表示部54の表示画面にチャートが表示されているときに、ユーザにより指示入力がなされたときには、その指示された座標情報を座標時間変換部63に渡す。
【0345】
表示部54は、ユーザ入力情報制御部52から渡されたユーザ入力情報を、その表示画面に表示する。また、時系列情報制御部57を通じてチャート作成部60で作成された後述するような発言チャートを、その表示画面に表示する。
【0346】
ユーザは、後述するように、この表示部54の表示画面に表示された複数のユーザ入力情報から、いずれかのユーザ入力情報を、対応する時系列情報の再生やチャートの作成指示のために選択することができる。また、このシステムでは、この表示部54に表示された発言チャートにおいて、特定の再生箇所、すなわち、再生開始点あるいは再生区間を指示することにより、指定された再生箇所に対応する時系列情報の再生を行わせるようにすることができる。
【0347】
時系列情報処理部56は、時系列情報について予め定めた条件に一致する区間を検出する条件一致区間検出手段に相当するもので、この実施の形態においては、会議中の会議参加者の各ユーザA〜Dの発言区間を、条件一致区間として、時系列情報の記録時に検出する。
【0348】
時系列情報制御部57は、記録時には、時系列情報を時系列情報記録部61に記録するように制御する。このときに、時系列情報処理部56で検出した各ユーザ毎の発言区間も、時系列情報記録部61に記録する。
【0349】
また、時系列情報制御部57は、再生時には、時系列情報特定区間決定部59で決定された特定区間を、時系列情報記録部61から読み出して、時系列情報出力部58により再生出力するようにする。また、チャート作成部60で作成されたチャートを表示部54の表示画面に表示させるようにする。そして、チャート上で指示された座標位置に相当する時間位置から、時系列情報記録部61に記録されている時系列情報を読み出して、時系列情報出力部58により再生出力するようにする。
【0350】
時系列情報区間特定部59は、再生時に、ユーザ入力情報制御部52からの命令を受けて動作するもので、後述するように、ユーザにより選択指示されたユーザ入力情報に対応する、画像情報や音声情報の会議情報の時系列情報の区間を特定する。そして、その特定した区間の時間情報を、ユーザ指示に応じて、時系列情報制御部57あるいはチャート作成部60に渡す。
【0351】
チャート作成部60は、再生時に、時系列情報特定区間決定部59からの特定区間の情報を受け、当該特定区間のユーザA〜Dの発言区間の情報を、時系列情報記録部61から取得し、図41に示すような、特定区間についての発言チャートを作成する。作成した発言チャートは、時系列情報制御部57を通じて表示分54の表示画面に表示される。発言チャートについては後述する。
【0352】
状況特定部62は、時系列情報の記録時に、パーソナルコンピュータ30において、ユーザ入力情報が検出されたときに、ユーザ入力情報制御部52からの問い合わせに応答して、その時の状況、すなわち、パーソナルコンピュータ30のモードがプレゼンテーションモードか、メモ・モードかを特定して、特定したモードの情報、すなわち、状況情報をユーザ入力情報制御部52に返す。
【0353】
プレゼンテーションモードあるいはメモ・モードに、ユーザにより設定されているときには、その設定状態をバッファに記憶させておき、そのバッファを参照することで、ユーザ入力情報制御部52から問い合わせがあったときに、いずれのモードになっているかを特定することができる。
【0354】
しかし、それでは、オートモードのときが問題になる。そこで、この実施の形態では、自己のパーソナルコンピュータの画面情報が共有画面情報になっているか否かにより、プレゼンテーションモードか、メモ・モードかを特定するようにする。なお、後述するように、入力者の行動から特定する方法もある。
【0355】
座標時間変換部63は、表示部54の画面に発言チャートが表示されているときに、特定の発言区間がユーザにより指示された場合に、その指示座標から、時系列情報の再生時間位置を生成するためのものである。
【0356】
以上の構成のこの実施の形態の情報蓄積再生装置においては、会議参加者の発言の音声情報や会議の様子の映像の画像情報などの時系列情報と、会議中にユーザから入力される情報を併せて記録しておき、記録後に、ユーザが入力した情報に対応する時系列情報を適切に再生できるようにするものである。
【0357】
[情報蓄積再生装置の実施の形態の記録時について]
まず、この実施の形態の情報蓄積再生装置の記録時の動作について、説明する。
【0358】
ビデオカメラ42からの画像情報およびマイクロホン43からの音声情報の時系列情報は、時系列情報入力部55において、デジタル信号に変換され、時系列情報処理部56に入力される。前述したように、この時系列情報処理部56では、条件一致区間として、発言区間を検出する。この実施の形態においても、前述した実施の形態の同様に、各会議参加者にマイクロホン43がそれぞれ割り当てられているので、いずれのマイクロホンからの入力音声情報であるかを検出することにより、誰の発言であるかを検出する。
【0359】
各参加者の発言区間は、図32のフローチャートおよび図33の説明図に示すようにして検出される。この例では、あるマイクロホンからの音声情報が、予め設定されている或るレベル以上、かつ、或る時間だけ継続した場合には、そのマイクロホンを使用する会議参加者が発言しているとして検出する。
【0360】
すなわち、図33に示すように、マイクロホンから、あるレベルL1以上の音声信号が出力されると、ステップS800へ進み、予め、発言開始を検出するために適切な単位時間長として定められた時間区間Δt1以上に渡って、前記レベルL1以上の音声信号レベルが持続するかを監視する。もし、持続しなければ、それは発言とはみなさず、発言区間の検知を終了する。もし、持続したと判別した場合、ステップS801へ進み、現在の時刻(T1)を検出し、T1−Δt1を発言開始時刻とする。
【0361】
そして、ステップS802へ進み、音声の終了時刻を求めるために、音声が、ある時刻T2から、予め、発言終了を検出するために適切な単位時間長として定められた時間Δt2以上、あるレベルL2を下回ったか否かを監視する。そして、下回った場合、ステップS803へ進み、T2―Δt2を発言終了時刻として検出する。
【0362】
なお、上述の例では、発言開始時刻の検出のためのレベルL1と、発言終了時刻の検出のためのレベルL2とは、L1=L2としたが、レベルL1とレベルL2とは、必ずしも等しくなくともよい。
【0363】
以上のようにして検知された会議参加者毎の発言区間に関する情報は、図34に示すようなデータ構造にまとめられる。時系列情報処理部56は、この発言区間の関する情報を、画像情報や音声情報の時系列情報と共に時系列情報制御部57に送る。時系列情報制御部7は、会議開始から終了までのすべての画像情報および音声情報の時系列情報を時系列情報記録部61に記録すると共に、前記の発言区間に関する情報を、時系列情報記録部61に記録する。そして、時系列情報制御部57は、記録中の画像情報および音声情報を時系列情報出力部58に送り、それをモニターできるようにしている。
【0364】
なお、時系列情報の記録開始時刻も、時系列情報記録部61には記録される。再生時の各再生位置に対応する時刻を算出するためのである。
【0365】
図34に示すように、記録される発言区間に関する情報は、それぞれの発言区間を識別するための発言識別データ(発言ID)と、その発言者、発言開始時刻および発言終了時刻とからなる。発言者の情報としては、予め登録された会議参加者名が記録される。なお、発言者名と発言者識別データとの対応テーブルを別に用意して、発言者識別データを時系列情報記録部61に記録するようにしてもよい。
【0366】
この時系列情報の記録に伴ってユーザ入力がなされたときには、次のようにして、ユーザ入力情報記録部53へ必要な情報の記録がなされる。
【0367】
図35は、ユーザ入力情報制御部52の記録時の処理ルーチンを示すものである。すなわち、ペンタッチなどのユーザ入力が検知されると、ステップS900に進み、ユーザ入力情報を表示部54の表示画面に表示する。
【0368】
そして、ステップS901に進み、ユーザ入力が行われたときに、当該ユーザ入力が行われたパーソナルコンピュータの画面に表示されていた画像情報(ウインドウ等として表示の静止画情報、これをワークシートと以下呼ぶこととする)を特定すると共に、ユーザ入力情報の抽出、ユーザ入力の開始時刻および終了時刻の取得、そのときの入力状況(プレゼンテーションモードか、メモ・モードか)の情報の状況特定部62からの取得、を行う。
【0369】
この場合に、状況の情報は、ユーザ入力情報制御部52から状況特定部62に問い合わせを行い、その結果、状況特定部62から返って来るものである。ユーザ入力のブロックが切り出される度に、ユーザ入力情報制御部52は、状況特定部62に状況を問い合わせて状況情報を取得する。
【0370】
次に、ステップS902に進み、ステップS901で特定したワークシートにID(識別番号などの識別データ、以下同じ)を付与すると共に、抽出したユーザ入力情報にIDを付与する。そして、ステップS903に進み、それらの情報、すなわち、座標値等からなるユーザ入力情報と、そのユーザ入力情報IDと、ワークシートIDと、当該ユーザ入力情報の入力時刻および終了時刻、状況の情報を、ユーザ入力情報記録部53に記録させるようにする。
【0371】
図36は、ステップS901の処理のうちの、ユーザ入力情報の入力開始時刻および入力終了時刻の検出処理ルーチンである。また、図37は、このユーザ入力情報の入力開始および終了時刻の検出処理の説明のための図である。
【0372】
すなわち、ペンタッチなどのユーザ入力が検知されると、ステップS1000に進み、そのときの時刻を入力開始時刻(図37のT1)とする。そして、ステップS1001に進み、ユーザ入力情報が存在しないと検出するために予め設定された所定の時間Ti以上の間、ユーザ入力がないかどうか判別する。
【0373】
ステップS1001で、所定の時間Tiの間にユーザ入力があるときには、ユーザ入力情報が継続していると判定する。そして、所定の時間Tiの間にユーザ入力が存在しなくなったことを検出したときには、ユーザ入力情報が終了したと判定し、ステップS1002に進んで、そのときの時刻からTiだけ引いた時刻をユーザ入力終了時刻(図37のT2)とする。
【0374】
図37の説明図に示すように、ユーザ入力開始時刻T1からユーザ入力終了時刻T2までの間に行われたユーザ入力が、一つの入力単位(ブロック)とみなされる。ユーザ入力情報は、このブロック単位で取り扱われ、記録再生される。
【0375】
図38に、ユーザ入力情報記録部53に記録されている情報の構造を示す。すなわち、入力ブロック毎にユーザ入力情報IDが付与されている。座標値はペン入力された座標を表す。また、ワークシートIDは、ペン入力が行われたワークシートの番号を表す。ワークシートIDとワークシートとの対応は、別途管理されている。
【0376】
入力開始時刻は、そのユーザ入力情報の入力が開始された時刻を表す。入力終了時刻は、そのユーザ入力情報の入力が終了した時刻を表す。リンク情報は、後述するが、あるユーザ入力情報に対して時系列情報のある特定の時刻が、ユーザによりリンク指示された場合の、その時系列情報の時間を表す。状況は、そのユーザ入力情報が入力された時の状況(プレゼンテーションモードか、メモ・モードか)を示す。
【0377】
図39は、状況特定部62の処理ルーチンの例を示すものである。すなわち、まず、ステップS1100において、ユーザ入力情報制御部52からの問い合わせがあるか否か判別し、問い合わせがあると、次のステップS1101に進む。ステップS1101では、その時点で自己のパーソナルコンピュータの画面情報を共有電子黒板41に表示させているか否かをチェックし、共有電子黒板41に表示させていると判別したときには、ステップS1102に進み、状況情報として「プレゼンテーション」をユーザ入力情報制御部52に返す。共有電子黒板41に表示されてはいないと判別したときには、ステップS1103に進み、状況情報として「メモ」をユーザ入力情報制御部52に返す。
【0378】
状況特定部62の状況特定動作としては、次のようにすることもできる。図40は、状況特定動作の他の例の処理ルーチンを示すものである。
【0379】
まず、ステップS1200において、ユーザ入力情報制御部52からの問い合わせがあるか否か判別し、問い合わせがあると、次のステップS1201に進む。ステップS1201では、入力時刻から所定時間Tの間における、入力者による発言の継続時間と、表示画面における指示操作回数とを検知する。そして、ステップS1202に進み、入力者による発言時間が、予め定めた所定時間Tp以上あり、かつ、表示画面における指示操作回数が所定時間Tの間に、予め定めた所定回数Np以上あったかどうか判定する。
【0380】
そして、ステップ1202において、入力時刻から所定時間Tの間、入力者による発言が、予め定めた所定時間Tp以上あり、かつ、表示画面における指示操作回数が所定時間Tの間に、予め定めた所定回数Np以上あったと判定されたときには、ステップS1203に進み、状況情報として「プレゼンテーション」を、ユーザ入力情報制御部52に返す。そうではないときには、ステップS1204に進み、状況情報として「メモ」を、ユーザ入力情報制御部52に返す。
【0381】
なお、上記の時間T、Tpおよび回数Npの例を挙げると、時間T=30秒、時間Tp=10秒、回数Np=2回とすることができる。ただし、指示の検出方法は、ユーザ入力情報の入力ブロックを囲む最小の矩形を計算し、その矩形内の領域をペンで触れた場合に指示を行ったと判断するようにする。
【0382】
[情報蓄積再生装置の再生時について]
以上のようにして記録された会議情報としての時系列情報のうちから、ユーザ入力情報記録部53に記録されたユーザ入力情報に対応した特定区間の時系列情報を以下に説明するようにして特定して、再生したり、当該特定区間の発言チャートを表示することができる。
【0383】
この実施の形態の情報蓄積再生装置における再生時においては、まず、ユーザ入力情報記録部53に記録されている複数個のユーザ入力情報を表示部54の画面に表示する。一画面にすべてのユーザ入力情報が表示できないときには、スクロール等を行って表示する。
【0384】
ユーザは、この表示部54に表示されたユーザ入力情報をインデックスとして、自分が特に再生したい会議記録部分の指定を行う。すなわち、ユーザは、メモなどのユーザ入力情報から、そのユーザ入力情報が自分が再生したい会議記録部分に対応するものであるかどうかを推定し、対応する会議記録部分を再生したいときには、そのユーザ入力情報を選択指示するものである。
【0385】
この実施の形態の場合、選択指示されたユーザ入力情報に対応する時系列情報区間特定区間決定部によって定められた特定区間を用いて、自動再生するモードと、その特定区間の発言チャートを表示させるチャート表示モードとがある。ここで、自動再生するモードでは、時点Tsから再生を開始するようにしているが、再生終了は、ユーザが指示する任意の箇所でできるようにしている。チャート表示モードにおいては、後述するように、発言チャート上において特定の発言区間をユーザが指示可能であり、指示した発言区間に対応する時系列情報が再生できる。
【0386】
再生動作の説明の前に、発言チャートについて説明する。図41は、表示部54の画面に表示された発言チャートの一例を示すものである。この発言チャートは、発言者を識別するための発言者名を表示する発言者名領域71と、発言の遷移の状態を視覚的に表示するための発言遷移表示領域72とから構成される。発言遷移表示領域72には、時系列情報特定区間決定部59で決定された特定区間における発言構造が表示される。図41において、Tsは当該特定区間の開始時刻、Teは当該特定区間の終了時刻である。
【0387】
発言遷移表示領域72の発言者毎の右横の各欄には、各会議参加者(発言者)が会議中の前記特定区間内において、いつ、どのくらいの時間の発言を行ったのかが、矩形の発言区間バーVBの表示位置と長さにより示される。この発言遷移表示領域72の全会議参加者の発言区間バーVBの遷移として表示される発言構造を読み取ることで、誰の発言から誰の発言へと遷移したのかという、前記特定区間における発言遷移構造を読みとることが可能となる。
【0388】
図41の発言遷移表示領域72における三角印73は、その特定区間内における発言チャート上のユーザ入力時点(入力開始時点)を示している。
【0389】
次に、再生時の動作処理について説明する。上述したように、この再生時には、表示部54の表示画面には、ユーザ入力情報記録部53に記録されているユーザ入力情報が表示される。この表示画面において、ユーザが、いずれかのユーザ入力情報の選択指示を行うと、ユーザ入力情報制御部52でそれが検知されて、再生開始となる。
【0390】
図42は、この再生時のユーザ入力情報制御部52の処理ルーチンである。
【0391】
まず、ステップS1300において、ユーザ入力情報制御部52は、表示部54の画面に表示されているユーザ入力情報のいずれかの選択指示をユーザ入力部51を通じて受けると、次のステップS1301に進む。この実施の形態では、表示されているユーザ入力情報を、例えば電子ペンにより囲い込むようにすることで、ユーザ入力情報の選択を行なうようにする。ユーザ入力情報制御部52は、囲まれた領域を判定し、その領域内に存在するユーザ入力情報を、ユーザ入力情報記録部53から探索する。
【0392】
ステップ1301では、その選択指示されたユーザ入力情報の入力開始時刻および状況の情報をユーザ入力情報記録部53から取得する。そして、次のステップS1302に進み、ユーザ入力が、時系列情報の自動再生のためのものか、後述するチャートの作成のためのものであるかの問い合わせのメッセージをユーザに対して表示する。
【0393】
ユーザは、これに対して、自動再生か、チャートの作成かの選択入力を行うので、ステップS1303でこのユーザ選択入力を受け付ける。そして、次のステップS1304において、自動再生が選択されたか、チャート作成が選択されたかを判別する。
【0394】
そして、自動再生が選択された場合には、ステップS1305に進み、時系列情報特定区間決定部59に、指示されたユーザ入力情報の入力開始時刻の情報と、状況の情報と、自動再生命令とを送り、時系列情報制御部57に、自動再生命令を送る。また、チャート作成が選択された場合には、ステップS1306に進み、時系列情報特定区間決定部59に、指示されたユーザ入力情報の入力開始時刻の情報と、状況の情報と、チャート作成命令とを送り、時系列情報制御部57に、チャート作成命令を送る。
【0395】
以上の説明では、入力開始時刻のみを用いたが、入力終了時刻のみを用いることもできる。また、入力開始時刻と入力終了時刻の両方を用いてもよい。ただし、それらの用い方によって図44および図45の数値は異なるものとなる。
【0396】
次に、時系列情報特定区間決定部59の動作を、図43のフローチャートを参照しながら説明する。
【0397】
まず、ステップS1400で、ユーザ入力情報制御部52から入力時刻(実施例では入力開始時刻)、状況、命令を取得する。次に、ステップS1401に進み、ユーザ入力情報の入力時刻と、状況の情報とから、当該ユーザ入力情報に対応する時系列情報の特定区間を計算する。
【0398】
この場合、特定区間は、ユーザ入力情報の入力時点に対する相対開始時間の情報と、相対終了時間の情報とにより、後述するように、決定される。そして、ユーザ入力情報の入力時刻の情報があるので、特定区間の絶対開始時刻Tsと、絶対終了時刻Teとが決定される。
【0399】
時系列情報特定区間決定部59は、前記特定区間を決定するためのユーザ入力情報の入力時点に対する相対開始時間の情報および相対終了時間の情報を格納して有しており、これらの相対時間の情報を用いて、前記ユーザ入力情報に対応する時系列情報の特定区間を決定する。
【0400】
次に、ステップS1402に進み、ステップS1400で取得した命令が、自動再生命令か、チャート作成命令かを判別して、自動再生命令であれば、ステップS1403に進み、時系列情報制御部57に、特定区間の情報(この例では、開始時刻Ts)と、ユーザ入力情報の入力時刻の情報を送る。また、チャート作成命令であれば、ステップS1404に進み、チャート作成部60に、特定区間の情報(開始時刻Tsと終了時刻Te)と、ユーザ入力情報の入力時刻の情報を送る。以上で時系列情報特定区間決定部59の処理ルーチンは終了となる。
【0401】
次に、ステップS1401のユーザ入力情報に対応する時系列情報の特定区間の決定について、さらに詳細に説明する。
【0402】
この場合、前述の実施の形態でも説明したように、プレゼンテーションモードのときと、メモ・モードのときとでは、ユーザ入力情報の入力時点に対応する区間として特定する時間区間は、異なる。
【0403】
例えば、図44は、ユーザ入力情報に対応する時系列情報の特定区間の開始時点の、ユーザ入力情報の入力時点に対する相対時間の確率を説明するための図である。図44は、ある特定のユーザが、時系列情報を再生しながら、自分でユーザ入力情報に対応する特定区間を決定したときに、ユーザ入力情報の入力時点に対して相対的に異なる複数の50秒区間の間に、ユーザ入力情報に対応する時系列情報の特定区間の開始時点と決定したことが、どれだけあったかの頻度を示すものである。
【0404】
例えば、相対時間[−300,−250)は、ユーザ入力情報の入力時点よりも300秒前から250秒前までの区間を示しており、図44の例では、この区間にメモ・モードでは1回、特定区間の開始時点が決定され、かつ、プレゼンテーションモードでは、0回、つまり、特定区間の開始時点が決定されなかったこと示している。ここで、相対時間の数値の前のマイナスは、ユーザ入力情報の入力時点よりも、以前の時間であることを意味している。
【0405】
また、相対時間[−50、0)は、ユーザ入力情報の入力時点よりも50秒前から0秒前までの区間を示しており、図44の例では、この区間にメモ・モードでは8回、特定区間の開始時点が決定され、かつ、プレゼンテーションモードでは、20回、特定区間の開始時点が決定されたこと示している。
【0406】
この図44の頻度分布は、横軸をユーザ入力情報の入力時点に対する相対時間に取り、縦軸を頻度に取ると、例えば、メモ・モードでは、図46に示すようになる。この実施の形態では、この頻度数の、例えば90%が入るように、特定区間のユーザ入力情報の入力時点に対する相対的な開始時点、終了時点を決定する。すなわち、この例では、90%の確率で、ユーザ入力情報に対する時系列情報の特定区間の開始時点が正しく決定されるように、時系列情報の特定区間の相対的開始時間、相対的終了時間を決定する。
【0407】
このようにして決定される、ユーザ入力情報に対応する時系列情報の特定区間を決定するための、ユーザ入力情報の開始時点に対する相対時間の情報は、図44の確率分布からも分かるように、メモ・モードとプレゼンテーションモードとの状況の違いに応じて異なる。
【0408】
すなわち、図47は、ユーザ入力情報に対応する時系列情報の特定区間の開始時点の、ユーザ入力情報の入力時点に対する相対時間の確率分布を、メモ・モードとプレゼンテーションモードとの両方について示したもので、メモ・モードの場合には、その相対開始時間はTs(メモ)のようになり、また、プレゼンテーションモードの場合には、その相対開始時間はTs(プレゼン)のようになり、異なるものである。
【0409】
ユーザ入力情報に対する時系列情報の特定区間の相対終了時間も、同様にして、例えば90%の確率で、ユーザ入力情報に対する時系列情報の特定区間の終了時点が正しく決定されるように定められる。
【0410】
図45は、以上のようにして、状況に応じて設定された、特定区間を決定するための相対開始時間および相対終了時間の例である。この例では、状況がメモ・モードのときは、ユーザ入力情報の開始時点よりも、200秒前の時点から、ユーザ入力情報の開始時点よりも、30秒後の時点までを、ユーザ入力情報に対応する時系列情報の特定区間をとして決定する。また、状況がプレゼンテーションモードのときには、ユーザ入力情報の開始時点よりも、50秒前の時点から、ユーザ入力情報の開始時点よりも、20秒後の時点までを、ユーザ入力情報に対応する時系列情報の特定区間をとして決定する。
【0411】
この図45の相対開始時間および相対終了時間の情報は、複数のユーザについて、前述のようにして定めた固定のデータを、すべてのパーソナルコンピュータ30において用いることができる。
【0412】
しかしながら、図45の相対開始時間および相対終了時間の情報は、使用するユーザの癖などの性向によって、一般的に、異なるものである。
【0413】
そこで、この実施の形態では、ユーザの性向によらずに、状況の違いのみに対応したユーザ入力情報の入力時点に対する相対時間の固定データを用いて、対応する時系列情報の特定区間を決定するモードと、過去のユーザの特定区間の決定の性向を考慮して、対応する時系列情報の特定区間を決定するモードとを備える。
【0414】
後者のモードの場合には、予め記録された時系列情報を再生しながら、ユーザが、ユーザ入力情報に対応する特定区間の設定を行うようにする。この場合には、時系列情報区間特定部59は、ユーザ入力情報制御部52から、直前に時系列情報の特定区間を再生したユーザ入力情報の入力時刻と、入力状況、時系列情報の開始時刻を受け取り、該当する状況のモードの該当する相対時間の欄に頻度を記録するようにする。
【0415】
そして、そのユーザによる設定により、図44に示したものと、同様の頻度データを作成し、この頻度データに対してユーザにより設定された特定区間を決定する確率の値に基づいて、それぞれの状況に応じた相対開始時間および相対終了時間を決定するようにする。ユーザが設定する確率の値は、前述した90%に限られず、ユーザが適宜の値に設定可能である。
【0416】
後者のモードの場合には、新たに、ユーザにより、頻度データの生成が行われると、相対時間の情報は、更新される。このように、ユーザが相対時間を決定するための情報を追加できるようにすることにより、ユーザのメモの癖等、個人的な情報を時系列情報区間特定部59での状況に応じた特定区間の決定に反映させることができる。
【0417】
なお、この特定区間の頻度データの作成と共に、前述したリンク情報を、ユーザ入力情報に対応して、図38に示すように設定して、ユーザ入力情報記録部53に、ユーザが記録しておくようにすることができる。すなわち、ユーザが当該ユーザ入力情報と関連すると判断したときに、当該直前の再生箇所に関する情報を、ユーザ入力情報記録部53のリンク情報として記録する。このようにすると、後で、再びその箇所を再生する際に、そのリンク情報に基づいて入力情報に対応する時系列情報をより正確に再生することが可能となる。
【0418】
そのために、再生命令を、ユーザ入力情報制御部52が時系列情報制御部57に送信すると、ユーザ入力情報制御部52は、再生のために選択したユーザ入力情報のIDをバッファに保持し、時系列情報制御部57は、再生時間の情報をバッファに保持するようにしてある。
【0419】
再生後にリンクをする場合に、ユーザ入力情報制御部52は、直前の再生箇所に関する再生時間の情報を、時系列情報制御部57のバッファから取得し、ユーザ入力情報記録部53の該当するリンク情報の箇所に記録できるようにする。
【0420】
前述した相対時間を決定するための頻度データの作成時のユーザ入力時においても、前述のリンク情報をユーザ入力情報記録部53へ記録する時と同様、ユーザ入力情報制御部52と、時系列情報制御部59のバッファにある直前の再生情報を利用することになる。
【0421】
具体的には、ユーザが、時系列情報特定区間決定部57の情報更新を命令すると、ユーザ入力情報制御部52は、直前に再生したユーザ入力情報のIDを手がかりに、ユーザ入力情報記録部53に記録されている状況情報を取得し、更に、時系列情報制御部59のバッファに保持されている直前の再生時間情報を取得し、それらの情報を時系列情報特定区間決定部57に送る。
【0422】
ユーザによって新たに相対時間の情報が追加された場合には、図44に示したのと同様の情報が得られることになる。この場合に、時系列情報区間特定部59は、特定区間の時間情報を出力をするだけでなく、図46および図47に示したような、その区間(Ts〜Teの区間)上の時系列情報の存在確率情報などを併せて出力することができる。
【0423】
以上の説明では、ユーザ入力情報制御部52と、時系列情報制御部57のバッファは、直前の1つの再生情報のみを保持するようにしたが、バッファの大きさはいくらでもよく、直前の複数回の再生情報を保持するようにしてもよい。
【0424】
次に、時系列情報制御部57の再生時の動作を、図48のフローチャートを用いて説明する。
【0425】
すなわち、ステップS1500でユーザ入力情報制御部52から命令を取得すると、ステップS1501に進み、命令がチャート作成か自動再生かを判別する。チャート作成であれば、ステップS1502に進み、チャート作成部60にチャート作成を命令する。次いで、ステップS1503に進み、チャート作成部60からチャート情報を取得して、そのチャート情報の表示部4への出力位置を決定し、出力座標を保持するとともに表示部4にチャート情報を出力する。
【0426】
この発言チャート情報が表示部54の画面に表示されると、ユーザは、後述の図50に示すように、この発言チャートに表示されている発言区間バーVBのいずれかを選択指示して、その発言区間の時系列情報の再生を要求する。図50では、丸印で示す位置が指示されると、その指示座標(xp,yp)が座標時間変換部63で時間情報に変換されて時系列情報制御部57に送られる。なお、この例の場合、指示座標は、x座標xpのみでもよい。
【0427】
このため、時系列情報制御部57では、ステップS1504で、ユーザの指定する時刻の情報を座標時間変換部63から取得し、該当する時刻の時系列情報から、時系列情報記録部61から順次に読み出して、時系列情報出力部58に対して出力する。なお、ユーザ入力情報制御部52から、ユーザ入力に応じて時間情報(前述のリンク情報)が出力される場合には、座標時間変換部63はバイパスされて、ユーザの指定する時刻の情報を、時系列情報制御部57は、ユーザ入力情報制御部52から直接的に受け取る。リンク情報を用いるか否かの指定は、ユーザの入力情報選択時に行うことができる。
【0428】
一方、ステップS1501で、命令が自動再生であると判別されると、ステップS1505に進み、時系列情報特定区間決定部59からの特定区間の時間情報(Ts,Te)に基づいて、該当する時間区間の時系列情報を、時系列情報記録部61から読み出して、時系列情報出力部58へ出力する。この実施の形態では、時点Tsから再生を開始し、ユーザが再生終了を明示的に指示するまで再生を行うようにしている。
【0429】
なお、この図48のフローチャートでは省略したが、チャートを作成しないで、ユーザが時間を入力することで、その時間から、あるいはその時間区間の時系列情報を再生することも可能である。すなわち、時系列情報制御部57は、再生命令と時間を受け取った場合に、その時間に該当する時系列情報を時系列情報記録部61から時系列情報出力部58に出力するようにする。
【0430】
次に、チャート作成部10の動作を、図49フローチャートを用いて説明をする。
【0431】
ステップS1600で、時系列情報制御部57からチャート作成命令が到来したと判別すると、ステップS1601に進み、時系列情報特定区間決定部59から、特定区間の時間情報(Ts,Te)と、ユーザ入力情報の入力時刻を取得し、その特定区間内の発言区間に関する情報(図34参照)を時系列情報記録部61から取得する。次いでステップS1602に進み、取得した発言区間に関する情報から、図41および図50に示すような発言チャートを作成し、作成したチャート情報を時系列情報制御部57に出力する。前述したように、時系列情報制御部57は、この発言チャートを表示部54の表示画面に表示するように制御する。
【0432】
図50に示すチャートの例について説明する。時系列情報特定区間決定部59が出力した特定区間の時間情報に応じてチャートを表示するポップアップウィンドウの大きさ(W,H)、発言状況を示す画面の位置(x0 ,y0 )と、大きさ(wc、hc)を決定する。この図では、会議参加者であるA,B,C,Dの発言区間が矩形として表現されている。
【0433】
なお、時系列情報特定区間決定部59から、前述したような、相対時間に関する分布(確率)情報も提供される場合には、図51に示すように、時間軸の付近に確率密度情報を示すグラフ80を表示する。この場合、ユーザ入力情報に対応する時系列情報の特定区間の開始時刻の分布(確率)情報を、特定区間の発言チャートと併せて出力するようにしている。この分布(確率)情報は、チャート上に反映させることで、ユーザがどの時間から時系列情報を再生するかについての一助となる。
【0434】
図51の例で言えば、発言者Bの最初の発言区間の部分が、三角印81で示す入力時点のユーザ入力情報に対応する時系列情報の開始時点として、最も対応関係が強いことが示されることになる。
【0435】
次に、ユーザにより、チャート上において、指示された座標位置の情報から時間情報に変換する座標時間変換部63の動作を図52のフローチャートを用いて説明する。
【0436】
すなわち、座標時間変換部63は、ステップS1700でユーザ入力情報制御部2から座標情報を取得し、次のステップS1701に進み、時系列情報制御部57からチャートの表示位置情報を取得し、座標に対応する時間を計算する。そして、ステップS1702に進み、時系列情報制御部57に計算した時間を送る。
【0437】
図50を用いて、座標時間変換部63における、時間の計算の説明図を示す。座標(x0 、y0 )をチャートの原点、指示箇所の座標を(xp、yp)、表示時間を[Ts,Te]とし、その時間区間の画面上での表示幅をwcとすると、指示時刻Tpは、
Tp=Ts+(Te−Ts)×(xp−x0 )/wc
となる。
【0438】
以上の情報蓄積再生装置の実施の形態では、ユーザが入力した時の状況が個人用のメモなのかプレゼンテーションなのかを判別する例で説明したが、他の状況を用いることも可能である。
【0439】
例えば、会議の盛り上がりや笑いや、ある特定の人の行為を一つの状況情報やユーザ入力情報とみなし、その時刻とそれに関連する時系列情報の記録位置がある相関の高い関係があるものを、この発明の情報蓄積再生装置に適用しても構わない。
【0440】
また、上記の情報蓄積再生装置の実施の形態では、メモ入力の時刻と時系列情報の開始時刻の関係から、特定区間(Ts,Te)を決定したが、メモ入力時刻と時系列情報の存在区間で、特定区間(Ts,Te)を決定するようにしてもよい。
【0441】
また、上述の情報蓄積再生装置の実施の形態では、ユーザ入力情報の入力時点と、時系列情報特定区間決定部が保持する相対時間の情報から、特定区間を決定するようにしたが、前述した情報蓄積装置の実施の形態の場合と同様にして、条件一致区間検出部としての時系列情報処理部の処理結果である、例えば発言区間の情報も考慮して、ユーザ入力情報に対応する時系列情報の特定区間を決定するようにしても、もちろんよい。
【0442】
また、前述の情報蓄積装置の実施の形態の場合と同様に、センサを設けると共に、このセンサの検出出力情報が予め設定された所定の条件に合致する区間を検出する条件一致区間検出手段を設けて、この条件一致区間検出手段で検出した区間の情報も考慮して、ユーザ入力情報に対応する時系列情報の特定区間を決定するようにしても、もちろんよい。
【0443】
また、チャートは、条件一致区間としての発言区間を表示する発言チャートの場合を例に説明したが、例えば会議参加者の笑いの区間、拍手の区間などの条件一致区間をチャートとして表示するようにしても、もちろんよい。
【0444】
[情報蓄積再生装置の他の実施の形態]
上述した実施の形態のようなプレゼンテーション型の会議のおいて、各会議参加者が個々にメモを取る場合には、プレゼンテーションの内容を視聴した後、その視聴した内容についてメモを入力し、メモを終了すると、再び、プレゼンテーションの内容を視聴して、その視聴した新たな内容について、必要に応じてメモをするという操作を繰り返す。
【0445】
この発明の実施の形態においては、ユーザ入力情報は、連続するペンストロークなど、一連の関連のある入力情報が一塊として、ユーザ入力情報検出手段により検出され、ユーザ入力情報記憶部53に記録される。一塊として検出されるユーザ入力情報の区切りは、例えば、ユーザ入力が、所定時間、例えば15秒以上、途絶えたことにより検知するようにしている。
【0446】
したがって、プレゼンテーション型会議において、上述のような会議参加者個々のメモ入力のようなユーザ入力情報の場合には、再生時において、ユーザによって指定されたユーザ入力情報の入力時刻に対応する時系列情報の開始時刻(特定区間の開始時刻)は、指定されたユーザ入力の直前のユーザ入力情報の入力時刻以後に存在することが多い。
【0447】
このことは、以下のように、実験的にも確かめれらた。すなわち、図53(A)に示すように、再生のために指定したユーザ入力情報の入力時刻Tpから、その直前のユーザ入力情報の入力時刻Tbまでの時間間隔をXとし、指定したユーザ入力情報の入力時刻Tpから、指定したユーザ入力情報に関連する時系列情報の開始時刻までの時間間隔をYとして、両者の関係を調べたところ、図53(B)に示すような結果が得られた。
【0448】
この図53(B)において、直線Lは、Y=Xの直線である。この図53(B)から、指定されたユーザ入力情報に関連する時系列情報の開始時刻は、殆どが直前のユーザ入力情報の入力時刻以後であることが理解できる。
【0449】
この場合の直前のユーザ入力情報の入力時刻Tbは、そのユーザ入力情報の、少なくとも入力開始時刻を指す。もっとも、直前のユーザ入力情報の入力時刻Tbが、ユーザ入力情報の入力終了時刻でも上記のことは当てはまる。また、ユーザ入力開始時刻と、終了時刻との間の時刻を基準にすることもできる。
【0450】
ところで、前述の情報蓄積再生装置の実施の形態の時系列情報特定区間決定部59では、時系列情報の再生区間や、チャート表示区間である特定区間を、ユーザによって指定されたユーザ入力情報の入力時刻だけに基づき、入力状況を参照しながら決定した。
【0451】
このため、指定されたユーザ入力情報の直前のユーザ入力の入力時刻によっては、前述の実施の形態において、特定された区間が不要に長い区間を含むことになり、目的の箇所を再生するまでに時間がかかる場合がある。すなわち、特定区間内に直前のユーザ入力の入力時刻が含まれる場合には、そのユーザ入力の入力時刻よりも前の時系列情報は、上述のように、指定されたユーザ入力情報とは関連がない場合が殆どであるからである。
【0452】
以下に説明する実施の形態は、このような状況を鑑みて、指定されたユーザ入力情報の直前のユーザ入力の入力時刻を考慮することにより、指定したユーザ入力情報のみに関連する特定区間の決定を、精度よく行うものである。
【0453】
図54は、この場合の情報蓄積再生装置の実施の形態の、各処理機能部をブロック化して示した構成図である。この図54の機能ブロック図は、図30を用いて説明した前述の実施の形態の機能ブロック図とは、時系列情報特定区間決定部59に対して、特定区間補正部64を設けた点が異なる。
【0454】
そして、この実施の形態においては、この特定区間補正部64において、時系列情報特定区間決定部59で決定された特定区間を、指定されたユーザ入力情報の直前のユーザ入力情報の入力時刻に応じて補正するものである。この実施の形態の場合、ユーザ入力情報がメモ・モードであった場合、それを入力状況から検知して、後述するような補正動作を行う。なお、この実施の形態では、ユーザ入力情報の入力状況が、プレゼンテーションモードのときには、特定区間補正部64では、補正動作を実行せず、時系列情報特定区間決定部59が決定した特定区間をそのまま出力する。
【0455】
図55は、この特定区間補正部64での補正動作を説明するための図である。この図55の例においては、ユーザにより指定されたユーザ入力情報の入力時刻がTpであって、前述したようにして、時系列情報特定区間決定部59では、このユーザ入力情報の際の入力状況が参照されて、開始時刻Ts、終了時刻Teの特定区間が決定されている。
【0456】
特定区間補正部64は、指定されたユーザ入力情報の直前のユーザ入力情報の入力時刻Tbが、時系列情報特定区間決定部59で決定された特定区間内にあるか否かを判断する。そして、図55(A)に示すように、指定されたユーザ入力情報の直前のユーザ入力情報の入力時刻Tbが、時系列情報特定区間決定部59で決定された特定区間内にあるときには、前記直前のユーザ入力情報の入力時刻Tbから特定区間が開始するように、特定区間を補正する。
【0457】
また、図55(B)に示すように、指定されたユーザ入力情報の直前のユーザ入力情報の入力時刻Tbが、時系列情報特定区間決定部59で決定された特定区間よりも前にあるときには、時系列情報特定区間決定部59で決定された特定区間を、そのまま用いるようにする。
【0458】
これにより、メモ・モードにおいて、指定したユーザ入力情報の直前のユーザ入力情報より前の、指定したユーザ入力情報とは無関係となると推測される時系列情報部分を排除して、指定したユーザ入力情報に正確に対応する時系列情報部分の再生をすることができる。
【0459】
以上の特定区間補正部64での補正動作を可能にするためには、特定区間補正部64の上述のような処理動作が必要であるだけでなく、この実施の形態では、ユーザ入力情報制御部52と、時系列情報特定区間決定部59とにおける処理動作が、図30を用いて説明した前述の実施の形態と異なるものである。
【0460】
これら各部の処理動作を、それぞれフローチャートを用いて以下に説明する。まず、ユーザ入力情報制御部52の動作を、図56のフローチャートを参照しながら説明する。なお、この場合のユーザ入力情報の入力時刻は、例えば、入力開始時刻とする。
【0461】
まず、ステップS1800において、ユーザ入力情報制御部52は、表示部54の画面に表示されているユーザ入力情報のいずれかの選択指示をユーザ入力部51を通じて受けると、次のステップS1801に進む。この実施の形態では、表示されているユーザ入力情報を、例えば電子ペンにより囲い込むようにすることで、ユーザ入力情報の選択を行なうようにする。ユーザ入力情報制御部52は、囲まれた領域を判定し、その領域内に存在するユーザ入力情報を、ユーザ入力情報記録部53から探索する。
【0462】
ステップ1301では、その選択指示されたユーザ入力情報の入力時刻Tpと、状況の情報と、選択指示されたユーザ入力情報の直前のユーザ入力情報の入力時刻Tbとをユーザ入力情報記録部53から取得する。そして、次のステップS1802に進み、ユーザ入力が、時系列情報の自動再生のためのものか、後述するチャートの作成のためのものであるかの問い合わせのメッセージをユーザに対して表示する。
【0463】
ユーザは、これに対して、自動再生か、チャートの作成かの選択入力を行うので、ステップS1803でこのユーザ選択入力を受け付ける。そして、次のステップS1804において、自動再生が選択されたか、チャート作成が選択されたかを判別する。
【0464】
そして、自動再生が選択された場合には、ステップS1805に進み、時系列情報特定区間決定部59に、指示されたユーザ入力情報の入力時刻Tpの情報と、状況の情報と、指示されたユーザ入力情報の直前のユーザ入力情報の入力開始時刻Tbの情報と、自動再生命令とを送り、時系列情報制御部57に、自動再生命令を送る。
【0465】
また、チャート作成が選択された場合には、ステップS1806に進み、時系列情報特定区間決定部59に、指示されたユーザ入力情報の入力時刻Tpの情報と、状況の情報と、指示されたユーザ入力情報の直前のユーザ入力情報の入力時刻Tbの情報と、チャート作成命令とを送り、時系列情報制御部57に、チャート作成命令を送る。
【0466】
以上の説明において、直前のユーザ入力情報の入力時刻Tbとしては、入力開始時刻に限らず、入力終了時刻を用いることもできる。また、直前のユーザ入力情報の入力時刻としては、入力開始時刻と入力終了時刻の間の時刻(例えば、丁度両者の中間の時刻)を用いてもよい。
【0467】
また、指定されたユーザ入力情報の入力時刻Tpとしても,入力開始時刻だけではなく、入力終了時刻あるいは両者の中間の時刻を用いてもよいが、それらの用い方によって、時系列情報特定区間決定部59で用いる図44および図45の数値は異なるものとなる。
【0468】
指定されたユーザ入力情報の入力時刻Tpと、その直前のユーザ入力情報の入力時刻Tbとで、入力時刻として、入力開始時刻と、入力終了時刻と、両者の中間の時刻とのいずれの時刻を用いるかは、それぞれ独立であり、3種の時刻のいずれの組み合わせも可能である。
【0469】
次に、この実施の形態における時系列情報特定区間決定部59の動作を、図57のフローチャートを参照しながら説明する。
【0470】
まず、ステップS1901で、ユーザ入力情報制御部52から入力時刻Tp、状況、直前のユーザ入力情報の入力時刻Tbおよび命令を取得する。次に、ステップS1902に進み、ユーザ入力情報の入力時刻Tpと、状況の情報とから、前述したようにして、当該ユーザ入力情報に対応する時系列情報の特定区間(Ts,Te)を計算する。
【0471】
次に、ステップS1903に進み、指定されたユーザ入力情報に関する入力状況が、メモ・モードか、プレゼンテーションモードであるか判別する。メモ・モードであれば、ステップS1904に進み、直前のユーザ入力情報の入力時刻Tbの情報と、特定区間(Ts,Te)の情報を、特定区間補正部64に送る。
【0472】
特定区間補正部64は、後述のようにして、決定された特定区間について補正処理を行い、その補正結果の特定区間の情報を、時系列情報特定区間決定部59に返すので、時系列情報特定区間決定部59では、次のステップS1905で、この特定区間補正部64からの補正後の特定区間の情報を受け取る。そして、次のステップS1906に進む。
【0473】
ステップS1903でプレゼンテーションモードであると判別されたときには、特定区間補正部64での補正のステップS1904、ステップS1905を行うことなく、ステップS1906に飛ぶ。
【0474】
ステップS1906では、ステップS1901で取得した命令が、自動再生命令か、チャート作成命令かを判別して、自動再生命令であれば、ステップS1908に進み、時系列情報制御部57に、特定区間の情報(この例では、開始時刻Ts)と、ユーザ入力情報の入力時刻Tpの情報を送る。また、チャート作成命令であれば、ステップS1907に進み、チャート作成部60に、特定区間の情報(開始時刻Tsと終了時刻Te)と、ユーザ入力情報の入力時刻Tpの情報を送る。以上で時系列情報特定区間決定部59の処理ルーチンは終了となる。
【0475】
次に、図58は、特定区間補正部64の処理ルーチンを示すフローチャートである。
【0476】
まず、ステップS2001で、時系列情報特定区間決定部59から、指定されたユーザ入力情報の直前のユーザ入力情報の入力時刻Tbと、特定区間(Ts,Te)の情報を取得する。次に、ステップS2002に進み、特定区間の開始時刻Tsと、直前のユーザ入力情報の入力時刻Tbとを比較して、開始時刻Tsが、直前の入力時刻Tbよりも前であるか否か判別する。
【0477】
開始時刻Tsが直前の入力時刻Tbよりも前であるときには、ステップS2003に進み、特定区間の開始時刻をTsからTbに変更補正して、次のステップS2005で、変更補正した特定区間の情報(Tb,Te)を時系列情報特定区間決定部59に返す。
【0478】
また、開始時刻Tsが直前の入力時刻Tbよりも後であるときには、ステップS2004に進み、特定区間の開始時刻をTsのままとして、次のステップS2005で、もとのままの特定区間の情報(Ts,Te)を時系列情報特定区間決定部59に返す。以上で、特定区間補正部64の処理ルーチンは終了となる。
【0479】
なお、この実施の形態においても時系列情報特定区間決定部59は、状況を判別して特定区間を決定するようにしたが、必ずしも状況を判別する必要はなく、ユーザ入力情報の入力時刻Tpのみから特定区間を決定する情報蓄積再生装置においても、特定区間補正部64を用いることにより、ユーザ入力情報に関連の強い時系列情報部分のみを正確に抽出するという作用効果は得られるものである。特に、前述したように、ユーザ入力情報が、プレゼンテーションを視聴しながら個人的なメモの取る状況の時には、特定区間補正部64を設けたことの効果は大きいものである。
【0480】
なお、上記の実施の形態の説明では、直前のユーザ入力情報の入力時刻Tbをそのまま用いたが、前記入力時刻Tbから一定時間分(Δt)加減した時間を用いてもよい。また、前記入力時刻Tbは、前述もしたように、ユーザ入力を開始した時刻であっても、終了した時刻であっても改善効果は確認された。
【0481】
特定区間補正部64の効果は、時系列情報特定区間決定部59の特定区間の結果によって変化する。すなわち、時系列情報特定区間決定部59において、特定区間の開始時刻Tsが、指定されたユーザ入力情報の入力時刻Tpに対して比較的短い時間だけ前の時間として設定されている場合には、その効果は大きく表れない。その場合は、時系列情報特定区間決定部59の区間特定精度が特定精度になる。
【0482】
これに対して、時系列情報特定区間決定部59において、特定区間の開始時刻Tsが、指定されたユーザ入力情報の入力時刻Tpに対して比較的長い時間前の時間として設定されている場合には、特定区間補正部64での補正による効果は大きくなる。
【0483】
【発明の効果】
以上説明したように、この発明による情報蓄積装置によれば、例えば会議情報を蓄積する場合において、ユーザ入力情報と、音声や画像の変化やセンサ検知信号の変化と、ユーザ入力があった時点の状況を、適宜組み合わせて、特徴的な事象が起こっている区間である重要区間を特定することができる。
【0484】
そして、特定した重要区間は、高品質を保って音声情報や画像情報などの時系列情報を蓄積し、他の区間は、高圧縮率で圧縮して時系列情報記憶部に蓄積するようにすることで、記憶容量が少ないメモリであっても長時間分の時系列情報を蓄積することができる。
【0485】
また、共用入力装置や個人用入力装置のようなユーザ入力装置の種類によって音声信号または画像信号を記録するタイミングや長さを変化させることができるので、さまざまな会議記録装置の実施形態において、効率的に情報蓄積媒体の節約ができる。
【0486】
しかも、重要区間の時系列情報は、高品質を保って蓄積されているので、これを再生したときに、情報内容を適切かつ確実に把握することが可能である。したがって、例えば、情報量の多い会議情報の記録蓄積を行う場合に適用すると、会議内容を適切に把握するために必要な情報は重要区間として高品質で記憶されているため、全体としての情報量は、削減されていても、会議内容を適格に把握することができる。
【0487】
また、ユーザ入力情報と重要区間とを対応付けて記憶しておくことで、ユーザ入力情報を指定することにより、対応する重要区間の音声情報や画像情報を容易に再生させることができる。
【0488】
また、この発明による情報蓄積再生装置によれば、会議等の時系列情報とメモをあわせて記録し、後でメモを手がかりにそのメモに対応する時系列情報を再生する場合に、メモ入力時の状況を利用して、適切な箇所の時系列情報を、自動で再生することができる。これによって会議の参加者であってもなくても、またメモ入力した本人であっても、また、本人でなくても、適切な時系列情報を再生することが可能となる。
【0489】
また、メモ入力時の状況を利用して、適切な範囲の会議参加者の発言状況を知ることもできる。そのため、会議の参加者であった場合には、再生すべき箇所を想起、決定し易い。また、会議の不参加者であった場合にも、再生すべき箇所を容易に推測することが可能となる。
【0490】
また、再生すべき区間に関して、確率情報を提示した場合には、再生した区間で必要な情報が得られるかについての確信を得ることができる。
【0491】
また、特定区間を、指定したユーザ入力情報の直前のユーザ入力情報の入力時刻に基づいて補正することにより、指定したユーザ入力情報に関連深い時系列情報の区間を精度よく特定することができる。このため、所望の情報を効率的に探索し、獲得することが可能となる。例えば、会議の議事録作成、講演会などの話のまとめなどを行うときに、この発明によれば、その作業を効率的なものとすることができる。
【図面の簡単な説明】
【図1】この発明による情報蓄積装置の第1の実施の形態を説明するための機能ブロックである。
【図2】この発明の実施の形態が適用されるシステムの概要を説明する図である。
【図3】第1の実施の形態における条件一致区間検出部の、音声レベル検出動作の説明のための図である。
【図4】第1の実施の形態における、ペン筆跡入力タイミングと、条件一致区間と、重要区間とを対応付けて説明する図である。
【図5】入力状況に応じた重要区間の設定要素の例を示す図である。
【図6】第1の実施の形態における、ペン筆跡入力タイミングと、条件一致区間と、重要区間とを対応付けて説明する図である。
【図7】図6の説明のための図である。
【図8】第1の実施の形態の情報記録時の動作の流れを示す図である。
【図9】第1の実施の形態における条件一致区間検出部の処理ルーチンの一例を示すフローチャートである。
【図10】第1の実施の形態におけるユーザ入力情報検出部の処理ルーチンの一例を示すフローチャートである。
【図11】第1の実施の形態におけるユーザ入力装置特定部の処理ルーチンの一例を示すフローチャートである。
【図12】第1の実施の形態における、ペン筆跡入力タイミングと、重要区間と、時系列記憶部の記憶状態とを対応付けて説明する図である。
【図13】第1の実施の形態における、対応関係記憶部に記憶された対応関係情報の、ペン筆跡1つ分の記憶状態を示す図である。
【図14】第1の実施の形態における対応関係記憶部の処理ルーチンの一例の一部を示すフローチャートである。
【図15】第1の実施の形態における対応関係記憶部の処理ルーチンの一例の一部を示すフローチャートである。
【図16】第1の実施の形態における時系列情報記憶部の処理ルーチンの一例のフローチャートである。
【図17】第1の実施の形態における時刻情報記憶部の処理ルーチンの一例のフローチャートである。
【図18】第1の実施の形態における時刻情報記憶部の記憶構造の一例を説明する図である。
【図19】第1の実施の形態における時刻情報記憶部の記憶構造の他の例を説明する図である。
【図20】第1の実施の形態における情報圧縮時の動作の流れを示す図である。
【図21】第1の実施の形態における圧縮部の処理ルーチンの一例のフローチャートである。
【図22】第1の実施の形態における、時系列情報記憶部に記憶された画像情報の、圧縮前の記憶状態と、圧縮後の記憶状態とを比較して説明する図である。
【図23】この発明による情報蓄積装置の第2の実施の形態を説明するための機能ブロックである。
【図24】第2の実施の形態の情報記録時の動作の流れを示す図である。
【図25】第2の実施の形態の一時記憶部の記憶内容を説明するための図である。
【図26】第2の実施の形態の一時記憶部の処理ルーチンの一例のフローチャートの一部である。
【図27】第2の実施の形態の一時記憶部の処理ルーチンの一例のフローチャートの一部である。
【図28】この発明による情報蓄積再生装置の実施の形態が適用されるシステムを説明するための図である。
【図29】この発明による情報蓄積再生装置の実施の形態における状況設定画面を示す図である。
【図30】この発明による情報蓄積再生装置の実施の形態の機能ブロック図である。
【図31】この発明による情報蓄積再生装置の実施の形態の概観図である。
【図32】この発明による情報蓄積再生装置の実施の形態における時系列情報処理部の動作を説明するためのフローチャートである。
【図33】図32の時系列情報処理部の動作を説明するための図である。
【図34】図32の時系列情報処理部の処理結果の発言状況のデータ構造を示す図である。
【図35】この発明による情報蓄積再生装置の実施の形態におけるユーザ入力情報制御部の記録時の動作を説明するためのフローチャートである。
【図36】図35のユーザ入力情報制御部におけるユーザ入力情報の切り出し動作のフローチャートである。
【図37】図35のユーザ入力情報制御部におけるユーザ入力情報の切り出し動作を説明するための図である。
【図38】この発明による情報蓄積再生装置の実施の形態におけるユーザ入力情報記録部に記録されているデータ構造の例を示す図である。
【図39】この発明による情報蓄積再生装置の実施の形態における状況特定部の動作のフローチャートである。
【図40】この発明による情報蓄積再生装置の実施の形態における状況特定部の動作の他の例のフローチャートである。
【図41】この発明による情報蓄積再生装置の実施の形態における発言チャートの例を示す図である。
【図42】この発明による情報蓄積再生装置の実施の形態におけるユーザ入力情報制御部の記録時の動作のフローチャートを示す図である。
【図43】この発明による情報蓄積再生装置の実施の形態における時系列情報特定区間決定部の動作のフローチャートを示す図である。
【図44】この発明による情報蓄積再生装置の実施の形態における時系列情報特定区間決定部が有する特定区間決定のための相対時間を決定するための情報を説明するための図である。
【図45】この発明による情報蓄積再生装置の実施の形態における時系列情報特定区間決定部が有する特定区間決定のための相対時間の例を示す図である。
【図46】ユーザ入力情報に対応する時系列情報の特定区間の開始時点が存在する、ユーザ入力情報の入力時点に対する相対時間の頻度分布の例を示す図である。
【図47】ユーザ入力情報に対応する時系列情報の特定区間の開始時点が存在する、ユーザ入力情報の入力時点に対する相対時間の頻度分布の例を、状況毎に示す図である。
【図48】この発明による情報蓄積再生装置の実施の形態における時系列情報制御部の再生時の動作のフローチャートを示す図である。
【図49】この発明による情報蓄積再生装置の実施の形態におけるチャート作成部の動作のフローチャートを示す図である。
【図50】発言チャートの表示例上におけるユーザによる指示例を示す図である。
【図51】発言チャートと、ユーザ入力情報に対応する時系列情報の特定区間の開始時点が存在する、ユーザ入力情報の入力時点に対する相対時間の頻度分布とを合わせて表示する例を示す図である。
【図52】この発明による情報蓄積再生装置の実施の形態における座標変換部の動作のフローチャートを示す図である。
【図53】この発明による情報蓄積再生装置の他の実施の形態を説明するための図である。
【図54】この発明による情報蓄積再生装置の他の実施の形態の機能ブロック図である。
【図55】この発明による情報蓄積再生装置の他の実施の形態の要部の動作を説明するための図である。
【図56】この発明による情報蓄積再生装置の他の実施の形態におけるユーザ入力情報制御部の動作のフローチャートである。
【図57】この発明による情報蓄積再生装置の他の実施の形態における時系列情報特定区間決定部の動作のフローチャートである。
【図58】この発明による情報蓄積再生装置の他の実施の形態における特定区間補正部の動作のフローチャートである。
【符号の説明】
1 音声情報入力部
2 画像情報入力部
3 条件一致区間検出部
4 時系列情報記憶部
5 ユーザ入力情報入力部
6 ユーザ入力情報検出部
7 ユーザ入力装置特定部
8 重要区間決定部
9 対応関係記憶部
10 圧縮部
11 時刻情報記憶部
12 再生部
13 再生指示部
14 表示部
15 制御部
16 一時記憶部
20 電子会議装置
21 モニター装置の表示画面
23 電子ペン
24 カメラ
25 マイクロホン
26 音声信号解析器
27 蓄積媒体
28 スピーカ
29 会議参加者
30 小型コンピュータ(個人用電子ノート装置)
41 共用電子黒板
42 ビデオカメラ
43 マイクロホン
51 ユーザ入力部
52 ユーザ入力情報制御部
53 ユーザ入力情報記録部
54 表示部
55 時系列情報入力部
56 時系列情報処理部
57 時系列情報制御部
58 時系列情報出力部
59 時系列情報特定区間決定部
60 チャート作成部
61 時系列情報記録部
62 状況特定部
63 座標時間変換部
64 特定区間補正部
[0001]
BACKGROUND OF THE INVENTION
This invention stores and accumulates information such as conversation voices in meetings and interviews, images of meetings and interview scenes, and conference memos and interview memos related to them, such as a conference record recording system and a coverage recording system. apparatus About.
[0002]
[Prior art]
Conventionally, recordings such as conferences, lectures, interviews, interviews, telephone and videophone conversations, TV images, surveillance camera images, etc. are recorded and played back on digital disks, digital still cameras, video tapes, semiconductor memory, etc. A device has been proposed. When information is accumulated using these devices, there is an advantage that it is possible to record audio and images as input information without leaking, compared with a method in which a recorder records only the main points of information to be recorded by writing. .
[0003]
These devices include those that record digital signals transmitted via a computer network on a storage medium, those that record analog input signals from a video camera or microphone on a storage medium as they are, and those that are encoded into digital signals. There are things to convert and record.
[0004]
However, there is a problem in that it is impossible to instantly search for a desired portion from recorded voice and images.
[0005]
In order to solve this problem, there has been proposed an apparatus for storing, recording, and reproducing audio signals or image signals that are sequentially input and user input information that is input by a recorder at any timing in association with user input using a pen or a keyboard. . If these devices are used, the recorder performs input with a pen or a keyboard so as to take notes, and if an audio signal or an image signal is recorded, the audio can be read later by referring to the input notes. It is possible to easily select and reproduce a portion where a signal or an image signal is desired to be reproduced.
[0006]
For example, in JP-A-7-182365 and JP-A-6-343146, audio signals or image signals are associated with user input information based on time stamps at the time of recording, and at the time of reproduction, An apparatus is described in which one of user input information displayed on the screen is designated to reproduce an audio signal or an image signal recorded at the time when the designated user input information is recorded.
[0007]
Japanese Patent Laid-Open No. 6-205151 discloses an input audio signal or an input image signal with an index added at the timing when it is detected that the user input has been interrupted for a certain period of time, and is displayed on the screen during playback. An apparatus is described in which one of specified specific user input information is designated to reproduce an audio signal or an image signal from an index portion corresponding to the designated user input information.
[0008]
However, the information storage device described in the above-mentioned Japanese Patent Laid-Open Nos. 7-182365 and 6-205151 has a mechanism for recording all input audio signals or image signals without compression. Therefore, there is a problem that it is difficult to record a long-time input audio signal or input image signal in a limited recording capacity. This is because, in general, when recording time-series data such as sequentially input audio signals or image signals over a long period of time, the necessary storage capacity becomes enormous.
[0009]
As a known method, a method of storing audio signals and image signals in a storage medium while always compressing them has been proposed. However, it is general that all input audio signals or image signals are stored at the same compression rate. It is. In the case of this method, it is not possible to record only important parts with high sound quality / high image quality to save storage capacity, and record a large amount of information that is unlikely to be referenced later, In spite of important information, there was a problem that it could not be recorded due to the storage capacity.
[0010]
For example, in the case where an interview scene is recorded for a long time using “Video for Windows” (“Microsoft Video for Windows 1.0 User's Guide” pp. 57-59, pp. 102-108), the storage capacity is increased. For the purpose of saving, it is assumed that the thinning compression rate is set so that only one frame is stored for 5 seconds. At this time, even if the recording person wants to reproduce the part that is important at the time of recording later, only one frame of image signal can be reproduced in 5 seconds. ), Talking, and subtle nuances cannot be reproduced. On the other hand, if all the input image signals are stored in 30 frames per second, the storage capacity becomes enormous as described above in order to store a long interview, which is very difficult to realize. is there.
[0011]
Therefore, in Japanese Patent Laid-Open No. 7-15519, when it is recognized that the free space of the storage medium is less than a certain amount, the free space of the storage medium is reduced by recompressing the already stored audio information. A voice information storage device to be secured is described.
[0012]
Further, in Japanese Patent Laid-Open No. 5-64144, when the usage amount (data storage amount) of the image storage medium exceeds a predetermined amount, the image information already stored is compressed in order from the old frame, An information storage device is described that attempts to save storage capacity by thinning out frames. By regarding the information stored later as important information, the previously stored information is overwritten with new input information, or the information stored earlier is increased in compression rate. It is a device that saves storage capacity.
[0013]
In addition, the moving image recording apparatus described in Japanese Patent Laid-Open No. 6-149902 performs automatic scene change detection, and considers that a longer scene is a more important scene. This is an apparatus that extracts in order from scenes having a high importance so as to be long. If only the scene included in the digest generated by the apparatus described in this publication is left and the scene not included in the digest is deleted, the storage capacity can be saved without losing important information.
[0014]
Further, there has been proposed an apparatus that selects information at the time of recording and records only information recognized as important or changes the compression rate. For example, Japanese Patent Application Laid-Open No. 6-343146 describes a method of recording a video signal for a predetermined time at a timing when a user input is made. Furthermore, some commercially available tape recorders have a silent section detection function that does not store voice in silent sections.
[0015]
Various systems have also been proposed in the past for retrieving important sections from time series information when all time series information such as image information and audio information is recorded as conference information.
[0016]
These conventional systems record time-series information such as audio information and video information such as conferences, while recording user input information such as pen input and keyboard input of conference participants and their input time, and later Thus, there is provided a mechanism for reproducing time series information related to each user input information by using the input time.
[0017]
For example, in Japanese Patent Application Laid-Open No. 6-343146, when an arbitrary portion of a pen input handwriting is pointed, a pop-up window displaying an audio waveform near the time when the pen input is performed is displayed. It is possible to control playback of audio information and image information. The following are examples of specific playback modes.
[0018]
{Circle around (1)} A certain time width tw is reproduced from the pen input time T. However, tw can be changed by the user. For example, the playback time is changed by sliding a bar displayed on the pop-up window.
[0019]
(2) Playback from the pen input time T to the end. However, buttons such as stop, rewind, and fast forward are provided on the pop-up window, and the user can operate at any timing.
[0020]
{Circle around (3)} Playback starts from a point slightly before the pen input time T. Reproduction is performed for a time width ta + tb from time T-ta to time T + tb. ta and tb may be determined in advance, or may be determined after the user slides a bar on the pop-up window.
[0021]
As described above, Japanese Patent Laid-Open No. 6-343146 provides a user with several reproduction methods when reproducing multimedia information corresponding to pen input.
[0022]
[Problems to be solved by the invention]
However, in the related art relating to the recording apparatus, for example, the apparatus described in Japanese Patent Application Laid-Open No. 7-15519 is an apparatus that recompresses a stored audio signal at the same compression ratio throughout and records the audio signal. There is a problem that it is impossible to record only high-quality sound by partially reducing the compression rate of only important parts of the content.
[0023]
Further, in an information storage device for storing and storing conferences, lectures, interviews, interviews, etc., as described in Japanese Patent Laid-Open No. 5-64144 or Japanese Patent Laid-Open No. 5-134907, new records are simply recorded as important information. If the old record is erased as unnecessary information, the record of important meetings and important interviews will be overwritten by new input information just because it was recorded first. was there. This is because, in general, it is not possible to determine the importance of the content of the meeting or the content of the coverage based only on the date and time when the conference or the coverage was held.
[0024]
In addition, with respect to the apparatus described in Japanese Patent Laid-Open No. 6-149902 that determines the importance of a scene based on the length of the scene, when a meeting or lecture is taken with an unmanned camera, the scene is changed by a cut change or a scene change. There is a problem that it is very difficult to cut and the length of the scene cannot be detected. In addition, if you are shooting a meeting or lecture, important statements may be included even in a short scene, so based on the length of the scene alone, There was a problem that the importance could not be determined.
[0025]
As a further problem, the above-described conventional devices do not take into account the input status such as the type of input device used by the user for input or the user's intention to input, so that depending on the input status when there is user input. There was a problem that proper selective recording was not possible.
[0026]
For example, if one of the conference participants writes the discussion process or conclusion on the shared electronic whiteboard device, and other conference participants take notes on their personal electronic notebook devices, the shared A writer who writes on the electronic whiteboard device tends to write related information while writing, or to write it on the shared electronic whiteboard device as soon as it is spoken by a meeting attendee other than the writer. Therefore, there is a feature that the time point at which the memo is written on the shared electronic whiteboard is close to the time point when the related information is spoken.
[0027]
On the other hand, when a conference participant writes on a personal electronic notebook device, he / she can input the hand memo after chewing the words once heard in his / her hand, or write the hand memo after replacing it with his / her own words. In many cases, there is a feature that a point of time when a memo is written on a personal electronic notebook device and a point of time when related information is spoken are relatively separated.
[0028]
As described above, it is considered that the timing and length of the corresponding voice information and image information sections change depending on the situation in which the user input is performed.
[0029]
However, this type of conventional device records a signal for a certain period of time at the time of user input, as in the case of the device described in Japanese Patent Laid-Open No. 6-343146, for example. The timing and length of recording an audio signal or image signal cannot be changed depending on the input status such as the type of user input device and the input intention, and therefore information can be recorded appropriately and selectively. There wasn't. In addition, there is a problem in that it is not possible to selectively reproduce a portion of information appropriately corresponding to a user input during reproduction.
[0030]
In addition, the above-described prior art relating to retrieval at the time of reproduction records multimedia information (time series information) such as voice and video, while recording user input information such as memo input and the input time thereof. This is to facilitate reproduction of time series information related to the input information.
[0031]
However, the time when the user inputs information and the time when the corresponding audio information and image information exist are generally different from each other, and the degree of deviation differs in each case. For this reason, in order to know the exact time interval of the time-series information corresponding to each user input information at the time of playback, the search is based on its own memory and intuition, and the memory becomes ambiguous / inaccurate. For example, even if the user input information and the corresponding position of the voice information and image information are close in time, there is a problem that it takes a lot of time for the search.
[0032]
In addition, the user's memory regarding the existing time interval of multimedia information such as appropriate audio information and image information corresponding to the user input information becomes thinner as time passes, and a long time is required for the search. In addition, when a third party other than the user who has input the user input information searches, not only does it further require time, but there is no certainty that it is the correct time interval position.
[0033]
Therefore, how to appropriately reproduce the multimedia information corresponding to the user input information according to the situation, or how to present appropriate information to help search for the multimedia information even if it cannot be reproduced, and In order to search for efficient information, it becomes a big problem to provide the user with information that ensures that the multimedia information corresponds to the input information.
[0034]
However, in the conventional playback method described above, multimedia information is played back from a certain time before the time when user input information is input, or information on a time interval near the time when user input information is input is displayed. This is a method of presenting a pop-up window and selecting a playback location.
[0035]
As described above, the time relationship between the input time of the user input information and the corresponding multimedia information section varies depending on the situation, and the appropriateness of the playback section and the display section varies depending on the situation.
[0036]
In the example shown in the embodiment of Japanese Patent Laid-Open No. 6-343146, there is no means for displaying only an appropriate section of the speech waveform displayed on the pop-up window, and in some cases The display section may be too short or too long. If the display section is too short, it is not only possible to specify an appropriate starting point for multimedia information on the display, but there is not enough information for the user to recall and infer the location of multimedia information. In addition, there is a problem that it takes a lot of time to search for multimedia information. In addition, when the display section is too long, the time section in which the multimedia information exists is displayed, but considering that the display area is finite, only unnecessary information is displayed. There is a problem that an efficient use of the display area results.
[0037]
The present invention solves the above-described problem, and detects an important period of an audio signal or an image signal in which a characteristic event occurs in the input audio signal or the input image signal in relation to the user input. In addition to being able to be identified, a large number of audio signals or image signals in this important period are stored in a limited storage medium, and even if the audio or image signals are not in the important period, they can be used for a long time with a small amount of data. The problem is to be able to memorize.
[0038]
Another object of the present invention is to make it possible to selectively and reliably reproduce or easily search an important part of an audio signal or an image signal related to a user input.
[0039]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention described in claim 1
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers to each The user input information is received from a plurality of user input devices that output the user input information in a state where an input situation can be specified. User input information input means;
Input from the user input information input means Said User input information detecting means for detecting user input information;
The user input information detected by the user input information detection means Is provided with a function for specifying at least the input status of user input information from the shared input device or user input information from the personal input device, respectively. User input status identification means;
Time-series information input means for inputting audio information or image information;
The user input information detected by the user input information detection means and specified by the user input situation specifying means Said Based on the input status, a specific section of the audio information or image information from the time-series information input means is determined. And determining a time-series information section in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device. A specific section determining means;
A specific section determination device for time-series information comprising:
[0044]
Claims 2 In the invention of
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers. The user input information is received from a plurality of user input devices that output the user input information in a state where an input situation can be specified. User input information input means;
Input from the user input information input means Said User input information detecting means for detecting user input information;
The user input information detected by the user input information detection means Is provided with a function for specifying at least the input status of user input information from the shared input device or user input information from the personal input device, respectively. User input status identification means;
Time-series information input means for inputting audio information or image information;
The user input information detected by the user input information detection means and specified by the user input situation specifying means Said Based on the input status, a specific section of the audio information or image information from the time-series information input means is determined. And determining a time-series information section in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device. A specific section determining means;
Time series information storage means for storing the audio information or the image information input from the time series information input means;
Means for compressing the amount of audio information or image information stored in the time-series information storage means, Special mention Fixed interval determination Determined by means A compression unit that compresses the audio information or the image information stored in the time-series information storage unit by changing a compression rate or a compression method in a section and another section;
An information storage device is provided.
[0045]
Claims 3 In the invention of
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers to each The user input information is received from a plurality of user input devices that output the user input information in a state where an input situation can be specified. User input information input means;
Input from the user input information input means Said User input information detecting means for detecting user input information;
The user input information detected by the user input information detection means Is provided with a function for specifying at least the input status of user input information from the shared input device or user input information from the personal input device, respectively. User input status identification means;
Time-series information input means for inputting audio information or image information;
The user input information detected by the user input information detection means and specified by the user input situation specifying means Said Based on the input status, a specific section of the audio information or image information from the time-series information input means is determined. And determining a time-series information section in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device. A specific section determining means;
Time series information storage means for storing the audio information or the image information input from the time series information input means;
in front Special mention Fixed interval determination means Correspondence relationship storage means for storing correspondence information between the section information indicating the section determined in (1) and the storage position in the time-series information storage means of the audio information or the image information corresponding to the section information;
Means for compressing the data amount of the audio information or the image information stored in the time-series information storage means, and a section defined by the section information stored in the correspondence storage means and another section; A compression unit that compresses the audio information or the image information stored in the time-series information storage unit by changing a compression rate or a compression method;
An information storage device is provided.
[0048]
Claims 4 In the invention of
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers to each The user input information is received from a plurality of user input devices that output the user input information in a state where an input situation can be specified. User input information input means;
Input from the user input information input means Said User input information detecting means for detecting user input information;
The user input information detected by the user input information detection means Is provided with a function for specifying at least the input status of user input information from the shared input device or user input information from the personal input device, respectively. User input status identification means;
Time-series information input means for inputting audio information or image information;
The user input information detected by the user input information detection means and specified by the user input situation specifying means Said Based on the input status, a specific section of the audio information or image information from the time-series information input means is determined. And determining a time-series information section in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device. A specific section determining means;
Temporary storage means for temporarily storing the audio information or image information;
Of the audio information or image information temporarily stored in the temporary storage means, Special mention Fixed interval determination Determined by means Time-series information storage means for storing audio information or image information of a section as information corresponding to user input information detected by the user input information detection means;
in front Special mention Fixed interval determination Determined by means Correspondence relation storage means for storing correspondence relation between section information of a section and a storage position in the temporary storage means of the audio information or image information corresponding to the section;
The means for compressing the data amount of the audio information or the image information stored in the time-series information storage means among the audio information or the image information stored in the temporary storage means, the correspondence relationship storage Before memorized in the means Special mention Fixed interval determination means A compression unit that compresses data of the audio information or the image information by changing a compression rate or a compression method in a section defined by
An information storage device is provided.
[0051]
Claims 5 In the invention of
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers to each The user input information is received from a plurality of user input devices that output the user input information in a state where an input situation can be specified. User input information input means;
Input from the user input information input means Said User input information detecting means for detecting user input information;
The user input information detected by the user input information detection means Is provided with a function for specifying at least the input status of user input information from the shared input device or user input information from the personal input device, respectively. User input status identification means;
Time-series information input means for inputting audio information or image information;
The user input information detected by the user input information detection means and specified by the user input situation specifying means Said Based on the input status, a specific section of the audio information or image information from the time-series information input means is determined. And determining a time-series information section in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device. A specific section determining means;
Time series information storage means for storing the audio information or the image information input from the time series information input means;
Display means for displaying the user input information detected by the user input information detection means on a display screen;
For each of the user input information, information for specifying a display position of the user input information on the display screen, and the user input information, Special mention Fixed interval determination Determined by means Correspondence storage means for storing a correspondence relationship between the audio information or the image information corresponding to the section and the storage position in the time-series information storage means;
Designating means for designating a display portion related to the user input information displayed on the display screen;
The audio information or the image information of the section specified based on the storage position in the time series information storage means stored in the correspondence storage means specified by the user input information specified by the specification means is reproduced. Reproduction means;
An information storage device is provided.
[0054]
Claims 6 In the invention of
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers to each The user input information is received from a plurality of user input devices that output the user input information in a state where an input situation can be specified. User input information input means;
Input from the user input information input means Said User input information detecting means for detecting user input information;
The user input information detected by the user input information detection means Is provided with a function for specifying at least the input status of user input information from the shared input device or user input information from the personal input device, respectively. User input status identification means;
The user input information detected by the user input information detection means; Said Information about the input time of user input information, Said Specified by the user input status specifying means with respect to user input information Said User input information recording means for recording the input status;
Time-series information input means for inputting time-series information of audio information or image information;
Time series information recording means for recording the audio information or the image information input from the time series information input means;
Display means for displaying the user input information recorded in the user input information recording means;
Designation means for selecting and instructing one of the user input information displayed by the display means;
A specific section of the audio information or image information from the time-series information input unit based on at least information related to the input time and the input status of the user input information specified by the specifying unit Decide And determining a time-series information section in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device. A specific section determining means;
Time series information recording means Time-series information reproducing means for reproducing the time-series information corresponding to the specific section determined by the specific-section determining means among the time-series information recorded in
An information storage / playback apparatus is provided.
[0063]
Claims 7 In the invention of
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers to each The user input information is received from a plurality of user input devices that output the user input information in a state where an input situation can be specified. User input information input means;
Input from the user input information input means Said User input information detecting means for detecting user input information;
The user input information detected by the user input information detection means Is provided with a function for specifying at least the input status of user input information from the shared input device or user input information from the personal input device, respectively. User input status identification means;
The user input information detected by the user input information detection means, and information related to the input time of the user input information; The input status specified by the user input status specifying means with respect to the user input information; User input information recording means for recording
Time-series information input means for inputting time-series information of audio information or image information;
The audio information or the image information input from the time-series information input means Record Time-series information recording means,
Display means for displaying the user input information recorded in the user input information recording means;
Designation means for selecting and instructing one of the user input information displayed by the display means;
A specific section of the audio information or image information from the time-series information input unit is determined based on at least information related to the input time of the user input information specified by the specifying unit. And determining a time-series information section in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device. A specific section determining means;
By the specific section determining means Decision A specific section correction unit that corrects the determined section based on an input time of user input information immediately before the user input information selected and instructed by the specifying unit;
Time-series information reproducing means for reproducing the time-series information corresponding to the specific section determined by the specific-section determining means out of the time-series information recorded in the time-series information recording unit;
An information storage / playback apparatus is provided.
[0066]
[Action]
In the first aspect of the present invention, when the user inputs user user input information such as a memo input by the user input means, this is detected by the user input information detection means, and the user input is, for example, The input status such as whether it is input for personal use or input for common use is specified by the user input status specifying means. Then, according to the specified input situation, the time series information section corresponding to the user input information is specified by the time series information section specifying means.
[0067]
That is, a section having a timing and a length corresponding to an input situation when user input information is input can be specified, and an information section corresponding to a user input can be specified.
[0071]
That is, Claim 1 Invention In The user input device to which user input information is input can be specified to correspond to different information sections depending on whether the user input device is a shared input device or a personal input device. The time series information section can be specified.
[0072]
Claims of the above configuration 2 In the present invention, the section detected by the specific section detecting device for time-series information is compressed as, for example, an important information section with a compression rate or compression method different from other sections. In this case, different compression ratios or compression methods include cases where “compress” and “not compress”.
[0073]
For example, the voice information or the image information of the important section can be stored and stored with high quality, and the other section can store the voice information or the image information with a higher compression rate than that. Therefore, it is possible to reduce the used capacity of the time-series information storage means while keeping the important section information while maintaining high quality.
[0074]
In the invention of claim 7, section information indicating a section defined by the specific section detection device for time series information, and a storage position of the voice information or the image information corresponding to the section information in the time series information storage means Are stored in the correspondence storage means. For this reason, when compressing by the compression means, for example, the section information that should maintain high quality can be easily associated with the audio information or the image information of the section according to the stored contents of the correspondence relation storage means.
[0077]
Claim 4 In the present invention, not all of the audio information or the image information input from the time series information input means is stored as it is in the time series information storage means. That is, the audio information or the image information input from the time series information input unit is sequentially stored in the temporary storage unit. Then, the audio information or the image information stored in the temporary storage means includes a compression rate or a difference between a section determined by the specific section determination device for the time series information stored in the correspondence storage means and another section. The compression method is changed and compressed and stored in the time-series information storage unit. As a result, the storage capacity of the time-series information storage means can be smaller than when all the time-series information is stored as it is.
[0080]
Claim 5 In the information storage device according to the invention, when the user input information displayed on the display screen is instructed at the time of reproduction, the audio information or the image information of the section determined by the specific section determination device of the time series information corresponds. It is reproduced as sequence information. That is, audio information or image information in a section considered to be related to user input information is reproduced from the beginning to the end.
[0083]
Claim 6 In the information storage / reproduction apparatus, for example, in the case of a conference system, all of the time-series meeting information of audio information or image information is recorded in the time-series information recording means without any exception. Further, the user input information recording means includes the user input information detected by the user input information detection means, information related to the input time of the user input information, and the user input information specifying means related to the user input information. The input status is recorded.
[0084]
Then, the user input information recorded in the user input information recording means is displayed on the display screen, and when one of them is designated, the designated user input information recorded in the user input information recording means Information on the input time and the input status are taken out and passed to the specific section determining means.
[0085]
The specific section determining means corresponds to the specified user input information in the audio information or the image information recorded in the time series information recording means based on the input time information and the input situation of the user input information. Determine a specific section. Upon receiving this determination, the reproducing means extracts and reproduces the time series information of the specific section recorded in the time series information recording unit determined by the specific section determining means.
[0094]
Claims 7 In the information storage / playback apparatus of the present invention, all the time-series conference information of the audio information or the image information is recorded in the time-series information recording means. The user input information recording means records user input information detected by the user input information detection means and information related to the input time of the user input information.
[0095]
Then, the user input information recorded in the user input information recording means is displayed on the display screen, and when one of them is designated, the designated user input information recorded in the user input information recording means Information on the input time is taken out and passed to the specific section determining means.
[0096]
The specific section determining unit is configured to select a specific section corresponding to the specified user input information from the audio information or the image information recorded in the time series information recording unit based on the input time information of the user input information. decide.
[0097]
The specific section correcting means checks whether there is user input information immediately before the user input information selected and designated by the specifying means in the specific section determined by the specific section determining means. For example, the specific section determined by the specific section determination means is corrected based on the input time. If there is no previous user input information in the specific section, the specific section determined by the specific section determination means is not corrected.
[0098]
The reproduction means extracts time series information corresponding to the specific section determined by the specific section determination means or the specific section corrected by the specific section correction means from the time series information recording unit and reproduces it.
[0099]
And Claim 7 In the invention, the user input information specifying means is configured to input the user input information as follows: When the user input device to which the user input information is input is a shared input device, and when the user input device is a personal input device Is specified. Then, the specific section determining means determines the specific section related to the user input information instructed to be selected based on not only the input time of the user input information but also the input status of the user input information.
[0101]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0102]
[First embodiment of information storage apparatus]
The first embodiment is a case where the information storage device according to the present invention is applied to conference recording.
[0103]
In general, it is very unlikely to refer to a conference that took place a month ago compared to the possibility of referring to a conference that took place a few days ago. Keeping conference information such as video information that is less likely to be referenced in high quality is very inefficient in terms of saving memory space, and can be deleted or deleted at an appropriate time. It is desirable to reduce the amount of information by performing thinning compression.
[0104]
However, even in the case of old conference records, there are demands to reproduce the movements made by the speaker while speaking (gestures, etc.), talking, and subtle nuances. Therefore, it is required that the audio information or the image information in the important section where such a characteristic phenomenon occurs is stored in high quality.
[0105]
In this case, the problem is how to identify the important section of the time-series information of the audio information or the image information. In this embodiment, the detection time of user input information such as instruction input or memo input of a conference attendee (including a conference chairperson or facilitator), and the situation (input status) when the user input is made, The important section is determined based on the section that matches the predetermined condition for the audio information or the image information.
[0106]
In this example, there are two input situations, for example, when a user inputs to a shared input device such as a shared electronic whiteboard device and when a user inputs to a personal input device such as a personal electronic notebook device. It is assumed that the user input situation specifying means identifies the situation and distinguishes it.
[0107]
Further, in this example, the section that matches the condition is a speech section of one of the meeting attendees. Therefore, it is necessary to detect the alternation between the speech section and the speaker.
[0108]
In the first embodiment, audio information and video information are recorded for the conference, and when one month has elapsed from the recording time, only the important part of the recorded conference video is left, and the other parts are An example of performing an information amount reduction process (compression process) of erasing will be described. Further, in the first embodiment, as for the audio information, only the audio information of the important part in the recorded conference audio is left, and the other parts are erased.
[0109]
According to the first embodiment, as will be described later, since only the important scenes of the conference can be left and other portions can be erased, the amount of information to be stored and saved becomes very small. That is, in this example, it is assumed that the time when a conference participant takes a note is an important scene of the conference. By capturing this important scene, only the area around the time when the meeting participant took a note is saved, and the rest is erased, thereby greatly reducing the amount of information required to save the meeting video and meeting audio. be able to.
[0110]
FIG. 2 shows a meeting scene in this embodiment. Reference numeral 20 denotes an electronic conference apparatus constituting an information storage / reproduction apparatus. This electronic conference device 20 also has a function as a shared whiteboard device, and can be freely written on the projector screen using the electronic pen 23 with the same feeling as writing on the whiteboard with a marker pen. The process of discussion and conclusions can be stored and stored as an electronic file. For this reason, the electronic conference apparatus 20 incorporates a personal computer (not shown).
[0111]
Also, the attendees of the conference (including the conference presenter and facilitator) are equipped with a small computer 30 that functions as a personal electronic notebook device, and personal memos and the like are stored in the small computer during the meeting. Input can be made.
[0112]
In this embodiment, the computer built in the electronic conference apparatus 20 and the small computer 30 possessed by each individual are connected via a wireless network, and user input information input from a plurality of small computers 30 User input device information to be described later is transmitted to a computer built in the electronic conference device 20. Therefore, although not shown, each small computer 30 and the electronic conference device 20 are each provided with a wireless transmission / reception unit.
[0113]
In the following description, when the electronic conference device 20 is used as a shared input device, this is referred to as a shared whiteboard device 20, and the small computer is referred to as a personal electronic notebook device 30.
[0114]
As shown in FIG. 2, the electronic conference device 20 includes a display screen 21. The display method of the image on the display screen 21 is a so-called projection method in which a screen is projected and displayed from the back. Further, the electronic conference device 20 has a function of detecting the contact input coordinate position of the electronic pen 23 on the display screen 21, and the detected contact input coordinate position is used as user input information from the shared whiteboard device. Are input to the personal computer and stored and stored in the storage medium 27.
[0115]
As will be described later, the personal computer of the electronic conference apparatus 20 uses the electronic pen 23 to input user input information (user input information from the shared whiteboard apparatus) on the display screen 21 using the electronic pen 23. It is detected and stored separately from the user input information from.
[0116]
In addition, the electronic conference device 20 includes an audio input terminal and an image input terminal for inputting time-series information such as audio information and image information in a conference. In this embodiment, a microphone 25 is assigned to each of a plurality of conference attendees 29, and a speech signal of the speech of the conference attendant 29 collected by each microphone 25 is temporarily sent to the speech signal analyzer 26. Entered. The output terminal of the audio signal analyzer 26 is connected to the audio input terminal of the electronic conference apparatus 20.
[0117]
The audio signal analyzer 26 analyzes audio signals input from the plurality of microphones 25, identifies which microphone the input audio signal is input from, and sends the identification result to the electronic conference apparatus 20 together with the audio signal. Output.
[0118]
In addition, a paper document photographed by the video camera 24 and an image signal of the meeting scenery are input to the image input terminal of the electronic conference apparatus 20 and displayed on the display screen 21 of the electronic conference apparatus 20.
[0119]
The time-series information that is sequentially input may be an analog signal input from a video camera / microphone / video deck / tape recorder / sensor or the like, or a digital signal obtained by encoding the analog signal. Further, it may be a digital signal input through a computer network / computer bus. That is, any information that is sequentially input with the passage of time corresponds to time-series information in the present invention.
[0120]
On the display screen 21 of the electronic conference device 20, an image based on image information from the video camera 24 connected to the image input terminal of the electronic conference device 20 and an electronic document input through the personal computer of the electronic conference device 20 Are displayed as separate window images 22A and 22B, respectively, as shown in FIG. The image information displayed on the display screen 21 is also stored and accumulated in association with the user input information and voice information.
[0121]
In addition, the personal computer built in the electronic conference apparatus 20 is functionally provided with an information compression / storage apparatus. The information compression / accumulation device stores and accumulates the user input information, image information from the video camera 24 that captures a meeting scene, and audio information from the microphone 25 in a storage medium 27, and stores the information in the storage medium 27. It has a function of compressing the stored audio or image information as will be described later.
[0122]
The image information stored in the storage medium 27 is displayed on the display screen 21 in response to a playback request from the user, and the audio information stored in the storage medium 27 is played back from the speaker 28. The electronic conference device 20 also includes a playback unit for this purpose. The reproduction unit is configured to record audio information recorded at a time when the specified user input information is input when the user specifies arbitrary user input information from the user input information displayed on the display screen 21. Alternatively, the image information is read from the storage medium 27 and reproduced.
[0123]
When the user specifies arbitrary user input information, the image displayed on the display screen 21 at the time when the specified user input information is input is read out from the storage medium 27 and reproduced to be displayed on the display screen. 21 may be displayed.
[0124]
The electronic conferencing apparatus 20 is connected to a network by ISDN, for example, via a personal computer, so that audio information and image information in the course of the conference can be shared at the same time between remote locations, as if the conference was held in the same room. It is also possible to realize such an environment.
[0125]
FIG. 1 is a block diagram showing a functional part as an information storage / reproduction device of the electronic conference device of this embodiment. That is, the information storage device of this embodiment has a voice information input unit 1, an image information input unit 2, a condition matching section detection unit 3, a time series information storage unit 4, and a user input information input unit 5 with respect to the system bus. , User input information detection unit 6, user input device identification unit 7, important section determination unit 8, correspondence storage unit 9, compression unit 10, time information storage unit 11, reproduction unit 12, reproduction designation unit 13, display unit 14, The control unit 15 is configured to be connected to each other. In the case of this example, the output terminal of the voice information input unit 1 is also connected to the condition matching section detection unit 3.
[0126]
Each unit in FIG. 1 may be configured as a separate block, or one block may be configured to include several units. Moreover, one part may be divided into several blocks and mounted.
[0127]
The voice information input unit 1 receives a voice signal from the microphone 25, converts it into a digital voice signal, sends it to the system bus, and sends it to the condition matching section detection unit 3.
[0128]
The image information input unit 2 receives an image signal from the video camera 24. If the image signal from the video camera 24 is a digital signal, it is received and sent to the system bus. If the input image signal is not a digital signal, the image information input unit 2 converts the input image signal into a digital image signal and outputs it to the system bus.
[0129]
The condition matching section detection unit 3 monitors the digital voice signal from the voice information input unit 1 and detects a voice section that matches a predetermined condition. In this example, a condition matching section is detected on the condition that there is an input of an audio signal of a predetermined level or higher and that a change of speaker is detected from the input audio signal. In the condition matching section detection unit 3, the voice signal analyzer 26 and a part of the electronic conference apparatus 20 play the roles.
[0130]
As a method for detecting the presence / absence of an audio signal of a predetermined level or higher, as shown in FIG. 3, the condition matching section detection unit 3 detects that the input audio level is higher than the predetermined level and detects a speaker. And a detection function for recognizing the end point of the speaker's speech by detecting that the voice level is below a predetermined threshold level.
[0131]
However, as shown in FIG. 3, if the speech level change point F101 itself at which the speech level intersects the threshold level is the speech start point or end point, the first part and the last part of the speech are included in the condition matching section. Therefore, when the speech level changes from the high level to the low level, the time point F100 before the change point F101 when the audio level changes from the low level to the high level is set as the speech start point, and the audio signal level changes from the high level to the low level. The point of time F102 after a certain time T2 from the change point F101 of the above is defined as the speech end point.
[0132]
In this embodiment, the sound level at a certain time is a value obtained by smoothing the sound level before and after the time, for example, an average value of instantaneous sound levels for 2 seconds before and after the certain time.
[0133]
In this embodiment, as shown in FIG. 2, a microphone 25 is installed for each speaker, and the voice signal analyzer 26 compares the voice input level from the microphone of each speaker. 26 identifies the speaker that sent the input voice signal. Then, the change of the speaker is detected by specifying the speaker.
[0134]
In addition to this, as a method for specifying a speaker, a speaker may be specified from the characteristics of an audio signal (such as a voiceprint), or the speaker may be specified from a face or mouth movement based on image information. . In that case, it is not necessary to provide a plurality of microphones corresponding to all the meeting attendees, and one or a plurality of microphones smaller than the number of meeting attendees may be used. It is also possible to install a plurality of microphones, analyze the phase difference of the audio signals input from these microphones, detect the position of the sound source, and specify the speaker.
[0135]
The time-series information storage unit 4 stores the audio information input from the audio information input unit 1 and the image information input from the image information input unit 2 as digital information. As a storage device for storage information, a disk device, a magnetic tape device, or a semiconductor memory device is used.
[0136]
The user input information input unit 5 receives user input information from the shared electronic whiteboard device and also receives user input information from the personal electronic notebook device. As described above, in this embodiment, user input information from the personal electronic notebook device 30 is wirelessly communicated, and therefore this user input information input unit includes a wireless reception unit for this purpose.
[0137]
In this embodiment, the user input information from the shared electronic whiteboard device is added with identification information indicating that it is a shared input device in its header part. On the other hand, the discrimination information is not added to the header portion of the user input information from the personal electronic notebook device 30. Based on the presence or absence of the discrimination information in the header part, it can be discriminated whether the input device is a shared input device or a personal input device.
[0138]
The user input information from the shared electronic whiteboard device is given identification information indicating that it is a shared input device, and the header of the user input information from the personal electronic notebook device 30 It is of course possible to discriminate both by adding identification information indicating the above.
[0139]
The user input information detection unit 6 detects user input information from the user input information input unit 5 and transfers the detected user input information to the correspondence storage unit 9 and the display unit 14.
[0140]
The user input information includes display position information. The user input information detection unit 6 also outputs information at the time of detection of user input information to the system bus.
[0141]
The user input device specifying unit 7 constitutes an example of a user input situation specifying unit, and whether the user input information detected by the user input information detecting unit 6 is from a shared electronic whiteboard device or a personal electronic Whether it is from the notebook device 30 is specified from the header part included in the user input information. Then, the user input device information of the user input device identification result is output to the system bus.
[0142]
The important section determination unit 8 constitutes a specific section determination unit that specifies a specific section as described later in the time series information of audio information and image information as an important section. This is a partial function of the relationship storage unit 9. The important section determination unit 8 is configured to detect the time point when the user input information is detected from the user input information detection unit 6, the user input device information from the user input device specifying unit 7, and the condition matching section from the condition matching section detection unit 3. Based on the information, for the audio information and the image information, a specific section related to the user input information, that is, an important section is determined. A detailed example of how to determine this important section will be described later.
[0143]
The correspondence storage unit 9 includes user input information input by the user using, for example, the electronic pen 23, and information for specifying the display position of the user input information on the screen (for example, absolute coordinates or relative coordinates on the XY coordinate axes). And the storage address in the time-series information storage unit 4 of the voice information or the image information input in the important section determined by the important section determination unit 8 are stored in association with each other.
[0144]
In this embodiment, as the information of the important section, the correspondence storage unit 9 stores the start address and the end address of the important section including the time point when the user input information is input. That is, the correspondence relationship storage unit 9 sets a section specified by each user input information, condition matching section information, and user input device information as an important section, and the time-series information of the audio information or the image information of the important section. The storage address in the storage unit 4 and each user input information are stored in association with each other. The storage device of the correspondence storage unit 9 is also composed of, for example, a disk storage device or a semiconductor memory device.
[0145]
In this embodiment, the compression unit 10 performs a data thinning process on audio information and image information stored in the time-series information storage unit 4. In this case, the compression unit 10 is based on the important section information determined by the important section determination unit 8 of the correspondence storage unit 9 based on the timing when the user input information is input, the condition matching section information, and the user input device information. Thus, the audio information and the image information in the sections other than the important section can be deleted.
[0146]
The time information storage unit 11 is used to store the time when the input audio signal and image signal start recording in the time-series information storage unit 4, and is configured by, for example, a disk storage medium or a semiconductor memory.
[0147]
Further, the time information storage unit 11 has a function of measuring an elapsed time from the recording start time. For this reason, the time information storage unit 11 is supplied with current time information from a clock circuit unit (not shown). In this embodiment, the time information storage unit 11 uses the compression unit 10 to store the image of the time series information storage unit 4 when the elapsed time from the recording start time is equal to or longer than a predetermined time. A compression trigger timing signal that triggers the start of compression of information as described above is output.
[0148]
As described above, the reproduction unit 12 is a functional unit that reproduces the audio signal and the image signal stored in the time-series information storage unit 4.
[0149]
The reproduction designating unit 13 is used when the user input information, audio information, and image information stored and stored are designated and reproduced. As will be described later, when the user designates through the tablet from the user input information displayed on the display screen 21 or the personal electronic notebook device 30, the reproduction designation unit 13 reproduces the designated portion as a reproduction part. Is detected.
[0150]
The display unit 14 is a projection-type display device portion including the display screen 21 described above. In this example, the pen / tablet integrated input / output device is also used. For this reason, the display unit 14 includes a display device portion of the personal electronic notebook device 30 owned by the user. Therefore, the reproduction designation unit 13 also includes reproduction designation through the display screen 21 of the electronic conference device 20 and reproduction designation through the display screen of the personal electronic notebook device 30. In addition, as this display part 14, it can also be comprised with a CRT monitor and a liquid crystal monitor, for example.
[0151]
The user input information detection unit 6 of the electronic conference apparatus is configured by, for example, a tablet attached to the display screen 21, detects a user input by the electronic pen 23, and outputs the pen handwriting information as user input information. At this time, a pen locus corresponding to the pen handwriting information is displayed on the display screen 21 of the display unit 14.
[0152]
Since the user input information at this time includes identification information indicating that it is user input information of the shared input device, the user input device specifying unit 7 detects this and outputs the user input device information. .
[0153]
Similarly, pen handwriting information input from the personal electronic notebook device 30 at hand is displayed on the display device section of the personal electronic notebook device 30 that has been input. Furthermore, the personal electronic notebook device 30 that has detected the input from the user transmits user input information including the identification information to the electronic conference device 20. The user input information detection unit 6 receives and detects user input information from the personal electronic notebook device 30. Further, the user input device specifying unit 7 detects identification information included in the user input information and outputs user input device information.
[0154]
As user input information, in addition to handwriting or graphics (objects such as lines, squares, circles, etc.) from a pen (or mouse / trackball / touch panel), code information obtained by character recognition of handwriting data, or from a keyboard Code information may be used. Also, editing information indicating that the displayed user input information has been moved / copied / deleted, information indicating that the page has been switched, information indicating that the shutter of the still camera has been pressed, information indicating that the user has been sitting on a chair with a sensor, User input information such as information that a virtual eraser has been used may not be displayed. In this case, a predetermined indicia indicating the existence of the user input information is displayed on the display unit 3. That is, any input that a user makes to a device having calculation processing capability while input time-series information (for example, an audio signal or an image signal) exists corresponds to the user input information referred to in the present invention. To do.
[0155]
[Determination of important sections]
The important section determination unit 8 of the correspondence relationship storage unit 9 generates voice information from the timing when the user input information is detected, the specified user input device information, and the condition matching section detected by the condition matching section detection unit 3. And determining important intervals for image information. In this determination, the following points are considered in this embodiment.
[0156]
As described above, a writer who writes on a shared electronic whiteboard apparatus often speaks related information while writing. In addition, when a writer of the shared electronic whiteboard writes down what is said by a meeting attendee other than the writer, if the related information is spoken, it tends to be immediately written on the shared electronic whiteboard device. Therefore, there is a feature that the time point at which the memo is written on the shared electronic whiteboard is close to the time point when the related information is spoken.
[0157]
On the other hand, when a conference participant writes on a personal electronic notebook device, he / she can input the hand memo after chewing the words he / she hears in himself / herself, or write the hand memo after replacing it with his / her own words. Many. Accordingly, there is a feature that the time point at which the memo is written on the personal electronic notebook device and the time point when the related information is spoken are relatively separated.
[0158]
According to the results of experiments conducted by the inventors of the present application, for example, in the case of memo writing as a user input, the start point of the speech necessary for the memo writing input is included in the determined important section In order to make the establishment 95% (risk rate 5%) or more, when writing on a personal electronic notebook device, it is necessary to start recording at least 200 seconds before the time of writing. It was found that it is necessary to start recording at least 130 seconds before the time of writing.
[0159]
In addition, in order to make the end point of the speech necessary for the memo writing input included in the determined important section 95% (risk rate 5%) or more, when writing on a personal electronic notebook device It was found that recording had to be continued until at least 180 seconds after writing, while when writing on the shared electronic whiteboard device, it was necessary to continue recording until at least 70 seconds after writing.
[0160]
In consideration of the above, the important section determination unit 8 of this embodiment determines the important section from the time series information of the audio information and the image information as follows.
[0161]
That is, in FIG. 4, the identification of the important section when the handwriting input is made at the time tp by the input pen as the user input information on the display screen 21 of the shared electronic whiteboard device 20 or the display screen of the personal electronic notebook device 30 is as follows. It is made as follows.
[0162]
First, a time point t1 that goes back a predetermined time from the time point tp when the input of user input information is detected is specified, and a speaker change time point ts (t1) that is a time point that goes back further than this time point t1. The start point ts) of the condition matching section closest to is the beginning of the important section IP. In this case, as shown in the table of FIG. 5, if the user input is writing on the shared electronic whiteboard device, the time interval (tp−t1) between the time tp when the user input is detected and the time t1. Is 130 seconds, and the time t1 is determined so that the time interval (tp-t1) is 200 seconds if writing is performed on a personal electronic notebook device.
[0163]
Next, a time point t2 after a predetermined time from the time point tp when the input of the user input information is detected is specified, and the speaker change time point te (t2) that is a time point after the time point t2 and closest to the time point t2. The end point te) of the closest condition matching section is the end of the important section IP. In this case, as shown in the table of FIG. 5, if the user input is writing on the shared electronic whiteboard device, the time interval (t2-tp) between the time tp when the user input is detected and the time t2. Is 70 seconds, and if the writing is on the personal electronic notebook device, the time t2 is determined so that the time interval (t2-tp) is 180 seconds.
[0164]
Further, for example, when the sections to be determined to be important overlap each other due to the fact that the input from the user is continuously performed without a sufficient interval, the determination is made by connecting the sections.
[0165]
For example, as shown in FIG. 6, a case is considered where user input from the shared electronic whiteboard device is made at time tp1, and user input from the personal electronic notebook device 30 is made at time tp2 close to this. In this case, since the important interval determined for the user input time point tp1 and the important interval determined for the user input time point tp2 overlap in time, the time point tp2 from the start point of the important interval determined for the time point tp1 Up to the end point of the important section determined for is determined as the important section IP to be obtained.
[0166]
That is, in FIG. 6, a time point t1 that goes back a predetermined time before the user input time point tp1 from the shared electronic whiteboard device is specified, and the speaker change that is the time point that goes back further than this time point t1 and is closest to this time point t1. Let time ts be the beginning of an important interval. In this case, since the writing is on the shared electronic whiteboard device, as shown in the table of FIG. 7, the time interval (tp1-t1) between the time tp1 when the user input is detected and the time t1 is 130 seconds. A time point t1 is determined.
[0167]
Also, a time point t2 that is a predetermined time after the user input time point tp2 from the personal electronic notebook device is specified, and a speaker change time point te that is later than the time point t2 and is closest to the time point t2 is an important section. The end of In this case, since the writing is on the personal electronic notebook device, as shown in the table of FIG. 7, the time interval (t2-tp2) between the time tp2 when the user input is detected and the time t2 is 180 seconds. To time t2. In FIG. 6, WP indicates a section in which important sections determined for individual user inputs overlap.
[0168]
As shown in FIG. 6, when user input information input by a plurality of user input devices is combined and detected by the user input information detection unit 6, user input information from a plurality of users is combined and user input information is combined. When the detection unit 6 detects the voice information or the image information, the voice information or the image information is stored individually in the apparatus by storing the input voice information or the image information in the same time-series information storage unit 4. This eliminates the need for storage capacity.
[0169]
[Operation at the time of recording in the first embodiment of the information storage device]
Next, an operation at the time of recording in the electronic conference apparatus 20 as an example of the information storage apparatus having the above configuration will be described. FIG. 8 is a diagram for explaining the recording operation in this embodiment together with the flow of various information and the output flow of each unit at that time.
[0170]
When the conference is started and the audio signal from the microphone 25 and the image signal from the camera 24 are supplied to the electronic conference device 20, the audio signal and the image signal are sequentially stored in the time-series information storage unit 4. The audio signal is also input to the condition matching section detection unit 3.
[0171]
In this case, the audio signal analyzer 26 functions as the condition matching section detection unit 3. In other words, as described above, the microphone 25 is installed for each speaker, and the voice input level from the microphone of each speaker is compared with the threshold level in the voice signal analyzer 26, so that the voice signal analyzer At 26, the speaker that sent the input voice signal is identified and the start and end points of one utterance of one speaker are detected. In this embodiment, one utterance section of one speaker is a condition matching section. Information on the condition matching section is supplied to the important section determination unit 8 of the correspondence storage unit 9.
[0172]
FIG. 9 is a flowchart for explaining the operation of the condition matching section detection unit 3.
[0173]
When the voice signal from the voice information input unit 1 is supplied as a digital signal to the condition matching zone detection unit 3, the above-described speech zone detection and speaker identification are performed in step S100. As described above, the speaker identification method is performed by comparing the voice input level from the microphone 25 installed for each speaker by the voice signal analyzer 26.
[0174]
After this step S100, in step S101, it is recognized whether or not the speaker has changed, and if the change of speaker is detected, the process proceeds to step S102, and the condition matching interval specified in step S101 is selected as the important interval. It outputs to the determination part 8, and returns to step S100 after that, and the detection of a new condition matching area is started. Also, in step S101, when it is recognized that the speaker has not changed, the process returns to step S100 and detection of a new condition matching section is started.
[0175]
On the other hand, when the user input information detection unit 6 detects an input of pen handwriting information (user input information), the detected pen handwriting information is displayed on the display unit 14. The detected pen handwriting information is supplied to the correspondence storage unit 9 and used as one of the elements for determining the important section by the important section determination unit 8 and is stored and accumulated.
[0176]
FIG. 10 is a flowchart for explaining the operation of the user input information detection unit 6. The user input information detection unit 6 detects a coordinate position where the electronic pen 23 is in contact with the display screen 21 as the user input information, or a user having a coordinate position from the personal electronic notebook device 30 that is in contact with the display screen. The input information is detected (step S200), and the detected user input information is sequentially output and displayed on the display unit 14 and is also output to the correspondence storage unit 9, and the detected user is stored in the correspondence storage unit 9. The input information is stored (step S201).
[0177]
Further, based on the identification information of the user input device in the user input information from the user input information detection unit 6, the user input device specifying unit 7 determines whether the user input information is from the shared whiteboard device 20 or a personal electronic notebook. User input device information indicating whether it is from the device 30 is generated. This user input device information is supplied to the important section determining unit 8 of the correspondence storage 9 and used as one of the elements for determining the important section.
[0178]
FIG. 11 is a flowchart illustrating the operation of the user input device specifying unit 7 in this embodiment. As described above, in order to be able to determine whether the user input information is information input from the shared electronic whiteboard device 20 or information input from the personal electronic notebook device 30, the shared electronic whiteboard device 20 Adds the shared whiteboard device identification information to the header of the user input information.
[0179]
In other words, shared whiteboard device identification information indicating that it has been input from the shared electronic whiteboard device is added to the header of the user input information output from the shared electronic whiteboard device, while it is input from the personal electronic notebook device. The shared whiteboard device identification information is not added to the header of the user input information. Thereby, both input devices can be easily discriminated.
[0180]
As shown in FIG. 11, when there is an input from the user input information detection unit 6, this is detected in step S210, and the process proceeds to step S211. In step S211, it is detected whether or not the shared whiteboard device determination information is added to the header of the user input information from the user input information detection unit 6. If the shared whiteboard device determination information is not added, In step S212, user input device information that is input from the personal electronic notebook device 30 is supplied to the correspondence storage unit 9. On the other hand, if it is determined in step S211 that the shared whiteboard device identification information is added, the process proceeds to step S213, and the user input device information that is input from the shared electronic whiteboard device 20 is associated with the corresponding relationship. The data is supplied to the storage unit 9.
[0181]
In addition to the shared electronic whiteboard device 20, the device that generates the shared whiteboard device determination information may be an electronic pen 23 for writing to the shared electronic whiteboard device 20.
[0182]
As described with reference to FIGS. 4 to 7, the important section determination unit 8 of the correspondence storage unit 9 uses the above user input information, condition matching section information, and user input device information as described above. Determine important intervals for time series information.
[0183]
FIG. 12 shows an important section based on the pen handwriting input information that is the detection result of the user input information detection unit 6, the detection result of the condition matching section detection unit 3, and the detection result of the user input device of the user input device specifying unit 7. It is a figure which matches and demonstrates the important area defined by the determination part 8, and the memory state (state before performing a compression process) of the time series memory | storage part 4 which memorize | stored image information and audio | voice information. The correspondence information of these pieces of information is stored in the correspondence storage unit 9 as described above.
[0184]
As described above, the important section determination unit 8 of the correspondence storage unit 9 stores the user input information in the section determined from the detection result of the condition matching section detection unit 3 and the detection result of the user input device specifying unit 7. A section including the input time point is stored as an important section of input voice information or image information. That is, even if it is a section detected by the condition matching section detection unit 3, if no user input information is detected within the section, it is not recognized as an important section.
[0185]
And regarding image information and audio | voice information, from the time ts to the time te including the input time of the pen handwriting as user input information is specified as an important area. The image information and audio information of the important section are not deleted from the time-series information storage unit 4 when the compression process described later is performed, but the image information and audio information of the section other than the important section are subjected to the compression process described later. Sometimes erased.
[0186]
FIG. 13 is an example of correspondence information stored in the correspondence storage unit 9. As shown in FIG. 13, as pen handwriting information input by the user, an identifier for uniquely specifying user input information and information for specifying the type of user input information are stored. As display positions on the display screen 21, three XY coordinates (20, 30) (30, 40) (60, 10) and nil indicating the end of the coordinate information are stored.
[0187]
In addition, as storage addresses on the time-series information storage unit 4, an address as (start point address) and an address ae (end point address) determined by the important section determination unit 8 are stored.
[0188]
Finally, user input device information is stored to indicate whether the user input information is input from a shared input device or input from a personal input device.
[0189]
What is stored in the correspondence storage unit 9 is not pen handwriting information, display coordinates, and storage address itself, but may be specific information for identifying them, and the data storage structure of the correspondence storage unit 9 is a table. Instead of a format, it may be composed of other storage structures such as a list structure.
[0190]
In addition, as in this example, if a set of coordinate point sequences expressing multiple lines or the like is stored as one pen handwriting information, if any of the coordinate point sequences is specified during reproduction, The pen handwriting information corresponding to the coordinate point sequence can be specified, and the voice or image can be reproduced from the same storage address.
[0191]
FIG. 14 and FIG. 15 are flowcharts for explaining the operation of the correspondence relationship storage unit 9, but the steps involved in the recording operation described above are steps S300 to S304. Steps S305 and S306 are parts related to the operation at the time of compression described later, and steps S307 to S310 in FIG. 15 are parts related to the operation at the time of reproduction described later.
[0192]
That is, at the time of recording, in step S300, it is detected whether or not information indicating the condition matching section is input from the condition matching section detection unit 3. If the input of the condition matching section is not detected, The process returns to step S300 via S305 and S307, and the presence / absence of input of information indicating a condition matching section is detected.
[0193]
In step S300, when the input of the condition matching section from the condition matching section detecting unit 3 is detected, the process proceeds to step S301. In step S301, it is determined whether or not user input information is detected in the condition matching section. If it is determined that user input information is not detected in the condition matching section, step S305 and step S307 are performed. Returning to S300, the presence or absence of input of information indicating the condition matching section is detected again.
[0194]
On the other hand, if it is determined in step S301 that user input information is detected within the condition matching section, the process proceeds to step S302. In step S302, the important section is determined as described above. This step S302 is a step executed by the important section determination unit 8. In step S303, the time-series information is acquired in order to obtain the storage address in the time-series information storage unit 4 of the voice information or the image information stored in the time-series information storage unit 4 corresponding to the important section. Information indicating the important section and a storage address inquiry request are output to the storage unit 4 and a response is awaited.
[0195]
When a response from the time-series information storage unit 4 is returned, the process proceeds to step S304, in which the user input information, the display position of the user input information on the display unit 14, and the audio information and the image information that are important sections are displayed. A storage address (storage address of an important section) in the sequence information storage unit 4 and user input device information are stored in association with each other. The important section information of the voice information and the image information stored in the time series information storage unit 4 is thereby stored in correspondence with the user input information, the condition matching section information, and the user input device information. Become.
[0196]
After step S304, the process returns to step S300 via steps S305 and S307, and the presence or absence of input of information indicating the next condition matching section is detected.
[0197]
Next, the operation of the corresponding time-series information storage unit 4 at this time will be described with reference to the flowchart of FIG. Steps S400 to S404 of this processing routine are portions for operations during recording, and steps S405 and S406 are portions for operations during reproduction.
[0198]
That is, the operation at the time of recording of the time-series information storage unit 4 will be described with reference to FIG. 16. First, when this recording operation is started, the time-series information storage unit 4 stores audio information and image information in step S400. The start time is output to the time information storage unit 11 and recorded. Next, step S401 and step S402 are sequentially performed to receive input image information and sound information and store them sequentially.
[0199]
In the next step S403, it is determined whether or not a request for a storage address corresponding to the important section has arrived from the correspondence relationship storage unit 9. If it is detected that the request has arrived, the process proceeds to step S404. In step S404, the storage address of the voice information and the image information corresponding to the important section is returned to the correspondence storage unit 9.
[0200]
After it is determined in step S403 that a request for a storage address corresponding to the important section has not arrived, and after step S404, the process returns to step S401 via step S405 to continue storing image information and audio information. .
[0201]
The time information storage unit 11 receives the information of the storage start time by the process in the step S400 of the time series information storage unit 4, and stores the storage start time.
[0202]
FIG. 17 is a flowchart for explaining the operation of the time information storage unit 11, and FIG. 18 is a diagram for explaining the storage structure of the time information storage unit 11. In FIG. 17, steps S500 and S501 are processing at the time of recording. In step S500, the storage start time of audio information and image information supplied from the time-series information storage unit 4 is detected, and this storage is performed in step S501. The start time is stored in the time information storage unit 11.
[0203]
As will be described later, the time information storage unit 11 is configured such that the elapsed time (that is, the information storage time) from when the audio information and the image information are recorded in the time series information storage unit 4 is equal to or longer than a predetermined time. A compression processing start instruction is output to the correspondence relationship storage unit 9. Steps S502 and S503 in FIG. 17 are the processing units, and the compression start instruction process will be described later.
[0204]
The time information storage unit 11 manages the relationship between the name of the file storing the audio information and the image information and the storage start time using a table as shown in FIG. In this example, one conference record is recorded in one file. The file name is a file name given to each conference record, and the ID in FIG. 18 is an identifier (number in this example) for identifying each conference record file.
[0205]
The storage format of the storage start time is not limited to the table format, and may be a list structure or a stack structure. Further, information specifying the storage start time may be stored in a file or file name storing audio information and image information.
[0206]
As described above, in this embodiment, when a conference is started and conference recording is started, the time at the start time is stored in the time information storage unit 11 and the conference start time (storage start). The image information and the sound information are stored in the time-series information storage unit 4 from the time point).
[0207]
When user input information is detected by the user input information detection unit 6 during the conference, it is sequentially stored in the correspondence storage unit 9 together with position information on the display screen 21. Further, regarding the audio information in progress of the conference, when the change of speaker is detected by the condition matching section detection unit 3 and the user input information is detected by the user input information detection unit 6 within the condition matching section, the correspondence relationship In the storage unit 9, the condition matching section in which the user input is made is regarded as an important section, and information specifying this important section, the storage address of the corresponding time series information storage section, and user input device information are stored in association with each other. Is done.
[0208]
[Operation at the time of compression of the first embodiment of the information storage device]
Next, the operation during compression will be described. In the first embodiment, the image information and / or audio information stored in the time-series information storage unit 4 is information-compressed so that the degree of importance is reduced when a predetermined period has elapsed since storage, and the time-series information is stored. An empty capacity is formed in the memory of the information storage unit 4, but a neighboring section in which user input information is detected in the section is an important section, and this section is not compressed or the compression ratio is low. And keep high quality.
[0209]
In this case, the period from the storage to the start of compression may be a fixed period, but may be arbitrarily changed by the user.
[0210]
In addition, the period can be changed according to the file size. In this case, information specifying the storage start time may be stored in a file or file name storing audio information and image information. For example, as shown in FIG. 19, when the file size exceeds 5 Mbytes, the time to start compression processing is 1 month, and when it is less than 5 Mbytes, the time to start compression processing is 2 months. To do.
[0211]
If the file extension is .AVI, the time to start compression processing is 1 month. If the file extension is .mpg, the time to start compression processing is 2 months. As described above, the time until the compression process starts may be automatically set according to the file extension. In this case, there is no need to specify the time until the compression process starts for each file, and there is an effect that the user's trouble can be saved.
[0212]
FIG. 20 is a diagram for explaining the operation at the time of information compression in this embodiment, together with the flow of various information and the flow of output of each unit at that time.
[0213]
The time information storage unit 11 instructs the correspondence storage unit 9 to start the compression process when the elapsed time since the audio information and the image information are recorded in the time-series information storage unit 4 exceeds a predetermined time. Is output.
[0214]
That is, in step S502 of the processing routine of the time information storage unit 11 in FIG. 17, the current time supplied from a clock circuit unit (not shown) is compared with the storage start time stored in the time information storage unit 11, and the information It is determined whether or not a storage time of a predetermined time has passed. If it is determined that the predetermined time has elapsed, the process proceeds to step S503, and the correspondence storage unit 9 is requested to start the compression process.
[0215]
Then, after issuing this request or when it is determined in step S502 that the predetermined time has not elapsed, the process returns to step S500.
[0216]
For example, when the predetermined time is determined to be one month, the compression processing start request is generated one month after the storage start time, and the information newly accumulated in the time series information storage unit 4 is 1 After a month, compression will be applied. For example, the audio information and the image information of the file name “file10” recorded at 13:30 on April 25, 1996 shown in FIG. 19 are subjected to the above-described compression processing at 13:30 on May 25, 1996. Will be given.
[0217]
It should be noted that the start timing of the above compression processing may be in the vicinity of the set time, and the compression processing may be performed after the system enters the idling state.
[0218]
When the compression start instruction is input from the time information storage unit 11, the correspondence relationship storage unit 9 detects the input in step S305 in FIG. When the compression start instruction is detected, the process proceeds to step S306, where each of the information specifying the important section, the voice information stored in the time-series information storage unit 4 corresponding to each important section, and Information specifying the storage address of the image information in the time-series information storage unit 4 is output to the compression unit 10. That is, the information for each user input information shown in FIG. 13 is collectively output to the compression unit 10 for one conference.
[0219]
Of course, a set of information specifying each important section and a storage address corresponding to the important section may be sequentially output to the compression unit 10 one by one. Further, in the file of the time-series information storage unit 4 storing the voice information and the image information, each of the information specifying the important section, the voice information stored in the file corresponding to each important section, and The storage address of the image information in the file may be stored.
[0220]
The compression unit 10 that has received the input from the correspondence relationship storage unit 9 compresses the audio information and the image information accumulated in the time series information storage unit 4. In the case of this embodiment, high quality is maintained without performing data compression on information on important sections, and information on sections other than the important sections is deleted. For this reason, as shown in FIG. 20, the compression unit 10 deletes information of sections other than the important section from the information stored in the time-series information storage unit 4.
[0221]
FIG. 21 is a flowchart for explaining image compression processing of the operation of the compression unit 10.
[0222]
Hereinafter, the compression operation will be described in detail with reference to the flowchart and the explanatory diagram.
[0223]
The time information storage unit 11 has a predetermined time (ie, information storage time) after the audio information and the image information are recorded in the time-series information storage unit 4 in step S503 of the flowchart shown in FIG. When the time is exceeded, a compression processing start instruction is output to the correspondence storage unit 9.
[0224]
When the compression start instruction is input from the time information storage unit 11, the correspondence relationship storage unit 9 detects the input in step S305 in FIG. If a compression start instruction is detected, the process proceeds to step S306, where each piece of information shown in FIG. 9 of the important section and the voice stored in the time series information storage unit 4 corresponding to each important section are stored. The storage address of information or image information in the time-series information storage unit 4 is output to the compression unit 10.
[0225]
When receiving the compression start request from the correspondence storage unit 9, the compression unit 10 detects this in step S600, and proceeds to step S601. In step S601, each of the important sections input from the correspondence relationship storage section 9, and the time series of the audio information and the image information stored in the time series information storage section 4 corresponding to each of the important sections. The storage address in the information storage unit 4 is input and stored in a work memory (not shown) of the compression unit 10. The work memory uses, for example, a semiconductor memory as a storage medium.
[0226]
Note that a set of important sections and storage addresses corresponding to the important sections may be sequentially output to the compression unit 10 as one set. Further, in the file storing the audio information and the image information, each of the important sections and the storage address of the voice information and the image information stored in the file corresponding to each of the important sections are stored in the file. You may comprise so that it may memorize | store.
[0227]
The compression unit 10 refers to a plurality of sets of important intervals and storage addresses stored in the work memory, and performs thinning compression of image information and audio information stored in the time-series information storage unit 4. That is, in step S <b> 602, image information and audio information of sections other than the important section are deleted from the time series information storage unit 4.
[0228]
By the above compression processing, an empty memory as shown in FIG. 22 is generated. That is, FIG. 22 stores information (address as to address ae) recognized as an important section among image information and audio information stored in the time-series information storage unit 4 and erases information in other sections. It is the figure which showed the example in the case of having performed.
[0229]
In FIG. 22, the image data and audio data in the memory area between address as and address ae are data in the important section, so there is no change compared to before compression. On the other hand, the image data and audio data accumulated from the address a0 to the address as and from the address ae to the address a2 are not important sections and are deleted. Then, as the amount of information decreases, an empty memory area is generated in the storage medium of the time-series information storage unit 4 as shown in FIG.
[0230]
If it is desirable that the time series data is continuously stored in the storage medium, the generated empty memory portion is filled with the previous and next time series data, for example, so that there is no gap in the memory. May be eliminated.
[0231]
[Operation at the time of reproduction of the information storage device according to the first embodiment]
Next, the operation during reproduction will be described.
[0232]
In this example, the user designates (points) one of a plurality of pen handwriting information displayed on the display unit 14 using a pen, so that an audio signal stored in the time-series information storage unit 4 or Of the image signal, only the audio signal or the image signal input before and after the time when the pen handwriting information is input can be partially reproduced.
[0233]
In addition, the audio signal or the image signal can be reproduced by going back to the beginning of the important section of the audio signal or the image signal input before and after the time when the pen handwriting information is input.
[0234]
In this example, the reproduction designation unit 13 used for designation is also used as an input pen as in this embodiment.
[0235]
Note that a mouse, a trackball, a cursor key, a touch panel, or the like can be used as the reproduction specifying unit 13. Also, the pen handwriting information can be specified by pointing, specifying by an enclosure (enclosing by a closed curve or ellipse), specifying by identifier input, or specifying a line under the displayed item. Good.
[0236]
Further, when a plurality of pen handwriting information is selected as a result of designation by surrounding or underline, one can be specified based on some priority. For example, automatically select the pen handwriting information that is input earliest among the selected ones or the pen handwriting information that is displayed on the upper left, so that the candidates are displayed in a list and the user is asked to select again. Also good.
[0237]
Furthermore, still image images may be arranged in a specific order (for example, time series), and one of the table of contents images may be designated.
[0238]
Since the display position on the display screen 21 of the display unit 14 can be specified by XY coordinates, when a certain display position is specified by the reproduction specifying unit 13 such as a pen, the XY coordinates corresponding to the display position are set. Identified.
[0239]
In this way, when there is a reproduction request from the reproduction designation unit 13, it is detected in step S 307 in the flowchart of FIG. 15 of the operation in the correspondence relationship storage unit 9, and the process proceeds to step S 308 and obtained from the reproduction designation unit 13. XY coordinate group calculated from the designated coordinates and the XY coordinates stored in the correspondence storage unit 9 (all point coordinate groups constituting a multiple line having the pen handwriting coordinates in FIG. 13 as endpoints) And the corresponding pen handwriting information is specified.
[0240]
Subsequently, in step S309, the reproduction start address and reproduction end address of the audio signal or image signal corresponding to the pen handwriting information are acquired from the correspondence storage unit 9, and the process proceeds to step S310, where the reproduction start address and the reproduction end address are reproduced. The end address and the reproduction request are output to the time series information storage unit 4.
[0241]
Thereafter, the time-series information storage unit 4 that has received the reproduction start / end address and the reproduction request detects the input in step S405 of the flowchart of FIG. 16, proceeds to step S406, and outputs it to the reproduction unit 12.
[0242]
The reproduction unit 12 starts reproduction of audio information or image information from the reproduction start address to the reproduction end address of the time-series information storage unit 4 obtained by the above operation. For example, when a multiple line with ID 1000 in FIG. 13 is designated, audio information or image information from the storage address as to the storage address ae corresponding to the multiple line is reproduced.
[0243]
Note that if the coordinates are also matched with the slightly shifted coordinates in the coordinate comparison, a desired storage address can be acquired even if a slightly shifted coordinate point is specified at the time of specification. Even when the user input information is not displayed, a predetermined indicia indicating the presence of the user input information is displayed on the display unit 14, so that a desired storage address is obtained by the same method. it can. In addition, if a plurality of coordinate point sequences continuously input within a predetermined time interval are stored as one pen handwriting information, for example, a single character string can be regarded as one pen handwriting information. If any one of the coordinate point sequences constituting the sequence is designated, audio or image can be reproduced from the same storage address.
[0244]
During playback, the playback speed may be changed or the playback may be performed slowly, so that the playback unit 12 may be provided with a fast forward function, a rewind function, a slow playback function, and a pause function. An upper slide bar may be provided so that a playback position can be designated by displaying a pointer indicating the current playback time on the slide bar or by sliding the bar. Further, the speed to be reproduced does not necessarily have to be reproduced in accordance with the recorded time information, and the reproduction may be performed by increasing the speed while keeping only the recorded order relation.
[0245]
Furthermore, after the reproduction is paused, the instruction unit may be able to instruct the reproduction again, or new user input information may be additionally recorded.
[0246]
[Modification of First Embodiment]
In the above description of the first embodiment, each speech section of the conference attendee is detected as a condition matching section, but the condition matching section is not limited to this.
[0247]
For example, a single voice signal such as “door closing sound” can be detected by the condition matching section detection unit 3. In this case, a time point that is a predetermined time before the point in time when the single sound signal is detected is detected as the start point of the condition matching section, and a time point that is a predetermined time after the point in time when the single sound signal is detected is the condition match. It is configured to detect as the end point of the section. Further, the same configuration may be used when a single trigger signal from an external sensor is detected by the condition matching section detection unit 3.
[0248]
In addition to this, the event detected by the condition matching section detecting unit 3 includes the appearance of a pre-registered keyword in the audio signal, the appearance of a pre-registered audio pattern in the audio signal, and the advance in the audio signal. It may be the appearance of a registered character string, a state change in an image signal, a state change detected by an external sensor, a camera work or a camera work change.
[0249]
For example, characteristic voice patterns such as laughter patterns and applause patterns are registered, these patterns are recognized from an input voice signal, and a section including these patterns is detected as a condition matching section. You can also. In this case, the condition matching section detection unit 3 includes pattern recognition means for performing pattern recognition using a known pattern recognition technique, for example, a technique for analyzing the temporal transition of the power or frequency component of an audio signal. Provided.
[0250]
In other words, any device that detects a change in input time-series information (for example, audio information or image information) or a change in a signal detected by an external sensor while input time-series information exists is present. This corresponds to the condition matching section detection unit 3 in FIG. When the change point is used as a detection condition, the end point can be a predetermined time from the change point.
[0251]
In this embodiment, the compression unit 10 is configured to compress the image information and the audio information by performing thinning processing. However, when the image information is compressed, the storage time, the compression rate of the intra-frame compression, the frame Any device that dynamically changes at least one of the compression rate of intermittent compression, the time interval of intermittent recording, the color information thinning rate, the luminance information thinning rate, and the like may be used. In particular, methods for compressing moving image information include intra-frame compression methods and inter-frame compression methods, and intra-frame compression methods include a method using vector quantization and a method using discrete cosine transform. There is. As a compression method between frames, there is a method of recording only a difference between image information of previous and subsequent frames. That is, any device that converts the information amount per unit time into a smaller information amount corresponds to the compression unit 10 in the present invention.
[0252]
Further, when compressing audio information, there may be provided means configured to dynamically change at least one of the sampling frequency and the number of encoded bits.
[0253]
Further, the information on the important section and the information on the section other than the important section may be stored separately in different storage media. For example, when recording information, important section information and non-important section information are stored on the same magnetic disk, and when compressing information, only important section information is left on the magnetic disk. The information of the section other than the section is moved to the magneto-optical disk or the magnetic tape. In general, magneto-optical disks and magnetic tapes have a feature that a large amount of information can be stored at a low cost although the access speed to information is slower than that of magnetic disks. It is suitable for storing information of sections other than the important section.
[0254]
In the above example, the case where there is no information displayed on the display unit 14 in the initial state has been described. However, the scope of application of the present invention is not limited to this example, and for example, some user input information is present in the initial state. The case where it is already displayed and any additions or changes are made are also included in the scope of the present invention. However, in this case, the user input information that can be designated for reproduction is only the portion displaced from the initial state.
[0255]
As an application of the apparatus of the present invention, there is a method of sequentially reproducing user input information on a screen when reproducing recorded audio information or image information. The display on the display unit 14 is temporarily returned to the display at the time when the pen handwriting information specified by the reproduction specifying unit 13 is input, and the voice or image information and the pen handwriting information are reproduced in synchronization. As a method for returning the display screen to the display at that time, UNDO of the display screen may be repeated until that time, or after the screen is erased, the user input information stored in the correspondence storage unit 9 is used at that time. May be drawn sequentially at a high speed.
[0256]
Furthermore, in the above description, the compression process is started when the elapsed time (that is, the information storage time) after the audio information or the image information is recorded in the time-series information storage unit 4 becomes a predetermined time or more. However, instead of this method, it is recognized that the free space in the time-series information storage unit 4 is recognized as being less than a certain value or the storage amount in the time-series information storage unit 4 is greater than a certain value. The compression process may be started at the timing. In this case, the information storage device includes a storage amount detection unit, and when the storage amount detection unit detects that information has been recorded exceeding a pre-registered storage capacity, the correspondence storage unit 9 outputs a compression processing start instruction. The operation after this compression processing start instruction can be performed in the same manner as in the above-described embodiments.
[0257]
In the first embodiment, the example in which the shared electronic whiteboard device adds the shared whiteboard device identification information to the header of the user input information has been described. However, the inclination of the input plane of the user input device is detected. A personal electronic notebook device when it is determined that the user input surface is almost vertical and is a shared electronic whiteboard, or when the sensor detects that the device is placed on a desk or hand It may be determined that In this case, it is possible to determine whether the same device is used as a personal notebook device or a shared electronic whiteboard device. Furthermore, as a method for specifying a device to which information is input, a known method other than these can be used.
[0258]
[Second Embodiment of Information Storage Device]
In the first embodiment, all the sequentially input image information or audio information is once recorded in the time-series information storage unit 4, and the recorded conference video is recorded when a predetermined time has elapsed from the recording time point. In the above example, the compression processing is performed in which only the important part of the video is left and the other part is deleted. In the second embodiment, a case will be described in which only the video of the important part in the input conference video is selected and recorded in the time series information storage unit 4 when the time series information is recorded.
[0259]
FIG. 23 is a block diagram showing the function of the information storage device of the second embodiment. The time information storage unit 11 is removed from the block diagram of FIG. 1 and a temporary storage unit 16 is added. In the second embodiment, the important section determination unit 8 is provided in the temporary storage unit 16. Also in this case, each unit may be configured as a separate block, or one block may be configured to include several units. Moreover, one part may be divided into several blocks and mounted.
[0260]
The storage device of the temporary storage unit 16 is composed of, for example, a semiconductor memory or a magnetic disk. In the second embodiment, the audio information and the image information are temporarily stored before the time series information storage unit 4 stores them. In addition, the condition matching section information detected by the condition matching section detection unit 3 is temporarily stored in association with the input image information or the input voice information.
[0261]
As in the first embodiment, in the second embodiment, when a conference participant takes a note, it is assumed that it is an important scene of the conference. This is a case where the amount of information for storing the conference video and the conference audio is greatly reduced by storing only the periphery at the time of taking and erasing the other portions.
[0262]
Similarly to the first embodiment, a computer built in the information storage / reproduction device 20 and a small computer 30 possessed by each individual are connected via a wireless network, and input from a plurality of small computers 30 is possible. The inputted user input information and user input device information are transmitted to a computer built in the information storage / reproduction device.
[0263]
As in the first embodiment, the condition matching section detection unit 3 has detected that a voice signal input of a predetermined level or more has been input from the voice information input unit 1 and a change of speaker has been detected from the input voice signal. A condition matching section is detected as a condition. Similarly to the first embodiment, the user input device specifying unit 7 is written on the shared electronic whiteboard device 20 (electronic conference device) and on the personal electronic notebook device 30 (small computer). The user input device information for indicating the distinction is output by distinguishing from the case of writing.
[0264]
In the second embodiment, the compression unit 10 performs a data thinning process on audio information and image information stored in a temporary storage unit 16 to be described later. In this case, the compression unit 10 determines the sections other than the important sections based on the important section information specified by the important section determination unit 8 based on the timing when the user input information is input, the condition matching section information, and the user input device information. Audio information and image information are selected, and only the selected audio information and image information are stored in the time-series information storage unit 4.
[0265]
Next, the recording operation in the information storage / reproduction apparatus of the second embodiment will be described.
[0266]
FIG. 24 is a diagram for explaining the recording operation in this embodiment, together with the flow of various information and the output flow of each unit at that time. As shown in FIG. 24, voice information and image information are sequentially stored in the temporary storage unit 16, information on detection time of user input information (point of pen handwriting input), and user input device specifying unit 7. User input device information and condition matching section information from the condition matching section detection unit 3 are supplied.
[0267]
In this case, as shown in FIG. 25, the memory unit of the temporary storage unit 16 is configured in a ring buffer format, and sequentially indicates image information that is input and speaker change time points that are detection results of the condition matching section detection unit 26. The information is written in a ring shape by controlling the write address, while the old information is overwritten with new information.
[0268]
In addition, as this type of recording method, other known methods such as a queuing method and a FIFO method can be applied. In the example of FIG. 25, the number of memory (unit memory cells) in the ring buffer is 16, but of course there is no limit on the number of memories, and there is also a limit on the data storage capacity that can be accommodated in one memory. Absent. In the case of this embodiment, the ring buffer of the temporary storage unit 16 is a memory that can store input audio information and input image information for at least 380 seconds.
[0269]
In FIG. 25, the oldest data address F200 is a pointer that points to a memory in which the oldest information of image information or audio information stored in the temporary storage unit 16 is stored, and the latest data address F201 is a temporary data address. This is a pointer that points to a memory that stores image information or audio information that is most recently input to the storage unit 16.
[0270]
Further, the speaker utterance start points F202 and F204 and the speaker utterance end point F203 are obtained by storing the detection results of the condition matching section detection unit 3 in the temporary storage unit 16. Information indicating the speaker change timing may be stored in the memory of the ring buffer as in this example, or another memory may be prepared and stored therein.
[0271]
Then, as shown in the operations in the flowcharts of FIGS. 26 and 27 to be described later, the important section determination unit 8 of the temporary storage unit 16 determines the important section based on the user input information detection time, the user input device information, and the condition matching section information. When determined, in this embodiment, the information of the important section is transferred to the time-series information storage unit 4 and stored without being compressed.
[0272]
At this time, the address information (the leading address and the last address of the important section) of the important section information stored in the time-series information storage section 4 is the correspondence storage section 9. Is stored in the correspondence storage unit 9 in association with the user input information (pen handwriting information) at that time. At this time, as in the first embodiment, the user input device information can also be stored in association with the correspondence storage unit 9.
[0273]
26 and 27 are flowcharts for explaining the operation of the temporary storage unit 16.
[0274]
First, in step S700, the flag is reset to “0”. Next, the audio information and the image information input per unit time are accepted in step S701, and it is determined in step S702 whether there is an input of detection input of user input information from the user input information detection unit 6.
[0275]
If user input information is detected in step S702, the process proceeds to step S707, the flag is set to “1”, and the process proceeds to step S703. At this time, it is stored in a buffer memory (not shown) whether the user input information is input from the shared electronic whiteboard device or the personal electronic notebook device.
[0276]
When user input information is not detected, the flag remains “0” and the process proceeds to step S703. If it is determined in step S703 that the latest data does not overwrite the oldest data in the ring buffer, the process proceeds to step S704, where the input image sequence is stored in the memory unit indicated by the latest data address in the temporary storage unit 16. .
[0277]
Further, the process proceeds from step S704 to step S705, where it is determined whether or not information indicating a speech start point or a speech end point is input from the condition matching section detection unit 3, and information indicating a speech start point or a speech end point is input. If not, the process proceeds from step S705 to step S706, and the latest data address is advanced according to the stored data amount.
[0278]
If it is determined in step S705 that information indicating the utterance start point or the utterance end point has been input, the process proceeds from step S705 to step S710, where the information from the condition matching section detection unit 3 is the utterance start point. Or the end point of speech.
[0279]
If it is the speech start point, the process proceeds to step S711, where the speech start point mark is recorded at the memory location indicated by the latest data address, and then the process proceeds to step S706 to advance the latest data address according to the stored data amount. .
[0280]
If it is determined in step S710 that the speech end point is such that the voice level changes to a predetermined level or less, the process proceeds to step S712, and the speech end point mark is recorded in the memory location indicated by the latest data address. After this step S712, the process proceeds to step S713, where it is determined whether or not the flag is set to “1”. If it is not set to “1”, the process proceeds to step S706, and as described above, the stored data amount The latest data address is advanced according to. Thereafter, the process returns from step S706 to step S701.
[0281]
If the flag is set to “1” as a result of the determination in step SS713, the process proceeds to step S714, and whether the user input information detected in step S702 is input from the shared electronic whiteboard device, It is determined whether the input is from the personal electronic notebook device.
[0282]
If it is determined in step S714 that the input is from the shared electronic whiteboard device, it is determined in step S715 whether 180 seconds have passed since the user input information input time, and 70 seconds have been recognized. In that case, the process proceeds to step S716. In step S716, the voice information and image information for 200 (= 70 + 130) seconds are output to the time-series information storage unit 4 from the speech start point closest to the time point 130 seconds after the user input information input time point. Thereafter, the process proceeds to step S719. The compression unit 10 performs this thinning compression process.
[0283]
On the other hand, if it is determined in step S714 that the input is from the personal electronic notebook device, it is determined in step S717 whether 180 seconds have elapsed since the user input information input time, and it is recognized that 180 seconds have elapsed. If so, the process proceeds to step S718. In step S 718, the audio information and the image information for 380 (= 180 + 200) seconds are output to the time-series information storage unit 4 from the speech start point closest to the time point 200 seconds after the user input information input time point. Thereafter, the process proceeds to step S719. The compression unit 10 performs this thinning compression process.
[0284]
In step S719, the oldest data address is advanced to the latest data address.
[0285]
Then, the process proceeds to step S720, the flag is returned to “0”, and the process returns to step S701.
[0286]
If it is determined in step S715 that 70 seconds have not elapsed since the user input information input time point, or if it is determined in step S717 that 180 seconds have not elapsed since the user input information input time point, Returning to S701, new audio / image information is input.
[0287]
In step S702, the timing at which the user input information detection unit 6 does not detect the input of pen handwriting information is erased from the temporary storage unit 16 in step S703 (the latest data overwrites the oldest data). If so, in step S708, a predetermined amount of audio information and image information are erased. Thereafter, in the temporary storage unit 16, in step S709, the oldest data address is advanced by the deleted data amount. Thereafter, the process proceeds to step S704, and the above-described processing is repeated.
[0288]
As can be seen from the above description, when the pen input information is detected by the user input information detection unit 6, the flag is set to “1” in step S707 of FIG. However, the information thinning compression process has not yet started at this point. The compression process is started because the utterance end point is detected by the condition matching section detection unit 3 in step S710, and a predetermined time (70 seconds or 180 seconds) from the user input time point in step S715 or step S717. It is when it is recognized that it has passed.
[0289]
In the above description, the voice information and the time-series information storage unit 4 are transferred from the ring buffer of the temporary storage unit 16 after the user input information is detected to the last time specified as the important section. Since the image information is transferred, the ring buffer is a memory that can store at least 380 seconds of time-series information, but when user input information is detected, it is detected that it is within an important section. In addition, if the method starts to transfer the time series information to the time series information storage unit back to the time corresponding to the beginning time of the important section, the ring buffer has a capacity for storing at least 200 seconds of time series information. Just have it.
[0290]
In the above description of the second embodiment, the temporary storage unit 16 is configured to include the important section determination unit 8. However, in the second embodiment, the correspondence storage unit 9 also includes the important section. The determination unit 8 may be provided, and the important section information from the important section determination unit 8 of the correspondence relationship storage unit 9 may be given to the temporary storage unit 16 so that the same operation as described above can be performed.
[0291]
In the first embodiment to the second embodiment described above, the input status when the user input information is detected is whether the user input device in which the user input is made is a shared input device or a personal input device. The input device is assumed to be reflected in the determination of the important section. However, the present invention is not limited to this.
[0292]
For example, even when the difference between the user input devices is specified, it may be necessary to change the important section depending on the user of the personal input device. For example, since the situation is different between a clerk role attendee taking notes and another general meeting attendee taking notes, even if it is for personal use, the clerk and the general meeting attendee have important intervals. The timing and length may be changed. Considering the individual judgment of conference attendees and the difference in the speed with which ideas can be summarized, each individual input device is identified and the capabilities of each conference attendee are matched. The important section may be determined. In the latter case, when determining the important section, it is preferable to set the time going back and the time after the user input time for each meeting attendee.
[0293]
Further, the input situation is not limited to specifying the user input device. For example, as a user input situation specifying means, a means for specifying an input situation such as laughter or applause occurred between meeting attendees at the time of input of user input information is provided, and the specified situation is important. You may make it include in the determination factor of an area.
[0294]
In the above-described embodiment, the non-important sections are deleted as the compression method. However, the time-series information of the important sections is stored without being compressed, and the time-series information other than the important sections is compressed. May be stored. Further, time series information of important sections may be compressed and stored while maintaining high quality, and time series information other than important sections may be compressed and stored by a compression method having a higher compression rate.
[0295]
The first to second embodiments of the information storage device described above can be implemented in appropriate combinations in addition to those specified in the description of each embodiment.
[0296]
From the embodiment of the information storage device described above, the following effects can be obtained.
[0297]
(1) Compression interval or intermittent recording time interval based on section information determined by the timing when user input information such as pen handwriting is input and the information that determines which device the user input information is input from The audio information or the image information stored in the time series information storage unit is compressed to change the number of important information of the audio information or the image information in a limited storage medium. Even if audio information or image information other than the important part can be stored, it can be stored for a long time with a small amount of data.
[0298]
(2) Further, a correspondence relationship storage unit is provided, and the correspondence relationship between the segment information indicating the segment determined by the user input information and the storage position in the time series information storage unit of the audio information or the image information corresponding to the segment information is expressed. Since the information is compressed, there is no need to associate a section determined by user input information with a storage position in the time-series information storage unit of audio information or image information corresponding to the section at the time of information compression. Thus, there is an effect that the load on the system when compressing the audio information or the image information can be reduced.
[0299]
(3) Further, the user input information detection unit detects user input information input from the user, and dynamically changes the compression rate or the time interval of intermittent recording based on the timing at which the user input information is detected. By configuring the audio information or image information stored in the time-series information storage unit to be compressed, it is possible to store only important parts of the audio information or image information where characteristic events occur with high quality. In addition, there is an effect that even audio information or image information other than the important part can be stored for a long time with a small amount of data.
[0300]
(4) The user input information detection unit detects user input information input from the user, and based on the timing at which the user input information is detected, the audio information or the image information stored in the time series information storage unit Among these, by configuring so as to delete the audio information or the image information in the sections other than the important section, there is an effect that only the important part in which the characteristic phenomenon occurs in the voice information or the image information can be saved.
[0301]
(5) Further, a condition matching section detection unit is provided, and the condition matching section detection unit detects a condition matching section in which audio information or image information from the information input means matches a predetermined condition set in advance. Audio information stored in the time-series information storage unit by changing the compression rate or the compression method in the section determined by the timing when the input information is detected, the user input device information and the condition matching section, and other sections Alternatively, since the image information is configured to be compressed, there is an effect that the important part of the audio information or the image information can be reliably stored with high quality.
[0302]
(6) In addition, a correspondence relationship storage unit is provided, and from the user input information detected by the user input information detection unit, the user input device information, and the condition matching interval detected by the condition matching interval detection unit. Since the correspondence between the section information indicating the determined section and the storage position in the time series information storage unit of the audio information or the image information corresponding to the section information is stored, the user input information can be stored at the time of information compression. The processing for associating the section defined by the timing at which the signal is detected and the condition matching section with the storage position in the time-series information storage unit of the voice information or the image information corresponding to the section becomes unnecessary. There is an effect that the load of the system when compressing can be reduced.
[0303]
(7) Further, the condition matching section detection unit detects the condition matching section based on the sensor information, and based on the detection result, the detection result of the user input information detection unit, and the user input device information, the compression rate or the intermittent recording When the audio information or the image information stored in the time-series information storage unit is compressed by dynamically changing the time interval, the event that it is difficult to detect the state change of the audio signal or the image signal Even if an event occurs or if a state change occurs in information that is not included in the input audio signal or image signal, only important parts of the audio information or image information in which characteristic events occur are limited. In this case, a large amount of data can be stored in the stored storage medium, and even audio information or image information other than important parts can be stored for a long time with a small amount of data.
[0304]
(8) Further, the condition matching section detection unit detects a condition matching section based on the sensor information, and section information indicating a section determined from the detection result, the detection result of the user input information detection unit, and the user input device information. It is configured to compress the audio information or the image information stored in the time series information storage unit by dynamically changing the compression rate or the time interval of the intermittent recording based on the section information. If an event that makes it difficult to detect a change in the state of an audio signal or image signal occurs, or if a change in state occurs in information that is not included in the input audio signal or image signal, the audio information Alternatively, only a significant part of the image information in which a characteristic event occurs can be stored in a limited storage medium, and the load on the system when compressing audio information or image information can be reduced. There is a reduction can be effective.
[0305]
(9) Further, a temporary storage unit is provided, and the timing at which user input information such as pen handwriting is input, information that determines from which device the user input information is input, and voice information or image information are preset. Audio information or image information stored in the temporary storage unit is selectively stored in the time-series information storage unit based on the section information determined by the condition matching section information obtained by detecting the condition matching section that matches the predetermined condition. By being configured to output, it is possible to store only a significant part of the audio information or image information in which a characteristic event occurs in a limited storage medium, and further to store the audio information or image information. This has the effect of reducing the load on the system during compression.
[0306]
(10) In addition, the condition matching section detection unit detects a condition matching section based on the sensor information, the timing when the detection result and user input information such as pen handwriting are input, and from which device the user input information is input The state change of the audio signal or the image signal is configured to selectively output the audio information or the image information stored in the temporary storage unit to the time-series information storage unit based on the information that has been determined. Even when an event that is difficult to detect occurs or when a state change occurs in information that is not included in the input audio or image signal, a characteristic event occurs in the audio or image information. In this case, only a significant part can be stored in a limited storage medium, and the load on the system when compressing audio information or image information can be reduced.
[0307]
(11) Further, since the temporary storage unit temporarily stores the audio information or the image information input before the user input information detection unit detects the user input information, the timing before the user input occurs. Even for input audio information or image information, only important parts can be stored in a limited storage medium, and even audio or image signals other than important parts can be stored for a long time with a small amount of data. There is an effect that can be done.
[0308]
(12) In addition, the compression rate or the intermittent recording time interval is dynamically changed based on the timing when the user input information detection unit detects the user input information and the condition matching section information detected by the condition matching section detection unit. By compressing the audio information or the image information stored in the time series information storage unit or the temporary storage unit, the important part of the audio information or the image information in which a characteristic event occurs From the beginning to the end can be stored with high quality, and even audio information or image information other than the important part can be stored for a long time with a small amount of data.
[0309]
(13) Also, based on the timing when the user input information detection unit detects the user input information and the condition matching section information detected by the condition matching section detection unit, the voice information or the image stored in the time series information storage unit Since it is configured to delete voice information or image information of sections other than the important section of information, there is an effect that only important parts of the voice information or image information in which characteristic events occur can be stored. is there.
[0310]
(14) In addition, a display unit that displays user input information using a pen or a keyboard input by a recorder at an arbitrary timing, a designation unit that designates one of the user input information displayed on the display unit, and a time series A playback unit for playing back audio information or image information of a portion stored in correspondence with the user input information specified by the specifying unit out of the audio information or image information stored in the information storage unit When configured, if the recorder performs input with a pen or a keyboard so that a memo is taken, and the voice or image signal is recorded, the voice or image signal can be recorded later by referring to the inputted memo. There is an effect that a portion to be reproduced can be easily selected and reproduced.
[0311]
(15) Further, a display unit for displaying user input information, a designation unit for designating one of the user input information displayed on the display unit, and a memory corresponding to the user input information designated by the designation unit If a playback unit that plays back the audio information or image information of the portion that has been configured and a condition matching section detection unit are provided, the audio information or image information corresponding to the specified user input information There is an effect that the part can be reliably reproduced from the beginning to the end.
[0312]
(16) Further, the configuration is such that the compression process is started when the elapsed time (that is, the information storage time) after the audio information or the image information is recorded in the time-series information storage unit becomes a predetermined time or more. In this case, it is possible to store recent voice or image information that is highly likely to be referenced with high sound quality / high image quality, and to store voice or image information recorded in the past with a small amount of data. is there. In addition, when the audio information or the image information is configured to be compressed in stages according to the elapsed time (that is, the information storage time) since it was recorded in the time-series information storage unit, it can be referred to later. Since the information can be stored with a smaller amount of information when the performance becomes lower, the storage medium can be saved more effectively.
[0313]
(17) Further, the compression processing is performed at a timing when it is recognized that the free space in the time series information storage unit becomes a certain value or less, or at a timing when the storage amount in the time series information storage unit is recognized as a certain value or more. When configured to start, there is an effect that input can be continued even when newly input audio or image information is input exceeding the storage capacity of the time-series information storage unit.
[0314]
(18) Further, in the case where a specific caller of voice or a change of caller is detected from the input voice information or image information by the condition matching section detection unit, the voice of the specific caller or Image information can be saved from the beginning to the end with high sound quality / high image quality, and even the voice information or image information of other callers can be saved with a small amount of data, going back to the point when the caller changed This has the effect of starting playback.
[0315]
(19) Further, when it is configured to detect a specific caller or change of caller based on sensor information, an event that makes it difficult to detect a change in the state of the audio signal or the image signal has occurred. In case of a change in the state of information that is not included in the input audio signal or image signal, the voice or image information of a specific caller can be saved from the beginning to the end with high sound quality / high image quality. In addition, even voice information or image information of other callers can be saved with a small amount of data, and there is an effect that playback can be started retroactively until the caller changes.
[0316]
(20) When the user input device specifying unit is configured to detect a shared electronic whiteboard device shared by a plurality of persons and a personal electronic notebook device privately used by each individual, a comparison is made. The interval between the time of writing notes on a personal electronic notebook device that is far from the target and the time when related information is spoken, and the time of writing notes and related information on a nearby shared electronic whiteboard Since important sections corresponding to each interval can be specified, the voice or image information of the important sections can be saved from the beginning to the end with high sound quality / high image quality, and other caller's voice information or images Even information can be saved with a small amount of data, and the reproduction can be started back to the beginning of the important section.
[0317]
(21) Further, when the user input device specifying unit is configured to detect the installation location or installation state of the user input device and specify the user input device, even if it is the same device, It is possible to determine whether the device is used as a personal notebook device or as a shared electronic whiteboard device, and it is possible to identify an important section according to the use of the device.
[0318]
(22) Further, the user input device specifying unit detects that the user input device is placed on at least a desk, a hand, a wall, or a shelf, or an input plane of the user input device Even if the same device is used, the device can be easily used as a personal notebook device. It is possible to determine whether the device is used or as a shared electronic whiteboard device, and it is possible to specify an important section according to the use of the device.
[0319]
(23) Also, a user input situation detection unit for detecting a user input situation, and a time series information section or time input from the time series information input unit according to the situation detected by the user input situation detection unit. When it is configured to include a target section specifying unit that specifies and outputs the specified result, input processing, compression processing, storage processing, search processing, display processing for time-series information, according to the state of user input, The section of the output process can be specified, and processing according to the user input situation such as writing at hand or writing on the whiteboard is performed on a specific section of the time series information There is an effect that can.
[0320]
(24) A time-series information input unit for inputting audio information or image information, and a time-series information section or time is specified according to the detection result detected by the time-series information input unit, and the specified result And a target section specifying unit for outputting the time series information according to the situation of the time series information, input processing, compression processing, storage processing, search processing, display processing, output processing section Specific processing of time-series information, such as laughter occurred, applause occurred, discussion was actively conducted, there was a long remark, etc. There is an effect that can be applied to the section.
[0321]
[Embodiment of Information Storage / Reproduction Device]
In the embodiment of the information storage / playback device described below, the aim is to realize a device that can appropriately play back audio information and image information according to the input situation when a user input is made. Yes. In this embodiment, whether the user input information is performed for the purpose of transmitting to others (situation 1), or is performed for the purpose of recording information transmitted from others (situation 2). We try to make it happen by distinguishing between the two situations.
[0322]
That is, when considering a situation such as a meeting, in the situation 1, after the user input is performed, the user input is often explained, whereas in the situation 2, the user is input before the user input. In this embodiment, attention is paid to the situation dependency of human behavior characteristics that information related to input is spoken. In this embodiment, the situation 1 assumes a situation in which a so-called presentation is performed, and the situation 2 assumes a situation in which a lecture or explanation by the presentation is taken as a memo.
[0323]
The outline of the system configuration of the information storage / playback apparatus of this embodiment is almost the same as that of the electronic conference system as shown in FIG. However, in this embodiment, one of a plurality of conference participants makes a presentation on a predetermined theme, and the other conference participants take notes of the lectures and explanations.
[0324]
In the case of this embodiment, each conference participant has a system configuration capable of becoming a presenter or listening to the presentation while present. Each conference participant has a personal computer 30 for personal use connected to the shared electronic blackboard 41 as in the case of FIG. 2, but each of the personal computers 30 in this embodiment is in the shared mode. It has a function that can be set to use or personal mode.
[0325]
When the shared mode is set, the contents of the display screen of the personal computer are displayed on the shared electronic blackboard 41, and when the user performs an input operation of user input information through the display screen of his / her personal computer 30, this is the personal computer. It is reflected not only on the display screen of the computer 30 but also on the shared electronic blackboard 41, and a presentation can be made. Therefore, this shared mode is referred to as a presentation mode.
[0326]
When the personal mode is set, a user of the personal computer 30 can input user input information as a personal memo on his personal computer 30 as a participant who receives the presentation. The personal memo input information is only displayed on the screen of the personal computer and is not displayed on the shared electronic blackboard 41.
[0327]
FIG. 29 is a diagram for explaining a method in which the user sets the mode in the personal computer 30.
[0328]
In FIG. 29, 30D is a display screen of the personal computer 30. On this display screen 30D, a status setting button icon 31 is displayed. When the user presses the status setting button icon 31, a pop-up window 32 of the status setting menu is opened. In this embodiment, the user can select any of the presentation mode, the memo mode, and the auto mode in this situation setting menu.
[0329]
The presentation mode is selected when an explanation is given while writing in a shared writing area where other conference participants can see their opinions and the like. The memo mode is a mode in which a memo is taken with respect to information spoken by others. The memo mode is a mode that is set when taking a personal memo or writing down the opinion of another person as a clerk in the shared writing area. Which mode is set may be set before a meeting or the like, or may be set according to a change in the situation during the meeting.
[0330]
In this embodiment, the mode in which the system automatically recognizes the situation can be set as the auto mode. As will be described later, this auto mode is a mode for specifying a situation when an input operation of user input information is automatically performed from time-series information of audio information and image information.
[0331]
In FIG. 29, the user B sets his / her personal computer 30 to the presentation mode, and displays the same screen as the screen of his / her personal computer 30 on the electronic shared blackboard 41. The other users A, C, and D are set in the memo mode.
[0332]
FIG. 30 is a block diagram showing an information storage / playback apparatus according to an embodiment of the present invention in which each processing function unit is shown as a block.
[0333]
That is, the information storage / playback apparatus of this embodiment includes a user input unit 51 for a user to input information, a user input information control unit 52 for controlling information input by the user, information input by the user, and A user input information recording unit 53 that records related information, a display unit 54 that displays information input by the user, a time series information input unit 55 that inputs time series information such as audio information and video information, and a time series A time-series information processing unit 56 for processing information, a time-series information control unit 57 for controlling time-series information, a time-series information output unit 58 for outputting time-series information, and depending on the situation A time series information specifying section determining unit 59 for outputting a time section of time series information, a chart creating unit 60 for creating a chart from the time series information, and a time series information recording unit 61 for recording time series information, A situation specifying unit 62 for specifying a situation when the user inputs information, and a coordinate time conversion unit 63 for converting the coordinate information of the user input information when the user inputs information into time information. .
[0334]
The user input information input means corresponds to the user input unit 51, and the user input information control unit 52 is provided as a partial function of the user input information detection unit.
[0335]
The information storage / playback apparatus of this embodiment shown in FIG. 30 can be configured by each of the personal computers 30 of FIG. FIG. 31 shows an overview of a system centered on one personal computer 30.
[0336]
That is, in the information storage / playback apparatus of this embodiment, image information as time-series information is input from the video camera 42 to each personal computer 30. For this reason, each personal computer 30 includes a video input board, and the image information is digitized by the built-in video input board and is taken into the personal computer 30 in a form that can be processed.
[0337]
In addition, the audio information is transmitted from all the microphones 43 assigned to each of the users A to D who are each conference participant to each personal computer 30 from the microphone for each participant. The voice information can be identified and input through a voice input board built in the voice information. Therefore, the time-series information input unit 55 described above includes the video camera 42 and the microphone 43.
[0338]
Each of the personal computers 30 includes an interface that enables user input with an electronic pen, and can make notes during a meeting. This pen input interface is one component of the user input unit 51. The user input unit 51 can also be configured by a user interface using a pointing device such as a keyboard or a mouse.
[0339]
As recording media of the user input information recording unit 53 and the time-series information recording unit 61, specifically, a semiconductor memory or a hard disk built in the personal computer 30 is used. A recording medium such as an MO disk or a floppy disk may be used.
[0340]
The display unit 53 and the time-series information output unit 58 are realized by a display 30D and a speaker 30SP connected to the personal computer 30.
[0341]
The user input information control unit 52, the time series information processing unit 56, the time series information control unit 57, the time series information section specifying unit 59, the chart creating unit 60, the situation specifying unit 62, and the coordinate time converting unit 63 are added to the personal computer 30. It is realized by the installed software.
[0342]
The user input information control unit 52 receives user input information from the user input unit 51, sends it to the display unit 54, and displays it on the display screen. Then, processing corresponding to the received user input information is performed according to information recording (information storage) or information reproduction.
[0343]
As will be described later, the user input information control unit 52 records the user input information input at the time of recording time series information as conference information, the input start time and end time, the situation at that time, etc. Recorded in the user input information recording unit 53.
[0344]
Further, at the time of reproduction, the user input information control unit 52 reads information recorded in the user input information recording unit 53 in accordance with a user instruction, and sends the information to the display unit 54 and the time-series information specific section determination unit 59. To communicate. Further, when the user inputs an instruction while the chart is displayed on the display screen of the display unit 54, the instructed coordinate information is transferred to the coordinate time conversion unit 63.
[0345]
The display unit 54 displays the user input information passed from the user input information control unit 52 on the display screen. In addition, an utterance chart (described later) created by the chart creation unit 60 through the time-series information control unit 57 is displayed on the display screen.
[0346]
As will be described later, the user selects any one of the user input information displayed on the display screen of the display unit 54 for reproduction of corresponding time-series information or a chart creation instruction. can do. Further, in this system, in the message chart displayed on the display unit 54, the time series information corresponding to the designated reproduction location is reproduced by indicating a specific reproduction location, that is, the reproduction start point or the reproduction section. Can be made to do.
[0347]
The time-series information processing unit 56 corresponds to a condition-matching section detecting unit that detects a section that matches a predetermined condition with respect to time-series information. In this embodiment, each user of a conference participant in a meeting The speech sections A to D are detected as the condition matching sections when recording time-series information.
[0348]
The time series information control unit 57 controls to record the time series information in the time series information recording unit 61 at the time of recording. At this time, the speech section for each user detected by the time-series information processing unit 56 is also recorded in the time-series information recording unit 61.
[0349]
Further, at the time of reproduction, the time series information control unit 57 reads the specific section determined by the time series information specific section determination unit 59 from the time series information recording unit 61 and reproduces and outputs it by the time series information output unit 58. To. Further, the chart created by the chart creating unit 60 is displayed on the display screen of the display unit 54. Then, the time-series information recorded in the time-series information recording unit 61 is read from the time position corresponding to the coordinate position indicated on the chart, and is reproduced and output by the time-series information output unit 58.
[0350]
The time series information section specifying unit 59 operates in response to a command from the user input information control unit 52 at the time of reproduction. As described later, the time series information section specifying unit 59 corresponds to user input information instructed to be selected by the user. The section of the time series information of the conference information of the audio information is specified. Then, the time information of the identified section is passed to the time series information control unit 57 or the chart creation unit 60 in accordance with a user instruction.
[0351]
The chart creation unit 60 receives information on a specific section from the time-series information specific section determination unit 59 at the time of reproduction, and acquires information on the speech sections of the users A to D in the specific section from the time-series information recording unit 61. 41, a statement chart for a specific section is created. The created message chart is displayed on the display screen of the display portion 54 through the time-series information control unit 57. The speech chart will be described later.
[0352]
The situation specifying unit 62 responds to an inquiry from the user input information control unit 52 when the user input information is detected in the personal computer 30 at the time of recording the time series information. It is specified whether the 30 modes are the presentation mode or the memo mode, and information on the specified mode, that is, status information is returned to the user input information control unit 52.
[0353]
When the presentation mode or memo mode is set by the user, the setting state is stored in the buffer, and when the user input information control unit 52 makes an inquiry by referring to the buffer, It can be specified whether it is in the mode.
[0354]
However, in auto mode, it becomes a problem. Therefore, in this embodiment, the presentation mode or the memo mode is specified depending on whether or not the screen information of the personal computer is shared screen information. As will be described later, there is a method of specifying from the action of the input person.
[0355]
The coordinate time conversion unit 63 generates the reproduction time position of the time series information from the specified coordinates when a specific message section is specified by the user when the message chart is displayed on the screen of the display unit 54. Is to do.
[0356]
In the information storage / playback apparatus of this embodiment configured as described above, time-series information such as audio information of the speech of the conference participant and video image information of the state of the conference, and information input from the user during the conference are received. The time series information corresponding to the information input by the user can be appropriately reproduced after recording.
[0357]
[Recording in the embodiment of the information storage / playback apparatus]
First, the recording operation of the information storage / playback apparatus of this embodiment will be described.
[0358]
The time series information of the image information from the video camera 42 and the audio information from the microphone 43 is converted into a digital signal by the time series information input unit 55 and input to the time series information processing unit 56. As described above, the time-series information processing unit 56 detects a speech section as a condition matching section. Also in this embodiment, as in the above-described embodiment, since the microphone 43 is assigned to each conference participant, by detecting which microphone the input audio information is from Detect if it is a statement.
[0359]
The speech period of each participant is detected as shown in the flowchart of FIG. 32 and the explanatory diagram of FIG. In this example, when the audio information from a certain microphone continues for a certain time or more than a preset level, it is detected that a conference participant using the microphone is speaking. .
[0360]
That is, as shown in FIG. 33, when a sound signal of a certain level L1 or higher is output from the microphone, the process proceeds to step S800, and a time interval determined in advance as an appropriate unit time length for detecting the start of speech. It is monitored whether the audio signal level equal to or higher than the level L1 is maintained over Δt1 or higher. If it does not persist, it is not regarded as a speech, and the speech section detection is terminated. If it is determined that it has continued, the process proceeds to step S801, where the current time (T1) is detected, and T1-Δt1 is set as the speech start time.
[0361]
In step S802, in order to obtain the end time of the sound, the sound has a certain level L2 that is equal to or longer than a time Δt2 that is set as an appropriate unit time length for detecting the end of speech from a certain time T2. Monitor whether it has fallen below. If it falls below, the process proceeds to step S803, and T2-Δt2 is detected as the speech end time.
[0362]
In the above example, the level L1 for detecting the speech start time and the level L2 for detecting the speech end time are set to L1 = L2, but the level L1 and the level L2 are not necessarily equal. Also good.
[0363]
Information relating to the speech section for each conference participant detected as described above is collected in a data structure as shown in FIG. The time series information processing unit 56 sends information related to the speech section to the time series information control unit 57 together with the time series information of the image information and the voice information. The time-series information control unit 7 records time-series information of all image information and audio information from the start to the end of the conference in the time-series information recording unit 61, and also stores information related to the speech section as a time-series information recording unit. 61. Then, the time-series information control unit 57 sends the image information and audio information being recorded to the time-series information output unit 58 so that it can be monitored.
[0364]
The time series information recording start time is also recorded in the time series information recording unit 61. This is for calculating the time corresponding to each reproduction position during reproduction.
[0365]
As shown in FIG. 34, the recorded information related to the speech section includes speech identification data (speech ID) for identifying each speech section, the speaker, the speech start time, and the speech end time. As the speaker information, a conference participant name registered in advance is recorded. Note that a correspondence table between the speaker name and the speaker identification data may be prepared separately, and the speaker identification data may be recorded in the time-series information recording unit 61.
[0366]
When a user input is made with the recording of the time series information, necessary information is recorded in the user input information recording unit 53 as follows.
[0367]
FIG. 35 shows a processing routine at the time of recording by the user input information control unit 52. That is, when a user input such as a pen touch is detected, the process proceeds to step S900, and the user input information is displayed on the display screen of the display unit 54.
[0368]
In step S901, when user input is performed, the image information displayed on the screen of the personal computer on which the user input is performed (still image information displayed as a window or the like; The user input information is extracted, the start time and end time of the user input are obtained, and the information of the input status (presentation mode or memo mode) at that time is determined from the status specifying unit 62 To get.
[0369]
In this case, the situation information is inquired from the user input information control unit 52 to the situation specifying unit 62, and as a result, returned from the situation specifying unit 62. Each time a user input block is cut out, the user input information control unit 52 inquires of the situation specifying unit 62 about the situation and acquires the situation information.
[0370]
In step S902, an ID (identification data such as an identification number; the same applies hereinafter) is assigned to the worksheet specified in step S901, and an ID is assigned to the extracted user input information. In step S903, the information, that is, user input information including coordinate values, the user input information ID, the worksheet ID, the input time and end time of the user input information, and the status information are displayed. Then, it is recorded in the user input information recording unit 53.
[0371]
FIG. 36 is a detection process routine of the input start time and input end time of the user input information in the process of step S901. FIG. 37 is a diagram for explaining the input start and end time detection processing of the user input information.
[0372]
That is, when a user input such as a pen touch is detected, the process proceeds to step S1000, and the time at that time is set as an input start time (T1 in FIG. 37). In step S1001, it is determined whether there is no user input for a predetermined time Ti or more set in advance to detect that user input information does not exist.
[0373]
In step S1001, when there is a user input during a predetermined time Ti, it is determined that the user input information is continued. When it is detected that there is no user input during the predetermined time Ti, it is determined that the user input information has ended, and the process proceeds to step S1002, where the user subtracts the time obtained by subtracting Ti from the current time. It is assumed that the input end time (T2 in FIG. 37).
[0374]
As shown in the explanatory diagram of FIG. 37, the user input performed between the user input start time T1 and the user input end time T2 is regarded as one input unit (block). User input information is handled in units of blocks and recorded and reproduced.
[0375]
FIG. 38 shows the structure of information recorded in the user input information recording unit 53. That is, a user input information ID is assigned to each input block. The coordinate value represents the coordinate input by the pen. The worksheet ID represents the number of the worksheet on which pen input has been performed. The correspondence between the worksheet ID and the worksheet is managed separately.
[0376]
The input start time represents the time when input of the user input information is started. The input end time represents the time when the input of the user input information is ended. As will be described later, the link information represents the time of the time series information when a specific link time of the time series information is given to the user input information by the user. The status indicates the status (presentation mode or memo mode) when the user input information is input.
[0377]
FIG. 39 shows an example of the processing routine of the situation specifying unit 62. That is, first, in step S1100, it is determined whether there is an inquiry from the user input information control unit 52. If there is an inquiry, the process proceeds to the next step S1101. In step S1101, it is checked whether the screen information of the personal computer is displayed on the shared electronic blackboard 41 at that time. If it is determined that the screen information is displayed on the shared electronic blackboard 41, the process proceeds to step S1102. “Presentation” is returned to the user input information control unit 52 as information. When it is determined that it is not displayed on the shared electronic blackboard 41, the process proceeds to step S1103, and “memo” is returned to the user input information control unit 52 as status information.
[0378]
The situation specifying operation of the situation specifying unit 62 may be as follows. FIG. 40 shows a processing routine of another example of the situation specifying operation.
[0379]
First, in step S1200, it is determined whether there is an inquiry from the user input information control unit 52. If there is an inquiry, the process proceeds to the next step S1201. In step S1201, the duration of the speech by the input person and the number of instruction operations on the display screen during the predetermined time T from the input time are detected. Then, the process proceeds to step S1202, and it is determined whether the speech time by the input person is equal to or greater than a predetermined time Tp and the number of instruction operations on the display screen is equal to or greater than the predetermined number Np during the predetermined time T. .
[0380]
In step 1202, during a predetermined time T from the input time, the utterance by the input person is equal to or longer than a predetermined time Tp, and the number of instruction operations on the display screen is a predetermined time during the predetermined time T. If it is determined that the number of times is Np or more, the process advances to step S1203 to return “presentation” as the situation information to the user input information control unit 52. If not, the process proceeds to step S1204, where “memo” is returned to the user input information control unit 52 as status information.
[0381]
As an example of the time T, Tp and the number Np, the time T = 30 seconds, the time Tp = 10 seconds, and the number Np = 2. However, the instruction detection method calculates the minimum rectangle that encloses the input block of user input information, and determines that the instruction has been made when the area inside the rectangle is touched with a pen.
[0382]
[When playing back information storage / playback equipment]
Among the time series information as the conference information recorded as described above, the time series information of the specific section corresponding to the user input information recorded in the user input information recording unit 53 is specified as described below. Thus, it is possible to reproduce or display the message chart of the specific section.
[0383]
During reproduction in the information storage / reproduction apparatus of this embodiment, first, a plurality of user input information recorded in the user input information recording unit 53 is displayed on the screen of the display unit 54. When all the user input information cannot be displayed on one screen, it is displayed by scrolling.
[0384]
The user uses the user input information displayed on the display unit 54 as an index to designate a conference recording portion that he / she wants to reproduce. That is, the user estimates from the user input information such as a memo whether or not the user input information corresponds to the conference recording portion that he / she wants to reproduce, and when the user wants to reproduce the corresponding conference recording portion, the user input Information is selected and instructed.
[0385]
In the case of this embodiment, the automatic playback mode and the message chart of the specific section are displayed using the specific section determined by the time-series information section specific section determination unit corresponding to the user input information instructed to be selected. There is a chart display mode. Here, in the automatic reproduction mode, the reproduction is started from the time Ts, but the reproduction can be terminated at an arbitrary point designated by the user. In the chart display mode, as will be described later, the user can designate a specific speech section on the speech chart, and the time series information corresponding to the designated speech section can be reproduced.
[0386]
Before explaining the reproduction operation, the message chart will be described. FIG. 41 shows an example of a message chart displayed on the screen of the display unit 54. This message chart is composed of a speaker name area 71 for displaying a speaker name for identifying a speaker, and a message transition display area 72 for visually displaying a state of a message transition. In the message transition display area 72, the message structure in the specific section determined by the time-series information specific section determination unit 59 is displayed. In FIG. 41, Ts is the start time of the specific section, and Te is the end time of the specific section.
[0387]
In each column on the right side of each speaker in the message transition display area 72, a rectangle indicating when and how much time each conference participant (speaker) performed in the specific section during the conference. This is indicated by the display position and length of the speech section bar VB. The statement transition structure in the specific section indicating who has made a transition from who to speak by reading the speech structure displayed as the transition of the speech section bar VB of all conference participants in the speech transition display area 72 Can be read.
[0388]
A triangle mark 73 in the message transition display area 72 in FIG. 41 indicates a user input time point (input start time) on the message chart in the specific section.
[0389]
Next, operation processing during reproduction will be described. As described above, at the time of this reproduction, the user input information recorded in the user input information recording unit 53 is displayed on the display screen of the display unit 54. When the user gives an instruction to select any user input information on this display screen, the user input information control unit 52 detects that and starts playback.
[0390]
FIG. 42 is a processing routine of the user input information control unit 52 at the time of reproduction.
[0390]
First, in step S1300, when the user input information control unit 52 receives an instruction to select any of the user input information displayed on the screen of the display unit 54 through the user input unit 51, the process proceeds to the next step S1301. In this embodiment, user input information is selected by surrounding the displayed user input information with, for example, an electronic pen. The user input information control unit 52 determines the enclosed area and searches the user input information recording unit 53 for user input information existing in the area.
[0392]
In step 1301, the input start time and status information of the user input information instructed for selection is acquired from the user input information recording unit 53. Then, the process proceeds to the next step S1302, and an inquiry message is displayed to the user as to whether the user input is for automatic reproduction of time-series information or creation of a chart to be described later.
[0393]
In response to this, since the user makes a selection input for automatic reproduction or chart creation, the user selection input is accepted in step S1303. In step S1304, it is determined whether automatic reproduction is selected or chart creation is selected.
[0394]
If the automatic reproduction is selected, the process proceeds to step S1305, where the time series information specifying section determining unit 59 is instructed to input the input start time information of the instructed user input information, the situation information, and the automatic reproduction command. And an automatic reproduction command is sent to the time-series information control unit 57. If chart creation is selected, the process proceeds to step S1306, where the time series information specifying section determination unit 59 is instructed to input the input start time information of the instructed user input information, the situation information, the chart creation command, Is sent to the time-series information control unit 57.
[0395]
In the above description, only the input start time is used, but only the input end time can be used. Further, both the input start time and the input end time may be used. However, the numerical values in FIGS. 44 and 45 differ depending on how they are used.
[0396]
Next, the operation of the time-series information specific section determination unit 59 will be described with reference to the flowchart of FIG.
[0397]
First, in step S1400, an input time (input start time in the embodiment), status, and command are acquired from the user input information control unit 52. In step S1401, a specific section of time-series information corresponding to the user input information is calculated from the input time of the user input information and the situation information.
[0398]
In this case, the specific section is determined as described later based on the information on the relative start time with respect to the input time point of the user input information and the information on the relative end time. Since there is information on the input time of the user input information, the absolute start time Ts and the absolute end time Te of the specific section are determined.
[0399]
The time series information specific section determination unit 59 stores information on relative start time and information on relative end time with respect to the input time point of the user input information for determining the specific section. Using the information, a specific section of time-series information corresponding to the user input information is determined.
[0400]
Next, the process proceeds to step S1402, and it is determined whether the instruction acquired in step S1400 is an automatic reproduction instruction or a chart creation instruction. If the instruction is an automatic reproduction instruction, the process proceeds to step S1403, and the time-series information control unit 57 Information on the specific section (in this example, start time Ts) and information on the input time of the user input information are sent. If it is a chart creation command, the process proceeds to step S1404, and information on a specific section (start time Ts and end time Te) and information on the input time of user input information are sent to the chart creation unit 60. Thus, the processing routine of the time series information specific section determining unit 59 ends.
[0401]
Next, the determination of the specific section of the time series information corresponding to the user input information in step S1401 will be described in more detail.
[0402]
In this case, as described in the above-described embodiment, the time interval specified as the interval corresponding to the input time point of the user input information is different between the presentation mode and the memo mode.
[0403]
For example, FIG. 44 is a diagram for explaining the probability of the relative time with respect to the input time of the user input information at the start time of the specific section of the time-series information corresponding to the user input information. FIG. 44 shows a case where a specific user reproduces time series information and determines a specific section corresponding to the user input information by himself / herself. It shows the frequency of how much it has been determined as the start time of the specific section of the time series information corresponding to the user input information during the second section.
[0404]
For example, the relative time [−300, −250) indicates a section from 300 seconds to 250 seconds before the input time point of the user input information. In the example of FIG. In the presentation mode, the start time of the specific section is determined 0 times, that is, the start time of the specific section is not determined. Here, the minus before the numerical value of the relative time means that the time is before the input time of the user input information.
[0405]
The relative time [−50, 0) indicates a section from 50 seconds to 0 seconds before the user input information is input. In the example of FIG. 44, the relative time [−50, 0) is 8 times in the memo mode in this section. In the presentation mode, the start time of the specific section is determined 20 times in the presentation mode.
[0406]
The frequency distribution of FIG. 44 is as shown in FIG. 46 in the memo mode, for example, when the horizontal axis is the relative time with respect to the input time of the user input information and the vertical axis is the frequency. In this embodiment, the relative start time and end time with respect to the input time of the user input information in the specific section are determined so that, for example, 90% of the frequency number is included. That is, in this example, the relative start time and the relative end time of the specific section of the time series information are determined so that the start time of the specific section of the time series information with respect to the user input information is correctly determined with a probability of 90%. decide.
[0407]
The information on the relative time with respect to the start point of the user input information for determining the specific section of the time-series information corresponding to the user input information determined as described above can be seen from the probability distribution of FIG. It depends on the difference between the memo mode and the presentation mode.
[0408]
That is, FIG. 47 shows the probability distribution of the relative time with respect to the input time of the user input information at the start time of the specific section of the time series information corresponding to the user input information in both the memo mode and the presentation mode. In the memo mode, the relative start time is Ts (memo), and in the presentation mode, the relative start time is Ts (presentation). is there.
[0409]
Similarly, the relative end time of the specific section of the time series information with respect to the user input information is also determined so that the end time of the specific section of the time series information with respect to the user input information is correctly determined with a probability of 90%, for example.
[0410]
FIG. 45 is an example of a relative start time and a relative end time for determining a specific section set in accordance with the situation as described above. In this example, when the situation is in the memo mode, the user input information is from 200 seconds before the user input information start time to 30 seconds after the user input information start time. The specific section of the corresponding time series information is determined as. Further, when the situation is the presentation mode, a time series corresponding to the user input information from a time point 50 seconds before the start time of the user input information to a time point 20 seconds after the start time of the user input information. The specific section of information is determined as.
[0411]
For the information on the relative start time and the relative end time in FIG. 45, fixed data determined as described above for a plurality of users can be used in all personal computers 30.
[0412]
However, the information on the relative start time and the relative end time in FIG. 45 is generally different depending on the propensity of the user to use.
[0413]
Therefore, in this embodiment, the specific section of the corresponding time-series information is determined using the fixed data of the relative time with respect to the input time of the user input information corresponding only to the difference in the situation, regardless of the user's tendency. A mode for determining a specific section of the corresponding time-series information in consideration of the propensity of the user to determine the specific section in the past.
[0414]
In the latter mode, the user sets a specific section corresponding to the user input information while reproducing time-series information recorded in advance. In this case, the time-series information section specifying unit 59 receives from the user input information control unit 52 the input time of the user input information obtained by reproducing the specific section of the time-series information immediately before, the input status, and the start time of the time-series information. And record the frequency in the relevant relative time column of the mode of the relevant situation.
[0415]
Then, by setting by the user, frequency data similar to that shown in FIG. 44 is created, and each situation is determined based on a probability value for determining a specific section set by the user for this frequency data. A relative start time and a relative end time are determined in accordance with. The value of the probability set by the user is not limited to 90% described above, and the user can set an appropriate value.
[0416]
In the latter mode, when frequency data is newly generated by the user, the relative time information is updated. In this way, by allowing the user to add information for determining the relative time, personal information such as a note of the user's memo is specified according to the situation in the time-series information interval specifying unit 59. Can be reflected in the decision.
[0417]
In addition to the creation of the frequency data of the specific section, the link information described above is set as shown in FIG. 38 corresponding to the user input information, and the user records it in the user input information recording unit 53. Can be. That is, when it is determined that the user is related to the user input information, information relating to the immediately preceding reproduction portion is recorded as link information of the user input information recording unit 53. This makes it possible to reproduce the time-series information corresponding to the input information more accurately based on the link information when the part is reproduced again later.
[0418]
Therefore, when the user input information control unit 52 transmits a reproduction command to the time-series information control unit 57, the user input information control unit 52 holds the ID of the user input information selected for reproduction in the buffer, The sequence information control unit 57 holds the reproduction time information in a buffer.
[0419]
When linking after reproduction, the user input information control unit 52 obtains the reproduction time information regarding the immediately preceding reproduction part from the buffer of the time-series information control unit 57, and the corresponding link information of the user input information recording unit 53. So that it can be recorded in
[0420]
At the time of user input at the time of creating the frequency data for determining the relative time described above, the user input information control unit 52 and the time-series information are the same as when the link information is recorded in the user input information recording unit 53. The previous reproduction information in the buffer of the control unit 59 is used.
[0421]
Specifically, when the user commands the information update of the time-series information specific section determination unit 57, the user input information control unit 52 uses the user input information ID reproduced immediately before as a clue to the user input information recording unit 53. , The playback time information immediately before being held in the buffer of the time-series information control unit 59 is acquired, and the information is sent to the time-series information specific section determination unit 57.
[0422]
When the relative time information is newly added by the user, the same information as shown in FIG. 44 is obtained. In this case, the time series information section specifying unit 59 not only outputs the time information of the specific section, but also the time series on that section (Ts to Te) as shown in FIGS. Information existence probability information and the like can be output together.
[0423]
In the above description, the buffers of the user input information control unit 52 and the time-series information control unit 57 are configured to hold only the immediately preceding reproduction information. The reproduction information may be held.
[0424]
Next, the operation during reproduction of the time-series information control unit 57 will be described with reference to the flowchart of FIG.
[0425]
That is, when an instruction is acquired from the user input information control unit 52 in step S1500, the process proceeds to step S1501 to determine whether the instruction is chart creation or automatic reproduction. If it is chart creation, it will progress to step S1502 and will instruct | indicate chart creation to the chart creation part 60. FIG. In step S1503, the chart information is acquired from the chart creation unit 60, the output position of the chart information to the display unit 4 is determined, the output coordinates are held, and the chart information is output to the display unit 4.
[0426]
When the message chart information is displayed on the screen of the display unit 54, the user selects and instructs one of the message section bars VB displayed in the message chart, as shown in FIG. Requests playback of time-series information of a speech section. In FIG. 50, when the position indicated by the circle is designated, the designated coordinate (xp, yp) is converted into time information by the coordinate time conversion unit 63 and sent to the time series information control unit 57. In this example, the designated coordinates may be only the x coordinate xp.
[0427]
For this reason, in step S1504, the time-series information control unit 57 acquires time information designated by the user from the coordinate time conversion unit 63, and sequentially starts from the time-series information recording unit 61 from the time-series information of the corresponding time. Read out and output to the time-series information output unit 58. When time information (the link information described above) is output from the user input information control unit 52 according to the user input, the coordinate time conversion unit 63 is bypassed, and the time information specified by the user is The time series information control unit 57 directly receives from the user input information control unit 52. Whether or not to use link information can be specified when the user selects input information.
[0428]
On the other hand, if it is determined in step S1501 that the command is automatic reproduction, the process proceeds to step S1505, and the corresponding time is determined based on the time information (Ts, Te) of the specific section from the time-series information specific section determination unit 59. The time series information of the section is read from the time series information recording unit 61 and output to the time series information output unit 58. In this embodiment, playback is started from time Ts, and playback is performed until the user explicitly indicates the end of playback.
[0429]
Although omitted in the flowchart of FIG. 48, it is also possible to reproduce time-series information from the time or the time interval when the user inputs time without creating a chart. That is, when receiving the reproduction command and time, the time-series information control unit 57 outputs time-series information corresponding to the time from the time-series information recording unit 61 to the time-series information output unit 58.
[0430]
Next, the operation of the chart creating unit 10 will be described with reference to the flowchart of FIG.
[0431]
If it is determined in step S1600 that a chart creation command has arrived from the time-series information control unit 57, the process proceeds to step S1601, and the time-series information specific section determination unit 59 receives time information (Ts, Te) of a specific section and user input. The information input time is acquired, and information (see FIG. 34) regarding the speech section within the specific section is acquired from the time-series information recording unit 61. Next, the processing proceeds to step S1602, and a speech chart as shown in FIG. 41 and FIG. 50 is created from the acquired speech section information, and the created chart information is output to the time-series information control unit 57. As described above, the time-series information control unit 57 performs control so that the message chart is displayed on the display screen of the display unit 54.
[0432]
An example of the chart shown in FIG. 50 will be described. The size (W, H) of the pop-up window for displaying the chart according to the time information of the specific section output from the time-series information specific section determination unit 59, the position (x0, y0) of the screen indicating the speech status, and the size (Wc, hc) is determined. In this figure, speech sections of conference participants A, B, C, and D are expressed as rectangles.
[0433]
Note that when the distribution (probability) information related to the relative time as described above is also provided from the time-series information specific section determination unit 59, the probability density information is displayed near the time axis as shown in FIG. A graph 80 is displayed. In this case, the distribution (probability) information of the start time of the specific section of the time series information corresponding to the user input information is output together with the statement chart of the specific section. Reflecting this distribution (probability) information on the chart helps the user to reproduce the time-series information from which time.
[0434]
In the example of FIG. 51, it is shown that the part of the first speech section of the speaker B has the strongest correspondence as the start time of the time series information corresponding to the user input information at the input time indicated by the triangle mark 81. Will be.
[0435]
Next, the operation of the coordinate time conversion unit 63 for converting the information on the designated coordinate position into time information on the chart by the user will be described with reference to the flowchart of FIG.
[0436]
That is, the coordinate time conversion unit 63 acquires the coordinate information from the user input information control unit 2 in step S1700, proceeds to the next step S1701, acquires the display position information of the chart from the time series information control unit 57, and sets the coordinates. Calculate the corresponding time. In step S1702, the calculated time is sent to the time-series information control unit 57.
[0437]
FIG. 50 is an explanatory diagram of time calculation in the coordinate time conversion unit 63. If the coordinates (x0, y0) are the origin of the chart, the coordinates of the designated location are (xp, yp), the display time is [Ts, Te], and the display width on the screen in that time interval is wc, the designated time Tp Is
Tp = Ts + (Te−Ts) × (xp−x0) / wc
It becomes.
[0438]
In the above-described embodiment of the information storage / playback apparatus, the example in which the situation when the user inputs is a personal memo or a presentation has been described. However, other situations can be used.
[0439]
For example, meeting ups and laughs, and actions of a specific person are regarded as one situation information or user input information, and there is a highly correlated relationship between the time and the recording position of time series information related to it, You may apply to the information storage / reproducing apparatus of this invention.
[0440]
In the embodiment of the information storage / playback apparatus, the specific section (Ts, Te) is determined from the relationship between the time of memo input and the start time of time series information. However, the presence of memo input time and time series information exists. A specific section (Ts, Te) may be determined in the section.
[0441]
In the above-described information storage / playback device embodiment, the specific section is determined from the input time of the user input information and the relative time information held by the time-series information specific section determination unit. As in the case of the embodiment of the information storage device, the time series corresponding to the user input information is also taken into account, for example, the speech section information, which is the processing result of the time series information processing section as the condition matching section detection section. Of course, a specific section of information may be determined.
[0442]
Further, as in the case of the above-described information storage device embodiment, a sensor is provided, and a condition matching section detecting means for detecting a section in which the detection output information of the sensor matches a predetermined condition set in advance is provided. Of course, the specific section of the time series information corresponding to the user input information may be determined in consideration of the section information detected by the condition matching section detecting means.
[0443]
In addition, the chart has been described with respect to an example of a utterance chart that displays a utterance section as a condition matching section. However, for example, a condition matching section such as a laughter section or a clap section of a conference participant is displayed as a chart. But of course.
[0444]
[Other Embodiments of Information Storage / Reproduction Apparatus]
In presentation-type meetings such as those in the embodiment described above, when each conference participant takes notes individually, after viewing the contents of the presentation, enter the notes about the viewed contents, and write the notes. When the process is completed, the user repeats the operation of viewing the contents of the presentation again and taking notes on the new contents viewed.
[0445]
In the embodiment of the present invention, the user input information is detected by the user input information detecting means as a lump of a series of related input information such as continuous pen strokes and recorded in the user input information storage unit 53. . The break of user input information detected as a lump is detected, for example, when the user input is interrupted for a predetermined time, for example, 15 seconds or more.
[0446]
Therefore, in the case of presentation-type conference, in the case of user input information such as memo input for each conference participant as described above, time series information corresponding to the input time of user input information specified by the user at the time of playback The start time (start time of a specific section) often exists after the input time of user input information immediately before the specified user input.
[0447]
This was confirmed experimentally as follows. That is, as shown in FIG. 53A, the time interval from the input time Tp of the user input information designated for reproduction to the input time Tb of the user input information immediately before is X, and the designated user input information When the time interval from the input time Tp to the start time of the time-series information related to the specified user input information is set to Y, the relationship between the two is examined. The result shown in FIG. 53 (B) is obtained. .
[0448]
In FIG. 53B, the straight line L is a straight line of Y = X. From FIG. 53B, it can be understood that the start time of the time-series information related to the specified user input information is mostly after the input time of the immediately preceding user input information.
[0449]
In this case, the input time Tb immediately before the user input information indicates at least the input start time of the user input information. However, the above applies even when the input time Tb of the immediately preceding user input information is the input end time of the user input information. Further, a time between the user input start time and the end time can be used as a reference.
[0450]
By the way, in the time series information specific section determination unit 59 of the embodiment of the information storage / playback apparatus described above, the input of user input information designated by the user for the playback section of the time series information and the specific section which is the chart display section. Based on the time alone, it was decided with reference to the input status.
[0451]
For this reason, depending on the input time of user input immediately before the specified user input information, in the above-described embodiment, the specified section includes an unnecessarily long section. It may take time. That is, when the input time of the previous user input is included in the specific section, the time series information before the input time of the user input is related to the specified user input information as described above. This is because there are almost no cases.
[0452]
In view of such a situation, the embodiment described below determines a specific section related only to specified user input information by considering the input time of the user input immediately before the specified user input information. Is performed with high accuracy.
[0453]
FIG. 54 is a block diagram showing each processing function unit in a block form in the embodiment of the information storage / playback apparatus in this case. The functional block diagram of FIG. 54 is different from the functional block diagram of the above-described embodiment described with reference to FIG. 30 in that a specific section correction unit 64 is provided for the time series information specific section determination unit 59. Different.
[0454]
In this embodiment, the specific section determined by the time-series information specific section determination unit 59 is determined by the specific section correction unit 64 according to the input time of the user input information immediately before the specified user input information. To correct. In the case of this embodiment, when the user input information is the memo mode, it is detected from the input situation and a correction operation as described later is performed. In this embodiment, when the input state of the user input information is in the presentation mode, the specific section correction unit 64 does not execute the correction operation, and the specific section determined by the time series information specific section determination unit 59 is used as it is. Output.
[0455]
FIG. 55 is a diagram for explaining the correction operation in the specific section correction unit 64. In the example of FIG. 55, the input time of the user input information designated by the user is Tp, and as described above, the time-series information specific section determining unit 59 uses the input status at the time of this user input information. , The specific section of the start time Ts and the end time Te is determined.
[0456]
The specific section correction unit 64 determines whether or not the input time Tb of the user input information immediately before the specified user input information is within the specific section determined by the time series information specific section determination unit 59. As shown in FIG. 55A, when the input time Tb of the user input information immediately before the specified user input information is within the specific section determined by the time-series information specific section determination unit 59, The specific section is corrected so that the specific section starts from the input time Tb of the previous user input information.
[0457]
As shown in FIG. 55 (B), when the input time Tb of the user input information immediately before the designated user input information is before the specific section determined by the time-series information specific section determination unit 59. The specific section determined by the time-series information specific section determination unit 59 is used as it is.
[0458]
As a result, in the memo mode, the specified user input information is excluded by eliminating the time-series information portion that is assumed to be irrelevant to the specified user input information before the user input information immediately before the specified user input information. It is possible to reproduce the time-series information portion corresponding to exactly.
[0459]
In order to enable the above-described correction operation in the specific section correction unit 64, not only the above-described processing operation of the specific section correction unit 64 is necessary, but also in this embodiment, a user input information control unit 52 and the time series information specific section determining unit 59 are different from the above-described embodiment described with reference to FIG.
[0460]
The processing operations of these units will be described below using flowcharts. First, the operation of the user input information control unit 52 will be described with reference to the flowchart of FIG. In this case, the input time of the user input information is, for example, an input start time.
[0461]
First, in step S1800, when the user input information control unit 52 receives an instruction to select any of the user input information displayed on the screen of the display unit 54 through the user input unit 51, the process proceeds to the next step S1801. In this embodiment, user input information is selected by surrounding the displayed user input information with, for example, an electronic pen. The user input information control unit 52 determines the enclosed area and searches the user input information recording unit 53 for user input information existing in the area.
[0462]
In step 1301, the input time Tp of the user input information instructed to select, the status information, and the input time Tb of user input information immediately before the user input information instructed to select are acquired from the user input information recording unit 53. To do. Then, the process proceeds to the next step S1802, and an inquiry message is displayed to the user as to whether the user input is for automatic reproduction of time-series information or creation of a chart to be described later.
[0463]
In response to this, the user makes a selection input for automatic reproduction or chart creation, and accepts this user selection input in step S1803. In the next step S1804, it is determined whether automatic reproduction is selected or chart creation is selected.
[0464]
If automatic playback is selected, the process proceeds to step S1805, where the time series information specifying section determination unit 59 is instructed to input the input time Tp of the instructed user input information, the status information, and the instructed user. Information on the input start time Tb of the user input information immediately before the input information and an automatic reproduction command are sent, and an automatic reproduction command is sent to the time-series information control unit 57.
[0465]
If chart creation is selected, the process proceeds to step S1806, where the time series information specific section determination unit 59 is instructed to input the input time Tp of the instructed user input information, the situation information, and the instructed user. Information on the input time Tb of the user input information immediately before the input information and a chart creation command are sent, and a chart creation command is sent to the time-series information control unit 57.
[0466]
In the above description, as the input time Tb of the immediately preceding user input information, not only the input start time but also the input end time can be used. In addition, as the input time of the user input information immediately before, a time between the input start time and the input end time (for example, an intermediate time between the two) may be used.
[0467]
Also, as the input time Tp of the specified user input information, not only the input start time but also the input end time or an intermediate time between them may be used. Depending on how they are used, the time-series information specific section is determined. 44 and 45 used in the part 59 are different from each other.
[0468]
The input time Tp of the specified user input information and the input time Tb of the user input information immediately before the input time are any of the input start time, the input end time, and an intermediate time between them. Use is independent of each other, and any combination of the three types of time is possible.
[0469]
Next, the operation of the time-series information specific section determination unit 59 in this embodiment will be described with reference to the flowchart of FIG.
[0470]
First, in step S1901, the input time Tp, the situation, the input time Tb of the previous user input information, and a command are acquired from the user input information control unit 52. Next, the process proceeds to step S1902, and the specific section (Ts, Te) of the time series information corresponding to the user input information is calculated from the input time Tp of the user input information and the situation information as described above. .
[0471]
In step S1903, it is determined whether the input status related to the specified user input information is the memo mode or the presentation mode. If it is the memo mode, the process proceeds to step S1904, and the information on the input time Tb of the previous user input information and the information on the specific section (Ts, Te) are sent to the specific section correction unit 64.
[0472]
The specific section correction unit 64 performs correction processing on the determined specific section as described later, and returns information on the specific section of the correction result to the time series information specific section determination unit 59. In the next step S1905, the section determination unit 59 receives the corrected specific section information from the specific section correction unit 64. Then, the process proceeds to next Step S1906.
[0473]
If it is determined in step S1903 that the presentation mode is selected, the process jumps to step S1906 without performing steps S1904 and S1905 of correction by the specific section correction unit 64.
[0474]
In step S1906, it is determined whether the command acquired in step S1901 is an automatic playback command or a chart creation command. If the command is an automatic playback command, the process proceeds to step S1908, and the time-series information control unit 57 stores information on the specific section. (In this example, the start time Ts) and information about the input time Tp of the user input information are sent. If it is a chart creation command, the process proceeds to step S1907, and information on the specific section (start time Ts and end time Te) and information on the input time Tp of the user input information are sent to the chart creation unit 60. Thus, the processing routine of the time series information specific section determining unit 59 ends.
[0475]
Next, FIG. 58 is a flowchart showing a processing routine of the specific section correction unit 64.
[0476]
First, in step S2001, the input time Tb of the user input information immediately before the specified user input information and the information of the specific section (Ts, Te) are acquired from the time series information specific section determination unit 59. Next, proceeding to step S2002, the start time Ts of the specific section is compared with the input time Tb of the previous user input information to determine whether the start time Ts is before the previous input time Tb. To do.
[0477]
When the start time Ts is before the previous input time Tb, the process proceeds to step S2003, the start time of the specific section is changed and corrected from Ts to Tb, and the information of the specific section changed and corrected in the next step S2005 ( Tb, Te) is returned to the time-series information specific section determination unit 59.
[0478]
If the start time Ts is later than the previous input time Tb, the process proceeds to step S2004, the start time of the specific section remains Ts, and the information of the original specific section (in the next step S2005 ( Ts, Te) is returned to the time-series information specific section determination unit 59. Thus, the processing routine of the specific section correction unit 64 ends.
[0479]
In this embodiment, the time-series information specific section determining unit 59 determines the specific section by determining the situation, but it is not always necessary to determine the situation, only the input time Tp of the user input information. Even in the information storage / playback apparatus that determines a specific section from the above, by using the specific section correction unit 64, it is possible to obtain an effect of accurately extracting only the time-series information portion strongly related to the user input information. In particular, as described above, when the user input information is a situation where a personal memo is taken while viewing the presentation, the effect of providing the specific section correction unit 64 is significant.
[0480]
In the above description of the embodiment, the input time Tb of the user input information immediately before is used as it is, but a time obtained by adding or subtracting a certain amount of time (Δt) from the input time Tb may be used. Further, as described above, the improvement effect was confirmed whether the input time Tb was the time when the user input was started or the time when the input was completed.
[0481]
The effect of the specific section correction unit 64 varies depending on the result of the specific section of the time-series information specific section determination unit 59. That is, in the time-series information specific section determination unit 59, when the start time Ts of the specific section is set as a time that is relatively short before the input time Tp of the specified user input information, The effect is not significant. In that case, the section specifying accuracy of the time-series information specifying section determining unit 59 becomes the specifying accuracy.
[0482]
On the other hand, when the start time Ts of the specific section is set as a relatively long time before the input time Tp of the specified user input information in the time series information specific section determination unit 59. The effect of the correction by the specific section correction unit 64 is increased.
[0483]
【The invention's effect】
As described above, according to the information storage device of the present invention, for example, when conference information is stored, user input information, changes in sound and image, sensor detection signal, and user input are detected. The situation can be appropriately combined to identify an important section that is a section in which a characteristic event occurs.
[0484]
The identified important sections are stored with high quality while maintaining time series information such as voice information and image information, and the other sections are compressed with a high compression rate and stored in the time series information storage unit. Thus, even a memory with a small storage capacity can accumulate time-series information for a long time.
[0485]
In addition, since the timing and length of recording an audio signal or an image signal can be changed depending on the type of user input device such as a shared input device or a personal input device, the efficiency can be improved in various embodiments of the conference recording device. Thus, the information storage medium can be saved.
[0486]
Moreover, since the time-series information of the important section is stored with high quality, it is possible to grasp the information content appropriately and reliably when it is reproduced. Therefore, for example, when it is applied when recording and storing conference information with a large amount of information, the information necessary for appropriately grasping the content of the conference is stored with high quality as an important section. Even if it is reduced, the content of the meeting can be grasped properly.
[0487]
Further, by storing the user input information and the important section in association with each other, by specifying the user input information, it is possible to easily reproduce the audio information and the image information of the corresponding important section.
[0488]
Further, according to the information storage / playback apparatus of the present invention, when time series information such as a meeting and a memo are recorded together and the time series information corresponding to the memo is reproduced later using the memo as a clue, the memo is input. Using this situation, time-series information at an appropriate location can be automatically reproduced. This makes it possible to reproduce appropriate time-series information regardless of whether the person is a participant in the conference, the person who entered the memo, or the person who is not.
[0489]
In addition, it is also possible to know the speech status of conference participants in an appropriate range using the status at the time of memo input. Therefore, if it is a participant in the conference, it is easy to recall and determine the part to be reproduced. Further, even if the person is a non-participant in the conference, it is possible to easily guess the part to be reproduced.
[0490]
Further, when the probability information is presented regarding the section to be reproduced, it is possible to obtain certainty about whether necessary information can be obtained in the reproduced section.
[0491]
Further, by correcting the specific section based on the input time of the user input information immediately before the specified user input information, it is possible to accurately specify the section of time series information closely related to the specified user input information. For this reason, it becomes possible to search and acquire desired information efficiently. For example, according to the present invention, it is possible to make the work efficient when creating minutes of meetings, summarizing talks such as lectures, and the like.
[Brief description of the drawings]
FIG. 1 is a functional block for explaining a first embodiment of an information storage device according to the present invention;
FIG. 2 is a diagram illustrating an overview of a system to which an embodiment of the present invention is applied.
FIG. 3 is a diagram for explaining an audio level detection operation of a condition matching section detection unit according to the first embodiment.
FIG. 4 is a diagram illustrating pen stroke input timing, a condition matching section, and an important section in association with each other in the first embodiment.
FIG. 5 is a diagram illustrating an example of setting elements for an important section according to an input situation.
FIG. 6 is a diagram illustrating pen stroke input timing, a condition matching section, and an important section in association with each other in the first embodiment.
7 is a diagram for explaining FIG. 6; FIG.
FIG. 8 is a diagram showing a flow of operations during information recording according to the first embodiment.
FIG. 9 is a flowchart illustrating an example of a processing routine of a condition matching section detection unit according to the first embodiment.
FIG. 10 is a flowchart illustrating an example of a processing routine of a user input information detection unit according to the first embodiment.
FIG. 11 is a flowchart illustrating an example of a processing routine of a user input device specifying unit in the first embodiment.
12 is a diagram illustrating pen stroke input timing, an important section, and a storage state of a time-series storage unit in association with each other according to the first embodiment. FIG.
FIG. 13 is a diagram illustrating a storage state for one pen handwriting of correspondence relationship information stored in a correspondence relationship storage unit according to the first embodiment.
FIG. 14 is a flowchart illustrating a part of an example of a processing routine of a correspondence relationship storage unit in the first embodiment.
FIG. 15 is a flowchart showing a part of an example of a processing routine of the correspondence relationship storage unit in the first embodiment.
FIG. 16 is a flowchart of an example of a processing routine of a time-series information storage unit in the first embodiment.
FIG. 17 is a flowchart of an example of a processing routine of a time information storage unit in the first embodiment.
FIG. 18 is a diagram illustrating an example of a storage structure of a time information storage unit in the first embodiment.
FIG. 19 is a diagram illustrating another example of the storage structure of the time information storage unit in the first embodiment.
FIG. 20 is a diagram illustrating a flow of operation during information compression in the first embodiment.
FIG. 21 is a flowchart illustrating an example of a processing routine of a compression unit according to the first embodiment.
FIG. 22 is a diagram for explaining the comparison between the pre-compression storage state and the post-compression storage state of the image information stored in the time-series information storage unit in the first embodiment.
FIG. 23 is a functional block for explaining a second embodiment of the information storage device according to the present invention;
FIG. 24 is a diagram showing a flow of operations during information recording according to the second embodiment.
FIG. 25 is a diagram for explaining storage contents of a temporary storage unit according to the second embodiment;
FIG. 26 is a part of a flowchart of an example of a processing routine of a temporary storage unit according to the second embodiment.
FIG. 27 is a part of a flowchart of an example of a processing routine of a temporary storage unit according to the second embodiment.
FIG. 28 is a diagram for explaining a system to which an embodiment of the information storage / playback apparatus according to the present invention is applied;
FIG. 29 is a diagram showing a status setting screen in the embodiment of the information storage / playback apparatus according to the present invention;
FIG. 30 is a functional block diagram of an embodiment of an information storage / playback apparatus according to the present invention;
FIG. 31 is an overview of an embodiment of an information storage / playback apparatus according to the present invention;
FIG. 32 is a flowchart for explaining the operation of the time-series information processing unit in the embodiment of the information storage / reproduction device according to the present invention;
33 is a diagram for explaining the operation of the time-series information processing unit in FIG. 32;
34 is a diagram showing a data structure of a utterance situation of a processing result of the time-series information processing unit in FIG. 32. FIG.
FIG. 35 is a flowchart for explaining the recording operation of the user input information control unit in the embodiment of the information storage / playback apparatus according to the present invention;
36 is a flowchart of a user input information cut-out operation in the user input information control unit of FIG. 35;
FIG. 37 is a diagram for describing a user input information cut-out operation in the user input information control unit of FIG. 35;
FIG. 38 is a diagram showing an example of a data structure recorded in a user input information recording unit in the embodiment of the information storing / reproducing apparatus according to the present invention;
FIG. 39 is a flowchart of the operation of the situation specifying unit in the embodiment of the information storage / playback apparatus according to the present invention;
FIG. 40 is a flowchart of another example of the operation of the situation specifying unit in the embodiment of the information storing / reproducing apparatus according to the present invention;
FIG. 41 is a diagram showing an example of a statement chart in the embodiment of the information storage / reproduction device according to the present invention;
FIG. 42 is a diagram showing a flowchart of the operation at the time of recording by the user input information control unit in the embodiment of the information storage / reproduction device according to the present invention;
FIG. 43 is a diagram showing a flowchart of the operation of the time-series information specific section determination unit in the embodiment of the information storage / playback apparatus according to the present invention.
FIG. 44 is a diagram for describing information for determining a relative time for determining a specific section possessed by a time-series information specific section determining section in the embodiment of the information storage / reproducing apparatus according to the present invention;
FIG. 45 is a diagram showing an example of relative time for determining a specific section possessed by a time-series information specific section determining section in the embodiment of the information storage / reproducing apparatus according to the present invention;
FIG. 46 is a diagram illustrating an example of a frequency distribution of relative time with respect to an input time point of user input information in which a start time point of a specific section of time series information corresponding to the user input information exists.
FIG. 47 is a diagram illustrating, for each situation, an example of a frequency distribution of relative time with respect to an input time point of user input information in which a start time point of a specific section of time-series information corresponding to the user input information exists.
FIG. 48 is a diagram showing a flowchart of the operation at the time of reproduction of the time-series information control unit in the embodiment of the information storage / reproduction device according to the present invention.
FIG. 49 is a diagram showing a flowchart of the operation of the chart creating unit in the embodiment of the information storing / reproducing apparatus according to the present invention;
FIG. 50 is a diagram illustrating an example of an instruction by a user on a display example of a message chart.
FIG. 51 is a diagram illustrating an example in which a message chart and a frequency distribution of relative time with respect to an input time point of user input information in which a start point of a specific section of time series information corresponding to the user input information exists are displayed together; is there.
FIG. 52 is a diagram showing a flowchart of the operation of the coordinate conversion unit in the embodiment of the information storage / reproduction device according to the present invention;
FIG. 53 is a diagram for explaining another embodiment of the information storing / reproducing apparatus according to the present invention;
FIG. 54 is a functional block diagram of another embodiment of the information storage / reproduction device according to the present invention.
FIG. 55 is a diagram for explaining an operation of a main part of another embodiment of the information storing / reproducing apparatus according to the present invention;
FIG. 56 is a flowchart of operation of a user input information control unit in another embodiment of the information storage / playback apparatus according to the present invention;
FIG. 57 is a flowchart of the operation of a time-series information specific section determination unit in another embodiment of the information storage / playback apparatus according to the present invention.
FIG. 58 is a flowchart of the operation of a specific section correction unit in another embodiment of the information storage / playback apparatus according to the present invention.
[Explanation of symbols]
1 Voice information input section
2 Image information input section
3 Condition matching section detector
4 Time series information storage
5 User input information input section
6 User input information detector
7 User input device identification part
8 Important section determination section
9 Correspondence storage unit
10 Compression unit
11 Time information storage
12 Playback unit
13 Playback instruction section
14 Display section
15 Control unit
16 Temporary storage
20 Electronic conferencing equipment
21 Display screen of monitor device
23 Electronic pen
24 cameras
25 Microphone
26 Voice signal analyzer
27 Storage media
28 Speaker
29 meeting participants
30 Small computer (personal electronic notebook device)
41 Shared electronic blackboard
42 video camera
43 Microphone
51 User input section
52 User Input Information Control Unit
53 User input information recording section
54 Display
55 Time-series information input section
56 Time Series Information Processing Department
57 Time Series Information Control Unit
58 Time-series information output section
59 Time-series information specific section determination section
60 Chart generator
61 Time-series information recording part
62 Situation Identification Department
63 Coordinate time converter
64 Specific section correction section

Claims (7)

少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
音声情報または画像情報を入力するための時系列情報入力手段と、
前記ユーザ入力情報検出手段によって検出された前記ユーザ入力情報と、前記ユーザ入力状況特定手段によって特定された前記入力状況とに基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
を備える時系列情報の特定区間決定装置。
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers to each User input information input means for receiving the user input information from a plurality of user input devices that output the user input information in a state in which an input situation can be specified ;
User input information detecting means for detecting said user input information input from the user input information input means,
The user input information detected by the user input information detection means has a function of specifying an input status of at least user input information from the shared input device or user input information from the personal input device, respectively. User input status identification means;
Time-series information input means for inputting audio information or image information;
And wherein the user input information detected by the user input information detecting means, based on said input state identified by said user input state specifying means, among the audio information or image information from the time-series information input means A specific section for determining a section of time-series information in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device. A determination means;
A specific section determination device for time-series information comprising:
少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
音声情報または画像情報を入力するための時系列情報入力手段と、
前記ユーザ入力情報検出手段によって検出された前記ユーザ入力情報と、前記ユーザ入力状況特定手段によって特定された前記入力状況とに基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
前記時系列情報入力手段から入力された前記音声情報または前記画像情報を記憶する時系列情報記憶手段と、
前記時系列情報記憶手段に記憶された音声情報または画像情報のデータ量を圧縮する手段であって、前記特定区間決定手段で決定された区間と、他の区間とで、圧縮率あるいは圧縮方式を変更して、前記時系列情報記憶手段に記憶された前記音声情報または前記画像情報のデータ圧縮を行う圧縮手段と、
を備えることを特徴とする情報蓄積装置。
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers to each User input information input means for receiving the user input information from a plurality of user input devices that output the user input information in a state in which an input situation can be specified ;
User input information detecting means for detecting said user input information input from the user input information input means,
The user input information detected by the user input information detection means has a function of specifying an input status of at least user input information from the shared input device or user input information from the personal input device, respectively. User input status identification means;
Time-series information input means for inputting audio information or image information;
And wherein the user input information detected by the user input information detecting means, based on said input state identified by said user input state specifying means, among the audio information or image information from the time-series information input means A specific section for determining a section of time-series information in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device. A determination means;
Time series information storage means for storing the audio information or the image information input from the time series information input means;
And means for compressing the data amount of the time series information audio information or image information stored in the storage means, before Kitoku at the interval determined by the constant interval determining means, and the other section, the compression ratio or compression A compression unit that changes the method and performs data compression of the audio information or the image information stored in the time-series information storage unit;
An information storage device comprising:
少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状 況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
音声情報または画像情報を入力するための時系列情報入力手段と、
前記ユーザ入力情報検出手段によって検出された前記ユーザ入力情報と、前記ユーザ入力状況特定手段によって特定された前記入力状況とに基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
前記時系列情報入力手段から入力された前記音声情報または前記画像情報を記憶する時系列情報記憶手段と、
記特定区間決定手段で決定された区間を示す区間情報と、当該区間情報に対応する前記音声情報または前記画像情報の前記時系列情報記憶手段における記憶位置との対応関係を記憶する対応関係記憶手段と、
前記時系列情報記憶手段に記憶された前記音声情報または前記画像情報のデータ量を圧縮する手段であって、前記対応関係記憶手段に記憶された前記区間情報によって定められる区間と、他の区間とで、圧縮率あるいは圧縮方式を変更して、前記時系列情報記憶手段に記憶された前記音声情報または画像情報のデータ圧縮を行う圧縮手段と、
を備えることを特徴とする情報蓄積装置。
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers to each User input information input means for receiving the user input information from a plurality of user input devices that output the user input information in a state in which an input situation can be specified ;
User input information detecting means for detecting said user input information input from the user input information input means,
Wherein said user input information detected by the user input information detecting means, the user input information from at least the common input device, the user input information of the input-like status from the personal input device, a function of specifying each A user input situation specifying means comprising:
Time-series information input means for inputting audio information or image information;
And wherein the user input information detected by the user input information detecting means, based on said input state identified by said user input state specifying means, among the audio information or image information from the time-series information input means A specific section for determining a section of time-series information in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device. A determination means;
Time series information storage means for storing the audio information or the image information input from the time series information input means;
Correspondence storing the segment information indicating the pre Kitoku interval determined by the constant interval determining means, the correspondence between the storage locations in the time-series data storing means of the audio information or the image information corresponding to the section information Storage means;
And means for compressing the data amount of the time-series data storing means and the voice information or the image information stored in the region determined by the section information stored in the correspondence relation storage unit, and the other section The compression means for changing the compression rate or the compression method and compressing the audio information or the image information stored in the time-series information storage means,
An information storage device comprising:
少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
音声情報または画像情報を入力するための時系列情報入力手段と、
前記ユーザ入力情報検出手段によって検出された前記ユーザ入力情報と、前記ユーザ入力状況特定手段によって特定された前記入力状況とに基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
前記音声情報または画像情報を一時記憶する一時記憶手段と、
前記一時記憶手段に一時記憶された音声情報または画像情報のうちの、前記特定区間決定手段により決定された区間の音声情報または画像情報を、前記ユーザ入力情報検出手段で検出されたユーザ入力情報に対応する情報として記憶する時系列情報記憶手段と、
記特定区間決定手段で決定された区間の区間情報と、当該区間に対応する前記音声情報または画像情報の前記一時記憶手段における記憶位置との対応関係を記憶する対応関係記憶手段と、
前記一時記憶手段に記憶された前記音声情報または前記画像情報の内の、前記時系列情報記憶手段に記憶する前記音声情報または前記画像情報のデータ量を圧縮する手段であって、前記対応関係記憶手段に記憶されている前記特定区間決定手段で決定された区間と、他の区間とで、圧縮率あるいは圧縮方式を変更して、前記音声情報または前記画像情報のデータ圧縮を行う圧縮手段と、
を備えることを特徴とする情報蓄積装置。
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers to each User input information input means for receiving the user input information from a plurality of user input devices that output the user input information in a state in which an input situation can be specified ;
User input information detecting means for detecting said user input information input from the user input information input means,
The user input information detected by the user input information detection means has a function of specifying an input status of at least user input information from the shared input device or user input information from the personal input device, respectively. User input status identification means;
Time-series information input means for inputting audio information or image information;
And wherein the user input information detected by the user input information detecting means, based on said input state identified by said user input state specifying means, among the audio information or image information from the time-series information input means A specific section for determining a section of time-series information in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device. A determination means;
Temporary storage means for temporarily storing the audio information or image information;
Of the audio information or image information temporarily stored in the temporary storage means, before Kitoku audio information or image information of the determined period by the constant interval determining means, user input detected by the user input information detecting means Time-series information storage means for storing information corresponding to the information;
And section information of the determined period before Kitoku constant interval determining means, and correspondence storage means for storing correspondence between the storage locations in said temporary storage means of the audio information or image information corresponding to the section,
The means for compressing the data amount of the audio information or the image information stored in the time-series information storage means among the audio information or the image information stored in the temporary storage means, the correspondence relationship storage a section before being stored Kitoku determined by a constant interval determining means to the means, in the other section, by changing the compression ratio or compression method, compression means for performing data compression of the audio information or the image information When,
An information storage device comprising:
少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数 のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
音声情報または画像情報を入力するための時系列情報入力手段と、
前記ユーザ入力情報検出手段によって検出された前記ユーザ入力情報と、前記ユーザ入力状況特定手段によって特定された前記入力状況とに基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
前記時系列情報入力手段から入力された前記音声情報または前記画像情報を記憶する時系列情報記憶手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報を表示画面に表示する表示手段と、
前記ユーザ入力情報と、前記ユーザ入力情報の前記表示画面上の表示位置を特定するための情報と、前記ユーザ入力情報のそれぞれについて、前記特定区間決定手段で決定された区間に対応する前記音声情報または画像情報の前記時系列情報記憶手段における記憶位置との対応関係を記憶する対応関係記憶手段と、
前記表示画面に表示されたユーザ入力情報に関連する表示部分を指定する指定手段と、
前記指定手段により指定されたユーザ入力情報によって特定される、前記対応関係記憶手段に記憶されている前記時系列情報記憶手段における記憶位置に基づいて特定される区間の音声情報または画像情報を再生する再生手段と、
を具備することを特徴とする情報蓄積装置。
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers to each User input information input means for receiving the user input information from a plurality of user input devices that output the user input information in a state in which an input situation can be specified ;
User input information detecting means for detecting said user input information input from the user input information input means,
The user input information detected by the user input information detection means has a function of specifying an input status of at least user input information from the shared input device or user input information from the personal input device, respectively. User input status identification means;
Time-series information input means for inputting audio information or image information;
And wherein the user input information detected by the user input information detecting means, based on said input state identified by said user input state specifying means, among the audio information or image information from the time-series information input means A specific section for determining a section of time-series information in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device. A determination means;
Time series information storage means for storing the audio information or the image information input from the time series information input means;
Display means for displaying the user input information detected by the user input information detection means on a display screen;
And the user input information, wherein said display information for specifying the display position on the screen of the user input information, for each of said user input information, before Kitoku the corresponding to the determined period by the constant interval determining means Correspondence storage means for storing the correspondence with the storage position in the time-series information storage means of audio information or image information;
Designating means for designating a display portion related to the user input information displayed on the display screen;
The audio information or the image information of the section specified based on the storage position in the time series information storage means stored in the correspondence storage means specified by the user input information specified by the specification means is reproduced. Reproduction means;
An information storage device comprising:
少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報と、前記ユーザ入力情報の入力時間に関する情報と、前記ユーザ入力情報に関して前記ユーザ入力状況特定手段で特定された前記入力状況とを記録するユーザ入力情報記録手段と、
音声情報または画像情報の時系列情報を入力するための時系列情報入力手段と、
前記時系列情報入力手段から入力された前記音声情報または前記画像情報を記録する時系列情報記録手段と、
前記ユーザ入力情報記録手段に記録された前記ユーザ入力情報を表示する表示手段と、
前記表示手段により表示された前記ユーザ入力情報のうちの一つを選択指示する指定手段と、
前記指定手段により指定された前記ユーザ入力情報の、少なくとも、入力時間に関する情報と、前記入力状況とに基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
前記時系列情報記録手段に記録されている前記時系列情報のうちの、前記特定区間決定手段により決定された特定の区間に対応する前記時系列情報を再生する時系列情報再生手段と、
を備えることを特徴とする情報蓄積再生装置。
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers to each User input information input means for receiving the user input information from a plurality of user input devices that output the user input information in a state in which an input situation can be specified ;
User input information detecting means for detecting said user input information input from the user input information input means,
The user input information detected by the user input information detection means has a function of specifying an input status of at least user input information from the shared input device or user input information from the personal input device, respectively. User input status identification means;
User who records and the user input information detected by the user input information detecting means, and information about the input time of the user input information, and said input status identified by the user input state specifying means with respect to the user input information Input information recording means;
Time-series information input means for inputting time-series information of audio information or image information;
Time series information recording means for recording the audio information or the image information input from the time series information input means;
Display means for displaying the user input information recorded in the user input information recording means;
Designation means for selecting and instructing one of the user input information displayed by the display means;
A specific section of the audio information or image information from the time-series information input unit based on at least information related to the input time and the input status of the user input information specified by the specifying unit Specific section determining means for determining a section of time-series information in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device ;
Time-series information reproducing means for reproducing the time-series information corresponding to the specific section determined by the specific-section determining means among the time-series information recorded in the time-series information recording means ;
An information storage / playback apparatus comprising:
少なくとも複数のユーザが共用で参照する共用入力装置と、各ユーザが各個に参照する個人用入力装置とを含み、前記共用入力装置または前記個人用入力装置のいずれからのユーザ入力情報であるかの入力状況を特定可能の状態で前記ユーザ入力情報を出力する複数のユーザ入力装置からの前記ユーザ入力情報を受けるユーザ入力情報入力手段と、
前記ユーザ入力情報入力手段から入力された前記ユーザ入力情報を検出するユーザ入力情報検出手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報が、少なくとも前記共用入力装置からのユーザ入力情報か、前記個人用入力装置からのユーザ入力情報かの入力状況を、それぞれ特定する機能を備えるユーザ入力状況特定手段と、
前記ユーザ入力情報検出手段で検出された前記ユーザ入力情報と、前記ユーザ入力情報の入力時間に関する情報と、前記ユーザ入力情報に関して前記ユーザ入力状況特定手段で特定された前記入力状況とを記録するユーザ入力情報記録手段と、
音声情報または画像情報の時系列情報を入力するための時系列情報入力手段と、
前記時系列情報入力手段から入力された前記音声情報または前記画像情報を記録する時系列情報記録手段と、
前記ユーザ入力情報記録手段に記録された前記ユーザ入力情報を表示する表示手段と、
前記表示手段により表示された前記ユーザ入力情報のうちの一つを選択指示する指定手段と、
前記指定手段により指定された前記ユーザ入力情報の、少なくとも、入力時間に関する情報に基づいて、前記時系列情報入力手段よりの前記音声情報または画像情報の内の、特定の区間を決定するものであって、前記ユーザ入力状況特定手段で特定された入力状況が、前記共用入力装置か前記個人用入力装置かで異なる時系列情報の区間を決定する特定区間決定手段と、
前記特定区間決定手段により決定された区間を、前記指定手段で選択指示された前記ユーザ入力情報の直前のユーザ入力情報の入力時刻に基づいて補正する特定区間補正手段と、
前記時系列情報記録部に記録されている前記時系列情報のうちの、前記特定区間決定手段により決定された特定の区間に対応する前記時系列情報を再生する時系列情報再生手段と、
を備えることを特徴とする情報蓄積再生装置。
Whether the user input information is from the shared input device or the personal input device, including at least a shared input device shared by a plurality of users and a personal input device to which each user refers to each User input information input means for receiving the user input information from a plurality of user input devices that output the user input information in a state in which an input situation can be specified ;
User input information detecting means for detecting said user input information input from the user input information input means,
The user input information detected by the user input information detection means has a function of specifying an input status of at least user input information from the shared input device or user input information from the personal input device, respectively. User input status identification means;
A user who records the user input information detected by the user input information detection means, information related to the input time of the user input information, and the input status specified by the user input status specification means regarding the user input information Input information recording means;
Time-series information input means for inputting time-series information of audio information or image information;
Time series information recording means for recording the audio information or the image information input from the time series information input means;
Display means for displaying the user input information recorded in the user input information recording means;
Designation means for selecting and instructing one of the user input information displayed by the display means;
The user input information specified by the specifying means, at least, based on the information about the input time of said voice information or image information from the time-series information input means, be one that determines the specific section Specific section determining means for determining a section of time-series information in which the input status specified by the user input status specifying means is different depending on the shared input device or the personal input device ;
A specific section correcting means for correcting, based the determined period by the specific section determination unit, the input time of the user input information immediately before the user input information selected designated by the designation unit,
Time-series information reproducing means for reproducing the time-series information corresponding to the specific section determined by the specific-section determining means out of the time-series information recorded in the time-series information recording unit;
An information storage / playback apparatus comprising:
JP04749198A 1997-07-24 1998-02-27 Time-series information specific section determination device, information storage device, and information storage / playback device Expired - Fee Related JP4096132B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04749198A JP4096132B2 (en) 1997-07-24 1998-02-27 Time-series information specific section determination device, information storage device, and information storage / playback device

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP19901297 1997-07-24
JP9-234773 1997-08-29
JP9-199012 1997-08-29
JP23477397 1997-08-29
JP04749198A JP4096132B2 (en) 1997-07-24 1998-02-27 Time-series information specific section determination device, information storage device, and information storage / playback device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007324422A Division JP4240235B2 (en) 1997-07-24 2007-12-17 Time-series information specific section determination device, information storage device, and information storage / playback device

Publications (2)

Publication Number Publication Date
JPH11136606A JPH11136606A (en) 1999-05-21
JP4096132B2 true JP4096132B2 (en) 2008-06-04

Family

ID=27292992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04749198A Expired - Fee Related JP4096132B2 (en) 1997-07-24 1998-02-27 Time-series information specific section determination device, information storage device, and information storage / playback device

Country Status (1)

Country Link
JP (1) JP4096132B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7802074B2 (en) 1992-03-31 2010-09-21 Sanjiv Garg Superscalar RISC instruction scheduling
US7979678B2 (en) 1992-12-31 2011-07-12 Seiko Epson Corporation System and method for register renaming
US8074052B2 (en) 1992-12-31 2011-12-06 Seiko Epson Corporation System and method for assigning tags to control instruction processing in a superscalar processor

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3784583B2 (en) 1999-08-13 2006-06-14 沖電気工業株式会社 Audio storage device
JP2006127367A (en) * 2004-11-01 2006-05-18 Sony Corp Information management method, information management program, and information management apparatus
JP4694222B2 (en) * 2005-02-28 2011-06-08 パイオニア株式会社 Minutes reproduction method, conference terminal, and conference server in a network conference system.
JP4876605B2 (en) * 2006-02-07 2012-02-15 富士ゼロックス株式会社 Electronic conference system, electronic conference support program, and conference control terminal device
JP2007215053A (en) * 2006-02-10 2007-08-23 Fuji Xerox Co Ltd Apparatus and method for creating minutes
JP4984952B2 (en) * 2007-02-20 2012-07-25 セイコーエプソン株式会社 Display device, display device control method, and display device control program
JP4451892B2 (en) * 2007-03-19 2010-04-14 株式会社リコー Video playback device, video playback method, and video playback program
JP4793377B2 (en) * 2007-11-16 2011-10-12 カシオ計算機株式会社 Projection recording apparatus, on-screen information recording method, and program
JP5244434B2 (en) * 2008-03-27 2013-07-24 東芝テック株式会社 Sound evaluation method, sound evaluation apparatus, and sound evaluation program
WO2013061389A1 (en) * 2011-10-27 2013-05-02 株式会社シナジードライブ Conference-call system, content-display system, and digest-content playback method and program
WO2013061497A1 (en) * 2011-10-27 2013-05-02 株式会社シナジードライブ Content evaluation/playback device
JP2013236244A (en) * 2012-05-09 2013-11-21 Sharp Corp Recording/reproducing apparatus
JP6244605B2 (en) * 2013-07-05 2017-12-13 株式会社クローバーホールディング Image creation system
JP6237753B2 (en) * 2015-12-09 2017-11-29 カシオ計算機株式会社 Information display device, server, and program
JP7061860B2 (en) * 2017-10-02 2022-05-02 シャープ株式会社 Digest data generation device, digest data playback device, digest data generation system, digest data generation method and program
JP7278051B2 (en) * 2018-10-10 2023-05-19 三菱電機株式会社 Imaging device and data storage method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7802074B2 (en) 1992-03-31 2010-09-21 Sanjiv Garg Superscalar RISC instruction scheduling
US7979678B2 (en) 1992-12-31 2011-07-12 Seiko Epson Corporation System and method for register renaming
US8074052B2 (en) 1992-12-31 2011-12-06 Seiko Epson Corporation System and method for assigning tags to control instruction processing in a superscalar processor

Also Published As

Publication number Publication date
JPH11136606A (en) 1999-05-21

Similar Documents

Publication Publication Date Title
JP3733984B2 (en) Information storage device and information storage method
JP4096132B2 (en) Time-series information specific section determination device, information storage device, and information storage / playback device
JP4240235B2 (en) Time-series information specific section determination device, information storage device, and information storage / playback device
JP3230569B2 (en) Information storage device, information storage method, and information storage and playback device
JP3758754B2 (en) Information storage / reproduction apparatus and information storage / reproduction method
JP3143125B2 (en) System and method for recording and playing multimedia events
JP3526067B2 (en) Reproduction device and reproduction method
US5949952A (en) Audio and video transcription system for manipulating real-time testimony
JP4439462B2 (en) Information presenting method, information presenting apparatus, and information presenting program
JP3185505B2 (en) Meeting record creation support device
JP7061860B2 (en) Digest data generation device, digest data playback device, digest data generation system, digest data generation method and program
US20070165105A1 (en) Multimedia conference recording and manipulation interface
US20070260457A1 (en) Audio And Video Transcription System For Manipulating Real-Time Testimony
US10565246B2 (en) Information processing apparatus, information processing method, and information processing system
JP2001256335A (en) Conference recording system
JP2005267279A (en) Information processing system and information processing method, and computer program
JP2004343756A5 (en)
US6724918B1 (en) System and method for indexing, accessing and retrieving audio/video with concurrent sketch activity
JPH07219970A (en) Method and apparatus for reproduction in acceleration format
JP2007159098A (en) Content presentation device and content presentation program
JPH06266632A (en) Method and device for processing information of electronic conference system
JP2004173058A (en) Method and device for visualizing conference information, and program and recording medium with the program recorded
JP3960646B2 (en) Information storage device and information storage method
JPH0798734A (en) Working state controller
JP2008219142A (en) Device and method for displaying conference minutes

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071017

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080226

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110321

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120321

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130321

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130321

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140321

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees