JP3736597B2 - Statement structure information presentation apparatus and statement structure information presentation method - Google Patents

Statement structure information presentation apparatus and statement structure information presentation method Download PDF

Info

Publication number
JP3736597B2
JP3736597B2 JP06912498A JP6912498A JP3736597B2 JP 3736597 B2 JP3736597 B2 JP 3736597B2 JP 06912498 A JP06912498 A JP 06912498A JP 6912498 A JP6912498 A JP 6912498A JP 3736597 B2 JP3736597 B2 JP 3736597B2
Authority
JP
Japan
Prior art keywords
information
conference
speech
discussion
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP06912498A
Other languages
Japanese (ja)
Other versions
JPH11272679A (en
Inventor
恵理子 田丸
浩 桂林
隆 大澤
茂彦 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP06912498A priority Critical patent/JP3736597B2/en
Publication of JPH11272679A publication Critical patent/JPH11272679A/en
Application granted granted Critical
Publication of JP3736597B2 publication Critical patent/JP3736597B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、記録した音声情報や映像情報からなる会議情報のうちから、ユーザが特に再生を必要とする特定区間を検索する際に使用して好適な発言構造情報提示装置および発言構造情報提示方法に関する。
【0002】
【従来の技術】
会議では、多くの情報が会話による音声情報として生成される。これらのうち、ホワイトボードや議事録にテキスト情報として記録される情報は、わずかであり、多くの重要な情報が記録されない、あるいは正確に思い出せないなどの問題がある。
【0003】
この問題に対して、会議で発生するあらゆる情報を記録しておく会議記録装置があり、この会議記録装置の一例が、特開平6−343146号公報に記載されている。ここでは、マイクロフォンから入力された音声情報、ビデオカメラから入力された映像情報、ペン入力によるテキスト情報や図形情報など、あらゆるマルチメディア情報がもれなく記録される。
【0004】
このような会議記録装置においては、会議の内容を思い出そうとしたとき、どのようにして、適切に必要な場所へアクセスできるのかが重要な問題となる。しかし、リアルタイムに参加者が、各会議場面にインデックスを貼付するのは極めて困難である。この点、会議終了後、人間により、手動によって、適切なインデックス付けがなされれば、効果的なインデックスが可能である。
【0005】
しかしながら、このようなインデックス付けの手間は莫大である。さらに、後で必要な情報は、検索を行う人それぞれによって、あるいは時間の経過に伴って変化することが多く、あらかじめ決められたインデックスで十分な検索を行うことは困難である。したがって、会議中に発生する多様な手がかり情報から、人手をわずらわせず、自動的に効果的なインデックスを提供する方法が検討されている。
【0006】
特開平6−343146号公報では、ペンによる入力手段によって、テキストやジェスチャーが入力された時刻をインデックスとして、音声や映像情報を検索できる手段を提供している。会議参加者は、重要な発言が発生すると、しばしば手書きメモをとる。このことから、手書きメモを行った時刻をインデックスとすることで、会議の重要情報に効果的にアクセスすることが可能となる。
【0007】
また、特開平7−182365号公報では、会議資料から該当するデータにアクセスすることができる。ここでは、指定された会議資料が参照された時間帯をユーザに提示する。さらに絞り込みを行う際には、これ以外の時間帯を検索対象から排除することにより、参照資料による会議情報へのアクセスを効率的に行うことができる。
【0008】
また、特開平8−317365号公報では、会議の発言者の音声データを、データの記憶量の大きさに応じた長さで時系列的にグラフ化することが記載されている。これにより、どのような順序で、誰が、どのくらいの長さ発言を行ったのかを示す発言構造を、グラフとして視覚化することができる。
【0009】
したがって、会議参加者は、会議終了後でも、前記の発言構造の情報から、自身が参加した会議の会議内容を、ある程度想起することができ、重要な、あるいは、必要とする情報の記録場所にアクセスすることが可能となる。この技術の利点は、高度な音声認識技術や辞書を必要としないこと、会議参加者の明示的な指示が必要なく、記録された情報だけから自動的に作成可能な点である。
【0010】
「Speaker Segmentation」(Donald G. Kimber, lynn D. Wilcox, Francine R. Chen, and Thomas Moran : "Speaker Segmentation for Browsing Recorded Audio", CHI'95 Proceedings( short paper), pp.212-213 )も、同様に発言構造を視覚化する手段を提供するが、ここでは、表示されている発言構造情報が、会議全体においてどの部分であるのかを提示することにより、アクセス者が所望するアクセス個所を容易に絞り込むことが可能となる。
【0011】
さらに、発言構造を視覚化する技術として、「gIBIS」(Jeff Conklin, KC Burgess Yakemovic "A Process-Oriented Approach to Design Rationale", HUMAN-COMPUTER INTERACTION, 1991, Vol.6, pp.357-391 )がある。ここでは、あらかじめ、発言者はどの発言に対してどのような性質の発言を行うのかを明示的に宣言することで発言を行う。このような発言に関する属性情報から、発言構造が抽出され、発言構造グラフとして視覚化される。また、議論の参照者はこの発言構造グラフを介して、個々の発言にアクセスすることができる。
【0012】
構造のない情報から構造単位を抽出する技術として、「Forget−me−not」(Mik Lamming and Mike Flynn "Forget-me-not: 人間の記憶を支援する密着型コンピューティング", 認知科学 Vol.2 No.1, pp.16-25 )がある。ここでは、「会議に参加した」「人と出会った」「電話をした」などの人間の行動記録が、人間の記憶であるエピソード記憶に沿ったスキーマで抽出され記録される。すなわち、エピソードという記憶単位で人間の行動を構造化している。
【0013】
【発明が解決しようとする課題】
しかしながら、特開平6−343146号公報の技術では、会議参加者は議論に熱中すると、メモがとれないという問題点が存在する。したがって、このような会議参加者の能動的な指示および行為を必要とするインデックスは、効果的なものが多い反面、もれも多い。また、十分なインデックスを作成しようと思ったら、会議参加者は、多くのメモを取らなければならず、負担が増す。また、メモが取れたとしても、必ずしもメモの時刻が該当する発言と同期しているとは限らず、メモだけから正確に所望する発言へとアクセスすることは困難である。
【0014】
また、特開平7−182365号公報の参照資料によるアクセスでは、その参照資料に関連する情報が存在している時間帯は抽出されるが、時系列データであるために、その参照資料にかかわる議論の全体構造を見渡すことができない。
【0015】
さらに、特開平8−317365号公報の発言構造を用いたインデックスは、できるだけ会議参加者に負担をかけず、十分なインデックスを自動的に抽出するための方法であり、メモによるアクセス手段の問題点を解決している。しかしながら、会議の開始時刻から終了時刻まで発言単位で時系列に表示されるだけで、表示されている発言構造が会議全体の中のどの辺りの情報であるのかがわからないという問題がある。
【0016】
「Speaker Segmentation」における会議全体時間表示はこの問題を解決する。しかしながら、ここでも、会議中のどの部分に所望する発言が存在するのかという目安は、記憶に頼らなければならない。
【0017】
以上のことから、手書メモや会議資料は、所望する情報がどの当たりにあるのかに関する大まかな情報を提供するが、発言構造と同期していないために正確な発言にアクセスする情報とはならない。一方、発言構造の場合は、場所が特定できれば発言構造から特定の発言にアクセスすることが容易となるが、大まかな場所を特定できない。すなわち、これらのアクセス手段は互いに補完しあうことによって、効率のよいアクセス手段が提供できる可能性が存在する。
【0018】
また、発言構造情報に関して、発言単位での構造を提供するものは存在するが、複数の発言群を一つの固まりとして区分けする部分構造を提供するものは存在しない。これに対して、gIBISは、発言に部分構造を与える手段を提供するが、あらかじめ発言の関係やタイプなど属性を決めて発言することは、きわめて困難である。
【0019】
Forget−me−notは、自動的に構造を抽出することで、上記の問題を解決するが、発言群から1構造単位として抽出するには、抽出する情報単位の粒度が大きすぎて、発言構造の部分構造化には適応できない。
【0020】
この発明は、以上の問題点にかんがみ、関連のある複数の発言群ごとに適切な発言構造区間を特定し、提示することにより、会議情報の再生に際し、所望する個所に効率よくアクセスするための発言構造情報提示装置を提供することを目的とするものである。
【0021】
【課題を解決するための手段】
上記課題を解決するため、請求項1の発明による発言構造情報提示装置は、
会議の議論の対象となる複数の会議資料のそれぞれを識別する資料識別情報と、前記複数の会議資料のそれぞれの提示時間区間情報とを記憶する第1の記憶手段と、
会議の音声情報から検出された複数の会議参加者のそれぞれの発言区間の時間情報と、各発言がなされたときに提示されていた会議資料の前記資料識別情報とを記憶する第2の記憶手段と、
前記複数の会議資料のうち、ユーザにより選択指示された会議資料を判別する資料判別手段と、
前記資料判別手段で判別された会議資料について、前記第1の記憶手段と前記第2の記憶手段の情報に基づいて、前記会議において、前記会議資料が提示された時間区間と、当該会議資料が提示された時間区間における会議参加者の発言区間の出現状況を示す発言構造とを、視覚化情報として生成する発言構造図生成手段と、
を備えることを特徴とする。
【0022】
また、請求項2の発明は、請求項1に記載の発言構造情報提示装置において、前記第1の記憶手段に記憶されている前記会議資料の提示状況に関する情報と、前記第2の記憶手段に記憶されている前記複数の会議参加者の前記発言区間の相互の関係から、発言構造の部分構造を抽出する部分発言構造検出手段を備えることを特徴とする。
【0023】
また、請求項3の発明は、請求項2に記載の発言構造情報提示装置において、前記会議資料のそれぞれに関わる全発言区間を抽出する第1の発言構造レベルと、前記会議資料の特定の提示時間帯における全発言区間を抽出する第2の発言構造レベルと、前記部分発言構造検出手段で検出された特定の話題に関わる区間を抽出する第3の発言構造レベルとからなる階層構造で、前記発言構造を管理する発言構造管理手段を備えることを特徴とする。
【0024】
また、請求項4の発明は、請求項3に記載の発言構造情報提示装置において、各会議参加者が前記会議において入力した、メモ書きやマーキング等のユーザ入力情報を、前記会議参加者毎に記憶する第3の記憶手段と、
前記発言構造管理手段で管理する第1〜第3の発言構造レベルと、前記ユーザ入力情報との関係を保持し、前記ユーザ入力情報を、階層構造として管理する個人情報管理手段と、
を備えることを特徴とする。
【0025】
また、請求項5の発明は、請求項4に記載の発言構造情報提示装置において、前記ユーザ入力情報を指定するとともに、前記階層構造のレベルを指定することにより、前記指定されたユーザ入力情報に関連した発言構造区間を、前記指定された階層レベルに応じて特定し抽出する発言構造区間抽出手段を備えることを特徴とする。
【0026】
また、請求項6の発明は、請求項4に記載の発言構造情報提示装置において、前記会議において提示された会議資料内容と、前記ユーザ入力情報とをオーバーレイさせて表示する表示手段を備えるとともに、
前記表示手段上でのユーザによる検索指示入力の、前記会議資料への参照状況や、前記ユーザ入力情報の選択状況に応じて、前記第1〜第3の発言構造レベルのうちのいずれかの発言区間を自動的に判定し、前記会議資料の提示時間区間のうちの前記発言構造レベルに応じた任意の部分に間連した発言構造区間のみを検出する発言構造区間検出手段を備える
ことを特徴とする。
【0027】
また、請求項7の発明は、請求項1に記載の発言構造情報提示装置において、前記第2の記憶手段に記憶されている前記発言区間の長さが所定時間以上のものを説明発言として検出する説明発言検出手段と、
発言構造から説明発言を削除することにより議論の発言構造を抽出する議論状態判定手段と、
前記議論の発言構造の情報から話者数や議論時間等の議論属性情報を抽出する議論情報抽出手段と、
前記議論情報抽出手段で抽出された議論属性情報に基づいて、議論の盛り上がり状況を示す議論活性度を算出し、議論活性化レベルを判定する議論活性化レベル判定手段と、
前記議論活性化レベル判定手段の判定結果に応じて、前記議論の盛り上がり状況を視覚的に前記表示画面に表示する手段と、
を備えることを特徴とする。
【0028】
【作用】
上述の構成の請求項1の発明の発言構造情報提示装置では、会議の際に、例えば表示画面に表示された会議資料の資料識別情報と、その提示時間区間の情報とが第1の記憶手段に記憶されている。
【0029】
また、会議の際に入力音声情報から、あるいは記録された会議音声情報から、例えば、ある一定以上の音量で、一定以上の長さ継続した音声信号を発言として認識することにより、複数の会議参加者のそれぞれの発言区間が検出され、その発言区間の時間情報と、その発言がなされたときに提示されていた会議資料の前記資料識別情報とが第2の記憶手段に記憶されている。
【0030】
そして、ユーザが、会議終了後の会議情報の再生に当たって、複数の会議資料のうちの一つを選択指示すると、資料判別手段により、選択された会議資料が特定され、その特定結果が発言構造図生成手段に与えられる。
【0031】
発言構造図生成手段は、特定された会議資料が提示された時間区間と、当該会議資料が提示された時間区間における会議参加者の全発言区間の出現状況を示す発言構造とを、第2の記憶手段から抽出して、表示画面において視覚化情報として表示する。
【0032】
そして、この発言構造図の画面において、ユーザが、所望の再生個所を指示すると、該当する会議情報部分を再生するように構成することができる。
【0033】
これにより、請求項1の発明によれば、特定の会議資料に関連したすべての議論の構造が、発言構造図として視覚化されるため、単に、時系列順に表示したデータと比較して、資料内容に対する議論全体の把握が容易になる。したがって、会議内容へアクセスする際も、どの発言にアクセスすべきかが、全体の文脈を捉えて絞り込めるため、必要な発言へと容易にアクセスし易くなる。
【0034】
また、請求項2の発明の発言構造情報提示装置では、会議資料の提示状況と、会議中の複数の会議参加者の発言相互の関係から、会議の発言構造の部分構造を抽出する。例えば、会議の態様が、特定の参加者がプレゼンテーションを行い、その後、そのプレゼンテーション内容に応じて議論をするものであれば、表示ページの変更など提示会議資料の変更時点や、プレゼンターによる一定以上の長い発言である説明発言の出現時点など、発言構造の属性を利用して議論の区切れを検出し、議論の固まりを認識して、発言構造の部分構造を抽出する。
【0035】
これにより、構造の存在しない会議情報に、部分構造を抽出することができ、部分構造単位でのデータの扱いが可能となり、部分構造が存在しない場合に比較し、検索の処理効率が向上する。
【0036】
また、請求項3の発明の発言構造情報提示装置では、3つの階層レベルで発言構造を管理する。第1の発言構造レベルは、提示された会議資料単位であり、任意の会議資料に関わる発言構造に関する情報がすべて、このレベルで管理される。前の議論に戻る場合など、同一の会議資料が、時間を異にして、複数回使用される場合には、それら異なる時間区間の発言も含めてこの第1の発言構造レベルとして管理されることになる。
【0037】
第2の発言構造レベルは、表示単位レベルで、ある特定の会議資料が表示されていた特定の一つの時間帯における発言構造データをすべて管理する。
【0038】
第3の発言構造レベルは、請求項2の部分発言構造検出手段で検出された、例えば議論単位のレベルであり、例えばプレゼンテーションの説明発言を区切りとして、説明と議論を1つの議論データのまとまりとして抽出して管理することができる。
【0039】
この請求項3の発明により、会議情報の検索のために、ユーザにより、特定の時間帯が指定された時に、各レベルでの発言構造区間を容易に抽出することができ、発言構造図の生成処理効率が向上する。
【0040】
また、請求項4の発明の発言構造情報提示装置では、各会議参加者が、会議において、入力したメモ書きやマーキング等のユーザ入力情報を、第3の記憶手段に、会議参加者毎に記憶して保持する。そして、個人情報管理手段では、その第3の記憶手段に記憶したユーザ入力情報を、請求項3における発言構造管理手段での第1〜第3の管理レベルに対応付けて、階層構造で管理する。
【0041】
この請求項4の発明の場合には、ユーザ入力情報と、会議資料や発言構造の部分構造とを、容易に対応づけすることが可能となり、所望する会議情報位置についての手書メモ等による検索と、発言構造による検索を効果的に結合させることができ、発言構造へのアクセス処理効率が向上する。
【0042】
また、請求項5の発明の発言構造情報提示装置では、ユーザが、特定のユーザ入力情報を指定するとともに、第1〜第3の発言構造レベルのいずれかを指定すると、発言構造区間抽出手段は、指定されたユーザ入力情報が入力された時間帯を特定し、その時間帯を含む、指定された発言構造レベルでの発言構造区間を特定し、抽出する。発言構造図生成手段では、この特定された発言構造区間の発言構造図を生成し、表示する。
【0043】
この請求項5の発明によれば、ユーザは、検索対象があいまいである場合には会議資料毎のレベルである第1の発言構造レベル、時間帯がある程度絞り込めている場合には会議資料の表示区間毎のレベルである第2の発言構造レベル、発言の場所がほとんど絞り込めている場合には、議論部分などの部分構造レベルである第3の発言構造レベルを指定することで、意図の通りの検索アクセスができる。すなわち、検索したい対象の明確さのレベルに応じて、検索のレベルを選択することができ、効率のよい絞り込みが可能となる。
【0044】
また、請求項6の発明の発言構造情報提示装置では、会議資料内容と、ユーザ入力情報とがオーバーレイ表示されている表示画面上において、ユーザが会議情報の検索指示の入力をすると、その指示は、表示中の会議資料のみを指示するものか、オブジェクトが選択されているかを判定する。そして、オブジェクトが選択されていれば、選択されたオブジェクトの入力時刻などの表示・選択状況を示す値から表示・選択状況を判定する。
【0045】
オブジェクトが選択されていない場合は、会議資料単位である第1の発言構造レベル、オブジェクトが選択されている場合には、議論などの部分構造の第3の発言構造レベルなど、適切なレベルを自動的に判定し、そのレベルで表示されている会議資料、選択されたユーザ入力情報に該当する発言構造区間を抽出し、対応する発言構造図を表示するようにする。
【0046】
この請求項6の発明によれば、検索指示入力として、特にユーザの明示的な指示がなくても、ユーザの意図を汲み取り、適切な発言構造レベルでの発言構造区間のみを提示できる。これにより、ユーザの検索指示操作が簡略化されるとともに、不要な情報を提示しなくてよく、必要な情報へアクセスするためのユーザの負荷が小さくなる。
【0047】
また、請求項7の発明の発言構造情報提示装置では、議論状態判定手段は、会議音声から検出された発言区間のうちから、説明発言検出手段で検出された説明発言を削除して、議論の発言構造を抽出する。そして、議論情報抽出手段において、この議論の発言構造において、会議資料の提示時間、発言数、発言者数など、議論の状況を示す属性を抽出し、これらの値の合成関数として議論の活性度を、議論活性化レベル判定手段で算出し、活性化レベルを判定する。活性化レベルは、会議資料単位で算出される資料全体が一覧できるように表示され、ここからユーザは特定の参照したい会議資料を特定することができる。
【0048】
これにより、請求項7の発明によれば、参照会議資料を特定する際、資料内容からだけではなく、その資料に対する議論状況から、議論の活発な部分だけアクセスするなど、すべての会議情報を参照しなくても、重要な議論部分に容易にアクセスすることができる。また、この情報は、会議に参加しなかった人にとっては、会議の内容を把握するための時間を短縮できる。
【0049】
【発明の実施の形態】
以下、この発明による発言構造情報提示装置の実施の形態を図を参照しながら説明する。以下に説明する実施の形態の発言構造情報提示装置は、プレゼンテーション型の会議について会議情報の記録を行い、その会議情報の中から検索したい箇所を特定することができる会議記録再生装置に、適用した場合である。
【0050】
ここで、プレゼンテーション型の会議とは、特定の会議参加者(プレゼンター)がプレゼンテーションを行い、そのプレゼンテーションに基づいて、複数の会議参加者が議論を行うタイプの会議である。プレゼンターによる説明の発言は、その後の他の会議参加者を含めた質疑の発言に比べて、発言区間が比較的長いという特徴がある。
【0051】
[会議記録再生装置の記録装置部分の説明]
図2は、このプレゼンテーション型の会議を説明するための図であり、電子会議室における会議の様子をあらわす概念図である。
【0052】
10はプレゼンテーション用のパーソナルコンピュータ(以下、パーソナルコンピュータをPCと略称する)で、会議資料を提示するためのプレゼンテーション用のツールおよび会議資料のデータファイルが保持されている。会議時においては、このプレゼンテーション用PC10の表示内容が、大型スクリーン1に表示される。
【0053】
プレゼンター2は、文字入力用のキーボード3と、指示入力用のペン入力装置4を使用し、プレゼンテーション用PC10において、メモ書きやマーキングなどのユーザ入力操作をすることができる。そして、プレゼンター2の音声は、マイクロフォン等の音声入力装置5により収音され、会議記録用PC20に記録される。
【0054】
会議のプレゼンター以外の会議参加者6の各々は、手元PC40を持つ。手元PC40には大画面1と同じ内容が表示される。さらに、会議参加者6は、個人用のメモの入力を、手元PC40に対して、キーボード7、ペン入力装置8から行うことができる。入力された情報は、各自の手元PC40に、個人情報ファイルとして記録され保持される。会議参加者6の発言は、マイクロフォンなど音声入力装置9によって、音声データとして取り込まれ、会議記録用PC20に記録される。
【0055】
会議記録用PC20は、音声入力装置5や音声入力装置9から入力された音声データを統合し、音声データファイルを会議データファイルとして記録し、保持する。その他、会議後に会議情報へアクセスするためのインデックスのための情報などを生成するための処理を行う。なお、プレゼンテーション用PC10と、会議記録用PC20は、同一のPCでもよい。
【0056】
図3は、会議記録用PC20での会議情報の記録を行う部分の構成を示すブロック図である。会議記録用PC20は、会議の際に、会議情報を記録し、後で会議情報へとアクセスするためのインデックスを作成するための処理を行う装置である。
【0057】
音声入力装置5や音声入力装置9からの、プレンゼンター2や他の会議参加者6の各々の発言の音声データは、A/D変換装置21によってデジタル化される。そして、デジタル化された音声データは、会議記録用PC20内部に取り込まれる。
【0058】
内部に取り込まれた音声データは、合成装置22によって、プレゼンター2を含む複数の会議参加者の音声データが合成され、会議音声データファイル格納部23に記録され、保持される。
【0059】
また、各々の音声データは、発話データ抽出部24に供給され、この発話データ抽出部24によって、ある一定以上の音量が、ある一定時間以上続いた音声データの区間が発言区間として抽出される。発話データ抽出部24では、各会議参加者ごとに、発言区間を抽出する。前述したように、この例では、各会議参加者ごとにマイクロフォンが設置されているので、どのマイクロフォンからの音声であるかによって、いずれの会議参加者からの音声であるかを検出するようにしている。
【0060】
抽出された発言区間データは、タイマー25の時刻データとともに、発言構造テーブル生成部26に供給され、この発言構造テーブル生成部26で、会議の音声データへとアクセスするためのインデックスである発言構造テーブルの情報が生成される。この発言構造テーブルの情報は、後述するように、発言した会議参加者と、その発言区間の時間情報と、その発言が検出されたときの会議資料のページの情報との対応関係を示すものである。生成された発言構造テーブルの情報は、発言構造ファイルとして、発言構造ファイル格納部27に記録され、保持される。
【0061】
図4に示すように、プレゼンテーション用PC10では、会議中には、プレゼンテーションツール11が起動され、プレゼンテーションファイル12の内容が表示装置13に映し出される。プレゼンテーションファイル12には、複数ページの会議資料が各ページ毎に用意されている。
【0062】
ここで、プレゼンテーションツール11は、ページ単位で表示が変更される構造を持つ。この実施の形態では、会議資料を、ページ単位で管理し、ページ番号を各会議資料の識別情報として用いる。このため、会議の最中にページが変更されると、プレゼンテーションツール11は、表示ページ変更通知を、会議記録用PC20に送信する。
【0063】
会議記録用PC20では、通知検知部28で、この表示ページ変更通知の信号を受け取ると、表示情報抽出部29において、その表示ページ変更通知の信号中に含まれる会議資料のページに関する情報が抽出され、そのページの情報が、タイマー25の時刻情報とともに、表示情報ファイルとして、表示情報ファイル格納部30に記録され、保持される。また、会議資料のページの情報は、表示情報抽出部29から発言構造テーブル生成部26に送られ、検出された発言が、会議資料のどのページにおいて行われたかの情報として使用される。
【0064】
図5は、表示情報ファイル100のデータ構造を説明するための図である。表示情報ファイル100は、会議中のプレゼンテーションで使用した会議資料の各ページの表示状態の遷移を、時系列データとして保持するファイルであり、テーブル形式とされている。そこで、この表示情報ファイルは表示情報テーブルと呼ぶこともある。以下、同様にして、この明細書では、テーブル形式のファイルは、テーブルと呼ぶ場合もある。
【0065】
図5の表示情報テーブル100において、フィールド101は、「表示番号」であり、これは、ページ単位の表示データに対して割り当てられるシーケンシャル番号である。フィールド102は、「ページ番号」の欄であり、プレゼンテーションにおいて、表示されていた会議資料のページの番号を記録する。フィールド103は、「表示開始時刻」の欄であり、プレゼンテーションにおいて、他のページから現在ページに表示が変化して、現在のページの表示が開始された時刻を記録する。同様に、フィールド104は、「表示終了時刻」の欄であり、次ページへと表示変更が発生した時刻を記録する。
【0066】
図6は、発言構造テーブル110のデータ構造を説明するための図である。発言構造テーブル110は、会議における会議参加者の発言の構造を保持し、会議を記録した音声データファイルへのアクセスのためのインデックスとして使用されるデータファイルである。
【0067】
図6に示すように、この発言構造テーブル110のフィールド111の「発言番号」の欄には、検出された発言の時間順の識別子が記録される。フィールド112の「参加者名」は、発言を抽出した音声入力装置の識別子に基づいて検出された会議参加者名が記録される。
【0068】
発言構造ファイル格納部26には、音声入力装置の識別子と会議参加者名との対応テーブルである会議参加者テーブルも格納されている。この会議参加者テーブル120のデータ構造は、図7に示す通りである。
【0069】
すなわち、会議参加者テーブル120のフィールド121は、入力装置番号であり、音声入力装置5,9が保持する識別子である音声入力装置番号を意味する。フィールド122は会議参加者名であり、各音声入力装置に割り当てられた会議参加者の名前がテキストデータとして保持される。
【0070】
発言が検出されると、まず、その発言が検出された音声入力装置が特定される。そして、会議参加者テーブル120を参照して、対応する会議参加者名が特定される。発言構造テーブル110のフィールド112には、参加者名として、会議参加者テーブル120から特定された参加者名が記録される。
【0071】
発言構造テーブル110のフィールド113の「発言開始時刻」としては、抽出した発言の開始時刻を記録開始時からの経過時間として記録する。フィールド114の「発言終了時刻」としては、発言の終了時刻を同様に記録する。フィールド115の「ページ番号」としては、該当する発言が発話された会議資料ページのページ番号を記録する。
【0072】
また、図6には、発言構造テーブル110の発言開始時刻フィールド112および発言終了時刻フィールド113と、会議音声データファイル格納部23の音声データファイルとの関係を図示している。すなわち、117は、会議音声データファイル格納部23に記録された発言6の記録個所を示している。リンク118は、発言番号6の記録位置の発言開始点を指している。同様に、リンク119は、発言番号6の記録位置の発言終了点を指している。
【0073】
図3の会議記録用PC20において、部分構造検出部31は、発言構造の特徴や表示情報から、発言構造をなんらかの意味のある情報単位に分割する処理部である。この例の場合、意味のある情報単位とは、プレゼンテーションのページ単位や、あるページが表示されていた特定の表示時間に対応する表示ブロック、プレゼンテーションの説明とそれに対応する質疑応答を1つの単位とする議論ブロックなどである。
【0074】
また、管理ファイル生成部32は、部分構造検出部31で検出された発言構造の部分構造を、プレゼンテーションのページ単位で管理するための会議情報管理ファイル(会議情報管理テーブル)を作成するための装置である。ここでは、発言の部分構造情報は、ページ単位、表示ブロック、議論ブロックという階層構造で管理され、会議情報管理テーブルは、会議情報管理ファイル格納部33に記録され、保持される。
【0075】
図8は、会議情報管理テーブル130のデータ構造を説明するための図である。会議情報管理ファイルとしては、発言構造データを、前述したように、3段階の階層構造で管理している。
【0076】
会議情報管理テーブル130の最上位層は、ページ単位であり、フィールド131に「ページ番号」が記録される。この階層では、該当するページに関わるすべての発言構造データが保持されている。
【0077】
ページは、それぞれの表示区間の発言構造である表示ブロックの複数個から構成される。すなわち、表示ブロックはページの下層の発言構造である。プレゼンテーション型の会議では、会議資料は、1ページ目から最終ページまで順序良く表示されるわけではない。例えば、説明をしながら、間に議論が挿入されたり、間を抜いて他のページへ移ったり、あるいは元のページに戻ったり、ということが発生する。
【0078】
そこで、ページ単位だけの管理では、それらの離散的に表示される時間区間の管理をすることができない。表示ブロックは、同一ページの離散的な表示時間区間を管理するためのもので、ある特定のページが特定の時間帯に連続して表示されていた区間をさす。会議情報管理テーブル130のフィールド132の「表示ブロック番号」は、表示ブロックに、シーケンシャルに付与された番号である。
【0079】
また、表示ブロックは、通常、複数の議論から構成されている。前述したように、プレゼンテーションでは、プレゼンターによる説明と、他の会議参加者も含めた議論とが交互に発生する。したがって、説明とそれに関わる議論とを1つの議論ブロックと定義し、一つの表示ブロックを、議論ブロック毎に分割して、保持する。
【0080】
フィールド133の「議論ブロック番号」は、表示ブロック内における議論ブロックのシーケンシャル番号である。
【0081】
1つの議論ブロックを定める発言構造区間、すなわち、説明とそれに関わる議論の区間は、フィールド134の開始発言と、フィールド135の終了発言によって特定される。フィールド134および135の開始発言および終了発言の発言番号は、図6に示した発言番号が用いられる。すなわち、フィールド134および135の発言番号は、発言構造ファイルへのポインターとなっている。
【0082】
次に、手元PC40の構成について説明する。図9は、手元PC40の構成例を示すものである。
【0083】
手元PC40の表示装置41には、大画面1と同じ内容が表示される。会議参加者は、その画面を参照しながら、キーボード7やペン入力装置8を使用して、画面内容に対してメモを添付することができる。このようなユーザの入力操作は、ユーザ入力情報抽出部42で検知され、ユーザ入力情報の入力時刻や位置、入力された情報などが、後述するようなテーブルの形式で、入力ログファイルとして入力ログファイル格納部43に記録される。この例では、ペン入力は、ストローク単位でユーザ入力情報が記録される。
【0084】
入力オブジェクト抽出装置44では、入力ログファイル格納部43に格納されたユーザ入力情報から、一連の入力単位である入力オブジェクトを抽出し、後述するようなテーブルの形式で、入力オブジェクトファイルとして入力オブジェクトファイル格納部45に記録する。
【0085】
そして、個人情報管理ファイル生成部46において、入力オブジェクトファイル格納部45の情報を、前述した会議情報管理ファイルに対応する形で、ページ単位、表示ブロック単位、議論ブロック単位の、部分構造の階層構造に分割し、個人情報管理ファイル格納部47に記録して管理する。
【0086】
図10は、手元PC40でのユーザの個人メモの入力例である。これは同時に、後述する会議情報再生時における、プレゼンテーション情報参照処理において、個人情報がオーバレイ表示されているときの表示例とも一致する。
【0087】
前述したように、手元PC40の表示画面には、大画面1と同様の、図10に示すようなプレゼンテーション画面が映し出されており、この画面上に、ユーザが個人メモの入力が可能である。
【0088】
図10中において、211,212,214は、ペン入力によるユーザのマーキングが行われたことを示している。一方、213はキーボードからユーザの個人メモがテキスト情報として入力されたことを示している。なお、ペン入力によって手書きメモ(文字列)を入力することも可能である。ただし、文字認識機能などは持たないため、その際は、文字列の手書きメモは、ストロークの集合として処理される。
【0089】
図11は、入力ログファイルとしての入力ログテーブル140のデータ構造を説明するための図である。この入力ログファイルとしては、ユーザからのキーボード7やペン入力装置8による入力を監視し、キーボード7の入力であれば、キャリッジリターンが入力されるまでの文字列単位で、ペン入力装置8であれば、ストローク単位で、入力を抽出し、記録する。
【0090】
入力ログテーブル140のフィールド141は、入力番号であって、ユーザ入力情報に対するシーケンシャル番号である。次のフィールド142には、キーボード7からの入力か、ペン入力装置8からの入力かの「タイプ」を記録する欄であって、それぞれ、「テキスト」、「ストローク」というタイプが付けられる。
【0091】
次のフィールド143の「入力アイテム」は、入力情報の実体を記録する部分である。すなわち、ここには、テキストの場合は、入力された文字列が記録される。ストロークの場合は、ストロークをあらわす一連の座標リストが記録される。
【0092】
次のフィールド144の「位置座標」は、入力オブジェクトが入力された位置を表す。テキストでは、入力する前にポインターなどで指示された挿入位置が抽出される。ストローク情報では、この位置座標の情報は入力アイテムに含まれるために抽出しない。
【0093】
次のフィールド145の「開始時刻」には、該当するユーザ入力情報の入力開始時刻が記録され、また、フィールド146の「終了時刻」には、ユーザ入力情報の入力が終了した時刻が記録される。
【0094】
図12は、入力オブジェクトファイル格納部45の入力オブジェクトテーブル150のデータ構造を説明するための図である。この例では、入力ログファイル格納部43に格納されている入力ログファイルのデータから、入力オブジェクトを抽出し、単位オブジェクト毎に各個人毎のメモ書き情報を保持する。
【0095】
ここで、入力オブジェクトとは、ある一定の時間内に入力されたストローク群やテキストを一つのまとまりとみなしたものである。
【0096】
入力オブジェクトテーブル150のフィールド151の「No」は、入力オブジェクト番号であり、入力オブジェクトを識別するシーケンシャル番号である。次のフィールド152の「入力オブジェクト」には、入力オブジェクトのタイプが記録される。この例では、テキストかストロークかという2つのタイプに判別される。タイプがテキストの場合には、各フィールドの値は、前述した入力ログテーブル140の対応するフィールド値と同様である。
【0097】
フィールド153の「構成アイテム」には、入力オブジェクトを構成する要素である入力ログテーブル140のフィールド141の入力番号のリストが記録される。
【0098】
次のフィールド154の「入力開始時刻」には、入力オブジェクトがストロークの場合には、入力オブジェクトを構成するストロークのうち、最小入力番号の入力データの開始時刻を記録する。テキストの場合には、その入力開始時刻を記録する。また、フィールド155の「入力終了時刻」には、同様に、ストロークの場合には、入力オブジェクトを構成するストロークのうち、最大入力番号の入力データの終了時刻を記録する。テキストの場合には、その入力終了時刻を記録する。
【0099】
次のフィールド155の「領域」には、一連のストローク群をひとまとまりにしたときの表示矩形領域の座標を記録する。この表示矩形領域の座標値としては、この例では、(起点座標、対角座標)の組を記録する。
【0100】
図13は、個人情報管理ファイル格納部47の個人情報管理ファイル(個人情報管理テーブル)160のデータ構造を説明するための図である。この実施の形態では、個人情報管理ファイルは、各ユーザからの入力オブジェクト情報が、会議情報管理ファイルとしての会議情報管理テーブル130と同様に、表示情報や議論の構造によって細分化され、階層構造として保持され、ページ単位に管理される。
【0101】
個人情報管理テーブル160のフィールド161〜163の「ページ番号」、「表示ブロック番号」、「議論ブロック番号」は、会議情報管理ファイルとしての会議情報管理テーブル130と同様である。そして、フィールド164の「入力オブジェクトリスト」には、議論ブロックに対応する時間帯に関連するすべての入力オブジェクトへのポインターが保持される。
【0102】
次に、会議情報の記録処理動作を、さらに、説明する。
【0103】
図14は、会議情報記録再生装置の記録装置部の処理の概要を説明するためのフローチャートである。この例の記録装置部の処理においては、図14に示す5つの処理によってファイルが生成される。
【0104】
図14(A)は、会議音声データファイル記録処理の流れの概略を示し、マイクロフォンなどの音声入力装置5や9から入力された音声データを、会議音声データファイル記録処理により、そのまま音声ファイルとして、会議音声データファイル格納部23に格納して記録する。この例では、これが、会議データそのものである。
【0105】
図14(B)は、発言構造抽出処理の流れの概略を示す。すなわち、発言構造抽出処理では、音声入力装置5や9からの音声データと、プレゼンテーションツール11から送られた表示ページ変更通知の情報から、発言構造ファイル格納部27に格納する発言構造テーブルの情報を生成する。
【0106】
図14(C)は、表示情報抽出処理の流れの概略を示す。表示情報抽出処理においては、表示ページ変更通知の情報からプレゼンテーションの表示の時系列的変化に関する情報を抽出し、表示情報ファイル格納部に格納する表示情報テーブルを生成する。
【0107】
図14(D)は、個人情報抽出・管理処理の流れの概略を示す。すなわち、個人情報抽出・管理処理においては、キーボード7やペン入力装置8などにより、プレゼンテーション情報に対して行われた個人用のメモ書などのユーザ入力から適切な入力オブジェクトを認識し、ページ単位での個人情報を管理するための個人情報管理テーブルを生成し、個人情報管理ファイルとしてその格納部47に格納する。
【0108】
図14(E)は、会議情報抽出・管理処理の流れの概略を示す。この会議情報抽出・管理処理では、他の処理によって生成された情報を利用するもので、発言構造ファイル格納部27の発言構造ファイルと、表示情報ファイル格納部30の表示情報ファイルの情報を、ページ単位の管理形態に構造化し直し、会議情報をページ単位で、かつ、階層構造として管理するための会議情報管理ファイルを生成するための処理を行う。会議情報管理ファイルとして、前述した会議情報管理テーブルを、会議情報管理ファイル格納部33に格納する。
【0109】
図15は、発言構造抽出処理の概要を説明するためのフローチャートである。まず、ステップ300で初期設定として、会議資料のページ番号として、現在表示されているページ番号がセットされる。
【0110】
前述したように、この例では、一定レベル以上の音量を有する音声データで、かつ、一定時間以上の長さ、その音量が続いた音声データを発言として抽出する。ステップ301では、発言としての前記条件を満足しているかが判定される。次のステップ302では、発言構造テーブル110(図6)の各フィールドに該当する項目のデータである発言番号、参加者名、発言開始時刻が抽出される。
【0111】
この場合、発言番号は、新しいシーケンシャル番号が割り当てられる。参加者名は、発言が検出された音声入力装置の入力装置番号により会議参加者テーブル120(図7)を検索して、特定する。この例では、発言開始時刻は、音声データが一定レベルを超えたと検出された時点よりも、予め定められた一定時間前の時刻とされる。発言の先頭部分が欠落してしまうのを防止するためのである。
【0112】
この例の場合、発言の終了を判定する条件には2つ存在し、ステップ303と、ステップ306とでそれぞれの条件の判定を行う。
【0113】
まず、ステップ303では、一定レベル以下の音声データが、ある一定時間以上続いた場合には、それを発言終了とみなし、ステップ304で発言終了時刻を算出する。そして、ステップ305では、これらの抽出した情報を発言構造テーブル110に記録する。このステップ305の後は、ステップ301に戻り、上述したような、発言区間の検出処理を繰り返す。
【0114】
また、この例では、発言が連続している場合でも、プレゼンテーションのページが変化したタイミングで、発言内容が変化したとみなし、発言が終了したと判定する。ステップ306では、表示ページ変更通知があったかどうかを判定し、表示ページ変更通知があった場合には、ステップ307に進み、発言終了時刻を算出する。
【0115】
この例では、ステップ307では、発言終了時刻は、ページ変更時点に、予め定めた、ある一定時間を加算した時刻とする。このように、一定時間を加算するのは、ページの切れ目で発言がきれいに区切れない可能性が存在するため、その調整分を含むようにするためである。
【0116】
そして、次のステップ308で、発言構造テーブル110に、抽出した情報を記録する。そして、ステップ309に進み、次の発言データのための処理を行う。すなわち、次の発言に新しい発言番号を割り当て、その発言開始時刻として、表示ページ変更通知の到来時刻から一定時間を減算した時刻を割り当てる。また、ページ番号として、変更通知後のページ番号を割り当てる。
【0117】
発言開始時刻として、表示ページ変更通知の到来時刻から一定時間を減算するように調整したのは、発言終了時刻の調整のときと同様の理由による。すなわち、ページを遷移する前には、遷移する理由に関わる議論が含まれている可能性が存在するためである。なお、この場合には、発言終了時刻の調整よりは、長めの調整時間を設定する必要がある。
【0118】
図16は、表示情報抽出処理の概要を説明するためのフローチャートである。まず、ステップ351では、プレゼンテーションの開始を意味する表示情報変更通知を受け取る。次のステップ352で、表示情報変更通知から、ページ番号の情報を得、その時のタイマーの時刻を表示開始時刻とする。また、表示番号の初期値として、1をセットする。
【0119】
次のステップ353では、プレゼンテーションツール11からプレゼンテーション終了の信号を受け取ったが判定される。終了の通知がない場合には、ステップ354に進み、表示ページ変更通知を受け取ったか否かが判定され、表示ページ変更通知を受け取るまでは、その状態のまま通知を待つ。
【0120】
表示ページ変更通知を受け取ると、ステップ355に進み、表示ページ変更前の表示に関する情報の処理として、現在のタイマー時刻を表示終了時刻とする。そして、次のステップ356で、抽出した表示終了時刻の情報を表示情報テーブル100に記録する。
【0121】
そして、次のステップ357では、次の表示データのための処理を行う。すなわち、ページ番号には、表示ページ変更通知に含まれる新しいページ番号をセットし、表示開始時刻には、前のデータの表示終了時刻を、代入する。また、新しい表示番号もシーケンシャルに割り当てる。
【0122】
ステップ353で、プレゼンテーション終了通知を受けた場合には、ステップ358に進み、ステップ355,356と同様に、表示終了時刻をセットし、表示情報テーブルの該当するフィールドに情報を記録し、処理を終了する。
【0123】
図17は、会議情報抽出・管理処理の概要を説明するためのフローチャートである。
【0124】
まず、ステップ401で表示情報ファイル格納部30の表示情報テーブル100の情報から、1表示ブロックに相当する表示データを読み込む。次のステップ402で、表示情報ファイル格納部30から読み込むべき表示データがあるか否か判断される。読み込むべき表示データがある場合には、ステップ403に進み、読み込んだ表示データに、新しい表示ブロック番号を割り当てる。
【0125】
ステップ403の次にはステップ404に進み、表示データに対応する発言構造データを抽出する。発言構造データをファイルから読み込み、そのページ番号が、表示データのページ番号と等しい間、発言構造データの読み込みを繰り返し、同一ページ番号を持つ、連続した一連の発言構造データを抽出する。
【0126】
次のステップ405では、抽出した一連の発言構造データに対して、発言構造分割処理を行い、一連の発言構造データを、複数の議論ブロックへと分割する。さらに、次のステップ406で、抽出された議論ブロック群を、会議情報管理テーブルの、該当するページ番号、表示ブロック番号のフィールド(レコード)に記録する。以上のステップ401からステップ406までの一連の処理を、表示情報ファイル中のすべてのデータに対して繰り返す。
【0127】
図18は、図17のステップ405の発言構造分割処理の概要を説明するためのフローチャートである。この発言構造分割処理では、抽出した一連の発言構造データを、いくつかの議論ブロックに分割するための処理を行う。この例において、議論ブロックとは、プレゼンテーションの説明と、その説明に対する質疑等の議論とからなる一連の発言構造区間のことである。
【0128】
ステップ411では、初期値設定処理として、新しい議論ブロック番号を設定する。次のステップ412では、一連の発言構造データの発言群の中から発言データを1つ取り出す。そして、ステップ413で、発言構造のデータ群に対して処理が終了したかが判断され、処理が終了していなければ、ステップ414に進む。
【0129】
ステップ414では、発言はプレゼンテーションの説明部分か、議論部分かが判定される。この例では、発言者がプレゼンターで、かつ、ある一定の長さ以上の発言区間時間を持つ発言の場合には、この発言は説明発言と判定される。この条件に該当しない場合には、議論部分であると判定される。
【0130】
発言が説明発言でないと判定された場合には、ステップ412に戻り、発言リスト中の次の発言の処理に移行する。
【0131】
ステップ414で、発言が説明発言と判断された場合には、ステップ415に進む。このステップ415では、説明発言であると判定された発言の、前の説明発言から、処理中の説明発言の前の発言までの一連の発言群を1議論ブロックとして抽出する。
【0132】
そして、次のステップ416では、次の議論ブロックの処理のために、新しい議論ブロック番号を設定し、その議論ブロックの発言リストの中に、現在処理中の説明発言のデータを追加する。そして、ステップ412に戻り、次の議論ブロックを抽出する処理へと進む。
【0133】
図19は、ユーザ入力情報抽出処理の概要を説明するためのフローチャートである。これは、ユーザが手元PC40を用いて、プレゼンテーション資料にメモやチェックを行った入力データの履歴を記録するための処理である。
【0134】
まず、ステップ451では、ユーザの入力を待ち、入力があるかどうかのチェックを行う。ユーザからの入力が発生すると、ステップ452において、入力が発生した時刻をタイマー25から獲得し、これを入力開始時刻とする。次のステップ453では、ユーザ入力の指示タイプが判定され、それぞれの指示タイプに応じて処理を分岐させる。
【0135】
指示タイプが「入力」の場合、ステップ454に進み、ユーザの入力がキーボードからの入力か、ペン入力装置からの入力かのタイプの判定を行う。入力がペン入力の場合には、ステップ455に進み、ストロークの軌跡を単位時間Δt毎に受け取り、一連の座標群をストロークデータとして、入力ログテーブル140の入力アイテムのフィールド143に代入する。
【0136】
キーボード入力の場合には、ステップ454からステップ456に進み、入力位置の指示が行われたポイントの座標を抽出する。そして、次のステップ457で、キーボードからの一連の入力文字列を入力データとして、入力ログテーブルの入力アイテムのフィールド143に代入する。この例では、入力開始からキャリッジリターンが入力されるまでを一連のキーボード入力として判断する。
【0137】
そして、ステップ458に進み、入力の終了した時刻をタイマー25より得る。さらに、ステップ459に進み、入力番号に新しいシーケンシャル番号を割り当て、入力ログファイル格納部43に記録する。
【0138】
ステップ453で、指示タイプが「削除」と判定された場合、ステップ460に進み、指示された入力データを、入力ログファイルから削除する。また、ステップ453で、指示タイプが「移動」と判定された場合、ステップ461に進み、指示された入力データの位置座標を変更する。さらに、ステップ453で、指示タイプが「複写」と判定された場合、指定された入力データと同一の情報を保持する新しい入力データを生成し、入力ログファイル140に記録する。
【0139】
図20は、入力オブジェクト抽出処理の概要を説明するためのフローチャートである。前述したように、この例では、入力ログデータから入力オブジェクトを抽出する。
【0140】
まず、ステップ471では、入力ログファイルから入力ログデータを読み込む。次のステップ472においては、入力ログデータのすべての処理が終了したかが判断される。すべての処理が終了していれば、入力オブジェクトの抽出処理は、終了となる。
【0141】
入力ログデータの処理が未了である場合には、ステップ473に進み、読み込んだ入力データのタイプが、ペン入力装置によるストローク入力であるか、キーボードによるテキスト入力であるかを判定し、それぞれのタイプに応じて異なる処理が行われる。
【0142】
ステップ474からステップ479までは、一連のストロークオブジェクトを抽出するための処理である。一連のストロークとは、連続したストロークタイプの入力データで、かつ、ある一定時間内の間隔で入力されたデータ群を指す。
【0143】
ステップ474では、入力オブジェクトタイプの値と、入力開始時刻とが設定される。ここで、入力開始時刻とは、一連のストロークの第1ストロークの入力時刻である。次いで、ステップ475で次の入力データを読み込む。
【0144】
次のステップ476では、次の入力データが存在するかを判断し、存在しない場合には、データが終了した時の、終了処理手続きのための図21のステップ491へと進む。
【0145】
このステップ491では、処理中の入力データの終了時刻を入力オブジェクトの入力終了時刻として値を設定する。次のステップ492では、抽出した入力オブジェクトに含まれる一連のストロークをすべて含む矩形領域を、表示矩形領域として、その座標を算出する。次のステップ493では、抽出したストロークオブジェクトに対して、新しい入力オブジェクト番号を割り当て、入力オブジェクトファイル(入力オブジェクトテーブル)150をその格納部45に記録して、処理を終了する。
【0146】
また、ステップ476で、次の入力データが存在すると判定されたときには、ステップ477に進む。このステップ477では、読み込んだ入力データのデータタイプがストロークかどうかが判定される。これは、一連のストロークを抽出するため、ストロークデータが継続しているかを判断するものである。
【0147】
ステップ477で、判定されたデータタイプがストロークデータ以外であった場合には、一連のストロークオブジェクトが抽出できたと判断し、図22のステップ494へ進み、次のようにして、オブジェクト抽出の後処理を行う。
【0148】
すなわち、ステップ494からステップ496までの処理は、通常の一連のストロークオブジェクトが抽出された際の後処理の手続きである。処理は、前記ステップ491からステップ493までと同様であり、処理終了後、処理中の入力データの処理を継続するために、ステップ473へと移行する。
【0149】
ステップ477で、判定されたデータタイプがストロークであった場合には、ステップ478に進み、入力データの入力時間間隔が、ある一定時間以内であるか否かにより連続した入力データであるか否かが判断される。すなわち、前の入力データの終了時刻と、処理中の入力データの開始時刻との時間差が、ある単位時間Δt以内に収まるかが判定される。
【0150】
前記時間差に、一定時間以上の間隔が存在した場合には、ストロークオブジェクトが抽出されたと判断し、ステップ494へと進む。前記時間差に、一定時間以上の間隔が存在せず、ストロークオブジェクトが継続している場合には、次のステップ479で、構成アイテムに、処理中の入力データを追加し、次の入力データの処理を行うために、ステップ475に戻る。
【0151】
次に、入力データのタイプがテキストの場合の処理について説明する。入力タイプがテキストの場合には、入力データと入力オブジェクトは一致する。したがって、ステップ480では、入力データの、それぞれ対応する項目の値が、入力オブジェクトの各項目に代入される。
【0152】
そして、次のステップ481では、テキストの表示矩形領域を算出する。ステップ482では、抽出したテキストオブジェクトに対して新しいオブジェクト番号を割り当て、入力オブジェクトファイルに記録する。このステップ482の次には、ステップ471に戻る。
【0153】
以上のようにして、入力オブジェクト抽出処理が終了すると、この情報から、個人情報管理ファイルが生成される。この個人情報管理ファイルは、会議情報管理ファイルと同様のフォーマットを持つ。入力開始時刻が、議論ブロックの時間区間内であるような入力オブジェクト群が、該当する議論ブロックの入力オブジェクトリスト欄に保持される。
【0154】
[会議記録再生装置の再生装置部分の説明]
図1は、この発明の実施の形態の会議情報記録再生装置において、会議終了後に、ユーザが所望する会議情報へとアクセスするための再生装置部分の構成を示すブロック図である。
【0155】
この実施の形態では、会議情報の再生を、プレゼンテーションツールの特定のページから、該当する発言構造を視覚化したチャートへとアクセスすることにより、ここから、該当する会議の発言を特定し再生する、という方法を特長とする。この特定の発言構造へとアクセスする手段として、複数の方法が存在する。
【0156】
まず、そのうちの一つは、会議資料が提示された画面を参照し、会議資料の任意のページに該当する発言構造図を表示する場合である。この例の場合には、会議資料は、プレゼンテーションの提示資料であり、現在参照中のプレゼンテーションの提示資料のページに関わるすべての発言を参照し、再生することができるようにしている。
【0157】
さらに、会議参加者がユーザ入力情報として記録したメモ書きなどの個人情報を合わせて使用することにより、メモ書き近辺の発言構造区間のみに的を絞って、その部分の発言構造図のみを表示したり、それに対応した会議情報のみを再生することができる。プレゼンテーションの提示資料や、メモ書きから参照したいページを特定するのではなく、各ページ毎の議論状態を把握し、その議論状態から、任意の参照したページを特定して該当する会議情報へとアクセスすることもできる。
【0158】
図1において、表示装置51には、この実施の形態では、会議において、プレゼンテーションの際に使用した提示資料内容が表示される。また、会議参加者が、会議において、前述したように、入力したメモ書き内容も合わせて表示されている場合もある。このときの表示装置51の画面には、図10に示したプレゼンテーション時と同様の表示画面が表示される。
【0159】
プレゼンテーション制御表示部53は、表示装置51において、このプレゼンテーション内容の表示を制御するための装置である。基本的には、プレゼンテーションファイル格納部58に格納されている、会議資料としてのプレゼンテーションの提示資料の各ページ内容を表示する。
【0160】
会議参加者個人のユーザ入力情報が存在する場合には、プレゼンテーション制御表示部53は、個人情報表示部56において、プレゼンテーションファイル格納部58の提示資料のページ内容と、それに貼付されたメモ情報を重ねあわせたものを、表示装置51に表示するように制御する。
【0161】
指示入力装置52は、この表示装置51の表示画面上において、検索のための指示入力を行う。すなわち、この再生装置部においては、後述するように、検索者が、再生したい発言に該当する領域を、マウス等のポインティングデバイスを用いて指示を行うと、該当する音声データが再生される。
【0162】
プレゼンテーション内容の参照中に、発言構造図へのアクセス要求が、指示入力装置52を通じて、ユーザから指示された場合、要求検知部59が、その要求を検知する。表示状況判定部60では、現在のプレゼンテーション提示資料ページなどの表示状況および手書きメモの選択状況の判定が行われる。
【0163】
この例では、プレゼンテーション表示制御部53を介して、表示情報検出部61が、表示ページ、選択オブジェクトなどに関する情報を検出する。そして、表示情報検出部61は、検出したこれらの情報を表示状況判定部60に送る。表示状況判定部60では、どのような発言区間を表示すべきかを判定する。表示状況判定部60では、例えば、ページに関わるすべての会議情報区間を収集するのか、任意の部分構造を抽出するのか、などが判定される。
【0164】
発言構造区間検出部62は、表示状況判定部60の判定結果を受けて、該当する表示状況、またはオブジェクトの選択状況に応じた発言構造区間を自動判定する。発言構造区間抽出部63は、発言構造区間検出部62で自動検出された発言構造区間の情報を受けて、発言構造ファイル格納部27から該当する発言構造区間を抽出する処理を行う。
【0165】
発言構造図生成部64では、発言構造区間抽出部63で抽出された発言構造区間に応じた発言構造のチャート図である発言構造図を生成する。生成された発言構造図は、発言構造図表示制御部54によって、表示装置51に表示される。
【0166】
プレゼンテーション内容から参照したい会議情報を特定するのではなく、例えば、議論の盛り上がった場所の議論内容を再生させたい、というように、議論状態から参照したいページを特定するための手段を提供するのが、議論状況表示制御部55および議論状態判定部65、議論情報抽出部66、議論活性化レベル判定部67の議論状況の表示に関わる処理部群である。
【0167】
議論状態判定部65では、発言構造ファイル格納部27の情報から、あるページに関する発言中で、説明区間と議論区間を判別し、議論区間を抽出する。議論区間の検出の方法は、前述と同様であり、予め定められた長さ以上の発言区間を、説明発言として検出し、ある説明発言から、次の説明発言の前の発言までを議論区間として判定して抽出する。
【0168】
抽出した議論区間に関して、議論情報抽出部66では、議論にかかわる属性、例えば発言数、発言者数、議論時間などを抽出する。議論活性化レベル判定部67では、これらの抽出された属性値から、議論の活性度を算出し、活性化レベルを判定する。議論状況表示制御部55では、議論の属性情報や、活性化レベルを各ページ単位で視覚化して表示する。
【0169】
図23は、発言構造図の一例として、発言構造を視覚化した発言者チャートの一実施例を示す図である。
【0170】
201は発言者チャート表示領域である。発言者チャートは会議全体のオーバービューを示す全会議時間表示領域202と、詳細表示個所204に該当する部分の発言構造の詳細を表示する発言構造表示領域203の2つの領域から構成される。
【0171】
発言構造表示領域203は、発言者を識別するための発言者名を表示する領域206と、発言者の遷移の状態を視覚的に表示するための発言構造図表示領域207とから構成される。チャートの各列には、各会議参加者が会議時間中において、何時、どのくらいの時間の発言を行ったのかが示される。また、全会議参加者分の発言構造を見ることで、誰の発言から誰の発言へと遷移したのかという、発言遷移構造を読みとることが可能となる。
【0172】
また、発言者チャートから任意の位置を指示することによって、該当する音声データを再生することができる。全会議時間表示領域202における三角点205a、または、発言構造表示領域203における破線205bは、その時の再生中の音声データに該当する発言者チャート上の位置を示している。
【0173】
図24は、会議情報を参照する際の再生処理の概要を説明するためのフローチャートである。
【0174】
まず、ステップ501では、会議情報の参照タイプが判定される。参照タイプはプレゼンテーション型か、議論状況型かに分けられる。プレゼンテーション型の場合には、ステップ502に進み、ユーザは、プレゼンテーション内容を参照しながら、その内容に応じて適宜アクセスしたいページを特定することになる。
【0175】
次のステップ503では、ユーザから発言構造図を表示するアクセス要求があったかが判定される。発言構造図を表示する要求を受けた場合には、ステップ504で、その時のプレゼンテーションの表示状況に沿った発言構造区間が特定され、発言構造図のチャートが生成される。そして、次のステップ505では、生成された発言構造のチャートが表示され、そのチャートから、ユーザが指示した任意の発言の再生を実行するようにする。
【0176】
ステップ501で判定された参照タイプが議論状況タイプの場合には、ステップ506に進み、議論状況を要約した情報が視覚化され、表示される。ユーザは、その議論状況を表示した画面から、参照したいページを特定することになる。ユーザにより、参照したいページが特定されると、ステップ507でユーザの指示が参照され、ユーザ指示がプレゼンテーション内容を参照してから発言構造へアクセスすることを要求している場合は、ステップ502へと進む。また、ユーザ指示が直接発言構造図へのアクセスを要求している場合には、ステップ504へと進む。
【0177】
図25は、図24のステップ502のプレゼンテーション情報参照処理の概要を説明するためのフローチャートである。ここでは、プレゼンテーションされた資料を参照しながら、そこから発言構造のチャート図へとアクセスするのが、会議情報を再生するための一連の手続きである。
【0178】
まず、ステップ511では、プレゼンテーションの表示要求待ちを行い、要求があると、ステップ512に進んで、プレゼンテーションツール11によって、プレゼンテーションデータの内容が表示される。次のステップ513では、表示されたページ番号をプレゼンテーションツール11から取得する。次のステップ514では、取得したページ番号に関連する入力オブジェクト群を、個人情報管理ファイル格納部47から読み出す。
【0179】
そして、次のステップ515で、すでに表示されているプレゼンテーション画面上に、個人情報の入力オブジェクト群を、重ねあわせて表示する。これによって、会議においてプレゼンテーションされた資料と、個人メモを同時に参照することができる状況を提供する。
【0180】
次のステップ516では、資料を参照しているユーザからの指示入力を待ち、指示入力のタイプによって、それぞれ該当する処理を行う。
【0181】
まず、ユーザからの指示入力がプレゼンテーション参照の終了指示の場合は、そのまま処理を終了する。ユーザからの指示入力が、他ページ参照指示の場合には、ステップ512に戻り、前記説明と同様にプレゼンテーションデータ情報と個人情報を重ねあわせて表示する。さらに、ユーザからの指示入力が、発言構造表示要求の場合には、ステップ517に進み、発言構造アクセス処理を実行する。
【0182】
図26は、ステップ517の発言構造アクセス処理の概要を説明するためのフローチャートである。この発言構造アクセス処理は、プレゼンテーションの表示状態、選択状態に応じて、適切な発言構造区間を抽出するものである。
【0183】
ステップ521では、まず、表示・選択状況を自動的に判定するのか、あるいは、ユーザによって明示的に表示要求する階層レベルの指示が行われるのかを選択する。
【0184】
自動選択の場合には、ステップ522に進み、入力オブジェクトが選択されているか否かの選択状態が判定され、その判定結果に応じて、ステップ523、524で、発言区間を選択するためのタイプを表す変数の値が設定される。
【0185】
すなわち、オブジェクトが選択されていない場合は、ステップ523に進み、発言区間は、表示されているページ全体に関連する発言区間集合がすべて抽出される。したがって、タイプはページが設定される。
【0186】
一方、入力オブジェクトが選択されている場合には、ステップ524に進み、この場合は議論ブロックに関する発言区間が抽出される。したがって、タイプは、議論ブロックが設定される。この場合、その入力オブジェクトが入力された時刻に対応する、適切な議論ブロックの発言構造区間が選択される。
【0187】
次のステップ525では、適切な発言構造区間を抽出するために必要な、ページ番号とオブジェクト番号が設定される。ページ番号に関しては、前記の図25のプレゼンテーション情報参照情報処理において、取得済みである。オブジェクト番号は、オブジェクトが選択されている場合は、そのオブジェクト番号が設定される。オブジェクトが選択されていない場合には、nilが設定される。
【0188】
次のステップ526では、設定された状況の変数に応じて、適切な発言構造区間を抽出し、チャート図を生成して、視覚化情報を生成する。そして、次のステップ527で、そのチャート図が表示装置51の表示画面上に表示される。ユーザは、このチャート図において、任意の発言についての再生指示を行うことができる。
【0189】
ステップ521において、ユーザによって明示的に表示要求する階層レベルの指示であると判別された場合、ステップ531で、ユーザからの階層レベルの指示入力が判断される。そして、ユーザからの指示入力の値に応じて、ステップ5332、533、534において、表示および選択状況のタイプに、それぞれ、ページ、表示ブロック、議論ブロックの値が設定され、ステップ525へ進む。このステップ525以下の処理は、前述した自動選択時と同様である。
【0190】
図27は、発言構造視覚化処理の概要を説明するためのフローチャートである。
【0191】
まず、ステップ601では、表示および選択状況のタイプが判断される。そして、判断されたタイプによって、それぞれ該当する視覚化処理を行う。すなわち、表示・選択状況のタイプがページの場合には、ステップ602以降に進み、プレゼンテーションの表示に関連したすべての発言構造区間を抽出し、それらを同時に発言構造図として表示する。
【0192】
まず、ステップ602では、該当するページに関する会議情報管理ファイルを読み込む。この会議情報管理ファイルには、このページに関連した発言構造に関するすべての情報が保持されている。次のステップ603では、表示領域の大きさを発言時間の長さに応じて区分けするために、発言時間が算出される。まず、抽出されたすべての発言構造区間の総発言時間を算出する。同時に、各表示ブロック毎の発言時間も算出する。
【0193】
次のステップ604では、図23に示した発言構造表示領域203の面積に対して、各表示ブロック毎の総時間と、ページ表示総時間との比率に応じて表示領域面積を設定し、発言構造をチャート化した図を、各表示区域に割り当る。ステップ605では、会議全体の中で、各表示ブロックが、どの辺の時間帯に存在しているのかを示すために、図23に示した全会議時間表示領域202に、各表示ブロックに該当する時間帯の表示を行う。
【0194】
図30は、この例の場合のページ単位の発言構造図の表示例を説明するための図である。選択されたページに関連するすべての発言構造図が、表示ブロック単位で表示されている。これによって、当該ページに関わる議論の様子が一覧できる。
【0195】
図30において、701は全会議時間表示領域で、701a,701b,701cが、選択されたページが表示された時間帯を示している。703が発言構造図表示領域である。702は、発言構造図表示領域における、各時間帯701a,701b,701cに対応する、表示ブロック領域702a,702b,702cを示すためのものである。
【0196】
703aが前記時間帯701aに表示されていた表示ブロックに関連する発言構造図である。そして、703bが前記時間帯701bに表示されていた表示ブロックに関連する発言構造図である。また、703cが前記時間帯701cに表示されていた表示ブロックに関連する発言構造図である。
【0197】
次に、図27のステップ601で、タイプが議論ブロックであると判別されたときには、図28のステップ611からステップ614までの、表示・選択状態のタイプが議論ブロックの場合の処理を実行する。
【0198】
まず、ステップ611で、個人情報管理ファイルから、入力オブジェクト番号を含む議論ブロックを抽出する。次のステップ612では、抽出した議論ブロックに該当する発言区間を抽出する。抽出した発言区間は、発言構造図表示領域に収まるように視覚化され、表示される。ついで、ステップ613では、ステップ605と同様に、全会議時間表示領域に、議論区間に対応する時間帯を示す。次のステップ614では、表示された発言構造のチャート図上に、選択された入力オブジェクトの位置を示すマーキングを行う。
【0199】
図31は、ブロック単位の発言構造図の表示例を説明するための図である。711は、全会議時間表示領域であり、網かけして示す711aは、議論区間に対応する時間帯を示している。
【0200】
発言構造図表示領域712で、前述のページ単位の表示と最も異なるのは、選択された入力オブジェクトに関する情報である。すなわち、図中、網かけして示す712aは、入力オブジェクトが入力されていた時間帯を示している。三角印712bは、入力オブジェクトの入力開始時刻を示している。
【0201】
ステップ601で、表示・選択状態のタイプが表示ブロックである場合は、図29に示すステップ621からステップ624までの処理を実行する。この処理は、図28のステップ611からステップ614までの処理で、議論ブロックを表示ブロックに置き換えたものとなっている。
【0202】
図32は、議論状況表示制御部55により表示装置51の画面に表示される議論状況の提示例および、議論状況からの発言構造図へのアクセスを説明するための図である。
【0203】
図32において、801は、活性状況の表示画面の例である。また、802は、ページが指定された場合の、指定されたページのプレゼンテーション内容および個人情報の表示画面の例である。803は、前述した発言構造図の表示画面である。
【0204】
図32の議論状況の活性状況の表示画面801では、議論の活性化レベルに応じて、各ページがどのランクに分類されたのかが、各ページの領域801bのシェードの濃度の度合いによって表示されている。例えば、非常に活発に議論が行われたのはページ1,7,9であることが分かる。したがって、この表示画面801から、参照したいページを選択できる。
【0205】
議論の活性度は、この例では、議論時間、発言者数、発言数の合成関数として定義され算出される。そして、この例では、図32の説明欄804に示されるように、この議論の活性度の値を5段階に分割し、活性化レベルが判定される。表示画面801上の801aは、この5段階の活性化レベルの参照インデックスである。
【0206】
会議資料のページを特定すると、矢印で示すパス805のように、そのページの内容が表示画面802として表示され、これ以降は、ここまで述べてきたアクセス方法と同様の処理となる。
【0207】
一方、前述もしたように、会議資料の内容を参照せず、直接発言構造図の表示を行うこともでき、これがパス806で示されている。これは、会議資料を作成した者が、会議終了後に会議情報を検索する場合には、会議資料の内容は熟知している場合もあり、特に会議資料の内容を表示する必要がない場合を考慮したものである。
【0208】
この例では、議論の活性化状況については、活性化レベルを例示したが、議論時間や発言者数などの属性値を直接グラフ化することでも、同様の効果を得ることが可能である。
【0209】
なお、以上の実施の形態では、会議資料はページ単位で管理するようにしたので、資料識別情報は、ページ番号を用いたが、複数のテーマについて会議をする場合のように、会議資料が複数種類に分類することができる場合には、複数ページにわたるテーマ毎の会議資料ごとに資料識別情報を付与するようにしてもよい。この場合に、テーマ毎の複数ページの会議資料には、ページごとの識別情報を付与して、そのページ毎の管理レベルを設けるようにしてももちろんよい。
【0210】
したがって、資料識別情報としては、ページ番号に限らず、種々の識別情報を用いることができる。
【0211】
また、以上の実施の形態は、プレゼンテーション型の会議に、この発明を適用した場合の例であるが、この発明は、このタイプの会議に限られるものでないことは言うまでもない。
【0212】
また、会議資料は、表示画面に表示されるものに限られるものではなく、会議において、OHPシートして提示されたものや、配付されたものであっても、ページ番号や、会議資料番号など、識別情報が付与されて管理されていれば、この発明は適用可能である。
【0213】
また、上述の説明では、部分発言構造として、説明発言を区切りとして議論ブロックを検出するようにしたが、複数の会議参加者が頻繁に話者交替している発言区間を活発な議論を行われている議論発言区間として検出するようにするなど、部分発言構造の検出方法は、その他種々の方法を用いることができる。
【0214】
また、上述の実施の形態では、発言構造ファイル、会議情報管理ファイル、個人情報管理ファイルは、記録時に生成して、各格納部に格納するようにしたが、会議記録終了後に、記録された会議情報全体の再生を行い、その際に生成するようにすることもできる。
【0215】
また、上述の実施の形態では、会議情報としては、音声情報のみを記録する場合について説明したが、会議風景などの映像情報も同時に記録し、それを再生する際のアクセス用としても、この発明は適用できる。
【0216】
【発明の効果】
以上説明したように、請求項1の発明による発言構造情報提示装置装置によれば、特定の会議資料に関連したすべての議論の構造が、発言構造図として視覚化されるため、単に、時系列順に表示したデータと比較して、資料内容に対する議論全体の把握が容易になる。したがって、会議内容へアクセスする際も、どの発言にアクセスすべきかが、全体の文脈を捉えて絞り込めるため、必要な発言へと容易にアクセスしやすくなる。
【0217】
また、請求項2の発明による発言構造情報提示装置装置によれば、構造の存在しない会議情報に部分構造を抽出することができ、部分構造単位でのデータの扱いが可能となり、部分構造が存在しない場合に比較し、検索の処理効率が向上する。
【0218】
また、請求項3の発明の発言構造情報提示装置装置によれば、会議情報の検索者により、特定の時間帯が指定された時に、各レベルでの発言構造区間を容易に抽出することができ、発言構造図の生成処理効率が向上する。
【0219】
また、請求項4の発明の発言構造情報提示装置装置によれば、会議資料と発言構造の部分構造とを容易に対応付けすることが可能となり、手書メモ等による検索と、発言構造による検索を効果的に結合させることができるので、発言構造へのアクセス処理効率が向上する。
【0220】
また、請求項5の発明の発言構造情報提示装置装置によれば、検索対象があいまいである場合には、会議資料の識別情報単位のレベル、時間帯がある程度絞り込めている場合には会議資料の表示区間毎のレベル、発言の場所がほとんど絞り込めている場合には議論発言区間などの部分構造レベルを指定することができるので、ユーザの意図の通りの検索アクセスができる。このように、検索したい対象の明確さのレベルに応じて検索のレベルを選択することができ、効率のよい絞り込みが可能となる。
【0221】
また、請求項6の発明の発言構造情報提示装置装置によれば、検索指示入力として、特にユーザの明示的な指示がなくても、ユーザの意図を汲み取り、適切な発言構造レベルでの発言区間のみを提示できる。これにより、ユーザの検索指示操作が簡略化されるとともに、不要な情報を提示しなくてよく、必要な情報へアクセスするためのユーザの負荷が小さくなる。
【0222】
さらに、請求項7の発明の発言構造情報提示装置装置によれば、参照会議資料を特定する際、資料内容からだけではなく、その資料に対する議論状況から、議論の活発な部分だけアクセスするなど、すべての会議情報を参照しなくても、重要な議論部分に容易にアクセスすることができる。また、この情報は、会議に参加しなかった人にとっては、会議の内容を把握するための時間を短縮できる。
【図面の簡単な説明】
【図1】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置の再生装置部の構成を示すブロック図である。
【図2】この発明が適用される会議の様子を現わす概念図である。
【図3】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置の記録装置部の会議記録用PCの構成例を示すブロック図である。
【図4】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置の記録装置部のプレゼンテーション用PCの構成例を示すブロック図である。
【図5】この発明による発言構造情報提示装置の実施の形態で用いる表示情報ファイルのデータ構造を説明するための図である。
【図6】この発明による発言構造情報提示装置の実施の形態で用いる発言構造テーブルのデータ構造を説明するための図である。
【図7】この発明による発言構造情報提示装置の実施の形態で用いる会議参加者テーブルのデータ構造を説明するための図である。
【図8】この発明による発言構造情報提示装置の実施の形態で用いる会議情報管理ファイルのデータ構造を説明するための図である。
【図9】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置の記録装置部の手元PCの構成例を示すブロック図である。
【図10】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置の表示画面における表示例を示す図である。
【図11】この発明による発言構造情報提示装置の実施の形態で用いる入力ログファイルのデータ構造を説明するための図である。
【図12】この発明による発言構造情報提示装置の実施の形態で用いる入力オブジェクトファイルのデータ構造を説明するための図である。
【図13】この発明による発言構造情報提示装置の実施の形態で用いる個人情報管理ファイルのデータ構造を説明するための図である。
【図14】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置において、会議時の会議情報の記録部の処理の概要を説明するためのフローチャートである。
【図15】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置における発言構造抽出処理の概要を説明するためのフローチャートである。
【図16】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置における表示情報抽出処理の概要を説明するためのフローチャートである。
【図17】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置における会議情報抽出・管理処理の概要を説明するためのフローチャートである。
【図18】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置における発言構造分割処理の概要を説明するためのフローチャートである。
【図19】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置におけるユーザ入力情報抽出処理の概要を説明するためのフローチャートである。
【図20】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置における入力オブジェクト抽出処理の概要を説明するためのフローチャートの一部である。
【図21】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置における入力オブジェクト抽出処理の概要を説明するためのフローチャートの一部である。
【図22】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置における入力オブジェクト抽出処理の概要を説明するためのフローチャートの一部である。
【図23】発言構造を視覚化したチャートの一例を示す図である。
【図24】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置において、会議情報を参照する際の再生処理の概要を説明するためのフローチャートである。
【図25】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置におけるプレゼンテーション情報参照処理の概要を説明するためのフローチャートである。
【図26】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置における発言構造アクセス処理の概要を説明するためのフローチャートである。
【図27】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置における発言構造視覚化処理の概要を説明するためのフローチャートの一部である。
【図28】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置における発言構造視覚化処理の概要を説明するためのフローチャートの一部である。
【図29】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置における発言構造視覚化処理の概要を説明するためのフローチャートの一部である。
【図30】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置におけるページ単位の発言構造図の表示例を説明するための図である。
【図31】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置における部分構造単位の発言構造図の表示例を説明するための図である。
【図32】この発明による発言構造情報提示装置の実施の形態が適用された会議情報記録再生装置における議論状況の提示例および、議論状況からの発言構造図へのアクセスを説明するための図である。
【符号の説明】
3、7 キーボード
4、8 ペン入力装置
5、9 音声入力装置としてのマイクロフォン
10 プレゼンテーション用PC
20 会議記録用PC
23 会議音声データファイル格納部
24 発話データ抽出部
25 タイマー
26 発言構造テーブル生成部
27 発言構造ファイル格納部
28 通知検出部
29 表示情報抽出部
30 表示情報ファイル格納部
31 部分構造検出部
32 管理ファイル生成部
33 会議情報管理ファイル格納部
40 手元PC
42 ユーザ入力情報抽出部
43 入力ログファイル格納部
44 入力オブジェクト抽出部
45 入力オブジェクトファイル格納部
46 個人情報管理ファイル生成部
47 個人情報管理ファイル格納部
51 表示装置
52 指示入力装置
53 プレゼンテーション表示制御部
54 発言構造図表示制御部
55 議論状況表示制御部
56 個人情報表示部
58 プレゼンテーションファイル格納部
59 要求検知部
60 表示状況判定部
61 表示情報検出部
62 発言構造区間検出部
63 発言構造区間抽出部
64 発言構造図生成部
65 議論状態判定部
66 議論情報抽出部
67 議論活性化レベル判定部
[0001]
BACKGROUND OF THE INVENTION
The present invention provides a speech structure information presentation apparatus and speech structure information presentation method suitable for use when searching for a specific section that a user particularly needs to reproduce from conference information including recorded audio information and video information. About.
[0002]
[Prior art]
In a meeting, a lot of information is generated as voice information by conversation. Among these, there is a small amount of information recorded as text information on whiteboards and minutes, and there is a problem that a lot of important information is not recorded or cannot be accurately recalled.
[0003]
In order to solve this problem, there is a conference recording device that records all information generated in a conference. An example of this conference recording device is described in Japanese Patent Application Laid-Open No. 6-343146. Here, all multimedia information such as audio information input from a microphone, video information input from a video camera, text information and graphic information by pen input, etc. is recorded without exception.
[0004]
In such a conference recording device, when trying to remember the content of the conference, how to properly access a necessary place becomes an important issue. However, it is extremely difficult for a participant to attach an index to each meeting scene in real time. In this regard, after the conference is finished, if appropriate indexing is manually performed by a human, effective indexing is possible.
[0005]
However, such an indexing effort is enormous. Furthermore, information required later often changes depending on each person who performs a search or with the passage of time, and it is difficult to perform a sufficient search using a predetermined index. Therefore, a method for automatically providing an effective index from a variety of clue information generated during a conference without disturbing human resources is being studied.
[0006]
Japanese Patent Application Laid-Open No. 6-343146 provides a means for searching for voice and video information using a pen input means using the time when a text or gesture is input as an index. Conference participants often take handwritten notes when important statements occur. From this, it becomes possible to effectively access the important information of the conference by using the time when the handwritten memo is performed as an index.
[0007]
In JP-A-7-182365, corresponding data can be accessed from conference materials. Here, the time zone in which the designated conference material is referenced is presented to the user. When further narrowing down, by excluding other time zones from the search target, it is possible to efficiently access the conference information using the reference material.
[0008]
Japanese Patent Application Laid-Open No. 8-317365 describes that voice data of a conference speaker is graphed in a time series with a length corresponding to the amount of data stored. This makes it possible to visualize the message structure indicating who has made the message and in what order, as a graph.
[0009]
Therefore, even after the conference is over, the conference participant can recall the conference content of the conference in which he / she participated to some extent from the information of the above-mentioned speech structure, and can record important or necessary information in a recording place. It becomes possible to access. The advantage of this technique is that it does not require advanced speech recognition technology or a dictionary, and it can be automatically created from recorded information without the need for explicit instructions from conference participants.
[0010]
"Speaker Segmentation" (Donald G. Kimber, lynn D. Wilcox, Francine R. Chen, and Thomas Moran: "Speaker Segmentation for Browsing Recorded Audio", CHI'95 Proceedings (short paper), pp.212-213) Similarly, a means for visualizing the speech structure is provided. Here, the access structure desired by the accessor can be easily obtained by presenting which part of the displayed speech structure information is in the entire conference. It becomes possible to narrow down.
[0011]
Furthermore, “gIBIS” (Jeff Conklin, KC Burgess Yakemovic “A Process-Oriented Approach to Design Rationale”, HUMAN-COMPUTER INTERACTION, 1991, Vol.6, pp.357-391) is a technology for visualizing the remark structure. is there. Here, in advance, the speaker makes a statement by explicitly declaring what kind of property to speak for which statement. A speech structure is extracted from the attribute information related to the speech and visualized as a speech structure graph. Also, the discussion referencer can access individual statements through the statement structure graph.
[0012]
"Forget-me-not" (Forget-me-not: Close-computed computing that supports human memory ", Cognitive Science Vol.2 as a technology to extract structural units from unstructured information No.1, pp.16-25). Here, human behavior records such as “participating in a meeting”, “meeting a person”, “calling”, and the like are extracted and recorded in a schema according to episode memory, which is human memory. That is, human behavior is structured in memory units called episodes.
[0013]
[Problems to be solved by the invention]
However, in the technique disclosed in Japanese Patent Laid-Open No. 6-343146, there is a problem in that a memo cannot be taken when a conference participant is engaged in discussion. Therefore, such an index that requires active instructions and actions of the conference participants is effective, but there are many leaks. Also, if you want to create a sufficient index, meeting participants will have to take many notes, increasing the burden. Even if a memo is taken, the time of the memo is not necessarily synchronized with the corresponding utterance, and it is difficult to accurately access the desired utterance only from the memo.
[0014]
In addition, in the access by the reference material of JP-A-7-182365, the time zone in which the information related to the reference material exists is extracted, but since it is time series data, the discussion relating to the reference material is performed. I cannot overlook the whole structure.
[0015]
Furthermore, the index using the speech structure of Japanese Patent Laid-Open No. 8-317365 is a method for automatically extracting a sufficient index without imposing a burden on the conference participants as much as possible. Has solved. However, there is a problem in that it is not possible to know which part of the entire conference the displayed speech structure is simply displayed in time series in units of speech from the start time to the end time of the conference.
[0016]
The total meeting time display in “Speaker Segmentation” solves this problem. However, here too, a measure of where in the meeting the desired remark exists must rely on memory.
[0017]
From the above, handwritten memos and meeting materials provide rough information about where the desired information is, but they are not synchronized with the utterance structure and do not provide information to access accurate utterances. . On the other hand, in the case of a speech structure, if a location can be specified, it becomes easy to access a specific speech from the speech structure, but a rough location cannot be specified. That is, there is a possibility that these access means can provide efficient access means by complementing each other.
[0018]
In addition, regarding the speech structure information, there is a component that provides a structure in a unit of speech, but there is no component that provides a partial structure that divides a plurality of speech groups as one lump. On the other hand, gIBIS provides a means for giving a partial structure to an utterance, but it is extremely difficult to make an utterance by determining attributes such as the relation and type of the utterance in advance.
[0019]
Forget-me-not solves the above problem by automatically extracting the structure, but the granularity of the information unit to be extracted is too large to extract as one structure unit from the statement group. It cannot be applied to partial structuring.
[0020]
In view of the above problems, the present invention specifies and presents an appropriate speech structure section for each of a plurality of related speech groups, thereby efficiently accessing a desired location when reproducing conference information. It is an object of the present invention to provide a speech structure information presentation device.
[0021]
[Means for Solving the Problems]
In order to solve the above-described problem, a speech structure information presentation device according to the invention of claim 1 includes:
Material identification information for identifying each of a plurality of meeting materials to be discussed in the meeting, Of the plurality of meeting materials First storage means for storing each presentation time interval information;
Second storage means for storing time information of each speech section of a plurality of conference participants detected from conference audio information and the material identification information of the conference material presented when each speech was made When,
Material discriminating means for discriminating a conference material selected and instructed by the user among the plurality of conference materials;
For the meeting material determined by the material determining means, the first storage means and Said Based on the information stored in the second storage means, in the conference, a time section in which the conference material is presented, and a speech structure indicating an appearance status of the speech section of the conference participant in the time interval in which the conference material is presented; Look Remark structure generating means for generating as awakening information;
It is characterized by providing.
[0022]
According to a second aspect of the present invention, in the statement structure information presentation device according to the first aspect, information on the presentation status of the conference material stored in the first storage unit and the second storage unit A partial utterance structure detecting means for extracting a partial structure of the utterance structure from the mutual relation of the utterance sections of the plurality of conference participants stored therein is provided.
[0023]
Further, the invention according to claim 3 is the speech structure information presentation device according to claim 2, wherein the first speech structure level for extracting all speech sections related to each of the conference materials and the specific presentation of the conference materials A hierarchical structure comprising a second utterance structure level for extracting all utterance sections in a time zone and a third utterance structure level for extracting sections relating to a specific topic detected by the partial utterance structure detection means, It is characterized by comprising speech structure management means for managing the speech structure.
[0024]
According to a fourth aspect of the present invention, in the speech structure information presentation device according to the third aspect, user input information such as memos and markings input by each conference participant at the conference is provided for each conference participant. Third storage means for storing;
Personal information management means for maintaining a relationship between the user input information and the first to third message structure levels managed by the message structure management means, and managing the user input information as a hierarchical structure;
It is characterized by providing.
[0025]
According to a fifth aspect of the present invention, in the speech structure information presentation device according to the fourth aspect, the user input information is designated, and the level of the hierarchical structure is designated, whereby the designated user input information is designated. It is characterized by comprising speech structure section extraction means for specifying and extracting related speech structure sections according to the designated hierarchical level.
[0026]
Further, the invention of claim 6 is the speech structure information presentation device according to claim 4, further comprising display means for displaying the conference material content presented in the conference and the user input information in an overlay manner,
A remark of any one of the first to third remark structure levels according to the reference state of the conference material of the search instruction input by the user on the display means or the selection state of the user input information A speech structure section detecting unit that automatically determines a section and detects only a speech structure section connected to an arbitrary portion of the presentation time section of the conference material according to the speech structure level.
It is characterized by that.
[0027]
The invention according to claim 7 is the speech structure information presentation device according to claim 1, wherein when the length of the speech section stored in the second storage means is longer than a predetermined time, it is detected as an explanatory speech. Explanation speech detection means to
A discussion state determination means for extracting a comment structure of a discussion by deleting an explanatory comment from the comment structure;
Discussion information extraction means for extracting discussion attribute information such as the number of speakers and discussion time from information on the speech structure of the discussion;
Based on the discussion attribute information extracted by the discussion information extraction means, a discussion activation level determination means for calculating a discussion activity level indicating a rising situation of the discussion and determining a discussion activation level;
Means for visually displaying the climax of the discussion on the display screen according to the determination result of the discussion activation level determination means;
It is characterized by providing.
[0028]
[Action]
In the statement structure information presentation device according to the first aspect of the present invention having the above-described configuration, the first storage means stores, for example, the material identification information of the conference material displayed on the display screen and the information of the presentation time interval at the time of the conference. Is remembered.
[0029]
In addition, it is possible to participate in a plurality of conferences by recognizing as a speech a voice signal that has continued for a certain length at a certain volume or higher from input voice information or recorded conference voice information during a conference. Each speech section of the person is detected, and time information of the speech section and the material identification information of the conference material presented when the speech is made are stored in the second storage means.
[0030]
When the user selects and selects one of a plurality of conference materials when reproducing the conference information after the conference is finished, the selected conference material is specified by the material discriminating means, and the specified result is a statement structure diagram. Given to the generating means.
[0031]
The utterance structure diagram generation means includes a second time structure in which the identified conference material is presented, and a utterance structure that indicates the appearance status of all the speech sections of the conference participants in the time interval in which the conference material is presented. Extracted from the storage means and displayed as visualization information on the display screen.
[0032]
Then, when the user designates a desired reproduction location on the message structure diagram screen, the corresponding conference information portion can be reproduced.
[0033]
Thus, according to the invention of claim 1, since the structure of all discussions related to a specific conference material is visualized as a speech structure diagram, it is simply compared with the data displayed in chronological order. This makes it easier to understand the entire discussion about the content. Therefore, when accessing the contents of the conference, it is easy to access the necessary remarks because it is possible to narrow down which remarks should be accessed by grasping the entire context.
[0034]
In the speech structure information presentation device according to the second aspect of the present invention, the partial structure of the speech structure of the conference is extracted from the presentation state of the conference material and the mutual relationship between the speeches of a plurality of conference participants during the conference. For example, if the type of conference is that a specific participant makes a presentation and then discusses according to the content of the presentation, the point of change of the presentation meeting material such as a change of the display page, or more than a certain level by the presenter It detects the break of the discussion by using the attribute of the speech structure, such as the present time of the explanation speech that is a long speech, recognizes the mass of the discussion, and extracts the partial structure of the speech structure.
[0035]
As a result, the partial structure can be extracted from the conference information having no structure, the data can be handled in units of the partial structure, and the search processing efficiency is improved as compared with the case where the partial structure does not exist.
[0036]
In the speech structure information presentation device according to the invention of claim 3, the speech structure is managed at three hierarchical levels. The first speech structure level is a presented conference material unit, and all information related to the speech structure related to an arbitrary conference material is managed at this level. When the same conference material is used multiple times at different times, such as when returning to the previous discussion, it shall be managed as this first speech structure level, including those from different time intervals. become.
[0037]
The second message structure level is a display unit level, and manages all the message structure data in one specific time zone in which a specific conference material is displayed.
[0038]
The third utterance structure level is, for example, a level of discussion units detected by the partial utterance structure detection means of claim 2. For example, explanations and discussions are grouped into one discussion data, with the explanation utterances of the presentation as a separator. Can be extracted and managed.
[0039]
According to the invention of claim 3, when a specific time zone is designated by the user for searching for conference information, it is possible to easily extract a speech structure section at each level and generate a speech structure diagram. Processing efficiency is improved.
[0040]
Further, in the speech structure information presentation device according to the invention of claim 4, each conference participant stores user input information such as memorandum and marking inputted in the conference in the third storage means for each conference participant. And hold. The personal information management means manages the user input information stored in the third storage means in a hierarchical structure in association with the first to third management levels in the statement structure management means in claim 3. .
[0041]
In the case of the invention of claim 4, it becomes possible to easily associate the user input information with the partial structure of the conference material or the speech structure, and the search by the handwritten memo etc. regarding the desired conference information position And the search by the speech structure can be effectively combined, and the access processing efficiency to the speech structure is improved.
[0042]
In the speech structure information presentation device according to the invention of claim 5, when the user designates specific user input information and designates any of the first to third speech structure levels, the speech structure section extraction means The time zone in which the specified user input information is input is specified, and the message structure section at the specified message structure level including the time zone is specified and extracted. The message structure diagram generating means generates and displays a message structure diagram of the specified message structure section.
[0043]
According to the invention of claim 5, when the search target is ambiguous, the user can select the first message structure level that is the level of each conference material, and if the time zone is narrowed down to some extent, When the second speech structure level, which is the level for each display section, and where the location of the speech is narrowed down, the third speech structure level, which is a partial structure level such as a discussion part, is designated, thereby Street search access is possible. That is, the search level can be selected according to the level of clarity of the target to be searched, and efficient narrowing down is possible.
[0044]
In the speech structure information presentation device according to the sixth aspect of the present invention, when the user inputs a conference information search instruction on the display screen on which the conference material content and the user input information are displayed in an overlay manner, the instruction is Whether only the meeting material being displayed is instructed or whether an object is selected is determined. If an object is selected, the display / selection status is determined from a value indicating the display / selection status such as the input time of the selected object.
[0045]
If the object is not selected, the appropriate level is automatically selected, such as the first speech structure level that is a conference material unit, and if the object is selected, the third speech structure level of the partial structure such as discussion The speech structure section corresponding to the conference material displayed at that level and the selected user input information is extracted, and the corresponding speech structure diagram is displayed.
[0046]
According to the sixth aspect of the present invention, even if there is no explicit instruction from the user as the search instruction input, it is possible to draw the intention of the user and present only the speech structure section at an appropriate speech structure level. As a result, the user's search instruction operation is simplified, unnecessary information does not have to be presented, and the load on the user to access the necessary information is reduced.
[0047]
In the speech structure information presentation device of the invention of claim 7, the discussion state determination means deletes the explanatory speech detected by the explanatory speech detection means from the speech sections detected from the conference voice, and Extract speech structure. Then, the discussion information extraction means extracts attributes indicating the status of the discussion such as the presentation time of the conference material, the number of utterances, the number of speakers, etc. in the utterance structure of the discussion, and the activity of the discussion as a composite function of these values Is calculated by the discussion activation level determination means, and the activation level is determined. The activation level is displayed so that the entire material calculated for each conference material can be listed, from which the user can specify a specific conference material to be referred to.
[0048]
Thus, according to the invention of claim 7, when the reference conference material is specified, all the conference information is referred to, such as accessing only the active part of the discussion not only from the content of the material but also from the discussion status of the material. Without having to, you can easily access important discussion parts. Moreover, this information can shorten the time for grasping | ascertaining the content of a meeting for the person who did not participate in a meeting.
[0049]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of a speech structure information presentation device according to the present invention will be described below with reference to the drawings. The speech structure information presentation device according to the embodiment described below is applied to a conference recording / playback device that records conference information for a presentation-type conference and can specify a location to be searched from the conference information. Is the case.
[0050]
Here, the presentation type conference is a type of conference in which a specific conference participant (presenter) makes a presentation and a plurality of conference participants discuss based on the presentation. The speech of the explanation by the presenter is characterized in that the speech section is relatively long compared to the speech of questions including other conference participants thereafter.
[0051]
[Description of Recording Device Part of Conference Recording / Reproducing Device]
FIG. 2 is a diagram for explaining the presentation-type meeting, and is a conceptual diagram showing the state of the meeting in the electronic meeting room.
[0052]
Reference numeral 10 denotes a personal computer for presentation (hereinafter, personal computer is abbreviated as PC), which holds a presentation tool for presenting conference material and a data file of the conference material. At the time of the conference, the display content of the presentation PC 10 is displayed on the large screen 1.
[0053]
The presenter 2 can use a keyboard 3 for character input and a pen input device 4 for instruction input, and perform user input operations such as memo writing and marking on the presentation PC 10. The voice of the presenter 2 is collected by the voice input device 5 such as a microphone and recorded on the conference recording PC 20.
[0054]
Each of the conference participants 6 other than the conference presenter has a local PC 40. The same contents as the large screen 1 are displayed on the local PC 40. Furthermore, the conference participant 6 can input a personal memo from the keyboard 7 and the pen input device 8 to the local PC 40. The input information is recorded and held as a personal information file in each local PC 40. The speech of the conference participant 6 is captured as audio data by the audio input device 9 such as a microphone and recorded on the conference recording PC 20.
[0055]
The conference recording PC 20 integrates the voice data input from the voice input device 5 or the voice input device 9, and records and holds the voice data file as a conference data file. In addition, a process for generating information for an index for accessing the conference information after the conference is performed. The presentation PC 10 and the conference recording PC 20 may be the same PC.
[0056]
FIG. 3 is a block diagram showing a configuration of a part for recording conference information in the conference recording PC 20. The conference recording PC 20 is a device that records the conference information at the time of the conference and performs a process for creating an index for accessing the conference information later.
[0057]
The voice data of the speeches of the presenter 2 and other conference participants 6 from the voice input device 5 and the voice input device 9 are digitized by the A / D conversion device 21. The digitized audio data is taken into the conference recording PC 20.
[0058]
The voice data captured inside is synthesized by the synthesizer 22 with the voice data of a plurality of conference participants including the presenter 2, and is recorded and held in the conference voice data file storage unit 23.
[0059]
Each piece of voice data is supplied to the utterance data extraction unit 24, and the utterance data extraction unit 24 extracts a section of voice data in which a certain volume or more continues for a certain period of time as a utterance section. The utterance data extraction unit 24 extracts a utterance section for each conference participant. As described above, in this example, since a microphone is installed for each conference participant, it is possible to detect which conference participant the audio is from, depending on which microphone is the audio. Yes.
[0060]
The extracted utterance section data is supplied to the utterance structure table generation unit 26 together with the time data of the timer 25, and the utterance structure table which is an index for accessing the speech data of the conference by the utterance structure table generation unit 26. Is generated. As will be described later, the information in the comment structure table indicates the correspondence relationship between the conference participants who have spoken, the time information of the speech section, and the information on the page of the conference material when the speech is detected. is there. The information of the generated message structure table is recorded and held in the message structure file storage unit 27 as a message structure file.
[0061]
As shown in FIG. 4, in the presentation PC 10, the presentation tool 11 is activated during the conference, and the contents of the presentation file 12 are displayed on the display device 13. In the presentation file 12, a plurality of pages of meeting materials are prepared for each page.
[0062]
Here, the presentation tool 11 has a structure in which the display is changed in units of pages. In this embodiment, the conference material is managed in units of pages, and the page number is used as identification information for each conference material. For this reason, when the page is changed during the conference, the presentation tool 11 transmits a display page change notification to the conference recording PC 20.
[0063]
In the conference recording PC 20, when the notification detection unit 28 receives the display page change notification signal, the display information extraction unit 29 extracts information on the conference material page included in the display page change notification signal. The information of the page is recorded and held in the display information file storage unit 30 as a display information file together with the time information of the timer 25. Also, the information on the page of the conference material is sent from the display information extraction unit 29 to the message structure table generation unit 26, and is used as information on which page of the conference material the detected message was performed.
[0064]
FIG. 5 is a diagram for explaining the data structure of the display information file 100. The display information file 100 is a file that holds, as time series data, the transition of the display state of each page of the conference material used in the presentation during the conference. Therefore, this display information file is sometimes called a display information table. Hereinafter, similarly, in this specification, a file in a table format may be referred to as a table.
[0065]
In the display information table 100 of FIG. 5, the field 101 is “display number”, which is a sequential number assigned to display data in page units. A field 102 is a column of “page number”, and records the page number of the conference material displayed in the presentation. A field 103 is a column of “display start time”, and records the time when the display is changed from another page to the current page and the display of the current page is started in the presentation. Similarly, the field 104 is a column of “display end time”, and records the time when the display change occurs to the next page.
[0066]
FIG. 6 is a diagram for explaining the data structure of the message structure table 110. The speech structure table 110 is a data file that holds the speech structure of conference participants in a conference and is used as an index for accessing an audio data file that records the conference.
[0067]
As shown in FIG. 6, in the “speech number” column of the field 111 of this speech structure table 110, identifiers of the detected speech in time order are recorded. In the “participant name” in the field 112, the name of the conference participant detected based on the identifier of the voice input device that extracted the speech is recorded.
[0068]
The speech structure file storage unit 26 also stores a conference participant table, which is a correspondence table between the identifier of the voice input device and the conference participant name. The data structure of the conference participant table 120 is as shown in FIG.
[0069]
That is, the field 121 of the conference participant table 120 is an input device number, which means an audio input device number that is an identifier held by the audio input devices 5 and 9. A field 122 is a conference participant name, and the name of the conference participant assigned to each voice input device is held as text data.
[0070]
When a utterance is detected, first, the voice input device in which the utterance is detected is specified. Then, referring to the conference participant table 120, the corresponding conference participant name is specified. In the field 112 of the statement structure table 110, the participant name specified from the conference participant table 120 is recorded as the participant name.
[0071]
As the “speech start time” in the field 113 of the speech structure table 110, the start time of the extracted speech is recorded as an elapsed time from the recording start time. As the “utterance end time” in the field 114, the end time of the speech is recorded in the same manner. As the “page number” in the field 115, the page number of the conference material page where the corresponding utterance is uttered is recorded.
[0072]
FIG. 6 illustrates the relationship between the speech start time field 112 and the speech end time field 113 of the speech structure table 110 and the audio data file of the conference audio data file storage unit 23. That is, 117 indicates the recording location of the utterance 6 recorded in the conference audio data file storage unit 23. The link 118 points to the speech start point at the recording position of the speech number 6. Similarly, the link 119 points to the speech end point at the recording position of the speech number 6.
[0073]
In the conference recording PC 20 of FIG. 3, the partial structure detection unit 31 is a processing unit that divides the speech structure into some meaningful information units from the features of the speech structure and the display information. In this example, a meaningful information unit is a page unit of a presentation, a display block corresponding to a specific display time during which a certain page was displayed, a presentation explanation and a corresponding question and answer as one unit. Such as discussion blocks.
[0074]
The management file generation unit 32 is also a device for creating a conference information management file (conference information management table) for managing the partial structure of the utterance structure detected by the partial structure detection unit 31 in units of presentation pages. It is. Here, the partial structure information of the utterance is managed in a hierarchical structure of page units, display blocks, and discussion blocks, and the conference information management table is recorded and held in the conference information management file storage unit 33.
[0075]
FIG. 8 is a diagram for explaining the data structure of the conference information management table 130. As the conference information management file, the speech structure data is managed in a three-level hierarchical structure as described above.
[0076]
The highest layer of the conference information management table 130 is in units of pages, and “page number” is recorded in the field 131. In this hierarchy, all message structure data related to the corresponding page is held.
[0077]
The page is composed of a plurality of display blocks which are speech structures of the respective display sections. That is, the display block is a speech structure below the page. In a presentation type meeting, meeting materials are not displayed in order from the first page to the last page. For example, while explaining, a discussion may be inserted in between, a gap may be inserted, another page may be moved, or the original page may be returned.
[0078]
Therefore, the management of only page units cannot manage the time intervals displayed discretely. The display block is for managing discrete display time intervals on the same page, and indicates a interval in which a specific page is continuously displayed in a specific time zone. The “display block number” in the field 132 of the conference information management table 130 is a number assigned sequentially to the display block.
[0079]
The display block is usually composed of a plurality of discussions. As described above, in the presentation, explanation by the presenter and discussion including other conference participants occur alternately. Therefore, the explanation and the discussion related thereto are defined as one discussion block, and one display block is divided and held for each discussion block.
[0080]
The “discussion block number” in the field 133 is a sequential number of the discussion block in the display block.
[0081]
The comment structure section that defines one discussion block, that is, the explanation and the discussion section related thereto is specified by the start comment in the field 134 and the end comment in the field 135. The message numbers shown in FIG. 6 are used as the message numbers of the start message and the end message in the fields 134 and 135. That is, the message numbers in the fields 134 and 135 are pointers to the message structure file.
[0082]
Next, the configuration of the local PC 40 will be described. FIG. 9 shows a configuration example of the local PC 40.
[0083]
The same contents as the large screen 1 are displayed on the display device 41 of the local PC 40. The conference participant can attach a memo to the screen content using the keyboard 7 or the pen input device 8 while referring to the screen. Such user input operation is detected by the user input information extraction unit 42, and the input time and position of the user input information, the input information, etc. are input log as an input log file in the form of a table as will be described later. It is recorded in the file storage unit 43. In this example, as for the pen input, user input information is recorded in units of strokes.
[0084]
The input object extraction device 44 extracts an input object as a series of input units from the user input information stored in the input log file storage unit 43, and inputs the input object file as an input object file in a table format as will be described later. Record in the storage unit 45.
[0085]
In the personal information management file generation unit 46, the information in the input object file storage unit 45 is converted into a hierarchical structure of partial structures in units of pages, display blocks, and discussion blocks in a form corresponding to the above-described conference information management file. And is recorded and managed in the personal information management file storage unit 47.
[0086]
FIG. 10 is an input example of the user's personal memo on the local PC 40. At the same time, this coincides with a display example when personal information is displayed as an overlay in presentation information reference processing at the time of meeting information playback described later.
[0087]
As described above, the presentation screen as shown in FIG. 10 is displayed on the display screen of the local PC 40, and the user can input a personal memo on this screen.
[0088]
In FIG. 10, 211, 212, and 214 indicate that the user has been marked by pen input. On the other hand, reference numeral 213 indicates that the user's personal memo is input as text information from the keyboard. A handwritten memo (character string) can also be input by pen input. However, since it does not have a character recognition function, the handwritten memo of the character string is processed as a set of strokes.
[0089]
FIG. 11 is a diagram for explaining the data structure of the input log table 140 as an input log file. As this input log file, the input from the keyboard 7 or the pen input device 8 is monitored by the user, and if the input is from the keyboard 7, the pen input device 8 may be a character string unit until the carriage return is input. For example, input is extracted and recorded in units of strokes.
[0090]
A field 141 of the input log table 140 is an input number, which is a sequential number for user input information. The next field 142 is a column for recording “type”, which is input from the keyboard 7 or input from the pen input device 8, and has a type of “text” and “stroke”, respectively.
[0091]
The “input item” in the next field 143 is a part for recording the substance of the input information. That is, in the case of text, the input character string is recorded here. In the case of a stroke, a series of coordinate lists representing the stroke are recorded.
[0092]
“Position coordinates” in the next field 144 represents the position where the input object is input. In the text, an insertion position indicated by a pointer or the like is extracted before input. In the stroke information, this position coordinate information is not extracted because it is included in the input item.
[0093]
In the next field 145 “start time”, the input start time of the corresponding user input information is recorded, and in the field 146 “end time”, the time when the input of user input information is completed is recorded. .
[0094]
FIG. 12 is a diagram for explaining the data structure of the input object table 150 of the input object file storage unit 45. In this example, the input object is extracted from the data of the input log file stored in the input log file storage unit 43, and the memo writing information for each individual is held for each unit object.
[0095]
Here, the input object refers to a group of strokes and text input within a certain period of time as a single unit.
[0096]
“No” in the field 151 of the input object table 150 is an input object number, which is a sequential number for identifying the input object. In the next field 152 “input object”, the type of the input object is recorded. In this example, there are two types, text or stroke. When the type is text, the value of each field is the same as the corresponding field value of the input log table 140 described above.
[0097]
In the “configuration item” of the field 153, a list of input numbers in the field 141 of the input log table 140 that is an element constituting the input object is recorded.
[0098]
In the “input start time” of the next field 154, when the input object is a stroke, the start time of the input data of the minimum input number among the strokes constituting the input object is recorded. In the case of text, the input start time is recorded. Similarly, in the “input end time” of the field 155, in the case of a stroke, the end time of the input data of the maximum input number among the strokes constituting the input object is recorded. In the case of text, the input end time is recorded.
[0099]
In the “area” of the next field 155, the coordinates of the display rectangular area when a series of stroke groups are grouped are recorded. In this example, a set of (starting point coordinates, diagonal coordinates) is recorded as the coordinate values of the display rectangular area.
[0100]
FIG. 13 is a diagram for explaining the data structure of the personal information management file (personal information management table) 160 in the personal information management file storage unit 47. In this embodiment, in the personal information management file, the input object information from each user is subdivided according to the display information and the structure of the discussion in the same manner as the conference information management table 130 as the conference information management file. Retained and managed in page units.
[0101]
The “page number”, “display block number”, and “discussion block number” in the fields 161 to 163 of the personal information management table 160 are the same as those in the conference information management table 130 as the conference information management file. In the “input object list” in the field 164, pointers to all input objects related to the time zone corresponding to the discussion block are held.
[0102]
Next, the conference information recording processing operation will be further described.
[0103]
FIG. 14 is a flowchart for explaining an outline of processing of the recording device unit of the conference information recording / reproducing device. In the process of the recording apparatus unit in this example, a file is generated by the five processes shown in FIG.
[0104]
FIG. 14A shows an outline of the flow of the conference audio data file recording process. The audio data input from the audio input device 5 or 9 such as a microphone is directly converted into an audio file by the conference audio data file recording process. It is stored in the conference audio data file storage unit 23 and recorded. In this example, this is the conference data itself.
[0105]
FIG. 14B shows an outline of the flow of the message structure extraction process. That is, in the speech structure extraction process, the speech structure table information stored in the speech structure file storage unit 27 is obtained from the speech data from the speech input devices 5 and 9 and the display page change notification information sent from the presentation tool 11. Generate.
[0106]
FIG. 14C shows an outline of the flow of display information extraction processing. In the display information extraction process, information related to time-series changes in the presentation display is extracted from the display page change notification information, and a display information table stored in the display information file storage unit is generated.
[0107]
FIG. 14D shows an outline of the flow of personal information extraction / management processing. That is, in the personal information extraction / management process, an appropriate input object is recognized from user input such as a personal note made on the presentation information by using the keyboard 7 or the pen input device 8 and the like, and in page units. A personal information management table for managing the personal information is generated and stored in the storage unit 47 as a personal information management file.
[0108]
FIG. 14E shows an outline of the flow of conference information extraction / management processing. In this conference information extraction / management process, information generated by other processes is used, and the message structure file in the message structure file storage unit 27 and the information in the display information file in the display information file storage unit 30 are displayed on the page. A process for generating a conference information management file for managing the conference information in a page unit and as a hierarchical structure is performed by restructuring into a unit management form. The conference information management table is stored in the conference information management file storage unit 33 as the conference information management file.
[0109]
FIG. 15 is a flowchart for explaining the outline of the message structure extraction process. First, in step 300, the page number currently displayed is set as the page number of the conference material as an initial setting.
[0110]
As described above, in this example, audio data having a sound volume of a certain level or higher, and audio data having the sound volume continued for a certain length of time or longer are extracted as speech. In step 301, it is determined whether the above-mentioned condition as a statement is satisfied. In the next step 302, the message number, the participant name, and the message start time, which are data of items corresponding to the fields of the message structure table 110 (FIG. 6), are extracted.
[0111]
In this case, a new sequential number is assigned as the speech number. The participant name is specified by searching the conference participant table 120 (FIG. 7) based on the input device number of the voice input device in which the speech is detected. In this example, the speech start time is a time that is a predetermined time before a point in time when it is detected that the audio data has exceeded a certain level. This is to prevent the beginning part of the statement from being lost.
[0112]
In the case of this example, there are two conditions for determining the end of speech, and each of the conditions is determined in step 303 and step 306.
[0113]
First, in step 303, if audio data of a certain level or lower continues for a certain period of time, it is regarded as the end of speech, and the speech end time is calculated in step 304. In step 305, the extracted information is recorded in the message structure table 110. After step 305, the process returns to step 301, and the speech section detection process as described above is repeated.
[0114]
Further, in this example, even when the utterance is continuous, it is determined that the utterance content has changed at the timing when the presentation page has changed, and it is determined that the utterance has ended. In step 306, it is determined whether or not there is a display page change notification. If there is a display page change notification, the process proceeds to step 307, where the speech end time is calculated.
[0115]
In this example, in step 307, the speech end time is a time obtained by adding a predetermined time to the page change time. As described above, the reason for adding the fixed time is to include the adjustment because there is a possibility that the speech is not clearly separated at the break of the page.
[0116]
In the next step 308, the extracted information is recorded in the message structure table 110. Then, the process proceeds to step 309 to perform processing for the next message data. That is, a new message number is assigned to the next message, and a time obtained by subtracting a predetermined time from the arrival time of the display page change notification is assigned as the message start time. Further, the page number after the change notification is assigned as the page number.
[0117]
The reason why the fixed time is subtracted from the arrival time of the display page change notification as the speech start time is the same as that for adjusting the speech end time. That is, there is a possibility that a discussion regarding the reason for the transition is included before the page is transitioned. In this case, it is necessary to set a longer adjustment time than the adjustment of the speech end time.
[0118]
FIG. 16 is a flowchart for explaining an overview of the display information extraction process. First, in step 351, a display information change notification indicating the start of presentation is received. In the next step 352, page number information is obtained from the display information change notification, and the timer time at that time is set as the display start time. Further, 1 is set as the initial value of the display number.
[0119]
In the next step 353, it is determined that a presentation end signal has been received from the presentation tool 11. If there is no notification of completion, the process proceeds to step 354, where it is determined whether or not a display page change notification has been received.
[0120]
When the display page change notification is received, the process proceeds to step 355, and the current timer time is set as the display end time as processing of information related to the display before the display page change. Then, in the next step 356, the information of the extracted display end time is recorded in the display information table 100.
[0121]
In the next step 357, processing for the next display data is performed. That is, a new page number included in the display page change notification is set for the page number, and the display end time of the previous data is substituted for the display start time. New display numbers are also assigned sequentially.
[0122]
If a presentation end notification is received in step 353, the process proceeds to step 358, and the display end time is set, information is recorded in the corresponding field of the display information table, and the process is ended, as in steps 355 and 356. To do.
[0123]
FIG. 17 is a flowchart for explaining the outline of the conference information extraction / management process.
[0124]
First, in step 401, display data corresponding to one display block is read from information in the display information table 100 of the display information file storage unit 30. In the next step 402, it is determined whether there is display data to be read from the display information file storage unit 30. If there is display data to be read, the process proceeds to step 403, and a new display block number is assigned to the read display data.
[0125]
After step 403, the process proceeds to step 404, where message structure data corresponding to the display data is extracted. The message structure data is read from the file, and while the page number is equal to the page number of the display data, the message structure data is repeatedly read to extract a series of continuous message structure data having the same page number.
[0126]
In the next step 405, speech structure division processing is performed on the extracted series of speech structure data, and the series of speech structure data is divided into a plurality of discussion blocks. Further, in the next step 406, the extracted discussion block group is recorded in the corresponding page number and display block number fields (records) of the conference information management table. The series of processing from step 401 to step 406 is repeated for all data in the display information file.
[0127]
FIG. 18 is a flowchart for explaining the outline of the message structure dividing process in step 405 of FIG. In this message structure dividing process, a process for dividing the extracted series of message structure data into several discussion blocks is performed. In this example, the discussion block is a series of speech structure sections consisting of an explanation of a presentation and an argument about questions and the like.
[0128]
In step 411, a new discussion block number is set as an initial value setting process. In the next step 412, one piece of utterance data is extracted from the utterance group of a series of utterance structure data. Then, in step 413, it is determined whether or not the processing has been completed for the data group of the message structure. If the processing has not been completed, the processing proceeds to step 414.
[0129]
In step 414, it is determined whether the statement is an explanation part or a discussion part of the presentation. In this example, when the speaker is a presenter and a speech having a speech interval time longer than a certain length, this speech is determined to be an explanatory speech. If this condition is not met, it is determined to be a discussion part.
[0130]
If it is determined that the utterance is not an explanatory utterance, the process returns to step 412 to proceed to processing of the next utterance in the utterance list.
[0131]
If it is determined in step 414 that the utterance is an explanatory utterance, the process proceeds to step 415. In this step 415, a series of utterances from the previous explanation utterance of the utterance determined to be the explanation utterance to the utterance before the explanation utterance being processed is extracted as one discussion block.
[0132]
In the next step 416, a new discussion block number is set for the processing of the next discussion block, and the explanation message data being currently processed is added to the statement list of the discussion block. Then, the process returns to step 412 and proceeds to the process of extracting the next discussion block.
[0133]
FIG. 19 is a flowchart for explaining the outline of the user input information extraction processing. This is a process for recording a history of input data in which the user has made notes and checks on the presentation material using the PC 40 at hand.
[0134]
First, in step 451, the user waits for input and checks whether or not there is an input. When an input from the user is generated, the time at which the input is generated is acquired from the timer 25 in step 452, and this is set as the input start time. In the next step 453, the instruction type of the user input is determined, and the process is branched according to each instruction type.
[0135]
If the instruction type is “input”, the process proceeds to step 454 to determine whether the user input is input from the keyboard or pen input device. If the input is a pen input, the process proceeds to step 455, where a stroke trajectory is received every unit time Δt, and a series of coordinate groups is substituted as stroke data into the input item field 143 of the input log table 140.
[0136]
In the case of keyboard input, the process proceeds from step 454 to step 456, and the coordinates of the point at which the input position is designated are extracted. In the next step 457, a series of input character strings from the keyboard is substituted as input data into the input item field 143 of the input log table. In this example, it is determined as a series of keyboard inputs from the start of input until a carriage return is input.
[0137]
Then, the process proceeds to step 458, and the time when the input is completed is obtained from the timer 25. In step 459, a new sequential number is assigned to the input number and recorded in the input log file storage unit 43.
[0138]
If it is determined in step 453 that the instruction type is “delete”, the process proceeds to step 460 to delete the instructed input data from the input log file. If it is determined in step 453 that the instruction type is “move”, the process proceeds to step 461 to change the position coordinates of the instructed input data. Further, when it is determined in step 453 that the instruction type is “copy”, new input data holding the same information as the designated input data is generated and recorded in the input log file 140.
[0139]
FIG. 20 is a flowchart for explaining the outline of the input object extraction process. As described above, in this example, the input object is extracted from the input log data.
[0140]
First, in step 471, input log data is read from the input log file. In the next step 472, it is determined whether all processing of the input log data has been completed. If all the processes are finished, the input object extraction process is finished.
[0141]
If the input log data has not been processed, the process proceeds to step 473, where it is determined whether the type of input data read is stroke input by a pen input device or text input by a keyboard. Different processing is performed depending on the type.
[0142]
Steps 474 to 479 are processes for extracting a series of stroke objects. A series of strokes refers to a group of data that is continuous stroke type input data and is input at intervals within a certain period of time.
[0143]
In step 474, the value of the input object type and the input start time are set. Here, the input start time is the input time of the first stroke of a series of strokes. Next, in step 475, the next input data is read.
[0144]
In the next step 476, it is determined whether or not the next input data exists, and if not, the process proceeds to step 491 in FIG. 21 for the end processing procedure when the data is ended.
[0145]
In this step 491, a value is set with the end time of the input data being processed as the input end time of the input object. In the next step 492, the coordinates of the rectangular area including all of the series of strokes included in the extracted input object are calculated as the display rectangular area. In the next step 493, a new input object number is assigned to the extracted stroke object, the input object file (input object table) 150 is recorded in the storage unit 45, and the process is terminated.
[0146]
If it is determined in step 476 that the next input data exists, the process proceeds to step 477. In this step 477, it is determined whether or not the data type of the read input data is a stroke. This is to determine whether the stroke data continues in order to extract a series of strokes.
[0147]
If the data type determined in step 477 is other than stroke data, it is determined that a series of stroke objects has been extracted, and the process proceeds to step 494 in FIG. I do.
[0148]
That is, the processing from step 494 to step 496 is a post-processing procedure when a normal series of stroke objects is extracted. The processing is the same as the processing from step 491 to step 493. After the processing is completed, the processing proceeds to step 473 in order to continue processing the input data being processed.
[0149]
If the data type determined in step 477 is a stroke, the process proceeds to step 478, where it is determined whether the input data is continuous input data depending on whether the input time interval is within a certain time. Is judged. That is, it is determined whether the time difference between the end time of the previous input data and the start time of the input data being processed falls within a certain unit time Δt.
[0150]
If there is an interval of a certain time or more in the time difference, it is determined that a stroke object has been extracted, and the process proceeds to step 494. If there is no interval of a certain time or more in the time difference and the stroke object continues, in the next step 479, the input data being processed is added to the configuration item, and the next input data is processed. Return to step 475 to perform.
[0151]
Next, processing when the type of input data is text will be described. When the input type is text, the input data matches the input object. Therefore, in step 480, the value of the corresponding item of the input data is substituted for each item of the input object.
[0152]
In the next step 481, a text display rectangular area is calculated. In step 482, a new object number is assigned to the extracted text object and recorded in the input object file. After step 482, the process returns to step 471.
[0153]
When the input object extraction process is completed as described above, a personal information management file is generated from this information. This personal information management file has the same format as the conference information management file. An input object group whose input start time is within the time interval of the discussion block is held in the input object list field of the corresponding discussion block.
[0154]
[Description of the playback device portion of the conference recording / playback device]
FIG. 1 is a block diagram showing a configuration of a playback device portion for accessing conference information desired by a user after the conference ends in the conference information recording / playback device according to the embodiment of the present invention.
[0155]
In this embodiment, the conference information is reproduced from a specific page of the presentation tool by accessing a chart that visualizes the corresponding statement structure. It features the method. There are a number of ways to access this particular message structure.
[0156]
First, one of them is a case where a message structure diagram corresponding to an arbitrary page of the conference material is displayed with reference to the screen on which the conference material is presented. In the case of this example, the conference material is a presentation material, and all the comments related to the presentation material page of the presentation currently being referenced can be referred to and reproduced.
[0157]
Furthermore, by using together with personal information such as memos recorded as user input information by the conference participants, only the utterance structure section near the memo writing is targeted, and only the utterance structure diagram of that part is displayed. Only the meeting information corresponding to it can be reproduced. Rather than identifying the page you want to refer to from presentation materials or notes, you can grasp the discussion status for each page, and from that discussion status, identify any referenced page and access the relevant meeting information You can also
[0158]
In FIG. 1, in this embodiment, the display device 51 displays the contents of the presentation material used during the presentation in the meeting. In addition, as described above, the conference participants may also display the entered memo contents in the conference. On the screen of the display device 51 at this time, the same display screen as in the presentation shown in FIG. 10 is displayed.
[0159]
The presentation control display unit 53 is a device for controlling the display of the presentation content in the display device 51. Basically, the contents of each page of presentation presentation materials as conference materials stored in the presentation file storage unit 58 are displayed.
[0160]
When there is user input information of individual conference participants, the presentation control display unit 53 superimposes the page contents of the presentation material in the presentation file storage unit 58 on the personal information display unit 56 and the memo information attached thereto. Control is performed so that the combined items are displayed on the display device 51.
[0161]
The instruction input device 52 inputs an instruction for search on the display screen of the display device 51. That is, in this playback apparatus unit, as will be described later, when a searcher instructs an area corresponding to a message to be played back using a pointing device such as a mouse, the corresponding audio data is played back.
[0162]
When a request for access to the statement structure diagram is instructed by the user through the instruction input device 52 while referring to the presentation content, the request detection unit 59 detects the request. The display status determination unit 60 determines the display status of the current presentation presentation material page and the like and the selection status of the handwritten memo.
[0163]
In this example, the display information detection unit 61 detects information regarding a display page, a selected object, and the like via the presentation display control unit 53. Then, the display information detection unit 61 sends the detected information to the display status determination unit 60. The display status determination unit 60 determines what speech section should be displayed. The display status determination unit 60 determines, for example, whether to collect all conference information sections related to a page or to extract an arbitrary partial structure.
[0164]
The speech structure section detection unit 62 receives the determination result of the display state determination unit 60 and automatically determines the speech structure section according to the corresponding display state or object selection state. The utterance structure section extraction unit 63 receives the information of the utterance structure section automatically detected by the utterance structure section detection unit 62 and performs processing for extracting the corresponding utterance structure section from the utterance structure file storage unit 27.
[0165]
The utterance structure diagram generation unit 64 generates a utterance structure diagram that is a chart diagram of the utterance structure corresponding to the utterance structure interval extracted by the utterance structure interval extraction unit 63. The generated message structure diagram is displayed on the display device 51 by the message structure diagram display control unit 54.
[0166]
Instead of specifying the conference information to be referred to from the presentation content, for example, it is necessary to provide a means for specifying the page to be referred from the discussion state, such as wanting to reproduce the discussion content of the place where the discussion was exciting The discussion status display control unit 55, the discussion status determination unit 65, the discussion information extraction unit 66, and the discussion activation level determination unit 67 are processing units related to the display of the discussion status.
[0167]
The discussion state determination unit 65 discriminates between the explanation section and the discussion section from the information in the comment structure file storage section 27, and extracts the discussion section. The method of detecting the discussion section is the same as described above. A speech section having a predetermined length or more is detected as an explanation speech, and a discussion section from one explanation speech to the comment before the next explanation speech is used as the discussion section. Determine and extract.
[0168]
Regarding the extracted discussion section, the discussion information extraction unit 66 extracts attributes related to the discussion, such as the number of utterances, the number of speakers, and the discussion time. The discussion activation level determination unit 67 calculates the activity level of the discussion from these extracted attribute values, and determines the activation level. The discussion status display control unit 55 visualizes and displays discussion attribute information and activation level for each page.
[0169]
FIG. 23 is a diagram illustrating an example of a speaker chart that visualizes a speech structure as an example of a speech structure diagram.
[0170]
Reference numeral 201 denotes a speaker chart display area. The speaker chart is composed of two areas: a total meeting time display area 202 that shows an overview of the entire meeting, and a message structure display area 203 that displays details of the part of the message structure corresponding to the detailed display location 204.
[0171]
The message structure display area 203 includes an area 206 for displaying a speaker name for identifying a speaker, and a message structure diagram display area 207 for visually displaying a state of transition of the speaker. Each column of the chart indicates when and how much time each conference participant made a speech during the conference time. In addition, by looking at the speech structure for all the conference participants, it is possible to read the speech transition structure indicating who has transitioned from what speech.
[0172]
In addition, by designating an arbitrary position from the speaker chart, the corresponding audio data can be reproduced. A triangular point 205a in the all meeting time display area 202 or a broken line 205b in the message structure display area 203 indicates the position on the speaker chart corresponding to the audio data being reproduced at that time.
[0173]
FIG. 24 is a flowchart for explaining the outline of the reproduction process when referring to the conference information.
[0174]
First, in step 501, a reference type of conference information is determined. The reference type is divided into a presentation type and a discussion situation type. In the case of the presentation type, the process proceeds to step 502, and the user specifies a page to be accessed as appropriate according to the content while referring to the content of the presentation.
[0175]
In the next step 503, it is determined whether or not there is an access request for displaying the message structure diagram from the user. When a request to display the message structure diagram is received, in step 504, a message structure section according to the presentation display status at that time is specified, and a chart of the message structure diagram is generated. In the next step 505, a chart of the generated message structure is displayed, and an arbitrary message instructed by the user is reproduced from the chart.
[0176]
If the reference type determined in step 501 is the discussion status type, the process proceeds to step 506, and information summarizing the discussion status is visualized and displayed. The user specifies a page to be referred to from the screen displaying the discussion status. When the user specifies a page to be referred to, the user's instruction is referred to in step 507, and if the user instruction requests access to the speech structure after referring to the presentation content, the process proceeds to step 502. move on. If the user instruction directly requests access to the message structure diagram, the process proceeds to step 504.
[0177]
FIG. 25 is a flowchart for explaining the outline of the presentation information reference process in step 502 of FIG. Here, referring to the presented material, accessing the chart structure of the speech structure from there is a series of procedures for reproducing the conference information.
[0178]
First, in step 511, a presentation display request is waited. If there is a request, the process proceeds to step 512, and the presentation tool 11 displays the contents of the presentation data. In the next step 513, the displayed page number is acquired from the presentation tool 11. In the next step 514, the input object group related to the acquired page number is read from the personal information management file storage unit 47.
[0179]
In the next step 515, the input object group of personal information is displayed on the already displayed presentation screen. This provides a situation where the material presented at the conference and the personal memo can be referenced simultaneously.
[0180]
In the next step 516, an instruction input from the user referring to the material is awaited, and corresponding processing is performed depending on the type of instruction input.
[0181]
First, when the instruction input from the user is an instruction to end presentation reference, the process is ended as it is. If the instruction input from the user is an instruction to refer to another page, the process returns to step 512, and the presentation data information and the personal information are superimposed and displayed in the same manner as described above. Further, when the instruction input from the user is a message structure display request, the process proceeds to step 517 to execute a message structure access process.
[0182]
FIG. 26 is a flowchart for explaining the outline of the message structure access processing in step 517. This speech structure access process is to extract an appropriate speech structure section according to the display state and selection state of the presentation.
[0183]
In step 521, first, it is selected whether to automatically determine the display / selection status, or whether to give a hierarchical level instruction explicitly requesting display by the user.
[0184]
In the case of automatic selection, the process proceeds to step 522, where the selection state of whether or not the input object is selected is determined, and the type for selecting the speech section is selected in steps 523 and 524 according to the determination result. The value of the variable to represent is set.
[0185]
In other words, if no object is selected, the process proceeds to step 523, where all the speech segment sets related to the entire displayed page are extracted. Therefore, the page is set as the type.
[0186]
On the other hand, if the input object is selected, the process proceeds to step 524, and in this case, the speech section related to the discussion block is extracted. Therefore, a discussion block is set as the type. In this case, a speech structure section of an appropriate discussion block corresponding to the time when the input object is input is selected.
[0187]
In the next step 525, a page number and an object number necessary for extracting an appropriate speech structure section are set. The page number has already been acquired in the presentation information reference information processing of FIG. The object number is set when an object is selected. If no object is selected, nil is set.
[0188]
In the next step 526, an appropriate speech structure section is extracted according to the set status variable, a chart diagram is generated, and visualization information is generated. Then, in the next step 527, the chart is displayed on the display screen of the display device 51. In this chart, the user can issue a playback instruction for an arbitrary statement.
[0189]
If it is determined in step 521 that the instruction is a hierarchical level instruction explicitly requested to be displayed by the user, in step 531, a hierarchical level instruction input from the user is determined. Then, according to the value of the instruction input from the user, the values of the page, the display block, and the discussion block are set as the display and selection status types in steps 5332, 533, and 534, respectively, and the process proceeds to step 525. The processing after this step 525 is the same as in the automatic selection described above.
[0190]
FIG. 27 is a flowchart for explaining the outline of the speech structure visualization process.
[0191]
First, in step 601, the type of display and selection situation is determined. Then, the corresponding visualization process is performed according to the determined type. That is, when the display / selection status type is page, the process proceeds to step 602 and subsequent steps, and all the speech structure sections related to the presentation display are extracted and simultaneously displayed as a speech structure diagram.
[0192]
First, in step 602, a conference information management file relating to the corresponding page is read. This conference information management file holds all the information related to the message structure related to this page. In the next step 603, the speech time is calculated in order to classify the size of the display area according to the length of the speech time. First, the total speech time of all the extracted speech structure sections is calculated. At the same time, the speech time for each display block is also calculated.
[0193]
In the next step 604, with respect to the area of the message structure display area 203 shown in FIG. 23, the display area area is set according to the ratio between the total time for each display block and the total page display time. The chart is assigned to each display area. In step 605, in order to indicate in which time zone each display block exists in the entire meeting, the entire meeting time display area 202 shown in FIG. 23 corresponds to each display block. Displays the time zone.
[0194]
FIG. 30 is a diagram for explaining a display example of the utterance structure diagram in page units in this example. All remark structure diagrams related to the selected page are displayed in units of display blocks. As a result, a list of discussions related to the page can be displayed.
[0195]
In FIG. 30, reference numeral 701 denotes an all-conference time display area, and reference numerals 701a, 701b, and 701c denote time periods when the selected page is displayed. Reference numeral 703 denotes a message structure diagram display area. Reference numeral 702 denotes display block areas 702a, 702b, and 702c corresponding to the respective time zones 701a, 701b, and 701c in the message structure diagram display area.
[0196]
703a is a remark structure diagram related to the display block displayed in the time zone 701a. 703b is a remark structure diagram related to the display block displayed in the time zone 701b. 703c is a remark structure diagram related to the display block displayed in the time zone 701c.
[0197]
Next, when it is determined in step 601 of FIG. 27 that the type is a discussion block, processing from step 611 to step 614 in FIG. 28 when the type of the display / selection state is a discussion block is executed.
[0198]
First, in step 611, a discussion block including an input object number is extracted from the personal information management file. In the next step 612, a speech section corresponding to the extracted discussion block is extracted. The extracted speech section is visualized and displayed so as to be within the speech structure diagram display area. Next, in step 613, as in step 605, the time zone corresponding to the discussion section is shown in the all conference time display area. In the next step 614, marking indicating the position of the selected input object is performed on the chart structure of the displayed message structure.
[0199]
FIG. 31 is a diagram for explaining a display example of the utterance structure diagram in block units. Reference numeral 711 denotes a total meeting time display area, and 711a shown shaded indicates a time zone corresponding to the discussion section.
[0200]
In the message structure diagram display area 712, the most different information from the above-mentioned display in page units is information on the selected input object. That is, in the figure, 712a shown shaded indicates a time zone in which the input object was input. A triangular mark 712b indicates the input start time of the input object.
[0201]
If it is determined in step 601 that the display / selection type is display block, the processing from step 621 to step 624 shown in FIG. 29 is executed. This process is the process from step 611 to step 614 in FIG. 28, in which the discussion block is replaced with the display block.
[0202]
FIG. 32 is a diagram for explaining an example of presentation of the discussion status displayed on the screen of the display device 51 by the discussion status display control unit 55 and access to the comment structure diagram from the discussion status.
[0203]
In FIG. 32, reference numeral 801 denotes an example of an active status display screen. Reference numeral 802 denotes an example of a display screen for the presentation contents and personal information of the designated page when the page is designated. Reference numeral 803 denotes a display screen for the message structure diagram described above.
[0204]
In the discussion status activation status display screen 801 in FIG. 32, according to the discussion activation level, the rank of each page is displayed according to the shade density of the area 801b of each page. Yes. For example, it can be seen that pages 1, 7, and 9 were actively discussed. Therefore, a page to be referred to can be selected from the display screen 801.
[0205]
In this example, the activity of discussion is defined and calculated as a discussion function, the number of speakers, and a composite function of the number of speakers. In this example, as shown in the explanation column 804 of FIG. 32, the activity value of this argument is divided into five levels, and the activation level is determined. Reference numeral 801a on the display screen 801 is a reference index of these five activation levels.
[0206]
When the page of the conference material is specified, the content of the page is displayed as a display screen 802 as in a path 805 indicated by an arrow, and the subsequent processing is the same as the access method described so far.
[0207]
On the other hand, as described above, it is also possible to directly display the message structure diagram without referring to the contents of the conference material, which is indicated by a path 806. This is because if the person who created the conference material searches the conference information after the conference ends, the content of the conference material may be familiar, and there is no need to display the content of the conference material. It is a thing.
[0208]
In this example, the activation level is exemplified for the discussion activation status, but the same effect can be obtained by directly graphing attribute values such as the discussion time and the number of speakers.
[0209]
In the above embodiment, since the conference material is managed in units of pages, the page number is used as the material identification information, but there are a plurality of conference materials as in the case of a conference on a plurality of themes. If it can be classified into types, material identification information may be assigned to each conference material for each theme across multiple pages. In this case, it is of course possible to provide the management information for each page by giving identification information for each page to the conference material of a plurality of pages for each theme.
[0210]
Therefore, the material identification information is not limited to the page number, and various identification information can be used.
[0211]
Moreover, although the above embodiment is an example when this invention is applied to a presentation type meeting, it cannot be overemphasized that this invention is not limited to this type of meeting.
[0212]
In addition, the conference materials are not limited to those displayed on the display screen. Even if the conference materials are presented as OHP sheets or distributed at the conference, the page numbers, conference material numbers, etc. If the identification information is given and managed, the present invention is applicable.
[0213]
In the above description, the discussion block is detected with the explanation speech as the partial speech structure. However, active discussion is performed in the speech section where a plurality of conference participants frequently change speakers. Various other methods can be used as a method for detecting a partial utterance structure, such as detection as a discussion utterance section.
[0214]
In the above-described embodiment, the message structure file, the conference information management file, and the personal information management file are generated at the time of recording and stored in the respective storage units. It is also possible to reproduce the entire information and generate it at that time.
[0215]
Further, in the above-described embodiment, the case where only audio information is recorded as the conference information has been described. However, the present invention can also be used for access when recording video information such as a conference scene at the same time and reproducing it. Is applicable.
[0216]
【The invention's effect】
As described above, according to the speech structure information presentation device according to the first aspect of the present invention, the structure of all discussions related to a specific conference material is visualized as a speech structure diagram. Compared with the data displayed in order, it is easier to understand the entire discussion of the document content. Therefore, when accessing the content of the conference, it is easy to access the necessary remarks because it is possible to narrow down which remarks should be accessed by grasping the entire context.
[0217]
In addition, according to the speech structure information presentation device according to the second aspect of the present invention, a partial structure can be extracted from conference information having no structure, data can be handled in units of partial structures, and a partial structure exists. The search processing efficiency is improved as compared with the case where the search is not performed.
[0218]
Further, according to the speech structure information presentation device of the invention of claim 3, when a specific time zone is designated by the searcher of the conference information, the speech structure section at each level can be easily extracted. Thus, the generation efficiency of the utterance structure diagram is improved.
[0219]
Further, according to the speech structure information presentation device of the invention of claim 4, it becomes possible to easily associate the conference material with the partial structure of the speech structure, and the search by handwritten memo and the search by the speech structure Can be effectively combined, so that the processing efficiency for accessing the message structure is improved.
[0220]
According to the speech structure information presentation apparatus of the invention of claim 5, when the search target is ambiguous, the level and time zone of the identification information unit of the conference material are narrowed down to some extent. When the level of each display section and the location of the utterance are narrowed down, the partial structure level such as the discussion utterance section can be designated, so that the search access can be performed as intended by the user. In this way, the search level can be selected according to the level of clarity of the target to be searched, and efficient narrowing down is possible.
[0221]
According to the utterance structure information presentation apparatus of the invention of claim 6, the utterance section at an appropriate utterance structure level is obtained as a search instruction input even if there is no explicit instruction from the user. Can only present. As a result, the user's search instruction operation is simplified, unnecessary information does not have to be presented, and the load on the user to access the necessary information is reduced.
[0222]
Furthermore, according to the speech structure information presentation device of the invention of claim 7, when specifying the reference conference material, not only from the content of the material, but also from the discussion status for the material, the active part of the discussion is accessed, etc. You can easily access important discussion parts without referring to all meeting information. Moreover, this information can shorten the time for grasping | ascertaining the content of a meeting for the person who did not participate in a meeting.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a playback device section of a conference information recording / playback device to which an embodiment of a speech structure information presentation device according to the present invention is applied.
FIG. 2 is a conceptual diagram showing a state of a meeting to which the present invention is applied.
FIG. 3 is a block diagram showing a configuration example of a conference recording PC of the recording device unit of the conference information recording / reproducing device to which the embodiment of the speech structure information presentation device according to the present invention is applied.
FIG. 4 is a block diagram showing a configuration example of a presentation PC of the recording device unit of the conference information recording / reproducing device to which the embodiment of the speech structure information presentation device according to the present invention is applied.
FIG. 5 is a diagram for explaining a data structure of a display information file used in the embodiment of the message structure information presentation device according to the present invention;
FIG. 6 is a diagram for explaining the data structure of a statement structure table used in the embodiment of the statement structure information presentation device according to the present invention;
FIG. 7 is a diagram for explaining a data structure of a conference participant table used in the embodiment of the speech structure information presentation device according to the present invention.
FIG. 8 is a diagram for explaining the data structure of a conference information management file used in the embodiment of the speech structure information presentation device according to the present invention;
FIG. 9 is a block diagram showing a configuration example of a local PC of the recording device unit of the conference information recording / reproducing device to which the embodiment of the speech structure information presentation device according to the present invention is applied.
FIG. 10 is a diagram showing a display example on the display screen of the conference information recording / reproducing device to which the embodiment of the message structure information presentation device according to the present invention is applied.
FIG. 11 is a diagram for explaining the data structure of an input log file used in the embodiment of the message structure information presentation device according to the present invention;
FIG. 12 is a diagram for explaining the data structure of an input object file used in the embodiment of the speech structure information presentation device according to the present invention;
FIG. 13 is a diagram for explaining the data structure of a personal information management file used in the embodiment of the speech structure information presentation device according to the present invention;
FIG. 14 is a flowchart for explaining the outline of the process of the conference information recording unit at the time of the conference in the conference information recording / reproducing device to which the embodiment of the message structure information presentation device according to the present invention is applied;
FIG. 15 is a flow chart for explaining the outline of the message structure extraction process in the conference information recording / reproducing apparatus to which the embodiment of the message structure information presentation apparatus according to the present invention is applied;
FIG. 16 is a flowchart for explaining an overview of display information extraction processing in the conference information recording / reproducing apparatus to which the embodiment of the message structure information presentation apparatus according to the present invention is applied;
FIG. 17 is a flowchart for explaining an outline of conference information extraction / management processing in the conference information recording / reproducing device to which the embodiment of the message structure information presentation device according to the present invention is applied;
FIG. 18 is a flowchart for explaining the outline of the speech structure dividing process in the conference information recording / reproducing apparatus to which the embodiment of the speech structure information presenting apparatus according to the present invention is applied;
FIG. 19 is a flowchart for explaining an overview of user input information extraction processing in the conference information recording / reproducing apparatus to which the embodiment of the message structure information presentation apparatus according to the present invention is applied;
FIG. 20 is a part of a flowchart for explaining an outline of input object extraction processing in the conference information recording / reproducing apparatus to which the embodiment of the message structure information presentation apparatus according to the present invention is applied;
FIG. 21 is a part of a flowchart for explaining an outline of input object extraction processing in the conference information recording / reproducing apparatus to which the embodiment of the speech structure information presentation apparatus according to the present invention is applied;
FIG. 22 is a part of a flowchart for explaining an outline of input object extraction processing in the conference information recording / reproducing apparatus to which the embodiment of the message structure information presentation apparatus according to the present invention is applied;
FIG. 23 is a diagram illustrating an example of a chart visualizing a message structure.
FIG. 24 is a flowchart for explaining the outline of reproduction processing when referring to conference information in the conference information recording / reproducing device to which the embodiment of the message structure information presentation device according to the present invention is applied;
FIG. 25 is a flowchart for explaining the outline of presentation information reference processing in the conference information recording / reproducing apparatus to which the embodiment of the speech structure information presentation apparatus according to the present invention is applied;
FIG. 26 is a flowchart for explaining the outline of the statement structure access process in the conference information recording / reproducing apparatus to which the embodiment of the statement structure information presentation device according to the present invention is applied;
FIG. 27 is a part of a flowchart for explaining the outline of the speech structure visualization process in the conference information recording / reproducing apparatus to which the embodiment of the speech structure information presentation apparatus according to the present invention is applied;
FIG. 28 is a part of a flowchart for explaining the outline of the speech structure visualization process in the conference information recording / reproducing apparatus to which the embodiment of the speech structure information presentation apparatus according to the present invention is applied;
FIG. 29 is a part of a flowchart for explaining the outline of the speech structure visualization process in the conference information recording / reproducing apparatus to which the embodiment of the speech structure information presentation apparatus according to the present invention is applied.
FIG. 30 is a diagram for explaining a display example of a utterance structure diagram for each page in the conference information recording / reproducing apparatus to which the embodiment of the utterance structure information presentation apparatus according to the present invention is applied.
FIG. 31 is a diagram for explaining a display example of the utterance structure diagram of the partial structure unit in the conference information recording / reproducing apparatus to which the embodiment of the utterance structure information presentation apparatus according to the present invention is applied;
FIG. 32 is a diagram for explaining a presentation example of the discussion status in the conference information recording / reproducing apparatus to which the embodiment of the statement structure information presentation device according to the present invention is applied, and access to the statement structure diagram from the discussion status; is there.
[Explanation of symbols]
3, 7 keyboard
4, 8 Pen input device
5, 9 Microphone as a voice input device
10 PC for presentation
20 PC for meeting recording
23 Conference audio data file storage
24 Utterance data extraction unit
25 timer
26 Statement structure table generator
27 Statement structure file storage
28 Notification detector
29 Display information extractor
30 Display information file storage
31 Partial structure detector
32 Management file generator
33 Meeting information management file storage
40 hand PC
42 User input information extraction unit
43 Input log file storage
44 Input object extraction unit
45 Input object file storage
46 Personal information management file generator
47 Personal information management file storage
51 Display device
52 Instruction input device
53 Presentation Display Control Unit
54 Remark Structure Diagram Display Control Unit
55 Discussion Status Display Control Unit
56 Personal information display
58 Presentation file storage
59 Request detector
60 Display status determination unit
61 Display information detector
62 Remark structure section detector
63 Remark structure section extractor
64 Statement structure diagram generator
65 Discussion State Judgment Unit
66 Discussion Information Extraction Unit
67 Discussion Activation Level Judgment Unit

Claims (8)

会議の議論の対象となる複数の会議資料のそれぞれを識別する資料識別情報と、前記複数の会議資料のそれぞれの提示時間区間情報とを記憶する第1の記憶手段と、
会議の音声情報から検出された複数の会議参加者のそれぞれの発言区間の時間情報と、各発言がなされたときに提示されていた会議資料の前記資料識別情報とを記憶する第2の記憶手段と、
前記複数の会議資料のうち、ユーザにより選択指示された会議資料を判別する資料判別手段と、
前記資料判別手段で判別された会議資料について、前記第1の記憶手段と前記第2の記憶手段の情報に基づいて、前記会議において、前記会議資料が提示された時間区間と、当該会議資料が提示された時間区間における会議参加者の発言区間の出現状況を示す発言構造とを、視覚化情報として生成する発言構造図生成手段と、
を備えることを特徴とする発言構造情報提示装置。
First storage means for storing material identification information for identifying each of a plurality of conference materials to be discussed in a conference, and presentation time interval information for each of the plurality of conference materials ;
Second storage means for storing time information of each speech section of a plurality of conference participants detected from conference audio information and the material identification information of the conference material presented when each speech was made When,
Material discriminating means for discriminating a conference material selected and instructed by the user among the plurality of conference materials;
For the determined meeting material in said article identifying means, based on said first memory means and information of said second storage means, in the meeting, and time period in which the conference material is presented, is the conference material and a remark structure for representing the occurrence status of statement interval of the conference participants in the presentation time interval, the speech structure diagram generating means for generating a visual Satoshika information,
An utterance structure information presentation device comprising:
請求項1に記載の発言構造情報提示装置において、
前記第1の記憶手段に記憶されている前記会議資料の提示状況に関する情報と、前記第2の記憶手段に記憶されている前記複数の会議参加者の前記発言区間の相互の関係から、発言構造の部分構造を抽出する部分発言構造検出手段を備えることを特徴とする発言構造情報提示装置。
In the statement structure information presentation device according to claim 1,
From the mutual relationship between the information related to the presentation status of the conference material stored in the first storage means and the speech sections of the plurality of conference participants stored in the second storage means A utterance structure information presentation device comprising partial utterance structure detection means for extracting the partial structure of the utterance.
請求項2に記載の発言構造情報提示装置において、
前記会議資料のそれぞれに関わる全発言区間を抽出する第1の発言構造レベルと、前記会議資料の特定の提示時間帯における全発言区間を抽出する第2の発言構造レベルと、前記部分発言構造検出手段で検出された特定の話題に関わる区間を抽出する第3の発言構造レベルとからなる階層構造で、前記発言構造を管理する発言構造管理手段を備えることを特徴とする発言構造情報提示装置。
In the statement structure information presentation device according to claim 2,
A first utterance structure level for extracting all utterance sections related to each of the conference materials, a second utterance structure level for extracting all utterance sections in a specific presentation time zone of the conference materials, and the partial utterance structure detection A utterance structure information presentation device comprising: a utterance structure management means for managing the utterance structure in a hierarchical structure including a third utterance structure level for extracting a section related to a specific topic detected by the means.
請求項3に記載の発言構造情報提示装置において、
各会議参加者が前記会議において入力した、メモ書きやマーキング等のユーザ入力情報を、前記会議参加者毎に記憶する第3の記憶手段と、
前記発言構造管理手段で管理する第1〜第3の発言構造レベルと、前記ユーザ入力情報との関係を保持し、前記ユーザ入力情報を、階層構造として管理する個人情報管理手段と、
を備えることを特徴とする発言構造情報提示装置。
In the statement structure information presentation device according to claim 3,
Third storage means for storing user input information, such as memos and markings, entered by each conference participant at the conference, for each conference participant;
Personal information management means for maintaining a relationship between the user input information and the first to third message structure levels managed by the message structure management means, and managing the user input information as a hierarchical structure;
An utterance structure information presentation device comprising:
請求項4に記載の発言構造情報提示装置において、
前記ユーザ入力情報を指定するとともに、前記階層構造のレベルを指定することにより、前記指定されたユーザ入力情報に関連した発言構造区間を、前記指定された階層レベルに応じて特定し抽出する発言構造区間抽出手段を備えることを特徴とする発言構造情報提示装置。
In the statement structure information presentation device according to claim 4,
A message structure that specifies and extracts a message structure section related to the specified user input information according to the specified hierarchy level by specifying the user input information and specifying a level of the hierarchy structure An utterance structure information presentation device comprising section extraction means.
請求項4に記載の発言構造情報提示装置において、
前記会議において提示された会議資料内容と、前記ユーザ入力情報とをオーバーレイさせて表示する表示手段を備えるとともに、
前記表示手段上でのユーザによる検索指示入力の、前記会議資料への参照状況や、前記ユーザ入力情報の選択状況に応じて、前記第1〜第3の発言構造レベルのうちのいずれかの発言区間を自動的に判定し、前記会議資料の提示時間区間のうちの前記発言構造レベルに応じた任意の部分に間連した発言構造区間のみを検出する発言構造区間検出手段を備える
ことを特徴とする発言構造情報提示装置。
In the statement structure information presentation device according to claim 4,
A display unit that overlays and displays the content of the conference material presented in the conference and the user input information;
A remark of any one of the first to third remark structure levels according to a reference state of the conference material of the search instruction input by the user on the display means or a selection state of the user input information It is characterized by comprising speech structure section detecting means for automatically determining a section and detecting only a speech structure section connected to an arbitrary part according to the speech structure level in the presentation time section of the conference material. Remark structure information presentation device.
請求項1に記載の発言構造情報提示装置において、
前記第2の記憶手段に記憶されている前記発言区間の長さが所定時間以上のものを説明発言として検出する説明発言検出手段と、
発言構造から説明発言を削除することにより議論の発言構造を抽出する議論状態判定手段と、
前記議論の発言構造の情報から話者数や議論時間等の議論属性情報を抽出する議論情報抽出手段と、
前記議論情報抽出手段で抽出された議論属性情報に基づいて、議論の盛り上がり状況を示す議論活性度を算出し、議論活性化レベルを判定する議論活性化レベル判定手段と、
前記議論活性化レベル判定手段の判定結果に応じて、前記議論の盛り上がり状況を視覚的に前記表示画面に表示する手段と、
を備えることを特徴とする発言構造情報提示装置。
In the statement structure information presentation device according to claim 1,
Explanation speech detection means for detecting, as explanation speech, a length of the speech section stored in the second storage means for a predetermined time or longer;
A discussion state determination means for extracting a comment structure of a discussion by deleting an explanatory comment from the comment structure;
Discussion information extraction means for extracting discussion attribute information such as the number of speakers and discussion time from information on the speech structure of the discussion;
Based on the discussion attribute information extracted by the discussion information extraction means, a discussion activation level determination means for calculating a discussion activity level indicating a rising situation of the discussion and determining a discussion activation level;
Means for visually displaying the climax of the discussion on the display screen according to the determination result of the discussion activation level determination means;
An utterance structure information presentation device comprising:
記憶手段と、資料判別手段と、発言構造図生成手段とにより実現される発言構造情報提示方法であって、
前記記憶手段が、会議の議論の対象となる複数の会議資料のそれぞれの提示時間区間を検出し、検出した提示時間区間情報と、前記複数の会議資料のそれぞれを識別するための資料識別情報とを関連付けて記憶すると共に、
会議の音声情報から複数の会議参加者のそれぞれの発言区間の時間を検出し、検出した発言区間の時間情報と、各発言がなされたときに提示されていた会議資料の前記資料識別情報とを関連付けて記憶する記憶工程と、
前記資料判別手段が、前記複数の会議資料のうち、ユーザにより選択指示された会議資料を判別する資料判別工程と、
前記発言構造図生成手段が、前記資料判別工程で判別された会議資料について、前記記憶工程で記憶された情報に基づいて、前記会議において、前記会議資料が提示された時間区間と、当該会議資料が提示された時間区間における会議参加者の発言区間の出現状況を示す発言構造とを、視覚化情報として生成する発言構造図生成工程と、
を備えることを特徴とする発言構造情報提示方法。
A speech structure information presentation method realized by storage means, material discrimination means, and speech structure diagram generation means,
The storage means detects each presentation time interval of a plurality of conference materials to be discussed in a conference, and detects the detected presentation time interval information, and material identification information for identifying each of the plurality of conference materials Is stored in association,
Detecting the time of each speech section from the sound information of a plurality of conference participants of the conference, and time information of the detected speech interval, and the article identification information of conference material was being presented when each utterance is made and that Symbol憶process be stored in association with,
The material determining means determines a meeting material selected and instructed by the user from among the plurality of meeting materials,
The talk structure diagram generating means for conference material the discriminated by the article determination step, on the basis of the stored information in said storing step, in the meeting, the time and interval in which the conference material is presented, the conference and a remark structure for representing the occurrence status of statement interval of the conference participants in article presented time interval, the speech structure diagram generating step of generating a visual Satoshika information,
A speech structure information presentation method comprising:
JP06912498A 1998-03-18 1998-03-18 Statement structure information presentation apparatus and statement structure information presentation method Expired - Fee Related JP3736597B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06912498A JP3736597B2 (en) 1998-03-18 1998-03-18 Statement structure information presentation apparatus and statement structure information presentation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06912498A JP3736597B2 (en) 1998-03-18 1998-03-18 Statement structure information presentation apparatus and statement structure information presentation method

Publications (2)

Publication Number Publication Date
JPH11272679A JPH11272679A (en) 1999-10-08
JP3736597B2 true JP3736597B2 (en) 2006-01-18

Family

ID=13393591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06912498A Expired - Fee Related JP3736597B2 (en) 1998-03-18 1998-03-18 Statement structure information presentation apparatus and statement structure information presentation method

Country Status (1)

Country Link
JP (1) JP3736597B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4390402B2 (en) * 2001-03-29 2009-12-24 富士通株式会社 Knowledge information management method, knowledge information utilization method, and knowledge information management device
US7257774B2 (en) * 2002-07-30 2007-08-14 Fuji Xerox Co., Ltd. Systems and methods for filtering and/or viewing collaborative indexes of recorded media
JP2004199407A (en) * 2002-12-18 2004-07-15 Fuji Xerox Co Ltd Method for display processing of information, system for display processing of information, management server, client terminal, and program
JP4250983B2 (en) * 2003-03-13 2009-04-08 富士ゼロックス株式会社 Device for associating user data with continuous data
US7206773B2 (en) * 2003-04-11 2007-04-17 Ricoh Company, Ltd Techniques for accessing information captured during a presentation using a paper document handout for the presentation
US7266568B1 (en) 2003-04-11 2007-09-04 Ricoh Company, Ltd. Techniques for storing multimedia information with source documents
JP2005267279A (en) * 2004-03-18 2005-09-29 Fuji Xerox Co Ltd Information processing system and information processing method, and computer program
JP2005277445A (en) * 2004-03-22 2005-10-06 Fuji Xerox Co Ltd Conference video image processing apparatus, and conference video image processing method and program
JP4611116B2 (en) * 2005-05-26 2011-01-12 富士通株式会社 Information processing apparatus and program used for presentation
JP2006302319A (en) * 2006-07-24 2006-11-02 Fujitsu Ltd Method for generating knowledge information
JP4985562B2 (en) * 2008-06-25 2012-07-25 株式会社Jvcケンウッド Recording apparatus, method and program
JP5573402B2 (en) * 2010-06-21 2014-08-20 株式会社リコー CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD, CONFERENCE SUPPORT PROGRAM, AND RECORDING MEDIUM
JP5919752B2 (en) * 2011-11-18 2016-05-18 株式会社リコー Minutes creation system, minutes creation device, minutes creation program, minutes creation terminal, and minutes creation terminal program
JP5949843B2 (en) * 2013-06-28 2016-07-13 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing apparatus control method, and program
JP6814604B2 (en) * 2016-11-01 2021-01-20 シャープ株式会社 Meeting information display system, meeting information display method and meeting information display program
JP7099177B2 (en) * 2018-08-27 2022-07-12 富士フイルムビジネスイノベーション株式会社 Communication support devices and programs

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05266084A (en) * 1992-03-19 1993-10-15 Oki Electric Ind Co Ltd Minutes preparation system
JP3526067B2 (en) * 1993-03-15 2004-05-10 株式会社東芝 Reproduction device and reproduction method
JP3185505B2 (en) * 1993-12-24 2001-07-11 株式会社日立製作所 Meeting record creation support device
JPH07226931A (en) * 1994-02-15 1995-08-22 Toshiba Corp Multi-medium conference equipment
JP3230569B2 (en) * 1996-04-24 2001-11-19 富士ゼロックス株式会社 Information storage device, information storage method, and information storage and playback device

Also Published As

Publication number Publication date
JPH11272679A (en) 1999-10-08

Similar Documents

Publication Publication Date Title
JP3736597B2 (en) Statement structure information presentation apparatus and statement structure information presentation method
US11070553B2 (en) Apparatus and method for context-based storage and retrieval of multimedia content
JP4347223B2 (en) System and method for annotating multimodal characteristics in multimedia documents
US5970455A (en) System for capturing and retrieving audio data and corresponding hand-written notes
US5572728A (en) Conference multimedia summary support system and method
JP4215792B2 (en) CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD, AND CONFERENCE SUPPORT PROGRAM
Whittaker et al. SCANMail: a voicemail interface that makes speech browsable, readable and searchable
Christel et al. Collages as dynamic summaries for news video
Tucker et al. Accessing multimodal meeting data: Systems, problems and possibilities
Smith et al. Parsing Movies in Context.
CN108305632A (en) A kind of the voice abstract forming method and system of meeting
US20020099552A1 (en) Annotating electronic information with audio clips
US20060100877A1 (en) Generating and relating text to audio segments
US20050004690A1 (en) Audio summary based audio processing
WO2015073501A2 (en) Generating electronic summaries of online meetings
JPH08249348A (en) Method and device for video retrieval
Gruenstein et al. Meeting structure annotation: Annotations collected with a general purpose toolkit
CN111524206A (en) Method and device for generating thinking guide graph
JP2005267279A (en) Information processing system and information processing method, and computer program
JP3879786B2 (en) CONFERENCE INFORMATION RECORDING / REPRODUCING DEVICE AND CONFERENCE INFORMATION RECORDING / REPRODUCING METHOD
US20050216913A1 (en) Annotating / rating / organizing / relating content rendered on computer device during idle mode thereof
Jain et al. Experiential meeting system
JP5522369B2 (en) Conference record summarization system, conference record summarization method and program
Bouamrane et al. Navigating multimodal meeting recordings with the meeting miner
JP3544829B2 (en) Information storage and retrieval device and information storage and retrieval method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051018

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091104

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101104

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111104

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees