JP4572545B2 - 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム - Google Patents

情報処理システム及び情報処理方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP4572545B2
JP4572545B2 JP2004040622A JP2004040622A JP4572545B2 JP 4572545 B2 JP4572545 B2 JP 4572545B2 JP 2004040622 A JP2004040622 A JP 2004040622A JP 2004040622 A JP2004040622 A JP 2004040622A JP 4572545 B2 JP4572545 B2 JP 4572545B2
Authority
JP
Japan
Prior art keywords
conference
search
participant
miniature
conference room
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004040622A
Other languages
English (en)
Other versions
JP2005234722A (ja
Inventor
猛志 永峯
秀人 湯澤
賢悟 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2004040622A priority Critical patent/JP4572545B2/ja
Publication of JP2005234722A publication Critical patent/JP2005234722A/ja
Application granted granted Critical
Publication of JP4572545B2 publication Critical patent/JP4572545B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、複数のシーンが時間軸上に配列して構成される動画像データの中から所望のシーンを検索する作業を支援する情報処理システム及び情報処理方法、並びにコンピュータ・プログラムに係り、特に、会議室で開催される会議を録画した動画像データの中から所望のシーンを検索する作業を支援する情報処理システム及び情報処理方法、並びにコンピュータ・プログラムに関する。
さらに詳しくは、本発明は、ユーザが検索したいシーンの手がかりを入力し、この入力情報に基づいて動画像データの中から所望のシーンを検索する情報処理システム及び情報処理方法、並びにコンピュータ・プログラムに係り、特に、ユーザが検索したいシーンの手がかりを入力するGUI(Graphical User Interface)を提供するとともに、このGUIを介して入力された内容を基に検索条件を組み、シーンの検索を行なう情報処理システム及び情報処理方法、並びにコンピュータ・プログラムに関する。
昨今のコンピューティング技術の発展に伴い、コンピュータがオフィスや一般家庭内に深く浸透してきている。これと相俟って、さまざまな適用業務はコンピュータの支援を受けることができるようになってきている。
例えば、企業における産業活動やその他のさまざまに日常生活において、会議が頻繁に行なわれているが、会議室にコンピュータを取り込むことで、会議の運用を支援することができる。
会議支援システムの一例として、遠隔会議システムを取り上げることができる。遠隔会議システムによれば、遠隔に位置する複数の会議室において、カメラやマイクなどの画像・音声入力装置や、モニタやスピーカなどの画像・音声出力装置を設置し、通信回線を利用して、各会議室において行なわれる発言や質疑応答などのイベントを共有し、遠隔地間で議事を同期して進行させることができる。
例えば、複数のユーザが端末装置のネットワーク接続によって対話を可能とした会議システムとしての対話システム制御方式がある(例えば、特許文献1を参照のこと)。この方式によれば、各端末装置において対話への参加、参加者の離脱を処理することによって、自由な参加や離脱を可能にして会議に相当する対話をすることができる。
また、会議の進行上、会議の参加者を撮影した映像や、参加者の発言内容などの音声だけでなく、会議で使用されるホワイトボードや、スライドその他のプレゼンテーション資料など、会議に関連するさまざまな資料を会議室間で共有し、保管することができる。
例えば、会議に用いられる共有の資料などの用意や保管を容易に行なうことができる会議システムについて提案がなされている(例えば、特許文献2を参照のこと)。この場合、インターネット上の会議支援ウェブサイトを運営する情報提供装置によりTV電話会議のサービスを提供する第1の工程と、会議参加者(ユーザ)が通信端末を用いるとともに、この情報提供装置を通し、共有資料を用いてリアルタイムで会議を行なう第2の工程とを備え、会議に用いられる共有の資料等の用意や保管を容易に行なうことができ、その場で資料などに書き込みを行なうこともでき、さらにはアプリケーションソフトの違いやバージョンの違いによる不具合も解消することができる。
さらに、会議システムでは、映像や音声などの会議の進行上で発生するさまざまなデータをデジタル化して保存し、さらに、ホワイトボードや、スライドその他のプレゼンテーション資料など、会議に関連するさまざまなメディア・データを、映像や音声などのビデオ・データすなわち会議の経過時間と同期させて保管することができる。このように会議に関連するデータを保存しておくことにより、これらを次回の会議において再利用することが可能となる。
会議は、ほぼ毎日、複数の会議において時間毎に開催される。このため、会議毎に捕捉され、蓄積された会議データは膨大であり、その数は日々増加していく。ここで、会議での決定事項を見返すなど、会議データを再利用したいときに、所望の会議を特定し、さらに会議データの中から所望の箇所(シーン)を探し出す手間が煩わしくなる、あるいは探し出すことが困難若しくは不可能である、という問題が浮上する。
従来、会議などでの決定事項などは、後に発行される議事録を見返すことにより振り返ることができる。しかし、決定事項に至った詳細な経緯などは記録されないため、振り返ることができない。また、本題から外れた内容であるが当人にとっては重要であると思える発話の内容や資料の内容など、議事録に載らないような事柄でも後で思い出したいと思う場合がある。
このような振り返りを支援する技術として動画像を利用する方法を挙げることができる。すなわち、会議をビデオ撮影し、後で思い出したいシーンを再生することにより想起を支援する方法である。そのためには、見たいシーンをすばやく検索する技術が不可欠となる。
例えば、動画像からある一定の時間間隔で抽出したシーン(静止画)を代表画像としてユーザに提示することにより、ユーザはその代表画像を頼りに時間的前後関係を推測し、見たいシーンに辿り着くことができる(例えば、特許文献3を参照のこと)。しかし、この場合、ユーザに提示されるシーンは一定間隔の時間で切り出されたシーンであり、そのシーンが時間推定にどれだけ有用であるかは不明である。例えば、似たような複数のシーンが抽出された場合、それらから時間的前後関係を推測するのは難しい。
このような問題を解決するために、動画像の内容が大きく変化した場合の静止画を代表画像としてユーザに提示する方法がある(例えば、特許文献4を参照のこと)。この場合、単なる時間間隔で得られた代表画像と異なり、シーンが変化した時点を代表画像とするため、同じようなシーンが連続して代表画像となることはない。しかしながら、この方法では、画像中の変化が少ないために代表画像が得られない場合もある。逆に、カメラのパンやブレやズーム、又は誰かがカメラの前を通った場合はシーンが大きく変化したとみなされ、そのシーンが代表画像として提示される場合もある。それらは会議の振り返りをするユーザにとっては意味のない(記憶にない)シーンであるので役立たない。
また、どの発言者がいつ発言したかを特定し、それをビジュアルにタイムラインとして表示し、そのタイムラインから再生したい部分の動画へアクセスする方法が提案されている(例えば、特許文献5を参照のこと)。しかし、ユーザは表示されたタイムラインを見て、自分が探しているシーンがどこに相当するかを推測する必要がある。このため、長時間の会議になればなるほど、見る範囲も広くなり、ユーザに負担を強いることになる。
また、見たいシーンを画像としてユーザがシステムに与えることにより、システムはその与えられた画像と類似するシーンを検索するという方法がある(例えば、特許文献6を参照のこと)。この場合、ユーザは画像を検索要求として与えるが、会議の録画の場合、設置されたカメラ位置を想定して、その位置から見える画像を作りシステムに与えなければならない。ユーザは通常、カメラの位置などについては考慮していないのでカメラ位置からの画像を作成して与えるのは難しい。
特開平3−192845号公報 特開2002−41429号公報 特開2002−262240号公報 特開平10−12672号公報 特開2000−125274号公報 特開2000−10997号公報
本発明の目的は、会議室で開催される会議を録画した動画像データの中から所望のシーンを検索する作業を支援することができる、優れた情報処理システム及び情報処理方法、並びにコンピュータ・プログラムを提供することにある。
本発明のさらなる目的は、ユーザが検索したいシーンの手がかりを入力し、この入力情報に基づいて動画像データの中から所望のシーンを検索することができる、優れた情報処理システム及び情報処理方法、並びにコンピュータ・プログラムを提供することにある。
本発明のさらなる目的は、ユーザが検索したいシーンの手がかりを入力するGUI(Graphical User Interface)を提供するとともに、このGUIを介して入力された内容を基に検索条件を組み、シーンの検索を行なうことができる、優れた情報処理システム及び情報処理方法、並びにコンピュータ・プログラムを提供することにある。
本発明は、上記課題を参酌してなされたものであり、その第1の側面は、会議の映像から所望のシーンを検索する情報処理システムであって、各会議の映像を、会議の経過時間毎に生ずるイベント情報とともに管理する会議データベースと、イベント情報を指定するための複数のミニチュアと、各ミニチュアを操作する操作領域を用意し、前記操作領域上にミニチュアを配置する形式で検索要求を受け付ける検索要求受付部と、前記操作領域上におけるミニチュアの配置に基づいて検索条件式を生成する検索条件式生成部と、生成された検索条件式に従って前記会議データベースを検索する検索部と、前記検索部による検索結果を提示する検索結果提示部とを具備することを特徴とする情報処理システムである。
ここで、前記検索部は検索条件式に合致する会議とその経過時間を検索し、前記検索結果提示部は検索結果としての会議の当該経過時間におけるシーンの映像を提示するようになっている。また、前記検索結果提示部は、ユーザ選択に応答して、検索結果としての会議の映像を当該経過時間から再生することができる。そして、会議の再生映像を見ながら、所望のシーンが見当たらなかった場合には、さらに検索要求受付部でミニチュアの操作を繰り返し行なうことで、シーン検索を続行することができる。
前記会議データベースは、会議の経過時間毎に生ずるイベント情報として、会議の識別情報、会議の開始及び終了時間又は会議時間、会議室の識別情報、会議毎の参加者や会議室内に配設されている各機器に関する情報を管理している。参加者や機器に関する情報として、具体的には、各参加者の会議室内での位置や発話開始時間を会議の経過時間に結び付けて管理し、また、会議室内に設置される機器・機材の設置場所や動作状態を会議の経過時間に結び付けて管理する。
前記検索要求受付部は、会議の各参加者及び機器を表すミニチュアと、前記操作領域として会議室のレイアウトを表す会議室表示エリアを用意する。このような場合、ユーザは、ミニチュアの組み合わせや、前記会議室表示エリア上に各ミニチュアを配置し、この配置場所に相当する会議室内での位置やミニチュア同士の配置の組み合わせをシーン検索の手がかりとして入力することができる。そして、前記検索条件式生成部は、ユーザが前記操作領域上に配置したミニチュアに該当する人物又は機器の組み合わせ、あるいは該当する人物又は機器の会議室内での場所の組み合わせを記述した検索条件式を生成する。
また、前記検索要求受付部は、各ミニチュアの状態の指定をさらに受け付け、前記検索条件生成部は、受け付けられたミニチュアの状態を検索条件式に組み込むことができる。ここで言うミニチュアの状態として、具体的には、ミニチュアに相当する人物の会議への参加の有無や会議での発話や、ミニチュアに相当する機器の動作状態の指定を受け付けることができる。
また、ユーザが会議の参加者までは想起することができるが、各人の会議室内での配置までは思い出すことができない場合のために、前記検索要求受付部は、操作領域として会議の参加者を指定する参加者エリアを用意し、ユーザが前記参加者エリアに設置したミニチュアの組み合わせを検索の手がかりとして受け付けるようにしてもよい。このような場合、前記検索条件式生成部は、ユーザが前記参加者エリア上に配置したミニチュアに該当する人物の組み合わせを記述した検索条件式を生成し、参加者の組み合わせをキーに検索を行なうことができる。
本発明に係る情報処理システムによれば、ユーザは、検索したいシーンの手がかりを、GUI画面上の操作によりミニチュアを使って与えることができ、その手がかりに合致したシーンを検索することができる。
ここで言う手がかりとして、会議室、参加者や物の位置、誰の発話、発話の順序、使用した機器がある。会議が行なわれている間、会議内容を動画像に記録するとともに、これらの手がかりも一緒に記録する。会議が終了し、ある時間が経った後、ある参加者がこの会議のあるシーンを振り返りたいと思ったとき、参加者は振り返りたいシーンの手がかりを思い浮かべ、ミニチュアを通してシステムに手がかりとして与える。ミニチュアは会議室の見取り図として構成され、参加者のアイコンを自由にその見取り図上に配置できるようになっている。
例えば、参加者Aが振り返りたいシーンとして、「参加者Bがホワイトボードに何かを書き込んだ後、その図を指しながら自分(参加者A)に向かって、何か大事なことを言った」というシーンを考える。参加者Aはこのときの「何か大事なこと」をもう一度確認したいとする。
このような場合、参加者Aはこのシーンを再現する手がかりとして、そのシーンが起こった会議室、自分(参加者A)が座っていた位置、参加者Bの立っていた位置、ホワイトボードに何か書いたこと、何か言ったこと、それに対して自分(参加者A)も何か言ったことを思い浮かべることができたとする。
参加者Aはこれらの思い浮かべた内容を手がかりとしてシステムに与える。まず、会議室を覚えているので、会議室名を手がかりとしてシステムに与えることにより、その会議室の見取り図に相当する会議室表示エリアを取り出すことができる。
次に、自分(参加者A)が座っていた位置を覚えているので、その見取り図上に、自分を示すアイコンを配置する。さらに参加者Bが立っていた位置も覚えているので、参加者Bを示すアイコンを見取り図上に配置する。また、参加者Bが発話したことを覚えているので、参加者Bのアイコンに発話したという動作を与える。これに対して自分も発話したことを覚えているので、自分を示すアイコンに発話したという動作を与える。
システムは、以上の人物アイコンの配置や発話の順番を、ユーザがGUI画面上で行なった操作内容から読み取り、その配置や発話順に合致したシーンを検索し、その結果をユーザに提示する。
このようにシステムはそのシーンに合致したシーンを検索して提示するので、ユーザは代表画像を見比べる手間が要らなくなる。また、検索要求としてミニチュアを利用してシーンを構成することができるので、位置情報や発話の順序など自然な方法で指示することができる。
また、本発明の第2の側面は、会議の映像から所望のシーンを検索するための処理をコンピュータ・システム上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、各会議の映像が会議の経過時間毎に生ずるイベント情報とともに会議データベースで管理されており、イベント情報を指定するための複数のミニチュアと、各ミニチュアを操作する操作領域を用意し、前記操作領域上にミニチュアを配置する形式で検索要求を受け付ける検索要求受付ステップと、前記操作領域上におけるミニチュアの配置に基づいて検索条件式を生成する検索条件式生成ステップと、生成された検索条件式に従って前記会議データベースを検索する検索ステップと、前記検索ステップにおける検索結果を提示する検索結果提示ステップとを具備することを特徴とするコンピュータ・プログラムである。
本発明の第2の側面に係るコンピュータ・プログラムは、コンピュータ・システム上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータ・プログラムを定義したものである。換言すれば、本発明の第2の側面に係るコンピュータ・プログラムをコンピュータ・システムにインストールすることによって、コンピュータ・システム上では協働的作用が発揮され、本発明の第1の側面に係る情報処理システムと同様の作用効果を得ることができる。
本発明によれば、会議室で開催される会議を録画した動画像データの中から所望のシーンを検索する作業を支援することができる、優れた情報処理システム及び情報処理方法、並びにコンピュータ・プログラムを提供することができる。
また、本発明によれば、ユーザが検索したいシーンの手がかりを入力し、この入力情報に基づいて動画像データの中から所望のシーンを検索することができる、優れた情報処理システム及び情報処理方法、並びにコンピュータ・プログラムを提供することができる。
また、本発明によれば、ユーザが検索したいシーンの手がかりを入力するGUIを提供するとともに、このGUIを介して入力された内容を基に検索条件を組み、シーンの検索を行なうことができる、優れた情報処理システム及び情報処理方法、並びにコンピュータ・プログラムを提供することができる。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
以下、図面を参照しながら本発明の実施形態について詳解する。
本発明に係る情報処理システムは、会議を録画した画像データを記録・保存・管理するとともに、その際の利用を支援するものである。具体的には、検索したいシーンの手がかりを、GUI画面上の操作によりミニチュアを使って与え、その手がかりに合致したシーンを検索するものである。本発明に係る情報処理システムは、会議の内容を手がかりとともに記録し保存する部分と、保存された会議の内容を手がかりによって検索する部分に大別される。
A.会議データの記録
図1には、本発明の一実施形態に係る情報処理システム1における記録・保存機能の構成を模式的に示している。同図に示すように、情報処理システム1は、会議記録装置10と、情報管理装置20と、会議データベース30で構成される。
このうち会議記録装置10は、会議を録画するビデオ撮影装置11と、会議の最中における各参加者の会議室内での時々刻々の位置情報を特定し保存する人物位置特定装置12と、会議室内でのテーブルやホワイトボードなどの物体の位置情報を特定し保存する物体位置特定装置13と、会議の最中に時々刻々行なわれた発言の話者を認識し保存する話者認識装置14と、会議の最中に起きたスライドやその他の機材の動作を特定し保存する機器動作特定装置15で構成される。これら各装置11〜15は、時間的に同期が保たれた状態で記録される。
会議記録装置10は、会議室毎に用意され、記録開始を指示することにより、会議室内での会議の記録を開始する。また、各会議室に設置された会議記録装置10には会議室IDが割り当てられており、どの会議室の記録かを判断できるようになっている。
ビデオ撮影装置11は、会議中の映像・音声を記録するための装置で、例えば従来のビデオ・カメラを利用することができる。会議室毎に複数台のビデオ・カメラを用意し、会議室内のすべての位置を視野に収めることが望ましい。このビデオ・カメラによって撮影された映像・音声は、情報管理装置20に送られる。
人物位置特定装置12は、会議室内での人物の位置を特定するための装置である。例えばICタグ(RFIDタグ)を利用して会議室内での各参加者の位置を特定することができるが、本発明の要旨はこれに限定されるものではない。人物位置特定装置12は、人物IDを記録したICタグ、ICタグから人物IDを読み取るためのリーダから構成される。各個人はICタグを埋め込んだIDカードを身に付ける。ICタグには個人を特定できるような人物IDが記憶されている。会議室の床面、壁面にはこの人物IDを読み取るためのリーダが複数個埋め込まれている。
例えば、会議室の床面には、図2のように格子状に区切られた区画の中央にリーダが埋め込まれている(格子の中央の丸)。この格子の対角距離は、ICタグとリーダ間の通信に用いる通信方式に依存する。例えば、指向性、到達距離によって異なる。互いに干渉しないで、且つできるだけすべての床面をカバーできることが望ましい。区画毎に配設されたリーダは、各自の読み取り可能範囲に存在するICタグから人物IDを読み取る。複数のリーダによって読み取られICタグがある場合もある。読み取られた人物IDは、読み取った読取装置を示す読取装置ID(ここでは格子の位置を表すA〜Gと1〜6の組み合わせで表す)とともに、情報管理装置20へ送られる。このとき、後述する発話フラグも読み取られ、情報管理装置20へ送られる場合もある。このようにリーダIDからリーダの位置を特定できるので、ある人物の位置が特定できる。ある一定間隔でリーダは人物ID、発話フラグを読み取り、各リーダはそれらの情報を情報管理装置20に送る。
また、位置の認識方法としてリーダを机に設置することも考えられる。各座席に向かい合う位置にリーダを設置することにより、机の周辺に座っている人の位置を認識することができる(図2の机周辺の丸)。各リーダにリーダIDを割り当てることにより、リーダIDから机のどの位置にいたかが分かる。上記の格子状に配置したリーダと組み合わせて使用することも考えられる。
物体位置特定装置13は、会議室内での物体の位置を特定するための装置である。ここでは上記の人物特定装置12と同様の仕組みを利用する。但し、上記の人物IDの代わりに物体IDを記録したICタグを移動する可能性のある物体に付与する。例えば、移動式のホワイトボード、椅子、机などが挙げられる。
話者認識装置14は、各個人が携帯するIDカードに小型のマイクロフォンと書き込み機を取り付け(内蔵し)、ある一定以上の強度の発話があった場合、ICタグに発話したことを示す発話フラグをオンにする回路を持つ。ある一定時間マイクロフォンからの入力がない場合は、ICタグの発話フラグをオフにする。上記の人物位置特定装置12と同様に、読取装置によって人物IDとともに発話フラグがオン状態であることも読み取られる。人物IDと読取装置IDと発話フラグを情報管理装置へ転送する。但し、本発明の要旨はこれに限定されるものではない。
機器動作特定装置15は、会議室内に配設されているさまざまな機器の状態を監視する。例えば、プロジェクタ・ランプや照明の電源のオン/オフを監視し、その状態の変化を情報管理装置20へ送る。
図3には、会議の開始と終了のフローを図解している。
記録を開始する場合、ユーザはコントローラ16に会議開始を指示する。コントローラ16は、コントローラ16自身に記録されている会議室名と会議開始が指示されたことを情報管理装置20に送る。
情報管理装置20は、状態が開始である場合、会議データベース30に問い合わせをし、新しい会議IDを取得する。会議IDと会議室の対(会議IDリスト)を情報管理装置20内に保存する。会議IDリストには現在会議が行なわれている会議室名とその会議IDが保存されている。
次に、会議データベース30に対して新たなレコードを作成し、その中に、会議ID、会議室名、日付、時間を格納する。このとき、情報管理装置20は、開始日時と時間も会議データベース30に送り、保存する。
記録を終了する場合、ユーザはコントローラ16に会議終了を指示する。コントローラ16は、会議室名と状態が終了となったことを情報管理装置20に送る。情報管理装置20は、会議IDリストから該当する会議IDを取得し、終了時間を記録する(又は会議の時間も記録する)。情報管理装置20は、会議IDリストから該当する会議室名と会議IDを削除する。
図4には、会議の記録時におけるビデオ撮影装置11によるビデオ撮影のフローを示している。
ビデオ撮影装置11は、記録しているビデオ画像を情報管理装置20に送る。情報管理装置20は、IDリストを参照し、会議室名から会議IDを検索し、検索された会議IDに対応するレコードにビデオ画像を保存する。ビデオ画像の記録のタイミングは、逐次、記録しても良いが、ビデオ撮影装置11内のデジタル・ビデオ・テープなどに一旦保存し、会議終了後に会議データベース30に保存するようにしても良い。
図5には、会議の記録時における人物位置特定装置12並びに話者認識装置13による動作フローを示している。上述したように、両装置12、13は一部同じ機器を使用する。
IDカード内のマイクによって、IDカードを装着している人物の発話を検出する。検出した場合、書き込み装置は、IDカードに埋め込まれている無線ICタグの発話フラグをオンにする。検出しなかった場合は、オフにする。また、無線ICタグに人物を特定するための人物IDが記録されており、リーダによって読み取られる。ここではISO15693に規定されている無線方式を採用するものとする。リーダは読み取った人物IDと発話フラグとリーダ自身のリーダID及びリーダが設置されている会議室名を情報管理装置20に送る。
情報管理装置20は、人物ID変換リストを使って人物名を取得し、会議IDリストを使って会議IDを求める。情報管理装置20は、それらの情報を会議データベース30に送る。ここでは、リーダは1秒毎に読み取りをしているものとする。
また、物体位置検出装置13において、物体に物体IDを付与した無線ICタグを付与することにより、人物位置特定装置12と同じ方法が利用できるので、ここでは説明を省略する。
図6には、会議の記録時における機器動作特定装置16による動作フローを示している。
機器動作特定装置15は、液晶プロジェクタ、照明の電源のオン・オフを監視する。オン・オフに変更があった場合は、その機器名、及び変化後の機器の状態、その会議室名を情報管理装置20に送る。情報管理装置20は、会議室名から会議IDリストを利用して、会議IDを取得し、その会議ID、機器ID、機器状態、時間を記録する。
情報管理装置20は、ビデオ映像と上記の各読取装置から読み取られた人物IDと発話フラグ、読み取った読取装置の読取装置ID及び機器の動作状態を受け取り、会議データベース30に保存する。
このとき、1つの記録装置の開始から終了までの間に送られてきた情報を1つのレコードとして保存する。図7には、会議データベース30内のデータ構造を模式的に示している。図示の例では、1つのレコードが1枚のシートとして表されている。各レコードには、会議IDを割り当て、開始日時、会議室名、会議時間が記載されている。また、レコード内には、ビデオ映像の他、参加者、機材などの会議又は会議室を構成する各要素に関する情報が時間軸に沿ってそれぞれ保存されている。具体的には、各参加者の会議室内での位置や、発話開始時間が時間に結び付けられて保存される。また、液晶プロジェクタやその他の会議室内に設置される機器・機材に関しては、その設置場所や動作(オン/オフ)状態が時間に結び付けられて保存される。本実施形態では、参加者の位置は格子状に配置されたリーダにより認識した結果が格納される(後述)。また、本実施形態では、1台のカメラによって撮影されたビデオ映像が保存されているが、複数台のカメラによって撮影された場合、複数のビデオ映像を保存するようにしてもよい。
また、図8には、会議データベース20内のレコードを表組み形式で構成した例を示している。レコード生成時には、会議ID及び会議室名、会議の開始時間が記録される。記録される情報は時間に沿って記録される。同図に示す例では、秒単位に時間が区切られているとする。参加者毎に、参加者の位置を示す行と発話開始のタイミングを示す行が追加される。また、機器についても位置と動作状態を示す行が追加される。情報管理装置から終了が通知されると終了時間を記録してこのレコードを保存する。したがって、このデータ構造においても、図7の場合と同様に、各参加者の会議室内での位置や、発話開始時間が時間に結び付けて保存することができ、また、液晶プロジェクタやその他の会議室内に設置される機器・機材に関してもその設置場所や動作(オン/オフ)状態が時間に結び付けて保存することができる。
なお、図9に示すように、リーダとリーダの間に人がいて両方のリーダが読み取るなど、複数のリーダが1つの参加者IDを読み取ることがある。この場合、1人の参加者に複数の場所を割り当てて記憶させる。
B.会議映像の検索
次に、記録された会議の内容を検索する機能について説明する。
本発明によれば、ユーザは、検索したいシーンの手がかりを、GUI画面上の操作によりミニチュアを使って与えることができ、その手がかりに合致したシーンを検索することができる。
ここで言う手がかりとして、会議室、参加者や物の位置、誰の発話、発話の順序、使用した機器がある。前項Aで既に説明したように、会議が行なわれている間、会議内容を動画像に記録するとともに、これらの手がかりも一緒に会議データベース30に記録されている。会議が終了しある時間が経った後、ある参加者がこの会議のあるシーンを振り返りたいと思ったとき、参加者は振り返りたいシーンの手がかりを思い浮かべ、ミニチュアを通してシステムに手がかりとして与える。ミニチュアは会議室の見取り図を模したGUI操作画面として構成され、参加者のアイコンを自由にその見取り図上に配置できるようになっている。
例えば、参加者Aが振り返りたいシーンとして、「参加者Bがホワイトボードに何かを書き込んだ後、その図を指しながら自分(参加者A)に向かって、何か大事なことを言った」というシーンを考える。参加者Aはこのときの「何か大事なこと」をもう一度確認したいとする。
このような場合、参加者Aはこのシーンを再現する手がかりとして、そのシーンが起こった会議室、自分(参加者A)が座っていた位置、参加者Bの立っていた位置、ホワイトボードに何か書いたこと、何か言ったこと、それに対して自分(参加者A)も何か言ったことを思い浮かべることができたとする。
参加者Aはこれらの思い浮かべた内容を手がかりとしてシステムに与える。まず、会議室を覚えているので、会議室名を手がかりとしてシステムに与えることにより、その会議室の見取り図を取り出すことができる。
次に、自分(参加者A)が座っていた位置を覚えているので、その見取り図上に、自分を示すアイコンを配置する。さらに参加者Bが立っていた位置も覚えているので、参加者Bを示すアイコンを見取り図上に配置する。また、参加者Bが発話したことを覚えているので、参加者Bのアイコンに発話したという動作を与える。これに対して自分も発話したことを覚えているので、自分を示すアイコンに発話したという動作を与える。
システムは、以上の人物アイコンの配置や発話の順番を、ユーザがGUI画面上で行なった操作内容から読み取り、その配置や発話順に合致したシーンを検索し、その結果をユーザに提示する。
このようにシステムはそのシーンに合致したシーンを検索して提示するので、ユーザは代表画像を見比べる手間が要らなくなる。また、検索要求としてミニチュアを利用してシーンを構成することができるので、位置情報や発話の順序など自然な方法で指示することができる。
図10には、本発明の一実施形態に係る情報処理システム1における、保存された会議の内容を手がかりによって検索するための検索機能の構成を模式的に示している。同図に示すように、検索機能は、検索要求を受け付ける検索要求受付部40と、検索要求に合致した内容を会議データベース30から検索する検索部60と、検索結果を提示する検索結果提示部70で構成される。
本実施形態に係る情報処理システム1では、検索要求受付部40は、検索したいシーンの手がかりを、ミニチュアを使って与えるためのGUI操作画面を用意する。また、検索条件式生成部50は、ミニチュアを用いた操作により得られる手がかりに基づいて、検索条件式を生成する。そして、検索部60は、得られた検索条件に従って会議データベース30を検索する。
図11には、検索要求受付部40が提示するGUI画面の構成例を示している。同図において、参照番号100は会議室を選択するためのボタン群、110は会議の行なわれた時期を選択するためのカレンダー、120は参加者を指定するための参加者エリア、130は人物を示すアイコンを表示する人物エリアである。
人物エリア130には、各個人を示すミニチュアとして人物アイコンが表示される。各人物アイコンの下には、個人の名前がそれぞれ付与される。また、特定の人物を示さない人物アイコンもある。これは、名前が「だれか」となっている、ワイルドカードに相当する人物アイコンである。所望の人物アイコンを参加者エリアに置くことで、シーン検索している会議に参加していたことを指定することができる。各人物アイコンを識別するために、対応する人物の顔写真を人物アイコンに貼り付けるという工夫も考えられる。
また、参照番号140は会議室のミニチュアとしての会議室表示エリアであり、100のあるボタン操作により特定の会議室が選択された場合にその会議室の見取り図が表示される。会議室の見取り図は会議室データベース80に格納されており、検索要求受付部40はレイアウトなど必要な情報をそこから取り出す。所望の人物アイコンを会議室表示エリア140に置くことで、検索しているシーンには当該参加者が会議室のその場所に存在していることを指定することができる。
また、参照番号150は発話を指示するための発話ボタンであり、検索しているシーンにおいて、参加者エリア120又は会議室表示エリア140に配置した人物アイコンに相当する人物が発話していることを指定することができる。
また、参照番号160はリセットボタン、参照番号180は検索対象となっている会議における経過時間を示す時間スクロールバーであり、会議中の時間的位置を直接的に特定することができる。
図示のGUI画面上で、現実の会議室を模したミニチュアを操作することによって、検索要求受付部40はユーザの直感的な操作から検索の手がかりを引き出すことができる。そして、検索条件式生成部50は、その操作を通じて得られる情報を検索クエリとして発行する。
次に検索の手順について説明する。図11に示すようなGUI画面を通じて、検索したいシーンの手がかりとして、以下の事柄を利用して検索することができる。通常はこれらの手がかりを組み合わせることにより、シーンを絞り込んでいく。
(1)参加者を特定できる場合
(2)会議室を特定できる場合
(3)日時を特定できる場合
(4)発話者を特定できる場合
(5)参加者の位置や移動を特定できる場合
(6)物の位置や移動を特定できる場合
(7)会議中の時間的位置を特定できる場合
それぞれの場合におけるGUI画面の操作手順について以下に説明する。
(1)参加者を特定できる場合
図12には、検索要求受付部40が用意するGUI画面上において、シーンを検索する手がかりとして参加者を特定する場合の操作例を示している。図示するように、想起したいシーンの手がかりとして参加者を利用できる場合、会議に参加していた人のミニチュアである人物アイコンを人物エリア130から選び参加者エリア120へ移動する。図示の例では、ユーザは、会議に参加者Aと参加者Bがいたことを思い出し、参加者Aと参加者Bを示すミニチュアである人物アイコンを、順に参加者エリア120に移動する。
このとき、検索条件式生成部50では、検索要求受付部40において図示の要求を受け付けたことに応答して、以下のような検索クエリを発行する。
検索クエリ:
参加者:参加者A、参加者B
ここで、検索クエリは上記のように、変数名とその値の対として表すことができる。検索時には、例えばPerl(Practical Extraction and Report Language)やその他のプログラミング言語によって変数名と対応する値を抽出し、やはり、Perlなどのパターン・マッチによってデータベース中のデータと照合したり、データベース操作用言語であるSQL(Structured Query Language)などによってデータベース中のデータを検索することができる。
検索部60は、上記の検索クエリを受け取ると、参加者Aと参加者Bが参加している会議を検索する。ここでは、図7若しくは図8に示す会議データベース30から検索するものとする。各レコードについて参加者A、Bを含む会議を検索する。
ここで、仮に会議IDが0378、0377、0376となる3件が検索されたとする。検索部60は、各レコードにおけるビデオ映像の先頭の画像を抽出し、その画像と、画像の撮影開始からの時間、会議ID、開始日時、会議室名、全員の参加者名、使用した機器などの情報を組み合わせて、検索結果提示部70へ送る。
検索結果提示部70は、これらの検索結果を、会議ID毎に、会議室名、開催日時、会議のタイムラインを提示し、会議の開始時間に相当するタイムラインの位置に静止画を割り当てて表示する。図13には、検索結果提示部70における検索結果の提示画面の構成例を示している。例えば、ビデオ撮影装置11として複数台のカメラで撮影された場合、それぞれの映像における先頭の画像を表示させる。
ここで、検索結果提示部70で提示されている静止画のうちいずれかをクリックすることにより、検索結果提示部70はその画像の撮影開始からの時間(この場合はビデオ画像の先頭なので0)と会議IDを検索部60に渡す。検索部60はその会議IDの映像の、撮影開始からの時間から始まる動画を抽出し、検索結果提示部70へ渡す。検索結果提示部70は、動画表示用のウィンドウを開いて、この動画を再生する。
(2)会議室を特定できる場合
想起したいシーンの手がかりとして会議室を特定できる場合には、図11に示したGUI画面上で、該当する会議室ボタン100を選択操作する。この場合、検索要求受付部40は、会議室データベース80から該当する会議室の見取り図などの描画情報を取り出し、会議室の見取り図を表示した会議室表示エリア140を表示する。
図14には、会議室表示エリア140内に、指定された会議室のミニチュアとしてその見取り図が表示されている様子を示している。図示の例では、会議室のほぼ中央に円卓が配設され、その円周に8脚の椅子が並べられている。また、2面の壁にホワイト・ボードが配設され、部屋の一角には電話並びに電話代のミニチュアが設置されている。
このように検索要求受付部40で会議室を特定した時点で、検索条件式生成部50は、以下のような検索クエリを発行する。
検索クエリ:
会議室: 12会議室
検索部60は、この要求を受け取ると、12会議室で行なわれている会議を検索する。ここでは、図7若しくは図8に示す会議データベース30から検索するものとする。
ここで、仮に会議IDが0378、0376となる2件が検索されたとする。検索部60は、各レコードにおけるビデオ映像の先頭の画像を抽出して、その画像と会議ID、開始日時、会議室名を検索結果提示部70へ送る。
検索結果提示部70は、これらの検索結果を、会議ID毎に、会議室名、開催日時、会議のタイムラインを提示し、会議の開始時間に相当するタイムラインの位置に静止画を割り当てて表示する。
(3)日付を特定できる場合
想起したいシーンとして日付が想起できる場合には、図11に示したGUI画面上で、カレンダー110上に候補の日付をクリックする。あるいは、ドラッグすることにより複数の日付を選択することができる。例えば、検索要求受付部40により先週(12月8日から12日)が選択された場合、検索条件式生成部50は、以下のような検索クエリを発行する。
検索クエリ:
日付: 2003年12月8日〜12日
検索部60は、この要求を受け取ると、会議データベース30からからこの期間に行なわれた会議を検索する。ここでは、図7若しくは図8に示す会議データベース30から検索するものとし、各レコードについて2003年12月8日〜12日に行なわれた会議を検索する。
ここで、仮に会議IDが0378、0377、0376、0375となる4件が検索されたとする。検索部60は、各レコードにおけるビデオ映像の先頭の画像を抽出し、その画像と、会議ID、開始日時、会議室を検索結果提示部70へ送る。検索結果提示部70は、会議ID毎に、会議室名、開催日時、会議のタイムラインを提示し、会議の開始時間に相当するタイムラインの位置に静止画を割り当てて表示する。
(4)発話者を特定できる場合
想起したいシーンの手がかりとして発話者が特定できる場合は、参加者を指定する場合と同様、まず参加者エリア120に参加者を配置し、これに続いて、発話した参加者を発話ボタン150を用いて指定する。
例えば、参加者Aと参加者Bが参加した会議で、参加者Aが発話者の場合、図12に示したように、人物エリア130中の参加者A並びに参加者Bの人物アイコンを参加者エリア120に移動する。そして、参加者Aが発話したシーンを検索する場合、まず発話ボタン150を選択し、続けて参加者Aをクリックすることにより、参加者Aが発話者であることを指示する。
このとき、検索条件式生成部50では、検索要求受付部40において上記の受け付けたことに応答して、以下のような検索クエリを発行する。
検索クエリ:
参加者: 参加者A、参加者B
発話者: 参加者A
検索部60は、この要求を受け取ると、図7若しくは図8に示す会議データベース30から該当するシーンを検索する。このとき、参加者Aと参加者Bが参加している会議のうち、さらに参加者Aが発話する時間を検索する。
図15には、発話者を指定して得られた検索結果の提示画面の構成例を示している。同図では、会議ID0378のレコードにおいて、タイムラインに垂直に描かれた破線の部分が、参加者Aが発話を開始する時間として検索されていることを示している。また、他の会議IDについても同様に検索され、該当するレコードの内容を記載したシートが後方に重畳表示されている。
検索部60は、この検索された時間の静止画をビデオ画像から抽出し、検索結果提示部70へ送る。検索結果提示部70は、会議ID毎に、会議室名、開催日時、会議のタイムラインを提示し、会議の開始時間に相当するタイムラインの位置に検索された静止画を割り当てて表示する。図16にはその様子を示している。
また、発話の回数と密度を指定することもできる。参加者エリア120にいる参加者に対して、コンテキスト・メニューなどを利用したメニューを表示させる。図17には、参加者Aに発話の回数と密度を指定するメニュー・ウィンドウがポップアップ表示された様子を示している。
このようなメニュー上で、例えば1の連続発言回数を選択した場合、連続発話回数と発話間隔を入力するように促すダイアログ・ボックス(図示しない)が出現する。例えば、連続発話回数と発話間隔として5回、3秒をそれぞれ入力したとすると、これに応答して検索条件式生成部50は、以下のような検索クエリを発行する。
検索クエリ:
参加者: 参加者A、参加者B
発話者: 参加者A
連続発話回数: 5回
発話間隔: 3秒以内
検索部60は、上記の検索クエリを受け取ると、参加者Aが連続して5回以上発話し、その発話間隔が3秒以内の部分を、図7(若しくは図8)に示すような会議データベース30から検索する。ここで、目的の部分があった場合には、その始まりのシーンの画像を抽出し、その画像と会議ID、開始日時、会議室を検索結果提示部70へ送る。
検索結果提示部70は、会議ID毎に、会議室名、開催日時、会議のタイムラインを提示し、会議の開始時間に相当するタイムラインの位置に静止画を割り当てて表示する(同上)。
また、図17に示したメニュー上で2の発言密度を選択した場合、発話時間と発話回数を入力するように促すダイアログ・ボックス(図示しない)が出現する。このダイアログ・ボックス上で、例えば発話時間と発話回数として3分、20回をそれぞれ入力したとすると、これに応答して検索条件式生成部50は、以下のような検索クエリを発行する。
検索クエリ:
参加者: 参加者A、参加者B
発話者: 参加者A
発話時間: 3分
発話回数: 20回
検索部60は、上記の検索クエリを受け取ると、図7(若しくは図8)に示したような会議データベース30から、参加者Aが3分間の間に20回以上の発話を行なっているシーンを検索する(3分間の間に他の参加者の発話が挿入していることを許容しても、禁止してもよい)。目的の部分が見つかった場合には、検索部60は、その始まりのシーンの画像を抽出し、その画像と会議ID、開始日時、会議室を検索結果提示部70へ送る。
検索結果提示部70は、会議ID毎に、会議室名、開催日時、会議のタイムラインを提示し、会議の開始時間に相当するタイムラインの位置に静止画を割り当てて表示する(同上)。
また、図7(若しくは図8)に示したような会議データベース30のデータ構造であれば、参加者同士の会話のシーンを検索することも可能である。
図18には、検索の手がかりとして参加者Aと参加者Bが会話していることを入力する操作を示している。まず、参加者エリア120に参加者Aと参加者Bの人物アイコンを移動させる。そして、発話ボタンを選択した後、参加者エリア120にいる参加者Aと参加者Bの人物アイコンを順にクリックする。これに応答して、GUI画面上では、参加者Aと参加者Bの人物アイコン間には、両者会話を意味する線が引かれる。このとき、検索条件式生成部40では、次のようなクエリを発行する。
検索クエリ:
参加者: 参加者A、参加者B
発話順: 参加者A、参加者B
検索部60は、上記のクエリを受け取ると、図7(若しくは図8)に示した会議データベース30から、参加者Aの後に参加者Bが発話した部分を検索する。目的の部分が見つかった場合には、その始まりのシーンの画像を抽出し、その画像と会議ID、日付、会議室を検索結果提示部70へ送る。
検索結果提示部70は、会議ID毎に、会議室名、開催日時、会議のタイムラインを提示し、会議の開始時間に相当するタイムラインの位置に静止画を割り当てて表示する(同上)。
なお、上述の例では発話者をクリックした順番を、実際の発話の順序としてみなして検索したが、勿論、発話の順序を無視し、参加者B、参加者Aの順で発話しているシーンを検索してもよい。
(5)参加者の位置や移動を特定できる場合
検索したいシーンがどの会議室のものか検索者が判断できる場合には、検索要求提示部10が提示するGUI画面左上の会議室選択エリアで該当する会議室の会議室選択ボタンを選択する。すると、選択された会議室のレイアウトや見取り図の情報が会議室データベース80から読み出され、その会議室の平面図がその下の会議室表示エリア140に表示される。図19には、12会議室が選ばれているときのGUI画面を示している。
続いて、検索者は、自分(参加者A)の座っていた位置や、参加者Cが立っていた位置を思い出し、マウスなどを用いて、その人物アイコンを会議室表示エリア140内の該当する位置に配置する。
検索条件生成部50は、検索要求受付部40が提示するGUI画面上で操作が行なわれる度に、GUI画面上でミニチュアにより構成されたシーンから検索クエリを生成し、これを検索要求として検索部60へ送る。
図19に示した例では、参加者Aが会議室上の位置C1へ、参加者CがF5へ移動されたものとする。この場合、検索条件生成部50は、以下のような検索クエリを検索部60へ送る。
検索クエリ:
会議室: 12会議室
日時: 2003年12月1日〜12日
参加者と位置:参加者A−C1、参加者C−F5
検索部60は、受け取った検索クエリに合致シーンを会議データベース30で検索する。ここでは、図7(若しくは図8)に示した会議データベース30から検索する。まず、会議データベース30から、12会議室で2003年12月1日〜12日に行なわれた会議のレコードを検索する。続いて、検索されたレコードの中から、参加者Aと参加者Cがそれぞれ位置C1並びに位置F5にいるシーンの始まりの時間をさらに検索する。
ここでは、2件のレコードが検索クエリに該当し、会議IDが0378のレコードからT1とT2が、会議IDが0376のレコードからT3が検索されたとする。図20には、会議IDが0378のレコードからT1とT2が検索された様子を示している。検索部60は、T1、T2、T3に相当する経過時間におけるビデオ映像の静止画を会議データベース30から抽出し、検索結果提示部70へ送る。このとき、会議ID、会議室名、開始日時、全参加者名などの関連情報も併せて送る。
そして、検索結果提示部70は、会議ID毎に、会議室名、開催日時、会議のタイムラインを提示し、T1、T2、T3の各時間に相当するタイムラインの位置に静止画を割り当てて表示する。図21には、その様子を示している。
ユーザは、検索結果提示部70が提示した静止画を見て、ユーザが詳細に見たいコマを選択する。これに応答して、静止画の表示が拡大し、その時点から映像を再生する。
また、さらに検索要求として、誰が発話したかという情報も与えることができる。例えば図19に示すGUI画面上で、さらに発話ボタンをポインタで選択してから参加者Cをクリックすることにより、参加者の位置や移動を特定した検索要求に対し、参加者Cが発話したという情報が検索要求として追加される。すなわち検索条件生成部50は、検索要求として、以下のような検索クエリを生成する。
検索クエリ:
会議室: 12会議室
日時: 2003年12月1日〜12日
参加者と位置:参加者A−C1、参加者C−F5
発話者: 参加者C
検索部60は、これらの検索クエリを受け取ると、図7(若しくは図8)に示すような会議データベース30からこれらの要求に適合するシーンを検索する。ここでは、ある特定の人物の配置で、初めて発話された時点が要求にあうシーンとする。図22には、検索クエリに適合するシーンとしてT4が検索されている様子を示している。勿論、初めての発話だけではなく、すべての発話の時点を検索結果としてもよい。この場合、T4の直後の参加者Aが発話した2つの時点も検索結果となる。この時点の映像を検索結果提示部70に提示することにより、ユーザはすばやくこのシーンを再生することができる。
さらに、2人の発話者を指定することもできる。例えば、検索要求受付部40のGUI画面上で発話ボタン150を選択した後、参加者Aと参加者Cのミニチュアを連続してクリックすることにより、2人の発話者を指定する。図23には、このときの様子を示している。すると、図示のように、参加者Aと参加者Cのミニチュアの間が点線で結ばれ、参加者Aと参加者Cが会話をしたというシーンを表す。そして、検索条件式生成部50では、検索要求として参加者Aと参加者Cが会話したという要求が追加され、以下のような検索クエリが生成される。
検索クエリ:
会議室: 12会議室
日時: 2003年12月1日〜12日
参加者と位置:参加者A−C1、参加者C−F5
発話順: 参加者A、参加者C
検索部70は、上記の検索クエリを受け取ると、図7(若しくは図8)に示した会議データベース30から、これらの要求に合致するシーンを検索する。この場合、図22に示した検索結果に対し、参加者Aが発話した後に参加者Cが発話したという検索要求を追加して、シーンを検索する。ここでは、ある特定の人物の配置で、初めて参加者A、参加者Cの順番に発話したシーンのはじめの時点を検索結果とする。
図24には、この場合の検索結果を示している。図示の例ではT5が検索される。この時点の映像を検索結果提示部70に提示することにより、ユーザはすばやくこのシーンを再生することができる(同上)。
なお、上述の説明では、発話者の順序をクリックする順序としたが、この順序は無視しても構わない。例えば、順序を無視して、参加者C、参加者Aの順序を含めても検索することも可能とする。また、ある特定の配置での初めてのシーンのみではなくすべてのシーンを検索結果としてもよい。
以上のように、ユーザはもう一度見たいシーンを検索するために、GUI上に手がかりを利用してシーンを構成することにより、そのGUI上のシーンにマッチしたシーンをビデオ画像から検索し見ることができる。
(6)物の位置や移動を特定できる場合
検索したいシーンの手がかりとして、物の移動、例えば、ホワイトボードの位置の変化などを利用できる。例えば、図14に示したように会議室が指定された状態で、ホワイトボードを移動することにより、そのシーンの検索が行える。
(7)会議中の時間的位置を特定できる場合
検索したいシーンが会議中のどの辺りの時間かを特定することができる場合、検索要求受付部40が提示するGUI画面上の時間スクロールバー180を利用する。すなわち、このスクロールバー上のノブをスライドさせることにより、そのバーより後の時間から検索を指示することができる。他の検索手がかりと組み合わせて使用する。この場合、検索条件式生成部50は、以下のような検索クエリを生成することになる。
検索クエリ:
参加者: 参加者A、参加者B
発話者: 参加者A
時間65%
検索部60は、図7(若しくは図8)に示したような会議データベース30の各レコードから、会議時間の65%だけ経過した時間を計算し、その時間以降について検索を行なう。
また、スクロールバー上に2つのノブを用意することにより、検索する対象をある特定の時間幅に制限することが出来る。2つ存在するノブのうち、左側にあるノブが示す時間と右側にあるノブが示す時間の間を検索することが可能となる。例えば、左側のノブが45%、右側のノブが55%の位置にある場合は、検索条件式生成部50は、以下のような検索クエリを生成することになる。
検索クエリ:
参加者: 参加者A、参加者B
発話者: 参加者A
時間45%、55%
検索部60は、図7(若しくは図8)に示したような会議データベース30の各レコードから、会議時間の45%経過した時間と55%経過した時間を計算し、その間の時間について検索を行なう。
C.手がかりが曖昧又は不正確な場合の検索方法、検索提示方法
C−1.参加者の位置の記憶が曖昧な場合
参加者の位置の記憶が曖昧であったり、間違って憶えていたりする場合もある。このような場合、望んだ検索結果を得ることができない。このような場合のため、検索部60は、曖昧検索を行なうことにより、参加者の位置の記憶が曖昧な場合でも検索できる仕組みを持つ。
図25には、参加者のミニチュアを会議室表示エリア内に配置することで参加者の位置を特定した様子を示している。図示の例では、参加者CをB2に配置しており、検索要求として参加者Cが位置B2にいるという検索クエリが生成され、検索部60は参加者Cが位置B2にいるシーンを検索する。しかし、B2という位置が間違っている場合もある。この場合のため、検索部60では、特定された位置B2とこれに隣接するA1、A2、A3、B1、B2、B3、C1、C2、C3の9つの位置について検索をすることとし、参加者の位置を誤って憶えている場合でも検索することができる。
このような曖昧検索によって複数の検索結果が得られた場合、検索結果提示部70は、結果をランキングして表示することができる。ランキングするために、検索結果提示部70は、各検索結果について参加者の位置の一致度によってスコア付けを行なう。
ユーザがGUI画面上で指示した参加者の位置と検索結果の人の位置が一致する場合、すなわち上述の例では参加者Cが位置B2にいる映像が検索された場合、スコアとして+2点を付与し、参加者Cが位置B2に隣接する8つの位置にいる映像が検索された場合、スコアとして+1点を付与する。また、複数の参加者について曖昧検索がなされた場合は人数分だけスコアを計算し、各検索結果であるシーン毎に累積する。そして、累積されたスコアを基に検索結果の表示方法を変える。例えば、図26に示したように最も高いスコアを持つ画像の縁の太さを変えたり、画像そのものの大きさをスコアによって変えたりしてもよい。
C−2.参加者や発話者が曖昧な場合
次に、参加者や発話者が曖昧な場合についての検索方法について説明する。例えば、誰が発話したか忘れてしまった場合、人物アイコンの中の「だれか」すなわちワイルドカードに相当するアイコンを、会議室表示エリア140内に配置し、発話の指示を与えると、検索条件式生成部50は以下のようなクエリを生成する。
検索クエリ:
会議室: 12会議室
日時: 2003年12月1日〜12日
参加者と位置: 参加者A−C1、参加者C−F2、だれか−F3
発話者:だれか
検索部60は、不特定の人物がF3の場所にいて発話したというシーンを検索データベース30から検索する。
C−3.会議室が曖昧な場合
次に、会議室が曖昧な場合についての検索方法について説明する。同じレイアウトの会議室が複数ある場合には参加者や人の位置を想起し易いが、会議室そのものが特定できない場合がある。このような場合のため、会議室を選択するボタンとして、会議室のレイアウトを示したアイコンを用いることにより、ユーザはレイアウトを想起しながら会議室を選択できるようにする。
図27には、会議室12、13、14の共通のレイアウトが選択された状態である。図示の画面で検索要求を入力することにより、検索条件式生成部50では以下のような検索クエリが生成される。
検索クエリ:
会議室: 12,13,14会議室
日時: 2003年12月1日〜12日
参加者と位置: 参加者A−C1、参加者C−F5
検索部60は、検索部は12会議室、13会議室、14会議室を対象として会議データベース30の検索を行なう。検索結果提示部70は、会議ID毎に、会議室名、開催日時、会議のタイムラインを提示し、検索結果の静止画像を時間に相当するタイムラインの位置に静止画を割り当てて表示する。
C−4.GUI画面上での会議室の再現
検索結果提示部70に提示された、検索結果である静止画に対してGUI画面上への再現指示をすることにより、その静止画で示された会議の状態を、検索要求受付部40が提示するGUI画面上にミニチュアを配置することにより再現することが出来る。再現指示は例えば、検索結果である静止画に対してコンテキスト・メニューを表示させ、再現メニューを選択することにより指示できる。
具体的には、再現を支持された静止画像の会議ID、時間を検索部60に送り、検索部60は該当する会議IDの会議室名、該当する時間の参加者の位置や発話の状態、物体の位置や状態を検索し、検索要求受付部40へ送る。検索要求受付部40は受け取った会議室名の会議室の見取り図を表示し、参加者を示す人物アイコンや発話の状態、物体の位置や状態をGUI画面上へ表示・配置する。このようにすることで、GUI画面上に会議室内の状態を再現することができるので、検索結果提示部70に提示された静止画が会議室の全域を映していない場合でも、会議室内の様子を概観することができる。
C−5.検索結果を支持することによる絞込検索
図33に示すように、検索結果提示部70に、絞込みチェックボックスを設けチェックすることにより、チェックされた会議IDのみの検索結果を表示する。具体的には、検索結果提示部が検索結果である静止画像を提示する際に、すでに絞込みチェックボックスがチェックされている会議IDのみの静止画像を提示する。このようにすることで、目的の会議が見つかった場合、絞込みチェックボックスをチェックすることにより、以降の検索ではチェックした会議の静止画像のみを検索結果として見ることができる。
D.検索要求の入力
前々項Bでは、本実施形態に係る情報処理システム1では、検索要求受付部40において、ユーザが想起する会議上のさまざまな事柄を手がかりとして入力していくことで、検索要求を特定していく点、並びにGUI画面上での操作方法について説明した。この項では、GUI画面上でのユーザ操作に応じてシステム側で検索要求を特定するための方法について詳解する。
検索要求受付部40はGUI画面上で変化が起こる度に、GUI画面上の状態を読み取り検索要求を生成し検索条件式生成部50へ送る。本実施形態では、検索データベースが図7又は図8に示すようなデータ構造を管理していることから、検索要求は、図28に示すような変数名とその値の組のリストからなるデータ構造をとることができる。
図29には、検索要求受付部40が提示するGUI画面の構成例を示している。
検索要求の会議室フィールドには、図29の会議室エリア100で選択されている会議室の名前が値として代入される。会議室が選択されていない場合は何も代入されない。
検索要求の日付フィールドには、図29のカレンダー110上で指示された日付が代入される。複数の日付が選択可能である。何も選択されていない場合は何も代入されない。
検索要求の経過時間フィールドには、スクロールバー180上でノブが置かれている時刻に相当する値が代入される。左端にノブがある場合0%、右端にある場合100%とし、ノブの左端からの位置の割り合いが値として代入される。
検索要求の参加者と位置フィールドには、図29の人物エリア130からミニチュアすなわち人物アイコンが参加者エリア120に移動された場合、移動された人物名が値として代入される。但し、この場合は位置情報は付与されない。人物アイコンが会議室エリア140に移動された場合、その人物アイコンと、その座標(A〜G、1〜6の組み合わせ)が対となって、参加者と位置情報フィールドの値となる。
検索要求の発話者フィールドには、発話ボタンを選択した後、参加者エリア120又は会議室エリア140にある人物アイコンをクリックしたとき、人物アイコンの人物名が代入される。
検索要求の発話回数フィールドについては、発話ボタン150を選択した後、参加者エリア120又は会議室エリア140にある人物アイコン上でコンテキスト・メニュー(前述)を表示させ、発話回数メニューを選択する。このとき表示される発話回数ダイアログに入力した、発話回数と発話の間隔が値として代入される。
また、検索要求の発話密度フィールドには、コンテキスト・メニューを表示させ、発話密度メニューを選択し、このとき表示される発話密度ダイアログに入力した、発話回数と発話の時間が代入される。
また、検索要求の発話順序フィールドには、発話ボタンを選択した後、参加者エリアまたは会議室エリアにある2つの人物アイコン間にドラッグで線を引くことにより値が代入される。このとき、引いた順番、例えば参加者Aから参加者Bに向かって線を引いた場合は、参加者A、参加者Bの発話順序とする。また、線を引いた直後にコンテキスト・メニューなどを表示させ、順序指定なしを選ばせることにより、順序を無視して、参加者A、B又は参加者B、Aの順を検索することも可能とする。
検索要求の物と位置フィールドには、例えば会議室を特定したとき、会議室エリア140内でおかれている物、例えばホワイトボードなどの位置が代入される。このとき位置情報としては、実際のホワイトボードの位置の認識方法にならった方法が必要である。例えば、両端に無線ICタグを付与して位置を記録している場合、GUI上でもこれに合わせてホワイトボードの両端の座標を位置情報とする。
検索要求の機器動作フィールドには、例えば参照番号170のONボタンを押下した後に、140内の照明スイッチ又はプロジェクタをクリックするとそれらの機器名とONが代入される。また、機器がオフの場合は、offボタンを押下した後に該当する機器類をクリックする。無視ボタンを押下して、機器類をクリックすると、該当する機器動作フィールドには何も代入されない。
E.検索要求から検索クエリへの変換及び検索
検索要求受付部40においてGUI画面を通じて検索要求が入力される度に、検索条件式生成部50はその入力内容を受け取り、検索クエリに変換する。そして、検索部60では、この検索クエリを基に会議データベース30を検索し、要求に適ったシーンを検索する。この項では、検索要求を検索クエリに変換し、さらに検索クエリを用いてデータベースを検索する手順について説明する。
E−1.GUI画面を通じた検索要求と検索クエリへの変換、検索、詳細検索
例えば、ユーザが会議に参加者Aと参加者Bがいたことを思い出したとき、参加者Aと参加者Bを示すミニチュアである人物アイコンを、順に参加者エリア120に移動する(図12を参照のこと)。
このとき、検索条件式生成部50は、以下のような検索クエリを発行する。
検索クエリ:
会議室: 12会議室
日付: 指定なし
経過時間:0%
参加者:
参加者1:
名前: 参加者A
位置: 指定なし
発話: 指定なし
発話回数: 指定なし
参加者2:
名前: 参加者B
位置: 指定なし
発話: 指定なし
発話回数: 指定なし
発話順序: 指定なし
発話密度: 指定なし
物体: 指定なし
機器動作: 指定なし
上記のように、検索クエリには、GUI画面上で指定された会議室名、日付、参加者、各参加者の位置、発話、発話回数、発話の順序、発話密度、物体、機器動作が含まれる。これらは、階層構造を持つ。特にGUI画面上で指定されていない項目については、指定なしとする。なお、このような検索クエリは、例えば、Perlのようなパターン・マッチングや連想配列によるテキスト処理が可能な言語で記述することができる。
検索部60は、このような検索クエリを受け取ると、所定の手順に従って、会議データベース30の検索を行なう。図30には、検索部60において実行される会議データベース30の検索処理の手順をフローチャートの形式で示している。
まず検索要求を受け取り、該当するレコードの検索を行なう(ステップS1)。
図7並びに図8に示したように、会議データベース30では、1つのレコードは1つの会議に関する情報が記録されている。このレコードは、検索クエリと同様に、Perlのようなパターン・マッチングや連想配列によるテキスト処理が可能な言語で記述することができる。
図31には、このような形式で記述されたレコードを示している。各レコードには会議ID、会議室名、日付、参加者、会議時間、動画データ、詳細データから構成される。詳細データは、会議データベース30によって記録された各参加者の位置と発話の有無が時間とともに記録されている。各参加者の位置の変化、発話の変化があった場合に記録される(一定の時間間隔でサンプリングされたものでも良い)。例えば、以下の詳細データは、「10時58分31秒に参加者Aは発話なし(0)、位置C3、参加者Bは発話あり(1)、位置はC5にいた」ということを示している。
10:58:31|参加者A:0C3|参加者B:1C5
検索部は検索要求から会議室名と日付、参加者名を取得し、該当するレコードを検索する。ここでは12会議室で、少なくとも参加者Aと参加者Bが参加しているレコードが検索される。日付は「指定なし」なのでどの日付でも構わない。図31に示す例では、会議ID:01234のレコードが検索されたとする。
次いで、各レコードに対して詳細検索を行なうか否かの判断を行なう(ステップS2)。ここで言う詳細検索とは、各レコードの中の詳細データを検索することである。
この判断ブロックS2では、検索要求の各参加者の位置、発話について指定されているか調べる。どの参加者についてもまったく指定されていない場合、詳細検索は行なわない。ここでは、指定されていないので詳細検索は行なわない。但し、詳細検索を行なう場合については、後述に譲る。
次いで、該当したレコードに含まれる動画データの代表画像を取得する(ステップS3)。ここでは、代表画像として、動画の一番初めの画像を代表画像とする。また、代表画像の時間も一緒に取得する。図31に示す例では、会議ID01234の動画データから先頭の画像とその時間を取得する。
次いで、関連情報を取得する(ステップS4)。ここで言う関連情報とは、各会議における、会議ID、会議室名、日付、参加者、会議時間などの情報のことである。これは該当したレコードから取得可能である。図31に示す例では、以下の事柄を関連情報として取得する。
会議室: 12会議室
日時: 2004年1月29日
参加者: 参加者A、参加者B、参加者C、参加者D
会議時間: 10:55:34−12:14:41
そして、代表画像とその時間、及び関連情報を検索結果として、検索結果提示部70へ送る。
検索要求受付部40が提示するGUI画面を介して検索要求を入力することで、さまざまな検索バリエーションが考えられる。例えば、ユーザは図12に示したような会議室表示エリアを眺めながら、参加者Aの位置と参加者Bの位置を思い出し、人物アイコンをその位置に移動したとする。さらに参加者Aがその位置で発話したシーンを検索するために、150の発話ボタンを押下した後、参加者Aをクリックしたとする。図32には、このときのGUI画面の様子を示している。検索条件式生成部50では、図示の状態で、以下のように検索クエリを発行する。
検索クエリ:
会議室: 12会議室
日付: 指定なし
経過時間:0%
参加者:
参加者1:
名前: 参加者A
位置: B2
発話: あり
発話回数: 指定なし
参加者2:
名前: 参加者B
位置: C5
発話: 指定なし
発話回数: 指定なし
発話順序: 指定なし
発話密度: 指定なし
物体: 指定なし
機器動作: 指定なし
上記の検索クエリは、参加者A及び参加者身Bの位置が特定されていることと、参加者Aの発話が合ったことが指定されており、より詳細に条件を指定した検索クエリとなっている。
検索部60は、上記の検索クエリを受け取ると、図30に示したフローチャートに従い改めて検索を行なう。まず、検索クエリを受け取り、該当するレコードの検索を行なう(ステップS1)。すなわち、検索部60は、検索クエリから会議室名と日付、参加者名を取得し、該当するレコードを検索する。ここでは12会議室で、少なくとも参加者Aと参加者Bが参加しているレコードが検索され、会議ID:01234のレコードが取り出されたとする。日付は指定なしなのでどの日付でも構わない。
次に、各レコードに対して詳細検索を行なうか否かの判断を行なう(ステップS2)。まず、検索要求の各参加者の位置、発話について指定されているか調べる。どの参加者についてもまったく指定されていない場合、詳細検索は行なわない。ここでは、参加者Aについて発話:あり、位置:B2、参加者Bについて位置:C5、と指定されているので各レコードに詳細検索を行なう(ステップS5)。
ステップS5における詳細検索では、各レコードの詳細データに記述された情報について検索を行なう。まず、検索要求の各参加者の位置と発話について、以下に示すような検索キーに変換する。検索キーは、例えばPerlのようなパターン・マッチングや連想配列によるテキスト処理が可能な言語で記述される。
検索キー1: 参加者A:1B2
検索キー2: 参加者B:0C5
ここで、参加者A:の後の1は発話ありを意味し、その後のB2は参加者の位置を意味する。続け参加者Bについて同様に変換する。
次に、検索部60は、該当したレコードの詳細データについて、この検索キーを利用して検索を行なう。この検索処理は例えばPerlのようなプログラミング言語を用いて記述することができる。この場合、パターン・マッチングを利用し、上記の検索キー1と検索キー2を同時に含む行を、図31に示すような会議データベース30中から検索することができる。
while(<>){
if(/検索キー1/ && /検索キー2/){
時間情報取得処理;
}
}
該当する行が見つかった場合、時間情報取得処理を行ない、時間を取得する。この時間情報取得処理では、単に該当する行の先頭に書かれている時間を取り出せばよい。会議ID01234のレコードに対して上記の検索を行なった場合、以下の行が当該レコードから検索され、該当時間として、11:02:20と11:07:14を取得することができる。
11:02:20|参加者A:1B2|参加者B:0C5|参加者C0F4|参加者D:0E2|;
11:07:14|参加者A:1B2|参加者B:0C5|参加者C1F5|参加者D:0E2|;
次いで、検索部60は、該当時間である11:02:20と11:07:14の時点の画像を動画データから抽出する。
次いで、検索部60は、該当するレコードすなわち会議における関連情報を取得する。関連情報は、該当する会議における、会議ID、会議室名、日付、参加者、会議時間で構成され、この場合は以下の通りである。
会議室名:12会議室
日付:2004年01月29日
参加者:参加者A、参加者B、参加者C、参加者D,
会議時間:10:55:34−12:14:41
最後に、検索部60は、代表画像とその会議時間、及び関連情報を、検索結果提示部70へ送る。
E−2.発話の順序を指定した詳細な検索
検索要求受付部40が提示するGUI画面上で発話の順序を指定した場合、例えば、発話ボタンを押下した後で、参加者Aをクリックし続けて参加者Bをクリックしたとする。この場合、検索条件式生成部50からは、以下のような検索クエリが発行される。
検索クエリ:
会議室: 12会議室
日付: 指定なし
経過時間:0%
参加者:
参加者1:
名前: 参加者A
位置: B2
発話: あり
発話回数: 指定なし
参加者2:
名前: 参加者B
位置: C5
発話: 指定あり
発話回数: 指定なし
発話順序: 参加者A→参加者B:間隔3秒
発話密度: 指定なし
物体: 指定なし
機器動作: 指定なし
このような場合、検索部60では、図30に示したフローチャートのステップS5に相当する詳細検索において、まず各参加者の位置と発話の状態を、以下のような検索キーに置き換える。
検索キー1:参加者A:1B2|参加者B:.C5
検索キー2:参加者A:.B2|参加者B:1C5
ここで、検索キー1は、参加者Aが場所B2にいて発話している状態(1)を示し、参加者Bは場所C5にいて発話の状態は問わない(“.”は1でも0でも良い)。また、検索キー2は、参加者Aが場所B2にいて発話の状態は問わず、参加者Bは場所C5にいて発話している状態を示す。
そして、検索部60は、検索キー1について詳細検索を行なう。この検索処理は例えばPerlのようなプログラミング言語を用いて以下のように記述される。検索処理、パターン・マッチングを利用し、上記の検索キー1を含む行を、図31に示すような会議データベース30中から検索する。
while(<>){
if(/検索キー1/){
時間情報取得処理;
}
}
この結果、該当するレコードからは、以下に示す2行が検索され、該当する時間として11:02:20、11:07:14が取り出される。この時間を要素として含む集合を集合Aとする。
11:02:20|参加者A:1B2|参加者B:0C5|参加者C:0F4|参加者D:0E2|;
11:07:14|参加者A:1B2|参加者B:0C5|参加者C:1F5|参加者D:0E2|;
続いて、検索部60は、検索キー2について詳細検索を行なう。この検索処理は例えばPerlのようなプログラミング言語を用いて以下のように記述される。検索処理、パターン・マッチングを利用し、上記の検索キー2を含む行を、図31に示すような会議データベース30中から検索する。
while(<>){
if(/検索キー2/){
時間情報取得処理;
}
}
この結果、該当レコードからは、以下に示す2行が検索され、11:07:16、11:07:51が取り出される。この時間を要素として含む集合を集合Bとする。
11:07:16|参加者A:0B2|参加者B:1C5|参加者C:0F2|参加者D:0E2|;
11:07:51|参加者A:0B2|参加者B:1C5|参加者C:0F2|参加者D:0E2|;
次に、集合Aに含まれるそれぞれの時間から、ある一定時間以内に集合Bの要素が存在するか調べる。例えば、ここでは一定時間を3秒とする。この時間はユーザが指定できるようにしても良い。ここでは、集合Aの11:07:14の3秒以内に集合Bの11:07:16 が含まれる。そこで、この時間の時間的に早い方、つまり11:07:14の時点の画像を動画像データから取得する。そして、関連情報をさらに取得し、検索結果提示部70へ渡す。
なお、検索要求受付部40で発話の順序を無視するように指定した場合、つまり、参加者Aと参加者Bがどの順序でもよく連続して発話したいシーンを検索する場合には、集合Aと集合Bの各時間の前後関係を無視し、集合Aと集合Bの間で単純に3秒以内に収まる発話を調べればよい。
E−3.発話回数を指定した検索
検索要求受付部40が提示するGUI画面上で、ある参加者の発話回数を指定した場合、例えば、発話ボタンを押下した後で、参加者Bをクリックし、その後、コンテキスト・メニュー(前述)を表示し、さらに発話回数ダイアログを表示し、その中で発話回数として2回を指定し、その間隔を5秒以内に指定したとする。この場合、検索条件式生成部50からは、以下のような検索クエリが発行される。
検索クエリ:
会議室: 12会議室
日付: 指定なし
経過時間:0%
参加者:
参加者1:
名前: 参加者A
位置: C3
発話: なし
発話回数: 指定なし
参加者2:
名前: 参加者B
位置: C5
発話: あり
発話回数: 2回:間隔5秒
発話順序: 指定なし
発話密度: 指定なし
物体: 指定なし
機器動作: 指定なし
このような場合、検索部60では、図30に示したフローチャートのステップS5に相当する詳細検索において、まず各参加者の位置と発話の状態を、以下のような検索キーに置き換える。
検索キー1:参加者A:..C3|参加者B:1C5
ここで、参加者Aは場所C3にいて発話の状態は無視し(“.”は1でも0でも良いことを意味する)、参加者Bは場所C5で発話していることを示す。
そして、検索部60は、検索キー1について詳細検索を行なう。この検索処理は例えばPerlのようなプログラミング言語を用いて以下のように記述される。検索処理、パターン・マッチングを利用し、上記の検索キー1を含む行を、図31に示すような会議データベース30中から検索する。
while(<>){
if(/検索キー1/){
時間情報取得処理;
}
}
この結果、該当するレコードからは、以下に示す5行が検索され、該当する時間として、10:55:40、10:57:02、10:58:31、11:09:21、11:09:24が取り出される。これを集合Aとする。
10:55:40|参加者A:0C3|参加者B:1C5|参加者C:0F3|参加者D:0E2|;
10:57:02|参加者A:0C3|参加者B:1C5|参加者C:0F4|参加者D:0E2|;
10:58:31|参加者A:0C3|参加者B:1C5|参加者C:0F4|参加者D:0E2|;
11:09:21|参加者A:0C3|参加者B:1C5|参加者C:0F3|参加者D:0E2|;
11:09:24|参加者A:1C3|参加者B:1C5|参加者C:0F3|参加者D:0E2|;
次に、この集合A内で、時間間隔が指定された発話間隔に相当する5秒以内でつながる2時点を集合Aから検索する。まず時間順に2つの時点を取り出し、その間隔が5秒以内か否かを調べる。この場合、5秒以上の間隔がある場合、時点を1つだけずらし、次の2つの時点について調べる。5秒以内の場合はそれらのシーンの中の一番初めのシーンの画像を動画データから得て、時点をさらに1つずらし、次の2つの時点について5秒以内かどうか調べる。これを最後まで繰り返す。
上記の例では、2つの検索結果11:09:21と11:09:24が5秒以内であるので、これらのシーンの中で一番初めのシーン(11:09:21)の画像を動画データから得る。そして、関連情報をさらに取得し、検索結果提示部70へ渡す。
E−4.発話密度を指定した検索
検索要求受付部40が提示するGUI画面上で、ある参加者の発話密度を指定した場合、例えば、発話ボタンを押下した後で、参加者A、参加者Bをクリックし、その後、コンテキスト・メニュー(前述)を表示し、発話密度ダイアログを表示し、その中で発話密度として発話回数3回を指定し、さらにその時間幅を3分以内に指定したとする。この場合、検索条件式生成部50からは、以下のような検索クエリが発行される。
検索クエリ:
会議室: 12会議室
日付: 指定なし
経過時間:0%
参加者:
参加者1:
名前: 参加者A
位置: B2
発話: あり
発話回数: 指定なし
参加者2:
名前: 参加者B
位置: C5
発話: あり
発話回数: 指定なし
発話順序: 指定なし
発話密度: 発話回数3回:時間幅1分
物体: 指定なし
機器動作: 指定なし
このような場合、検索部60では、図30に示したフローチャートのステップS5に相当する詳細検索において、まず各参加者の位置と発話の状態を、以下のような検索キーに置き換える。
検索キー1:参加者A:1B2|参加者B:.C5
検索キー2:参加者A:.B2|参加者B:1C5
そして、検索部60は、検索キー1について詳細検索を行なう。この検索処理は例えばPerlのようなプログラミング言語を用いて以下のように記述される。検索処理、パターン・マッチングを利用し、上記の検索キー1を含む行を、図31に示すような会議データベース30中から検索する。
while(<>){
if(/検索キー1/){
時間情報取得処理;
}
}
この結果、該当するレコードからは、以下に示す2行が検索され、該当する時間として、11:02:20、11:07:14が取り出される。この時間を要素として含む集合を集合Aとする。
11:02:20|参加者A:1B2|参加者B:1C5|参加者C:0F4|参加者D:0E2|;
11:07:14|参加者A:1B2|参加者B:0C5|参加者C:1F5|参加者D:0E2|;
続いて、検索部60は、検索キー2について詳細検索を行なう。この検索処理は例えばPerlのようなプログラミング言語を用いて以下のように記述される。検索処理、パターン・マッチングを利用し、上記の検索キー1を含む行を、図31に示すような会議データベース30中から検索する。
while(<>){
if(/検索キー2/){
時間情報取得処理;
}
}
この結果、該当するレコードからは、以下に示す2行が検索され、該当する時間として、11:07:16、11:07:51が取り出される。この時間を要素として含む集合を集合Bとする。
11:07:16|参加者A:0B2|参加者B:1C5|参加者C:0F2|参加者D:0E2|;
11:07:51|参加者A:0B2|参加者B:1C5|参加者C:0F2|参加者D:0E2|;
続いて、検索部60は、集合Aと集合Bの和集合を取る。これを集合Cとする。
集合C={11:02:20、11:07:14、11:07:16、11:07:51}
この集合C中で、3つ以上の時間が任意の1分間以内に含まれる要素を検索する。ここでは、該当するレコードからは以下に示す3行が検索され、該当する時間として、11:07:14、11:07:16、11:07:51が取り出される。また、これらの抽出されたシーンが、少なくとも参加者Aと参加者Bが1回以上発話していることを調べる。
11:07:14|参加者A:1B2|参加者B:0C5|参加者C:1F5|参加者D:0E2|;
11:07:16|参加者A:0B2|参加者B:1C5|参加者C:0F2|参加者D:0E2|;
11:07:51|参加者A:0B2|参加者B:1C5|参加者C:0F2|参加者D:0E2|;
ここでは上記のシーンが1分以内で3回以上の発話があり、且つそれが参加者Aと参加者Bの発話を含むシーンである。この先頭シーン11:07:14の画像を動画像データから抽出する。
以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、検索要求として与えられた検索クエリを含むシーンを検索したが、完全に一致する場合と、検索クエリを包含するシーンで検索の結果に重みを付けてもよい。例えば、参加者Aと参加者Bが会議室上に配置されているとき、実際に参加者Aと参加者Bのみが参加している会議Aと、それに加えて参加者Cも参加している会議Bがある場合、会議Aから検索されるシーンに高いスコアを与え、会議Bから検索されたシーンには低いスコアを与えるようにしてもよい。また、曖昧検索を行なった検索結果を提示する場合に、スコアに応じて提示する画像のシーン枠を太くしたり、画像そのものを大きくしたりしても良い。
また、本明細書では、検索要求を受け付けるGUI操作画面は、会議室の平面図を利用して構成されるが、本発明の要旨はこれに限定されるものではない。例えば3D表示形式の会議室表示エリアを用いて検索要求を受け付けるようにしてもよい。このような場合、各会議室の3Dモデルをあらかじめ作成しておき、視点移動の操作に応じて、実際に検索者が参加していたときの視点で会議室内を表示するようにしてもよい。これによって、手がかりを配置する際により、自然な方法で配置することができる。
要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
図1は、本発明の一実施形態に係る情報処理システム1の記録・保存機能の構成を模式的に示した図である。 図2は、人物位置特定装置12の構成例を示した図である。 図3は、会議の開始と終了のフローを示した図である。 図4は、会議の記録時におけるビデオ撮影装置11によるビデオ撮影のフローを示した図である。 図5は、会議の記録時における人物位置特定装置12並びに話者認識装置13による動作フローを示した図である。 図6は、会議の記録時における機器動作特定装置16による動作フローを示した図である。 図7は、会議データベース30内のデータ構造を模式的に示した図である。 図8は、会議データベース20内のレコードを表組み形式で構成した例を示した図である。 図9は、リーダとリーダの間に人がいて両方のリーダが読み取る様子を示した図である。 図10は、本発明の一実施形態に係る情報処理システム1の検索機能の構成を模式的に示した図である。 図11は、検索要求受付部40が提示するGUI画面の構成例を示した図である。 図12は、検索要求受付部40が用意するGUI画面上において、シーンを検索する手がかりとして参加者を特定する場合の操作例を示した図である。 図13は、検索結果提示部70における検索結果の提示画面の構成例を示した図である。 図14は、会議室表示エリア140内に、指定された会議室の見取り図が表示されている様子を示した図である。 図15は、発話者を指定して得られた検索結果の提示画面の構成例を示した図である。 図16は、発話者を指定して得られた検索結果を示す静止画をタイムライン上に割り当てて表示した様子を示した図である。 図17は、参加者Aに発話の回数と密度を指定するメニュー・ウィンドウがポップアップ表示された様子を示した図である。 図18は、検索の手がかりとして参加者Aと参加者Bが会話していることを入力する操作を説明するための図である。 図19は、参加者の位置を利用して検索する再のGUI操作を説明するための図である。 図20は、会議IDが0378のレコードからT1とT2が検索された様子を示した図である。 図21は、検索結果提示部70により検索結果が提示されている様子を示した図である。 図22は、検索結果提示部70により検索結果が提示されている様子を示した図である。 図23は、検索要求受付部40のGUI画面上で2人の発話者を指定する様子を示した図である。 図24は、シーンの検索結果を示した図である。 図25は、特定された参加者の位置並びにその隣接する位置を検索する様子を示した図である。 図26は、曖昧検索の結果にスコアを与え、スコアに基づいて各検索結果の表示形態を変えた様子を示した図である。 図27は、会議室を選択するボタンとして、会議室のレイアウトを示したアイコンを用いたGUI画面の構成例を示した図である。 図28は、検索要求のデータ構造を示した図である。 図29は、検索要求受付部40が提示するGUI画面の構成例を示した図である。 図30は、検索部60において実行される会議データベース30の検索処理の手順を示したフローチャートである。 図31は、パターン・マッチングや連想配列によるテキスト処理が可能な言語で記述された会議データベース30のレコードのデータ構成例を示した図である。 図32は、検索要求受付部40が用意するGUI画面上において、シーンを検索する手がかりを入力する場合の操作例を示した図である。 図33は、検索結果提示部70に、絞込みチェックボックスを設けチェックすることにより、チェックされた会議IDのみの検索結果を表示した様子を示した図である。
符号の説明
1…情報処理システム
10…会議記録装置
11…ビデオ撮影装置
12…人物位置特定装置
13…物体位置特定装置
14…話者認識装置
15…機器動作特定装置
16…コントローラ
20…情報管理装置
30…会議データベース
40…検索要求受付部
50…検索条件式生成部
60…検索部
70…検索結果提示部

Claims (12)

  1. 会議の映像から所望のシーンを検索する情報処理システムであって、
    各会議の映像を、会議の識別情報、会議の開始時間及び会議時間、会議室の識別情報、複数の区画からなる会議室内での各会議参加者の会議の経過時間毎に位置する区画や発話開始時間、会議室内に配設されている各機器・機材の会議の経過時間毎の設置場所の区画や動作状態に関するイベント情報とともに管理する会議データベースと、
    イベント情報を指定するための会議の各参加者及び機器を表すミニチュアと、会議室の前記複数の区画付きの見取り図を表示する会議室表示エリアからなり各ミニチュアをユーザ操作に応じて配置する操作領域を用意し、前記会議室表示エリア上に各ミニチュアが配置された会議室内での区画の位置又は位置の組み合わせからなる形式で検索要求を受け付ける検索要求受付部と、
    前記ユーザ操作に応じて前記会議室表示エリア上に配置したミニチュアに該当する人物又は機器の該ミニチュアの会議室内での区画の位置の組み合わせを記述した検索条件式を生成する検索条件式生成部と、
    生成された検索条件式に合致する会議の識別情報とその経過時間を前記会議データベース検索する検索部と、
    前記検索部による検索結果を提示する検索結果提示部と、
    を具備することを特徴とする情報処理システム。
  2. 前記検索結果提示部は、検索結果としての会議の当該経過時間におけるシーンの映像を提示する、
    ことを特徴とする請求項1に記載の情報処理システム。
  3. 前記検索結果提示部は、ユーザ選択に応答して、検索結果としての会議の映像を当該経過時間から再生する、
    ことを特徴とする請求項2に記載の情報処理システム。
  4. 前記検索要求受付部は、各ミニチュアの状態の指定をさらに受け付け、
    前記検索条件生成部は、受け付けられたミニチュアの状態を検索条件式に組み込む、
    ことを特徴とする請求項1に記載の情報処理システム。
  5. 前記検索要求受付部は、ミニチュアの状態として、ミニチュアに相当する人物の会議への参加の有無、会議での発話、又はミニチュアに相当する機器の動作状態の指定を受け付ける、
    ことを特徴とする請求項4に記載の情報処理システム。
  6. コンピュータを用いて構築される情報処理システム上で、会議の映像から所望のシーンを検索する情報処理方法であって、
    各会議の映像を、会議の識別情報、会議の開始時間及び会議時間、会議室の識別情報、複数の区画からなる会議室内での各会議参加者の会議の経過時間毎に位置する区画や発話開始時間、会議室内に配設されている各機器・機材の会議の経過時間毎の設置場所の区画や動作状態に関するイベント情報とともに前記コンピュータが備える会議データベースで管理されており、
    前記コンピュータが備える検索要求受付手段が、イベント情報を指定するための会議の各参加者及び機器を表すミニチュアと、会議室の前記複数の区画付きの見取り図を表示する会議室表示エリアからなり各ミニチュアをユーザ操作に応じて配置する操作領域を用意し、前記会議室表示エリア上に各ミニチュアが配置された会議室内での区画の位置又は位置の組み合わせからなる形式で検索要求を受け付ける検索要求受付ステップと、
    前記コンピュータが備える検索条件式生成手段が、前記ユーザ操作に応じて前記会議室表示エリア上に配置したミニチュアに該当する人物又は機器の該ミニチュアの会議室内での区画の位置の組み合わせを記述した検索条件式を生成する検索条件式生成ステップと、
    前記コンピュータが備える検索手段が、生成された検索条件式に合致する会議の識別情報とその経過時間を前記会議データベース検索する検索ステップと、
    前記コンピュータが備える検索結果提示手段が、前記検索ステップにおける検索結果を提示する検索結果提示ステップと、
    を有することを特徴とする情報処理方法。
  7. 前記検索結果提示ステップでは、検索結果としての会議の当該経過時間におけるシーンの映像を提示する、
    ことを特徴とする請求項6に記載の情報処理方法。
  8. 前記検索結果提示ステップでは、ユーザ選択に応答して、検索結果としての会議の映像を当該経過時間から再生する、
    ことを特徴とする請求項7に記載の情報処理方法。
  9. 前記検索要求受付ステップでは、各ミニチュアの状態の指定をさらに受け付け、
    前記検索条件生成ステップでは、受け付けられたミニチュアの状態を検索条件式に組み込む、
    ことを特徴とする請求項6に記載の情報処理方法。
  10. 前記検索要求受付ステップでは、ミニチュアの状態として、ミニチュアに相当する人物の会議への参加の有無、会議での発話、又はミニチュアに相当する機器の動作状態の指定を受け付ける、
    ことを特徴とする請求項9に記載の情報処理方法。
  11. 前記検索要求受付ステップでは、操作領域として会議の参加者を指定する参加者エリアをさらに用意し、ユーザが前記参加者エリアに設置したミニチュアの組み合わせを検索の手がかりとして受け付け、
    前記検索条件式生成ステップでは、ユーザが前記参加者エリア上に配置したミニチュアに該当する人物の組み合わせを記述した検索条件式を生成する、
    ことを特徴とする請求項6に記載の情報処理方法。
  12. 会議の映像から所望のシーンを検索するための処理をコンピュータ上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、前記コンピュータを、
    各会議の映像を、会議の識別情報、会議の開始時間及び会議時間、会議室の識別情報、複数の区画からなる会議室内での各会議参加者の会議の経過時間毎に位置する区画や発話開始時間、会議室内に配設されている各機器・機材の会議の経過時間毎の設置場所の区画や動作状態に関するイベント情報とともに管理する会議データベース手段、
    イベント情報を指定するための会議の各参加者及び機器を表すミニチュアと、会議室の前記複数の区画付きの見取り図を表示する会議室表示エリアからなり各ミニチュアをユーザ操作に応じて配置する操作領域を用意し、前記会議室表示エリア上に各ミニチュアが配置された会議室内での区画の位置又は位置の組み合わせからなる形式で検索要求を受け付ける検索要求受付手段、
    前記ユーザ操作に応じて前記会議室表示エリア上に配置したミニチュアに該当する人物又は機器の該ミニチュアの会議室内での区画の位置の組み合わせを記述した検索条件式を生成する検索条件式生成手段、
    生成された検索条件式に合致する会議の識別情報とその経過時間を検索する検索手段、
    前記検索部による検索結果を提示する検索結果提示手段、
    として機能させるためのコンピュータ・プログラム。
JP2004040622A 2004-02-17 2004-02-17 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム Expired - Fee Related JP4572545B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004040622A JP4572545B2 (ja) 2004-02-17 2004-02-17 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004040622A JP4572545B2 (ja) 2004-02-17 2004-02-17 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JP2005234722A JP2005234722A (ja) 2005-09-02
JP4572545B2 true JP4572545B2 (ja) 2010-11-04

Family

ID=35017636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004040622A Expired - Fee Related JP4572545B2 (ja) 2004-02-17 2004-02-17 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム

Country Status (1)

Country Link
JP (1) JP4572545B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007052565A (ja) 2005-08-16 2007-03-01 Fuji Xerox Co Ltd 情報処理システム及び情報処理方法
JP2007052564A (ja) 2005-08-16 2007-03-01 Fuji Xerox Co Ltd 情報処理システムおよび情報処理方法
JP4905651B2 (ja) * 2006-03-16 2012-03-28 株式会社国際電気通信基礎技術研究所 情報分析装置、情報分析方法及び情報分析プログラム
JP5206586B2 (ja) * 2009-05-25 2013-06-12 コニカミノルタビジネステクノロジーズ株式会社 画像形成装置及び画像形成プログラム
US9710940B2 (en) * 2011-11-06 2017-07-18 Sharp Laboratories Of America, Inc. Methods, systems and apparatus for summarizing a meeting
JP6219808B2 (ja) * 2014-12-03 2017-10-25 日本電信電話株式会社 映像検索装置の動作方法、映像検索方法および映像検索装置
US9671939B2 (en) * 2014-12-17 2017-06-06 Fuji Xerox Co., Ltd. Systems and methods for automatic generation and consumption of hypermeetings
JP6850377B1 (ja) 2020-01-30 2021-03-31 ベルフェイス株式会社 情報処理装置、情報処理方法及びプログラム
CN112819184A (zh) * 2020-12-31 2021-05-18 中国人寿保险股份有限公司上海数据中心 一种基于积分算法的空闲会议室检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08137900A (ja) * 1994-11-09 1996-05-31 Toshiba Corp シーン検索方法及びシーン検索装置
JPH10289251A (ja) * 1997-02-17 1998-10-27 Dainippon Screen Mfg Co Ltd データ検索方法およびその処理を実行するためのプログラムを記録した記録媒体
JP2000261754A (ja) * 1999-03-05 2000-09-22 Jisedai Joho Hoso System Kenkyusho:Kk ダイジェスト作成装置,ダイジェスト作成方法およびその方法の各工程をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2002251393A (ja) * 2001-02-22 2002-09-06 Ricoh Co Ltd 記録装置、記録方法、プログラムおよび記録媒体並びに記録再生システム
JP2002335478A (ja) * 2001-05-07 2002-11-22 Ricoh Co Ltd ビデオ録画再生システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08137900A (ja) * 1994-11-09 1996-05-31 Toshiba Corp シーン検索方法及びシーン検索装置
JPH10289251A (ja) * 1997-02-17 1998-10-27 Dainippon Screen Mfg Co Ltd データ検索方法およびその処理を実行するためのプログラムを記録した記録媒体
JP2000261754A (ja) * 1999-03-05 2000-09-22 Jisedai Joho Hoso System Kenkyusho:Kk ダイジェスト作成装置,ダイジェスト作成方法およびその方法の各工程をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2002251393A (ja) * 2001-02-22 2002-09-06 Ricoh Co Ltd 記録装置、記録方法、プログラムおよび記録媒体並びに記録再生システム
JP2002335478A (ja) * 2001-05-07 2002-11-22 Ricoh Co Ltd ビデオ録画再生システム

Also Published As

Publication number Publication date
JP2005234722A (ja) 2005-09-02

Similar Documents

Publication Publication Date Title
RU2398277C2 (ru) Автоматическое извлечение лиц для использования во временной шкале записанных конференций
Wellner et al. Browsing recorded meetings with Ferret
CN111193890B (zh) 会议记录解析装置、方法和会议记录播放系统
US7680360B2 (en) Information processing system and information processing method
US20110096135A1 (en) Automatic labeling of a video session
CN110139062B (zh) 一种视频会议记录的创建方法、装置及终端设备
JP2000125274A (ja) 会議内容に索引付けを行うための方法と装置
JP4674508B2 (ja) 情報処理システムおよび情報処理プログラム
JP2006085440A (ja) 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム
JP2005267279A (ja) 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム
JP3895892B2 (ja) マルチメディア情報収集管理装置およびプログラムを格納した記憶媒体
JP4572545B2 (ja) 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム
JP4543694B2 (ja) コミュニケーションシステム、コミュニケーションシステムのサーバー、及びサーバーの処理方法
JP2007241130A (ja) 声紋認識を利用するシステムと装置
JP2006352779A (ja) 映像情報入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体
JP2006221320A (ja) 情報処理システム、情報処理方法及びプログラム
JP2012053855A (ja) コンテンツ閲覧装置、コンテンツ表示方法及びコンテンツ表示プログラム
JP4649944B2 (ja) 動画像処理装置、動画像処理方法およびプログラム
JP7077585B2 (ja) 情報処理システム、情報処理装置およびプログラム
JP2005260513A (ja) コンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラム
US20200075025A1 (en) Information processing apparatus and facilitation support method
Wellner et al. Browsing recordings of multi-party interactions in ambient intelligence environments
JP2006185188A (ja) 情報処理システム、情報処理方法及びプログラム
JP2005165856A (ja) 資料呼出装置
US8819534B2 (en) Information processing system and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091013

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100720

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100802

R150 Certificate of patent or registration of utility model

Ref document number: 4572545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees