JP4697907B2 - 画像処理装置及び方法 - Google Patents
画像処理装置及び方法 Download PDFInfo
- Publication number
- JP4697907B2 JP4697907B2 JP2000086806A JP2000086806A JP4697907B2 JP 4697907 B2 JP4697907 B2 JP 4697907B2 JP 2000086806 A JP2000086806 A JP 2000086806A JP 2000086806 A JP2000086806 A JP 2000086806A JP 4697907 B2 JP4697907 B2 JP 4697907B2
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- sight
- line
- participant
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
【発明が属する技術分野】
本発明は画像データのアーカイビングに関する。
【0002】
【従来の技術】
多くのデータベースは画像データを格納するために存在している。しかし、特に、格納すべき画像データの量が膨大であり、また、データベースから情報を検索する目的でデータベースを問い合わせるために使用できる方法がかぎられているため、問題も生じている。
【0003】
【発明が解決しようとする課題】
本発明は上記の問題に留意してなされた。
【0004】
【課題を解決するための手段】
本発明によれば、話をしている人物を示す、複数のカメラからの画像データをアーカイブするために処理を実行する装置又は方法が提供される。現在話をしている人物と、その人物の視線の先にいる人物(又は視線の先にある物体)を判定し、それに従ってアーカイブすべき画像データの部分集合を選択する。
【0005】
このようにすれば、全てのカメラからの画像データを格納する必要がなくなるので、容量が減少する。
【0006】
また、本発明は、複数のカメラにより記録された、話をしている人物を示す画像データの中から画像データを選択する装置又は方法を提供する。この場合、画像データの少なくとも一部を処理することにより、少なくとも、現在話をしている人物の頭部と、その人物の視線の先にいる人物(又は視線の先にある物体)の三次元位置を判定し、判定された位置及びカメラの視野に基づいて画像データの選択を実行する。
【0007】
更に、本発明は、プログラム可能処理装置をそのようなシステムにおいて装置として構成させる又は方法を実行可能な状態にさせるための、信号及び記録形態を含めた命令を提供する。
【0008】
【発明の実施の形態】
以下、添付の図面を参照して本発明の実施形態を説明する。
【0009】
図1を参照すると、複数のビデオカメラ(図1に示す例では3台であるが、これ以外の台数であっても差し支えない)2−1、2−2、2−3及びマイクロホンアレイ4を使用して、数人の人物6、8、10、12の間で行われている会議から画像データと、音声データとをそれぞれ記録している。
【0010】
マイクロホンアレイ4は、例えば、英国特許第2140558号、米国特許第4333170号及び米国特許第3392392号に記載されているように、入って来る音の方向を判定することができるように配列されたマイクロホンのアレイから構成されている。
【0011】
ビデオカメラ2−1、2−2、2−3からの画像データと、マイクロホンアレイ4からの音声データはケーブル(図示せず)を介してコンピュータ20に入力される。コンピュータ20は受信したデータを処理し、データベースにデータを格納して、会議のアーカイブ記録を作成する。後に、このデータベースから情報を検索することができる。
【0012】
コンピュータ20は、表示装置26、並びにこの実施形態ではキーボード28及びマウス30から構成されるユーザ入力装置と共に、従来のように1つ又は複数のプロセッサと、メモリと、サウンドカードなどを含む処理装置24を含む従来通りのパーソナルコンピュータである。
【0013】
コンピュータ20の構成要素と、それらの構成要素の入出力データとを図2に概略的に示す。
【0014】
図2を参照して説明すると、処理装置24は、例えば、ディスク32などのデータ記憶媒体に格納されたデータとして、及び/又は例えば、インターネットなどの通信ネットワーク(図示せず)を介する送信により又は無線通信により遠隔データベースから処理装置24に入力され且つ/又はユーザによりキーボード28などのユーザ入力装置又は他の入力装置を介して入力された信号34として入力されるプログラミング命令に従って動作するようにプログラムされている。
【0015】
プログラミング命令によりプログラムされると、処理装置24は処理動作を実行するためのいくつかの機能ユニットに有効に構成される。そのような機能ユニットの例と、その相互接続を図2に示す。しかし、図2に示されているユニットと接続は概念的なもので、単に理解を助けるための例示を目的として示されているにすぎない。従って、図2に示すユニットや接続は、処理装置24のプロセッサ、メモリなどが実際に構成される厳密なユニットと接続を必ずしも表してはいない。
【0016】
図2に示す機能ユニットを説明すると、中央制御装置36はユーザ入力装置28、30からの入力を処理すると共に、ユーザによりディスク38などの記憶装置に格納されたデータとして、又は処理装置24へ送信される信号40として処理装置24に入力されるデータを受信する。更に、中央制御装置36はいくつかの他の機能ユニットの制御とそれに関わる処理を実行する。メモリ42は、中央制御装置36及び他の機能ユニットにより使用される。
【0017】
頭部追跡装置50は、会議の参加者6、8、10、12それぞれの頭部の位置と向きを三次元で追跡するために、ビデオカメラ2−1、2−2、2−3から受信される画像データを処理する。この実施形態では、この追跡を実行するために、頭部追跡装置50はそれぞれの参加者の頭部の三次元コンピュータモデルを定義するデータと、その顔の特徴を定義するデータとを使用する。それらのデータは、後述するように、頭部モデル記憶装置52に格納されている。
【0018】
方向処理装置53はマイクロホンアレイ4からの音声データを処理して、マイクロホンにより記録された音が受信された方向(1つ又は複数)を判定する。このような処理は、例えば、英国特許第2140558号、米国特許4333170号及び米国特許第3392392号に記載されているような従来の方式により実行される。
【0019】
音声認識処理装置54はマイクロホンアレイ4から受信された音声データを処理して、そこからテキストデータを生成する。すなわち、音声認識処理装置54は、「Dragon Dictate」又はIBMの「ViaVoice」などの従来の音声認識プログラムに従って動作し、参加者6、8、10、12が話した言葉に対応するテキストデータを生成する。音声認識処理を実行するため、音声認識処理装置54は、音声認識パラメータ記憶装置56に格納されている、参加者6、8、10、12ごとの音声認識パラメータを定義するデータを使用する。すなわち、音声認識パラメータ記憶装置56に格納されているデータは、従来の方式により音声認識処理装置を訓練することにより生成された各参加者の音声プロファイルを定義するデータである。
【0020】
アーカイブ処理装置58は、頭部追跡装置50、方向処理装置53及び音声認識処理装置54から受信したデータを使用して、会議アーカイブデータベース60に格納すべきデータを生成する。すなわち、後述するように、カメラ2−1、2−2、2−3からの映像データと、マイクロホンアレイ4からの音声データとを、音声認識処理装置54からのテキストデータ及び所定の時点で会議の各参加者の視線の先にいる人物を定義するデータと共に会議アーカイブデータベース60に格納する。
【0021】
テキストサーチャ62は、中央制御装置36と関連して、会議の1つ又は複数の部分について、後に詳細に説明するように、ユーザにより指定される探索基準に適合する音声データ及び映像データを発見し、再生すべく、会議アーカイブデータベース60を探索するために使用される。
【0022】
表示プロセッサ64は、中央制御装置36の制御の下に、表示装置26を介してユーザに対し情報を表示すると共に、会議アーカイブデータベース60に格納されている音声データと映像データを再生する。
【0023】
出力プロセッサ66はアーカイブデータベース60のデータの一部又は全てを、例えば、ディスク68などの記憶装置に出力するか、あるいは信号70として出力する。
【0024】
会議を始める前に、処理装置24に必要な処理動作を実行させることができるようにするために必要なデータを入力することにより、コンピュータ20を初期設定しなければならない。
【0025】
図3は、この初期設定中に処理装置24により実行される処理動作を示している。
【0026】
図3を参照して説明すると、まず、ステップS1では、中央処理装置36は、表示プロセッサ64にユーザが会議に参加するそれぞれの人物の名前を入力することを要求するメッセージを表示装置26に表示させる。
【0027】
ステップS2では、中央制御装置36は、例えば、キーボード28を使用してユーザにより入力された名前を定義するデータを受信して、各参加者にその人独自の識別番号を割り当てると共に、識別番号と参加者の名前との関係を定義するデータ、例えば、図4に示すテーブル4を会議アーカイブデータベース60に格納する。 ステップS3では、中央制御装置36は、表示プロセッサ64に、会議中の相当に長い時間にわたって人物が見ると思われ、会議アーカイブデータベース60にアーカイブデータを格納することが望まれる物体それぞれの名前をユーザが入力することを要求するメッセージを表示装置26に表示させる。そのような物体としては、例えば、図1に示すフリップチャート14のようなフリップチャート、ホワイトボード又は黒板、テレビなどが考えられるであろう。
【0028】
ステップS4では、中央制御装置36は、例えば、キーボード28を使用してユーザにより入力された物体の名前を定義するデータを受信して、各々の物体にそれ独自の識別番号を割り当てると共に、識別番号と物体の名前との関係を定義するデータ、例えば、図4に示すテーブル80のデータを会議アーカイブデータベースに格納する。
【0029】
ステップS6では、中央制御装置36は、会議の参加者ごとに頭部モデルが既に格納されているか否かを判定するために、頭部モデル記憶装置52を探索する。
【0030】
ステップS6で、1人又は2人以上の参加者について頭部モデルがまだ格納されていないと判定されたならば、ステップS8で、中央制御装置36は、表示プロセッサ64に、モデルがまだ格納されていない各参加者の頭部モデルを定義するデータをユーザが入力することを要求するメッセージを表示装置26に表示させる。
【0031】
それに応答して、ユーザは、例えば、ディスク38などの記憶媒体により又は接続している処理装置からの信号40としてデータをダウンロードすることにより、必要とされている頭部モデルを定義するデータを入力する。そのような頭部モデルは、従来の方法に従って、例えば、Valente他の「An Analysis/Synthesis Cooperation for Head Tracking and Video Face Cloning」(ProceedingsECCV ’98 Workshop on Perception of Human Action、ドイツ、フライブルク大学、1998年6月6日開催)に記載されている方法により生成されれば良い。
【0032】
ステップS10では、中央制御装置36はユーザにより入力されたデータを頭部モデル記憶装置52に格納する。
【0033】
ステップS12では、中央制御装置36及び表示プロセッサ64はユーザにより入力されたそれぞれの三次元コンピュータ頭部モデルをレンダリングして、ユーザに対し、ユーザが各モデルの少なくとも7つの特徴を識別することを要求するメッセージと共にモデルを表示装置26に表示する。
【0034】
それに応答して、ユーザは、各モデル中の、参加者の顔の正面、側面及び(可能であれば)背面にある顕著な特徴、例えば、目の輪郭、鼻孔、口、耳又は参加者がかけている眼鏡の特徴などに対応する点をマウス30を使用して指定する。
【0035】
ステップS14では、中央制御装置36は、ユーザにより識別された特徴を定義するデータを頭部モデル記憶装置52に格納する。
【0036】
これに対し、ステップS6で、各参加者について、頭部モデルが既に頭部モデル記憶装置52に格納されていると判定された場合には、上記のステップS8からS14を省略する。
【0037】
ステップS16では、中央制御装置36は、参加者ごとに音声認識パラメータが既に格納されているか否かを判定するために、音声認識パラメータ記憶装置56を探索する。
【0038】
ステップS16で、全ての参加者について音声認識パラメータを利用できるわけではないと判定されたならば、ステップS18で、中央制御装置36は、表示プロセッサ64に、パラメータがまだ格納されていない各参加者についてユーザが音声認識パラメータを入力することを要求するメッセージを表示装置26に表示させる。
【0039】
それに応答して、ユーザは、例えば、ディスク38などの記憶媒体により又は遠隔処理装置からの信号40として、必要な音声認識パラメータを定義するデータを入力する。先に述べた通り、それらのパラメータはユーザの音声のプロファイルを定義するもので、音声認識プロセッサを従来の方法で訓練することにより生成される。従って、例えば、Dragon Dictateを装備した音声認識プロセッサの場合、ユーザにより入力される音声認識パラメータはDragon Dictateの「ユーザファイル」に格納されるパラメータに相当する。
【0040】
ステップS20では、中央制御装置36は、ユーザにより入力された音声認識パラメータを音声認識パラメータ記憶装置56に格納する。
【0041】
これに対し、ステップS16で、参加者ごとに音声認識パラメータが既に利用可能になっていると判定された場合には、ステップS18及びS20を省略する。
【0042】
ステップS22では、中央制御装置36は、表示プロセッサ64に、ユーザがカメラ2−1、2−2及び2−3の校正を可能にするためのステップを実行させることを要求するメッセージを表示装置26に表示させる。
【0043】
これに応答して、ユーザは必要なステップを実行し、ステップS24では、中央制御装置36はカメラ2−1、2−2及び2−3を校正するための処理を実行する。すなわち、この実施形態においては、ユーザにより実行されるステップ及び中央制御装置36により実行される処理は、Wiles及びDavisonの「Calibrating and 3D Modeling with a Multi−Camera System」(1999 IEEE Workshop on Multi−View Modeling and Analysis of Visual Scenes,ISBN 0769501109)に記載されているような方式で実行される。これは、会議室に対する各カメラ2−1、2−2及び2−3の位置と向きを定義する校正データと、各カメラの固有パラメータ(横縦比、焦点距離、主点、一次半径方向ひずみ係数)とを生成する。カメラ校正データは、例えば、メモリ42に格納される。
【0044】
ステップS25では、中央制御装置36は、表示プロセッサ64に、ステップS4で識別データを格納した物体それぞれの位置と向きを判定できるようにするためのステップをユーザが実行することを要求するメッセージを表示装置26に表示させる。
【0045】
これに応答して、ユーザは必要なステップを実行し、ステップS26では、中央制御装置36は各物体の位置と向きを判定するための処理を実行する。すなわち、この実施形態では、ユーザは、会議の参加者が見ると思われる物体の面の周囲、例えば、フリップチャート14の紙面の平面の周囲にカラーマーカーで点を書く。その後、中央制御装置36は、各々のカメラ2−1、2−2及び2−3により記録された画像データをステップS24で格納されたカメラ校正データを使用して処理し、従来通りに、それぞれのカラーマーカーの三次元位置を判定する。各カラーマーカーの位置を別個に推定するために、この処理はカメラ2−1、2−2及び2−3ごとに実行され、各カメラ2−1、2−2及び2−3からのデータを使用して計算された位置から各マーカーの位置の平均を判定する。各マーカーの平均位置を使用して、中央制御装置36は、従来の方式により、物体の面の中心及び物体の面の向きを定義するための面垂線を計算する。物体ごとに判定された位置と向きは、例えば、メモリ42に物体校正データとして格納される。
【0046】
ステップS27では、中央制御装置36は、表示プロセッサ64に、会議の次の参加者(初めてステップS27を実行するときには、これは最初の参加者である)を着席させることを要求するメッセージを表示装置26に表示させる。
【0047】
ステップS28では、処理装置24は要求された参加者が着席するまでの時間をとるために所定の期間待機し、続くステップS30では、中央制御装置36は、カメラごとの着席した参加者の頭部の推定位置を判定するために、各カメラ2−1、2−2及び2−3からのそれぞれの画像データを処理する。すなわち、この実施形態においては、中央制御装置36は従来のようにカメラごとに別個に処理を実行して、参加者の肌の色に対応する色を有するカメラからの画像データのフレームの中のそれぞれの位置を識別し(この色は、頭部モデル記憶装置52に格納されている参加者の頭部モデルを定義するデータから判定される)、次に、(頭部は人体の中で最も高い位置にある肌色の部分であると推定されるため)会議室で最も高い位置に相当する部分を選択する。画像中の識別された部分の位置と、ステップS24で判定されたカメラ校正パラメータとを使用して、中央制御装置36は従来の方式により頭部の推定三次元位置を判定する。カメラ2−1、2−2及び2−3ごとに別個の推定頭部位置を得るために、この処理はカメラごとに実行される。
【0048】
ステップS32では、中央制御装置36はカメラ2−1、2−2及び2−3ごとに参加者の頭部の三次元推定向きを判定する。すなわち、この実施形態においては、中央制御装置36は、頭部モデル記憶装置52に格納されている参加者の頭部の三次元コンピュータモデルをモデルの複数の異なる向きについてレンダリングして、向きごとに対応するモデルの二次元画像を作成する。この実施形態では、参加者の頭部のコンピュータモデルを108の異なる向きについてレンダリングして、108枚の対応する二次元画像を作成する。これらの向きは、0°(まっすぐに向いている場合)、+45°(上を向いている場合)及び−45°(下を向いている場合)に相当する3つの頭部の傾きのそれぞれについて10°ずつ頭部モデルを36回転させた向きに相当している。次に、中央制御装置36はモデルの各二次元画像を参加者の頭部を示すカメラ2−1、2−2、2−3からのビデオフレームの部分と比較し、モデルの画像が映像データと最も良く整合する向きを選択する。カメラごとに別個の推定頭部向きを得るために、この比較と選択はカメラごとに実行される。頭部モデルをレンダリングすることにより生成された画像データをカメラからの映像データと比較するときには、例えば、Schodl、Haro及びEssaの「Head Tracking Using a Textured Polygonal Model」(Proceedings1998 Workshop on Perceptual User Interfacesに掲載)に記載されているような従来の技法を使用する。
【0049】
ステップS34では、ステップS30で生成した参加者の頭部のそれぞれの推定位置と、ステップS32で生成した参加者の頭部のそれぞれの推定向きとを頭部追跡装置50に入力し、各々のカメラ2−1、2−2及び2−3から受信した画像データのフレームを処理して、参加者の頭部を追跡する。すなわち、この実施形態においては、頭部追跡装置50は、例えば、Valente他の「An Analysis/Synthesis Cooperation for Head Tracking and Video Face Cloning」(Proceedings EECV '98 Workshop on Perceptionof Human Action、ドイツ、フライブルク大学、1998年6月)に記載されているような従来の方式により頭部を追跡するために処理を実行する。
【0050】
図5は、ステップS34で頭部追跡装置50により実行される処理動作の概要を示す。
【0051】
図5を参照して説明すると、ステップS42−1からS42−n(この実施形態で使用するカメラは3台であるので、「n」は3である)の各々において、頭部追跡装置50は会議を記録した、対応する1台のカメラからの画像データを処理して、そのカメラからの画像データに含まれる参加者の頭部の特徴(ステップS14で格納されている)の位置を判定すると共に、そこから、そのカメラからの画像データの現在フレームについて、参加者の頭部の三次元位置と向きを判定する。
【0052】
図6は、ステップS42−1からS42−nのうち所定の1つのステップで実行される処理動作を示す。これらの処理動作は各ステップで同一であるが、異なるカメラからの画像データについて実行される。
【0053】
図6を参照して説明すると、ステップS50では、頭部追跡装置50は、初めてステップS50が実行されるときに図3のステップS30及びS32で生成される推定値である、参加者の頭部の現在推定3D位置及び現在推定向きを読み取る。
【0054】
ステップS52では、頭部追跡装置50はステップS24で生成されたカメラ校正データを使用して、ステップS50で読み取られた推定位置及び推定向きに従って、頭部モデル記憶装置52に格納されている参加者の頭部の三次元コンピュータモデルをレンダリングする。
【0055】
ステップS54では、頭部追跡装置50はカメラから受信した映像データの現在フレームについて画像データを処理して、ユーザにより識別され、ステップS14で識別された頭部の特徴の1つの期待位置を取り囲む各領域からの画像データを取り出す。この期待位置は、ステップS50で読み取られた推定位置及び推定向きと、ステップS24で生成されたカメラ校正データとから判定される。
【0056】
ステップS56では、頭部追跡装置50はステップS52で生成、レンダリングされた画像データと、ステップS54で取り出されたカメラ画像データとを整合して、レンダリングされた頭部モデルに最も良く整合するカメラ画像データを求める。
【0057】
ステップS58では、頭部追跡装置50はステップS56で識別された、レンダリングされた頭部モデルに最も良く整合するカメラ画像データを、ステップS24(図3)で格納されていたカメラ校正データと共に使用して、映像データの現在フレームについて参加者の頭部の3D位置と向きを判定する。
【0058】
再び図5に戻ると、ステップS44では、頭部追跡装置50はステップS42−1からS42−nのそれぞれで識別された、(図6のステップS58で識別された)レンダリングされた頭部モデルに最も良く整合するカメラ画像データを使用して、映像データの現在フレームについて参加者の頭部の平均3D位置と平均向きを判定する。
【0059】
ステップS44を実行すると同時に、ステップS46では、ステップS42−1からS42−nのそれぞれで判定されたカメラ画像データ中の頭部の特徴の位置(図6のステップS58で識別されている)を従来のカルマンフィルタに入力して、映像データの次のフレームについて参加者の頭部の推定3D位置及び推定向きを生成する。ビデオカメラ2−1,2−2及び2−3から映像データのフレームが受信されるにつれて、参加者についてステップS42からS46を繰り返し実行する。
【0060】
再び図3に戻ると、ステップS36では、中央制御装置36は、会議に別の参加者がいるか否かを判定し、各参加者に対して先に説明したように処理が実行され終わるまで、ステップS27からS36を繰り返す。しかし、これらのステップが参加者ごとに実行されている間、ステップS34では、頭部追跡装置50は既に着席した各参加者の頭部を追跡し続けている。
【0061】
ステップS36で、会議にそれ以上の参加者がなく、従って、頭部追跡装置50により各参加者の頭部が追跡されていることが判定されると、ステップS38で、中央制御装置36は、参加者間で会議を始めても良いことを指示するために、可聴信号を処理装置24から出力させる。
【0062】
図7は、参加者間で会議が行われているときに処理装置24により実行される処理動作を示す。
【0063】
図7を参照すると、ステップS70では、頭部追跡装置50は会議中の各参加者の頭部を追跡し続けている。ステップS70で頭部追跡装置50により実行される処理は、先にステップS34に関して説明したのと同じ処理であるので、ここでは繰り返し説明しない。
【0064】
頭部追跡装置50がステップS70で各参加者の頭部を追跡しているのと同時に、ステップS72では、会議アーカイブデータベース60に格納すべきデータを生成し、それを格納するための処理を実行する。
【0065】
図8は、ステップS72で実行される処理動作を示す。
【0066】
図8を参照して説明すると、ステップS80では、アーカイブプロセッサ58は、参加者がどの人物又はどの物体を見ているかを定義するいわゆる「視線パラメータ」を参加者ごとに生成する。
【0067】
図9は、ステップS80で実行される処理動作を示す。
【0068】
図9を参照すると、ステップS110では、アーカイブプロセッサ58は頭部追跡装置50から各参加者の頭部の現在三次元位置を読み取る。これは、ステップS44(図5)で頭部追跡装置50により実行される処理により生成された平均位置である。
【0069】
ステップS112では、アーカイブプロセッサ58は頭部追跡装置50から次の参加者(ステップS112を初めて実行するときには、これは最初の参加者である)の頭部の現在向きを読み取る。ステップS112で読み取られる向きは、ステップS44(図5)で頭部追跡装置50により実行される処理で生成された平均向きである。
【0070】
ステップS114では、アーカイブプロセッサ58は、参加者がどこを見ているかを定義する線(いわゆる「視線」)と、その参加者の頭部を別の参加者の頭部の中心と結ぶ概念上のそれぞれの線とが成す角度を判定する。
【0071】
これを更に詳細に説明する。図10及び図11を参照すると、ステップS114で実行される処理の一例が1人の参加者、すなわち、図1の参加者6について示されている。図10を参照すると、ステップS112で読み取られる参加者の頭部の向きは、参加者の両目の中心の間の一点から出る、参加者の頭部に対し垂直な視線90を定義する。同様に、図11を参照すると、ステップS110で読み取られた参加者の頭部全ての位置は、参加者6の両目の中心の間の点からその他の参加者8、10、12それぞれの頭部の中心に至る概念上の線92、94、96を定義する。ステップS114で実行される処理では、アーカイブプロセッサ58は視線90と、それぞれの概念上の線92、94、96とが成す角度98、100、102を判定する。
【0072】
再び図9に戻ると、ステップS116では、アーカイブプロセッサ58は最小値を有する角度98、100又は102を選択する。すなわち、図11に示す例でいえば、角度100が選択されることになるであろう。
【0073】
ステップS118では、アーカイブプロセッサ58は、ステップS116で選択した角度が10°より小さいか否かを判定する。
【0074】
ステップS118で、角度が10°より小さいと判定されれば、ステップS120で、アーカイブプロセッサ58は参加者の視線パラメータを、視線と最小の角度を成す概念上の線により結ばれている参加者の識別番号(図3のステップS2で割り当てられている)に設定する。すなわち、図11に示す例でいえば、角度100が10°より小さければ、この角度100は視線90と、参加者6を参加者10と結ぶ概念上の線94とが成す角度であるので、視線パラメータは参加者10の識別番号に設定されることになるであろう。
【0075】
これに対し、ステップS118で、最小角度が10°以上であることが判定された場合には、ステップS122で、アーカイブプロセッサ58は先にステップS26(図3)で格納されていた各物体の位置を読み取る。
【0076】
ステップS124では、アーカイブプロセッサ58は、参加者の視線90がいずれかの物体の平面と交わるか否かを判定する。
【0077】
ステップS124で、視線90がある物体の平面と交わると判定されれば、ステップS126で、アーカイブプロセッサ50は参加者の視線パラメータを、視線と交わる物体の識別番号(図3のステップS4で割り当てられている)に設定する。視線と交わる物体が2つ以上ある場合には、視線と交わる物体のうち、参加者に最も近い物体を選択する。
【0078】
これに対し、ステップS124で、視線90が物体の平面と交わらないと判定された場合には、ステップS128で、アーカイブプロセッサ58は参加者の視線パラメータの値を「0」に設定する。これは、(視線90が概念上の線92、94、96のいずれに対しても十分な近さにないために)参加者は他の参加者のいずれをも見ておらず、また、(視線90と交わる物体がないために)参加者はどの物体も見ていないと判定されたことを示す。このような状況は、例えば、ステップS4でデータが格納されず且つステップS26で校正されなかった、会議室内のいずれかの物体を参加者が見ている場合(例えば、図1に示す例では、参加者12が持っているメモ)などに起こりうるであろう。
【0079】
ステップS130では、アーカイブプロセッサ58は会議に別の参加者がいるか否かを判定し、それぞれの参加者について上述の処理が実行され終わるまで、ステップS112からS130を繰り返す。
【0080】
再び図8に戻ると、ステップS82では、中央制御装置36及び音声認識プロセッサ54は、マイクロホンアレイ4から映像データの現在フレームに対応する音声データが受信されたか否かを判定する。
【0081】
ステップS82で、音声データが受信されたと判定されれば、ステップS84で、会議の参加者の中で誰が話しているかを判定するための処理を実行する。
【0082】
図12は、ステップS84で実行される処理動作を示す。
【0083】
図12を参照して説明すると、ステップS140では、方向プロセッサ53はマイクロホンアレイ4からの音声データを処理して、その音声が来ている方向を判定する。この処理は、例えば、英国特許第2140558号、米国特許第4333170号及び米国特許第3392392号に記載されているような従来の方式で実行される。
【0084】
ステップS142では、アーカイブプロセッサ58は、画像データの現在フレームについてステップS44(図5)で頭部追跡装置50により判定された各参加者の頭部の位置を読み取り、そこから、ステップS140で判定された方向、すなわち、音声が来ている方向に対応する位置に頭部がある参加者は誰であるかを判定する。
【0085】
ステップS144では、アーカイブプロセッサ58は、音声が来ている方向に2人以上の参加者がいるか否かを判定する。
【0086】
ステップS144で、音声が来ている方向に参加者が1人しかいないと判定されれば、ステップS146で、アーカイブプロセッサ58は、音声が来ている方向にいる参加者を画像データの現在フレームに関わる話者として選択する。
【0087】
これに対し、ステップS144で、音声が来ている方向に対応する位置に頭部がある参加者は2人以上いると判定された場合には、ステップS148で、アーカイブプロセッサ58は、それらの参加者の1人が画像データの直前のフレームで話者として識別されていたか否かを判定する。
【0088】
ステップS148で、音声が来ている方向にいる参加者の1人が画像データの直前のフレームで話者として選択されていたと判定されれば、ステップS150で、アーカイブプロセッサ58は画像データの直前のフレームで識別されていた話者を画像データの現在フレームについても話者として選択する。これは、画像データの直前のフレームの話者が現在フレームの話者と同一である確率が高いからである。
【0089】
これに対し、ステップS148で、音声が来ている方向にいる参加者がいずれも直前のフレームで話者として識別された参加者ではないと判定された場合、又は直前のフレームで識別されていた話者がいない場合には、ステップS152で、アーカイブプロセッサ58は、音声が来ている方向にいるそれぞれの参加者を「話者になりうる」参加者として選択する。
【0090】
再び図8に戻ると、ステップS86では、アーカイブプロセッサ58は、話者である各参加者の視線パラメータ値、すなわち、ステップS80で判定された、話者である各参加者が誰を又は何を見ているかを定義する視線パラメータ値を、後の解析に備えて、例えば、メモリ42に格納する。
【0091】
ステップS88では、アーカイブプロセッサ58は、ステップS84で判定された話者である各参加者のアイデンティティを音声認識プロセッサ54に報知する。これに応答して、音声認識プロセッサ54は話者である参加者の音声認識パラメータを音声認識パラメータ記憶装置56から選択し、選択されたパラメータを使用して、受信した音声データについて音声認識処理を実行し、話者である参加者が話した言葉に対応するテキストデータを生成する。
【0092】
これに対し、ステップS82で、受信した音声データが話し言葉を含んでいないと判定された場合には、ステップS84からS88を省略する。
【0093】
ステップS89では、アーカイブプロセッサ58は、会議アーカイブデータベース60にどの画像データを格納すべきか、すなわち、カメラ2−1、2−2及び2−3のうちどのカメラからの画像データを格納すべきかを判定する。
図13は、ステップS89でアーカイブプロセッサ58により実行される処理動作を示す。
【0094】
図13を参照すると、ステップS160では、アーカイブプロセッサ58は、画像データの現在フレームについてステップS82(図8)で話し言葉が検出されたか否かを判定する。ステップS160で、現在フレームについては話し言葉が存在しないと判定されたならば、ステップS162で、アーカイブプロセッサ58は、画像データを格納すべきカメラとしてデフォルトカメラを選択する。すなわち、この実施形態においては、アーカイブプロセッサ58は直前のフレームで画像データが記録されたカメラを選択する。処理中の現在フレームが最初のフレームである場合には、アーカイブプロセッサ58はカメラ2−1、2−2、2−3の1台を無作為に選択する。
【0095】
これに対し、ステップS160で、処理中の現在フレームについて話し言葉が存在すると判定された場合には、ステップS164で、アーカイブプロセッサ58は、次の話者である参加者(ステップS164を初めて実行するときには、これは最初の話者である参加者となる)についてステップS86で先に格納された視線パラメータを読み取り、その話者である参加者が見ている人物又は物体を判定する。
【0096】
ステップS166では、アーカイブプロセッサ58は、現在考慮されている話者である参加者の(図5のステップS44で判定された)頭部の位置と向きを、話者である参加者の視線の先にいる参加者の頭部の位置と向き(図5のステップS44で判定されている)、又は話者である参加者の視線の先にある物体の位置と向き(図3のステップS26で格納されている)と共に読み取る。
【0097】
ステップS168では、アーカイブプロセッサ58はステップS166で読み取られた位置と向きを処理して、カメラ2−1、2−2、2−3のうち、話者である参加者と、その話者である参加者が見ている参加者又は物体の双方を最も良く示しているカメラはどれであるかを判定し、このカメラを現在フレームの画像データを会議アーカイブデータベース60に格納すべきカメラとして選択する。
【0098】
図14は、ステップS168でアーカイブプロセッサ58により実行される処理動作を示す。
【0099】
図14を参照して説明すると、ステップS176では、アーカイブプロセッサ58は次のカメラ(ステップS176を初めて実行するときには、これは最初のカメラである)の三次元位置と視野方向を読み取る。この情報は先に図3のステップS24で生成され、格納されている。
【0100】
ステップS178では、アーカイブプロセッサ58はステップS176で読み取られた情報を、(図5のステップS44で判定された)話者である参加者の頭部の三次元位置及び向きを定義する情報及び(図5のステップS44で判定された)話者である参加者の視線の先にいる参加者の頭部の三次元位置及び向き又は(図3のステップS26で格納された)話者である参加者の視線の先にある物体の三次元位置及び向きを定義する情報と共に使用して、話者である参加者と、その視線の先にいる参加者又はその視線の先にある物体の双方が現在考慮されているカメラの視野の中にあるか否か(すなわち、現在考慮されているカメラが話者である参加者と、その視線の先にいる参加者又はその視線の先にある物体の双方を視野におさめることができるか否か)を判定する。すなわち、この実施形態においては、アーカイブプロセッサ58は下記の式を評価し、全ての不等式が成立した場合に、カメラは話者である参加者と、その視線の先にいる参加者又はその視線の先にある物体の双方を視野におさめることができると判定する。
【0101】
【数1】
【0102】
【数2】
【0103】
【数3】
【0104】
【数4】
【0105】
ここで、(Xc,Yc,Zc)は、それぞれ、カメラの主点のx座標、y座標及びz座標(先に図3のステップS24で判定され、格納されている)であり、
(dXc、dYc,dZc)は、それぞれ、x方向、y方向及びz方向におけるカメラの視野方向(同様に、図3のステップS24で判定され、格納されている)を表し、
θh及びθvは、それぞれ、水平方向と垂直方向におけるカメラの視野角度(同様に図3のステップS24で判定され、格納されている)であり、
(Xp1、Yp1,Zp1)は、それぞれ、話者である参加者の頭部の中心のx座標、y座標及びz座標(図5のステップS44で判定されている)であり、
(dXp1、dYp1,dZp1)は、それぞれ、話者である参加者の視線90の向き(同様に図5のステップS44で判定されている)を表し、
(Xp2、Yp2,Zp2)は、それぞれ、話者である参加者の視線の先にいる人物の頭部の中心のx座標、y座標及びz座標(図5のステップS44で判定されている)、又は話者である参加者の視線の先にある物体の面の中心のx座標、y座標及びz座標(図3のステップS26で判定されている)であり、
(dXp2、dYp2,dZp2)は、それぞれ、話者である参加者の視線の先にいる参加者に視線90のx方向、y方向及びz方向における方向(同様に図5のステップS44で判定されている)、又は話者である参加者の視線の先にある物体の面に対する垂線のx方向、y方向及びz方向における方向(図3のステップS26で判定されている)を表す。
【0106】
ステップS178で、話者である参加者と、話者である参加者の視線の先にいる人物又は視線の先にある物体の双方をカメラが捉えることができると判定されれば(すなわち、上記の式(1)、(2)、(3)及び(4)における不等式が成立すれば)ステップS180で、アーカイブプロセッサ58は、現在考慮されているカメラが話者である参加者を捉えている視野の画質を表す値を計算し、格納する。すなわち、この実施形態においては、アーカイブプロセッサ58は、下記の式を使用して、画質値Q1を計算する。
【0107】
【数5】
【0108】
式中、用語の定義は先の式(1)及び(2)に関して挙げた用語と同じである。
【0109】
ステップS180で計算される画質値Q1は、−1から+1までの値を有するスカラであり、話者である参加者の頭部の背面が直接にカメラに面している場合には、この値は−1であり、話者である参加者の顔面が直接にカメラに面している場合には、この値は+1であり、話者である参加者の頭部がその他の方向を向いているときには−1から+1までの値をとる。
【0110】
ステップS182では、アーカイブプロセッサ58は、考慮されているカメラが話者である参加者の視線の先にいる参加者又は視線の先にある物体を捉えている視野の画質を表す値を計算し、格納する。すなわち、この実施形態においては、アーカイブプロセッサ58は、下記の式を使用して、画質値Q2を計算する。
【0111】
【数6】
【0112】
式中、パラメータの定義は先の式(3)及び(4)に関して挙げた用語と同じである。
【0113】
Q2も、同様に、−1から+1までの値を取るスカラであり、参加者の頭部の背面又は物体の面の背面が直接にカメラに面している場合には−1であり、参加者の顔面又は物体の正面が直接にカメラに面している場合には+1になる。参加者の頭部又は物体の面がその他の方向を向いているときには、その間の値をとる。
【0114】
ステップS184では、アーカイブプロセッサ58は、ステップS180で計算された画質値Q1をステップS182で計算された画質値Q2と比較し、最小値を選択する。この最小値は、カメラが話者である参加者、あるいは話者である参加者の視線の先にいる参加者又は視線の先にある物体を捉えるときの「最悪の視野」を示す(最悪の視野は、話者である参加者についてはQ1がQ2より小さい場合の視野であり、話者である参加者の視線の先にいる参加者又は視線の先にある物体については、Q2がQ1より小さい場合の視野である)。
【0115】
これに対し、ステップS178で、式(1)、(2)、(3)及び(4)の不等式のいずれか1つ又は2つ以上が成立しない(すなわち、カメラが話者である参加者と、話者である参加者の視線の先にいる参加者又は視線の先にある物体の双方を捉えることができない)と判定された場合には、ステップS180からS184を省略する。
【0116】
ステップS186では、アーカイブプロセッサ58は、受信画像データを提供したカメラが他に存在するか否かを判定する。カメラごとに上述の処理が実行され終わるまで、ステップS176からS186を繰り返す。
【0117】
ステップS188では、アーカイブプロセッサ58は、ステップS184で処理を実行したときにカメラごとに格納された「最悪の視野」の値(すなわち、ステップS184でカメラごとに格納された値Q1又はQ2)を比較し、それらの格納値の中の最大値を選択する。この最大値は「最良の最悪視野」を表し、従って、ステップS188では、アーカイブプロセッサ58は、ステップS184でこの「最良の最悪視野」値が格納されたカメラを会議アーカイブデータベースに格納すべき画像データを提供するカメラとして選択する。これは、このカメラが話者である参加者と、話者である参加者の視線の先にいる参加者又は視線の先にある物体の双方を捉える最良の視野を有するからである。
【0118】
ステップS170では、アーカイブプロセッサ58は、話者に「なりうる」参加者を含めて、他の話者である参加者が存在するか否かを判定する。話者である参加者ごとに、また、話者に「なりうる」参加者ごとに、上述の処理が実行され終わるまで、ステップS164からS170を繰り返す。
【0119】
再び図8に戻ると、ステップS90では、アーカイブプロセッサ58は、ステップS89で選択したカメラから受信された映像データの現在フレームと、マイクロホンアレイ4から受信された音声データとを従来の方式によりMPEG2データとして符号化し、符号化されたデータを会議アーカイブデータベース60に格納する。
【0120】
図15は、会議アーカイブデータベース60におけるデータの格納状態を概略的に示す。図15に示す格納構造は概念上のものであり、格納される情報の連係を例示することにより理解を助けるために示されている。従って、この格納構造は会議アーカイブデータベース60を構成するメモリにデータが格納される厳密な状態を必ずしも表してはいない。
【0121】
図15を参照して説明すると、会議アーカイブデータベース60は水平軸200により表される情報を格納している。水平軸200上の各単位は所定の量の時間、例えば、カメラから受信される映像データの1つのフレームの時間周期を表す。(会議アーカイブデータベース60が一般に図15に示す数より多くの時間単位を含むことは言うまでもなく理解されるであろう。)ステップS90で生成されたMPEG2データは、時間情報(この時間情報は図15には水平軸200に沿ったMPEG2データ202の位置により概略的に表されている)と共に、データ202として会議アーカイブデータベース60に格納されている。
【0122】
再び図8に戻ると、ステップS92では、アーカイブプロセッサ58は、現在フレームについてステップS88で音声認識プロセッサ54により生成されたテキストデータを会議アーカイブデータベース60に格納する(図15には204で示されている)。すなわち、テキストデータは対応するMPEG2データとのリンクを保ちながら格納され、このリンクは図15には、テキストデータがMPEG2データと同じ縦列に格納されるものとして表されている。図からわかるように、話をしていない参加者からは格納すべきテキストデータは得られない。図15に示す例においては、テキストは参加者1に関しては初めの10個のタイムスロットに格納され(206で示す)、参加者3については12番目から20番目のタイムスロットに格納され(208で示す)、参加者4については21番目のタイムスロットに格納されている(210で示す)。この例では、参加者2は図15に示すタイムスロットの間には話をしていなかったので、参加者2についてはテキストは格納されていない。
【0123】
ステップS94では、アーカイブプロセッサ58は、ステップS80で参加者ごとに現在フレームについて生成された視線パラメータ値を会議アーカイブデータベース60に格納する(図15には212で示す)。図15を参照すると、視線パラメータ値は、参加者ごとに、関連するMPEG2データ202及び関連するテキストデータ204と共に格納されている(このリンクは、図15では、視線パラメータ値が関連するMPEG2データ202及び関連するテキストデータ204と同じ列にあることにより表されている)。すなわち、一例として図15の第1のタイムスロットを参照すると、参加者1の視線パラメータ値は、参加者1が参加者3を見ていることを示す3であり、参加者2の視線パラメータ値は、参加者2がフリップチャート14を見ていることを示す5であり、参加者3の視線パラメータ値は、参加者3が参加者1を見ていることを示す1であり、参加者4の視線パラメータ値は、参加者4がその他の参加者の誰も見ていないことを示す「0」である(図1に示す例では、12で指示される参加者はその他の参加者ではなく、自分のメモを見ている)。
【0124】
ステップS96では、中央制御装置36は及びアーカイブプロセッサ58は、会議の参加者の1人が話し終えたか否かを判定する。この実施形態においては、この検査は、所定の参加者についてテキストデータが直前のタイムスロットでは存在していたが、現在タイムスロットでは存在しないことを判定するためにテキストデータ204を検査することにより実行される。いずれかの参加者がこの条件を満たすのであれば(すなわち、参加者が話を止めていれば)、ステップS98で、アーカイブプロセッサ58は、話を止めた参加者のそれぞれについてステップS86を実行したときに先に格納されていた視線パラメータ値を処理して(これらの視線パラメータ値は、現時点では終了している話をしていた期間中にその参加者が誰を又は何を見ていたかを定義する)、視線ヒストグラムを定義するデータを生成する。すなわち、参加者が話をしていた期間における視線パラメータ値を処理して、話者である参加者がその他の参加者及び物体の各々を見ていた時間の割合(%)を定義するデータを生成する。
【0125】
図16A及び図16Bは、図15のテキスト206及び208にそれぞれ対応する期間に対応する視線ヒストグラムを示す。
【0126】
図15及び図16Aを参照して説明すると、参加者1が話していた期間206、参加者1は10個のタイムスロットのうち6個の間(すなわち、参加者1が話していた期間全体の長さの60%)は参加者3を見ており(図16Aには300で示されている)、10個のタイムスロットのうち4個の間(すなわち、時間全体の40%)は参加者4を見ていた(図16Aには310で示されている)。
【0127】
同様に、図15及び図16Bを参照すると、期間208の間、参加者3は時間の約45%については参加者1を見ており(図16Bには320で示されている)、時間の約33%については物体5(すなわち、フリップチャート14)を見ており(図16Bには330で示されている)、時間の約22%については参加者2を見ていた(図16Bには340で示されている)。
【0128】
再び図8に戻ると、ステップS100では、ステップS98で生成した各視線ヒストグラムをそれが生成されたテキスと関連する期間にリンクする会議アーカイブデータベース60に格納する。図15を参照すると、格納された視線ヒストグラムは214で示されており、テキスト期間206のヒストグラムを定義するデータは216で示されており、テキスト期間208のヒストグラムを定義するデータは218で示されている。図15において、視線ヒストグラムと関連するテキストとの間のリンクは、視線ヒストグラムがテキストデータと同じ列に格納されることにより表されている。
【0129】
これに対し、ステップS96で、現在時間周期については参加者の1人が話を止めていないことが判定された場合には、ステップS98及びS100を省略する。
【0130】
ステップS102では、アーカイブプロセッサ58は、映像データの直前のフレーム(すなわち、ステップS80からS100でデータが生成、格納されたばかりのフレームの直前のフレーム)及びそれ以前のフレームについて、必要に応じて、会議アーカイブデータベース60に格納されているデータを修正する。
【0131】
図17は、ステップS102でアーカイブプロセッサ58により実行される処理動作を示す。
【0132】
図17を参照すると、ステップS190では、アーカイブプロセッサ58は、1つ前のフレーム(初めてステップS190を実行する場合には、これは現在フレームの直前のフレームということになる。すなわち、現在フレームを「i」番目のフレームとすれば、「i−1」番目のフレーム)について、話者に「なりうる」参加者に関するデータが会議アーカイブデータベース60に格納されているか否かを判定する。
【0133】
ステップS190で、考慮すべき直前のフレームについて話者に「なりうる」参加者のデータが格納されていないと判定されれば、会議アーカイブデータベース60のデータを修正する必要はない。
【0134】
これに対し、ステップS190で、考慮すべき直前のフレームについて話者に「なりうる」参加者のデータが格納されていると判定された場合には、ステップS192で、アーカイブプロセッサ58は、直前のフレームについてデータが格納されていた話者に「なりうる」参加者の1人が現在フレームについて識別されている話者である参加者(話者に「なりうる」参加者ではない)、すなわち、図12のステップS146で識別された話者である参加者と同1人物であるか否かを判定する。
【0135】
ステップS192で、直前のフレームの話者に「なりうる」参加者がいずれも現在フレームについてステップS146で識別された話者である参加者と同じではないと判定されれば、考慮すべき直前のフレームについて会議アーカイブデータベース60に格納されているデータの修正を実行しない。
【0136】
これに対し、ステップS192で、直前のフレームの話者に「なりうる」参加者が現在フレームについてステップS146で識別された話者である参加者と同じであると判定された場合には、ステップS194で、アーカイブプロセッサ58は、現在フレームの話者である参加者と同じではない話者に「なりうる」参加者の各々について、考慮すべき直前のフレームに関わるテキストデータ204を会議アーカイブデータベース60から削除する。
【0137】
以上説明したステップS190、S192及びS194の処理を実行することにより、現在フレームの画像データ及び音声データの処理によってある話者が明確に識別された場合、現在フレームにおける話者は直前のフレームにおける話者と同1人物であると言う仮定を利用して、話者に「なりうる」参加者について格納されている直前のフレームのデータを更新する(すなわち、話者を曖昧でなく識別することが不可能であったためである)。
【0138】
ステップS194を実行した後、1つ前のフレームについてステップS190からS194を繰り返す。すなわち、現在フレームを「i」番目のフレームとすれば、初めてステップS190からS194を実行するときに「i−1」番目のフレームを考慮し、2度目にステップS190からS194を実行するときには「i−2」番目のフレームを考慮する。以下、同様である。ステップS190で、話者に「なりうる」参加者のデータが考慮すべき直前のフレームについては格納されていないと判定されるか、又はステップS192で、考慮すべき直前のフレームにおける話者に「なりうる」参加者のいずれも現在フレームについて明確に識別された話者である参加者と同じではないと判定されるまで、ステップS190からS194を繰り返し続ける。このようにして、いくつかの連続するフレームにわたって話者に「なりうる」参加者が識別された場合、話者に「なりうる」参加者の中の実際の話者である参加者が次のフレームで識別されれば、会議アーカイブデータベースに格納されているデータを修正する。
【0139】
再び図8に戻ると、ステップS104では、中央制御装置36は、カメラ2−1、2−2、2−3から映像データの別のフレームが受信されたか否かを判定する。カメラ2−1、2−2、2−3から画像データが受信されている間、ステップS80からS104を繰り返し実行する。
【0140】
会議アーカイブデータベース60にデータが格納されている場合、会議に関連するデータを検索するために、会議アーカイブデータベース60を問い合わせても良い。
【0141】
図18は、ユーザが指定する探索基準を満たす会議の各部分に関連するデータを検索する目的で会議アーカイブデータベース60を探索するために実行される処理動作を示す。
【0142】
図18を参照して説明すると、ステップS200では、中央制御装置36は表示プロセッサ64に、要求される会議アーカイブデータベース60の探索を定義する情報をユーザが入力することを要求するメッセージを表示装置26に表示させる。すなわち、この実施形態においては、中央制御装置36は図19Aに示すものを表示装置26に表示させることになる。
【0143】
図19Aを参照すると、ユーザは、会議アーカイブデータベース60中で見出すことを望む会議の1つ又は複数の部分を定義する情報を入力することを求められる。すなわち、この実施形態においては、ユーザは話をしていた参加者を定義する情報400と、情報400の中で識別される参加者が話した1つ又は複数のキーワードから成る情報410と、情報400の中で識別される参加者が話している間に見ていた参加者又は物体を定義する情報420とを入力することを求められる。更に、ユーザは、探索を実行すべき会議の部分を定義する時間情報を入力することができる。すなわち、ユーザは、探索を打ち切るべき会議中の時間(すなわち、指定時間の前の会議の期間を探索することになる)を定義する情報430と、その時間の後から探索を実行すべき会議中の時間を定義する情報440と、探索を実行すべき開始時間と終了時間をそれぞれ定義する情報450及び460とを入力できる。この実施形態では、情報430、440、450及び460は、例えば、分単位の絶対期限を指定するか、又は会議時間全体に占める割合を指示する小数値を入力するという方法により相対期限を指定することにより入力されれば良い。例えば、情報430として値0.25を入力すると、探索時間は会議の初めの四分の一に制限されることになるであろう。
【0144】
本実施形態では、ユーザは一回の探索で情報400、410及び420の全てを入力する必要はなく、これらの情報のうち1つ又は2つを省いても差し支えない。ユーザが情報400、410及び420の全てを入力すると、情報400の中で識別される参加者が情報420の中で識別される参加者又は物体に対して話をしていた会議中の各部分及び情報410の中で定義されるキーワードを話した各部分を識別するための探索が実行される。これに対し、情報410を省いた場合には、情報400の中で定義される参加者が何を話したかには関係なく、参加者が情報420の中で定義される参加者又は物体に対して話をしていた会議中の各部分を識別するための探索が実行される。情報410及び420を省いた場合には、何を誰に話したかには関係なく、情報400で定義される参加者が話していた会議の各部分を識別するための探索が実行される。情報400を省いた場合には、いずれかの参加者が情報420の中で定義される参加者又は物体を見ている間に情報410の中で定義されるキーワードを話した会議中の各部分を識別するための探索が実行される。情報400及び410を省いた場合には、いずれかの参加者が情報420の中で定義される参加者又は物体に対して話をした会議中の各部分を識別するための探索が実行される。情報420を省いた場合には、情報400の中で定義される参加者が誰にキーワードを話したかに関わらず情報410の中で定義されるキーワードを話した会議中の各部分を識別するための探索が実行される。同様に、情報400及び420を省いた場合には、誰が誰にキーワードを話したかに関わらず、情報410の中で識別されるキーワードが話された会議中の各部分を識別するための探索が実行される。
【0145】
更に、ユーザは時間情報430、440、450及び460の全てを入力しても良いし、これらの情報の1つ又は2つ以上を省いても良い。
【0146】
また、探索時に言葉の組み合わせ又はその言葉に代わる言葉を探索できるようにするために、情報410の中で入力されるキーワードと組み合わせて周知のブール演算子及び探索アルゴリズムを使用しても良い。
【0147】
ユーザが探索を定義するために要求される情報の全てを入力したならば、マウス30などのユーザ入力装置を使用して領域470をクリックすることにより探索を開始する。
【0148】
再び図18に戻ると、ステップS202では、ユーザにより入力された探索情報を中央制御装置36により読み取り、命令された探索を実行する。すなわち、この実施形態においては、中央制御装置36は、情報400又は420により入力された参加者又は物体の名前をテーブル80(図4)を使用して識別番号に変換し、情報400の中で定義されている参加者(情報400が入力されなかった場合には全ての参加者)についてテキスト情報204を考慮する。ユーザにより情報420が入力されていれば、テキストの期間ごとに、中央制御装置36は対応する視線ヒストグラムを定義するデータを検査して、情報420の中で定義されている参加者又は物体のヒストグラムにおける視線を受けている時間の割合がこの実施形態では25%である閾値以上であるか否かを判定する。このようにして、発言(テキスト)の各期間を考慮し、情報400の中で定義されている参加者がその発言の時間の少なくとも25%にわたり情報420の中で定義されている参加者又は物体を見ていたならば、話者である参加者が話している間に他の参加者又は物体を見ていたとしても、話者である参加者は情報420の中で定義されている参加者又は物体に向かって話していたという基準を満たすことになる。従って、例えば、2人以上の参加者が情報420の中で指定されていた場合には、それらの参加者について視線ヒストグラムの値が25%以上である話の期間が識別されることもあるだろう。ユーザにより情報410が入力されていれば、中央制御装置36及びテキストサーチャ62は、情報400及び420に基づいて先に識別されたテキストの各部分(情報400及び420が入力されなかった場合にはテキストの全ての部分)を探索して、情報410の中で識別されているキーワードを含む部分を識別する。ユーザにより時間情報が入力されていれば、上記の探索はそれらの時間情報の制限により定義される会議時間に限られる。
【0149】
ステップS204では、中央制御装置36は表示プロセッサ64に、探索中に識別された関連する発言のリストを表示装置26を介してユーザに対し表示させる。すなわち、中央制御装置36は図19Bに示すような情報をユーザに対し表示させる。図19Bを参照すると、探索パラメータを満足させる発言についてリストが作成されており、その発言の開始時間を絶対期間として定義すると共に、会議時間全体に占める割合としても定義する情報が表示される。そこで、ユーザは、例えば、マウス30を使用してリストの必要な発言の場所をクリックすることにより、再生のために発言の1つを選択することができる。
【0150】
ステップS206では、中央制御装置36はステップS204でユーザにより行われた選択を読み取り、会議の関連部分の格納されているMPEG2データ202を会議アーカイブデータベース60から再生する。すなわち、中央制御装置36及び表示プロセッサ64はMPEG2データ202を復号し、表示装置26を介して画像データと音声データを出力する。発言の一部又は全体について、再生すべきデータとして2台以上のカメラからの画像データが格納されている場合には、そのことを表示装置26を介してユーザに指示する。そこで、ユーザは、例えば、キーボード28を使用して中央制御装置36に命令を入力することにより、再生すべき画像データを選択することができる。
【0151】
ステップS208では、中央制御装置36は、ユーザが会議アーカイブデータベース60の問い合わせを中止することを望むか否かを判定し、望まないのであれば、ステップS200からS208を繰り返す。
【0152】
以上説明した本発明の実施形態については、様々な変形や変更を行うことができる。
【0153】
例えば、上記の実施形態では、マイクロホンアレイ4は、受信した音声がどの方向から来たかを判定するために、会議室のテーブルの上に置かれていた。しかし、その代わりに、会議中の参加者ごとに対応する1台のマイクロホンを設けても良い(参加者の衣服に装着するマイクロホンなど)。このようにすると、参加者の音声データがそれぞれ対応するチャネルを介して処理装置24に入力されるので、話者である参加者を容易に識別できる。
【0154】
上記の実施形態では、ステップS34(図3)及びステップS70(図7)において、会議中の各参加者の頭部を追跡していた。しかし、それに加えて、ステップS4及びS26でデータを格納した物体が移動する物体(例えば、参加者が回覧すると思われるメモ、又は参加者の間で手渡されるべき物体)である場合には、そのような物体を追跡することも可能であろう。
【0155】
上記の実施形態では、ステップS168(図13)において、話者である参加者を最も良く視野に捉えているカメラと、話者である参加者の視線の先にいる参加者又は視線の先にある物体とを識別するための処理を実行していた。しかし、カメラを先の実施形態で説明した方法により識別するのではなく、ユーザが処理装置24の初期設定中に、会議テーブルを囲む2つずつの着席位置を最も良く視野に捉えるのはカメラ2−1、2−2、2−3のうちどのカメラであるか及び/又はそれぞれの着席位置と所定の物体(フリップチャート14など)を最も良く視野に捉えるのはどのカメラであるかを定義することが可能である。このようにして、話者である参加者と、話者である参加者の視線の先にいる参加者とがあらかじめ定義された着席位置にいることが判定された場合、ユーザがそれらのあらかじめ定義された着席位置を最も良く捉えると定義したカメラを画像データを格納すべきカメラとして選択することができる。同様に、話者である参加者があらかじめ定義された位置にあり且つある物体を見ている場合、ユーザがそのあらかじめ定義された着席位置と物体を最も良く捉えると定義したカメラを画像データを格納すべきカメラとして選択することができる。
【0156】
上記の実施形態では、ステップS162(図13)において、直前のフレームについて画像データが格納されたカメラをデフォルトカメラとして選択していた。しかし、その代わりに、例えば、処理装置24の初期設定中にユーザがデフォルトカメラを選択しても良い。
【0157】
上記の実施形態では、ステップS194(図17)において、その時点で実際には話者である参加者ではないと識別されている話者に「なりうる」参加者について、会議アーカイブデータベース60からテキストデータ204を削除していた。しかし、これに加えて、関連する視線ヒストグラムデータ214をも削除して良い。更に、2台以上のカメラ2−1、2−2、2−3からのMPEG2データ202を格納していた場合、その話者に「なりうる」参加者に関連するMPEG2データも削除して良い。
【0158】
上記の実施形態では、話者である参加者を唯一の話者として識別できない場合、話者に「なりうる」参加者を定義し、話者になりうる参加者のデータを処理して、会議アーカイブデータベース60に格納し、その後、会議アーカイブデータベース60に格納されたデータを修正していた(図8のステップS102)。しかし、話者に「なりうる」参加者のデータを処理し、格納するのではなく、カメラ2−1、2−2及び2−3から受信した映像データと、マイクロホンアレイ4から受信した音声データとを格納しておき、後に、後続フレームに関連するデータから話者である参加者が識別された時点でデータを処理し、アーカイブしても良い。あるいは、ステップS114(図12)の処理を実行した結果、音声が来ている方向に2人以上の参加者がいると指示された場合に、カメラ2−1、2−2及び2−3からの画像データを処理して、参加者の唇の動きを検出し、音声が来る方向にいて、唇が動いている参加者を話者である参加者として選択しても良い。
【0159】
上記の実施形態では、各人物の頭部の位置と、各人物の頭部の向きと、人物ごとの、その人物が誰を又は何を見ているかを定義する視線パラメータとを判定するための処理を実行していた。その後、人物ごとの視線パラメータ値を画像データのフレームごとに会議アーカイブデータベース60に格納する。しかし、全ての人物について視線パラメータを判定する必要はない。例えば、話者である参加者に限って視線パラメータを判定し、画像データのフレームごとにこの視線パラメータ値のみを会議アーカイブデータベース60に格納することが可能である。従って、この場合には、話者である参加者の頭部の向きを判定することだけが必要になるであろう。このようにすれば、処理及び格納に課される負担を軽減することができる。
【0160】
上記の実施形態では、ステップS202(図18)において、テキストの特定の部分について視線ヒストグラムを考慮し、視線ヒストグラムにおいて別の参加者又は物体を見ている時間が占める割合が所定の閾値以上である場合に、参加者はその別の参加者又は物体に対して話していたと判定していた。しかし、閾値を使用する代わりに、テキスト(発言)の期間中に話者である参加者が見ていた参加者又は物体を視線ヒストグラムの中で最も大きな割合の注目値を有する参加者又は物体(例えば、図16Aでは参加者3、図16Bでは参加者1)であると定義しても良い。
【0161】
上記の実施形態では、カメラ2−1、2−2、2−3及びマイクロホンアレイ4からデータが受信されている間、リアルタイムでMPEG2データ202と、テキストデータ204と、視線パラメータ212と、視線ヒストグラム214を会議アーカイブデータベース60に格納していた。しかし、その代わりに、映像データと音声データを格納し、リアルタイムではなくデータ202、204、212及び214を生成して、会議アーカイブデータベース60に格納しても良い。
【0162】
上記の実施形態では、会議の定義された部分に関わるデータを検索するために会議アーカイブデータベース60が問い合わされる前に、MPEG2データ202、テキストデータ204、視線パラメータ212及び視線ヒストグラム214を生成し、会議アーカイブデータベース60に格納していた。しかし、ユーザの要求の前に視線ヒストグラムデータ214を生成、格納しておくのではなく、ユーザにより要求される会議アーカイブデータベース60の探索に応答して、既に会議アーカイブデータベース60に格納されているデータを処理することにより、視線ヒストグラムデータ214の一部又は全てを生成しても良い。例えば、上記の実施形態では視線ヒストグラム214はステップS98及びS100(図8)でリアルタイムで計算、格納されていたが、ユーザにより入力される探索要求に応答してそれらのヒストグラムを計算することも可能であろう。
【0163】
上記の実施形態では、テキストデータ204を会議アーカイブデータベース60に格納していた。テキストデータ204の代わりに、音声データを会議アーカイブデータベース60に格納しても良い。その後、格納されている音声データを音声認識処理を利用してキーワードを求めて探索しても良いし、あるいは音声認識処理を使用して音声データをテキストに変換し、従来のテキストサーチャを使用してテキストサーチを実行しても良い。
【0164】
上記の実施形態では、処理装置24はアーカイブすべきデータを受信し、生成するための機能構成要素(例えば、中央制御装置36、頭部追跡装置50、頭部モデル記憶装置52、方向プロセッサ53、音声認識プロセッサ54、音声認識パラメータ記憶装置56及びアーカイブプロセッサ58)と、アーカイブデータを格納するための機能構成要素(例えば、会議アーカイブデータベース60)と、データベースを探索し、そこから情報を検索するための機能構成要素(例えば、中央制御装置36及びテキストサーチャ62)とを含む。しかし、これらの機能構成要素を別個の装置に設けても良い。例えば、アーカイブすべきデータを生成するための1つ又は複数の装置と、データベース探索のための1つ又は複数の装置をインターネットなどのネットワークを介して1つ又は複数のデータベースに接続しても良い。
【0165】
また、図20を参照して説明すると、1箇所又は2箇所以上で行われている会議500、510、520からの映像データと音声データをデータ処理・データベース格納装置530(アーカイブデータを生成、格納するための機能構成要素を具備する)に入力し、1つ又は複数のデータベース問い合わせ装置540、550をデータ処理・データベース格納装置530に接続して、データベースを問い合わせ、そこから情報を検索するようにしても良い。
【0166】
上記の実施形態では、プログラミング命令により定義される処理ルーチンを使用してコンピュータにより処理を実行していた。しかし、処理の一部又は全てをハードウェアを使用して実行することも可能であろう。
【0167】
数人の参加者の間で行われる会議に関して上記の実施形態を説明したが、本発明はこの用途には限定されず、フィルムセットなどの画像データ及び音声データを処理するなどの他の用途にも適用できる。
【0168】
上記の変形例の異なる組み合わせも言うまでもなく可能であり、本発明の趣旨から逸脱せずに他にも変更や変形を実施することは可能である。
【図面の簡単な説明】
【図1】複数の参加者の間の会議から得られた音声データ及び映像データの記録を示す図である。
【図2】一実施形態における処理装置内の概念上の機能構成要素の一例を示すブロック線図である。
【図3A】参加者間の図1に示す会議が始まる前に図2の処理装置24により実行される処理動作を示す図である。
【図3B】参加者間の図1に示す会議が始まる前に図2の処理装置24により実行される処理動作を示す図である。
【図3C】参加者間の図1に示す会議が始まる前に図2の処理装置24により実行される処理動作を示す図である。
【図4】図3のステップS2及びステップS4で会議アーカイブデータベース60に格納されるデータを概略的に示す図である。
【図5】図3のステップS34及び図7のステップS70で実行される処理動作を示す図である。
【図6】図5のステップS42−1、S42−2及びS42−nの各々で実行される処理動作を示す図である。
【図7】参加者間の会議が行われている間に図2の処理装置24により実行される処理動作を示す図である。
【図8A】図7のステップS72で実行される処理動作を示す図である。
【図8B】図7のステップS72で実行される処理動作を示す図である。
【図9A】図8のステップS80で実行される処理動作を示す図である。
【図9B】図8のステップS80で実行される処理動作を示す図である。
【図10】図9のステップS114及びステップS124で実行される処理において使用される参加者の視線を示す図である。
【図11】図9のステップS114で実行される処理で計算される角度を示す図である。
【図12】図8のステップS84で実行される処理動作を示す図である。
【図13】図8のステップS89で実行される処理動作を示す図である。
【図14】図13のステップS168で実行される処理動作を示す図である。
【図15】会議アーカイブデータベース60への情報の格納を概略的に示す図である。
【図16A】会議アーカイブデータベース60に格納されているデータにより定義される視線ヒストグラムの例を示す図である。
【図16B】会議アーカイブデータベース60に格納されているデータにより定義される視線ヒストグラムの例を示す図である。
【図17】図8のステップS102で実行される処理動作を示す図である。
【図18】会議アーカイブデータベース60から情報を検索するために処理装置24により実行される処理動作を示す図である。
【図19A】図18のステップS200でユーザに対し表示される情報を示す図である。
【図19B】図18のステップS204でユーザに対し表示される情報の一例を示す図である。
【図20】1つのデータベースで複数の会議からの情報を格納し、1つ又は複数の遠隔装置からそのデータベースを問い合わせる実施形態を概略的に示す図である。
Claims (18)
- 複数のカメラからの画像データを受信する受信手段と、
話者を判定する話者識別手段と、
前記話者の視線の先の人物を判定する人物判定手段と、
前記話者の位置と、前記話者の視線の先の人物の位置とを判定する位置判定手段と、
前記話者の位置と、前記話者の視線の先の人物の位置に基づいて、前記受信した画像データから画像データを選択する選択手段と
を具備することを特徴とする画像処理装置。 - 選択手段は、前記話者と前記話者の視線の先の人物の双方が存在する画像データを選択することを特徴とする請求項1記載の画像処理装置。
- 前記話者と前記話者の視線の先の人物の正面が撮影されている場合、前記話者と前記話者の視線の先の人物の背面が撮影されている場合よりも高くなる画質値を、前記複数のカメラからの画像データのそれぞれから算出する算出手段を有し、
前記話者と前記話者の視線の先の人物の双方が存在する画像データを複数のカメラから受信した場合、選択手段は、前記算出された画質値が高い画像データを選択することを特徴とする請求項1又は2記載の画像処理装置。 - 前記算出手段は、前記話者の頭部の位置及び向きと、前記話者の視線の先の人物の頭部の位置及び向きとに基づいて画質値を算出することを特徴とする請求項3記載の画像処理装置。
- 前記位置判定手段は、少なくとも一台のカメラからの画像データを用いて前記話者の位置と、前記話者の視線の先の人物の位置を判定することを特徴とする請求項1記載の画像処理装置。
- 前記話者判定手段は、複数のマイクロホンによる音声データの受信状況に基づいて、話者を判定することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
- マイクロホンにより受信された音声データからテキストデータを生成する生成手段と、
前記受信した画像データ、受信した音声データ、及び生成されたテキストデータの少なくとも一部を関連付けたデータベースとを具備することを特徴とする請求項1乃至6のうちいずれか1項に記載の画像処理装置。 - 前記データベースは、前記話者が発言した期間ごとに、前記画像データ内の人物のそれぞれについて、前記話者の視線の先にいると判定された時間の割合の情報を含み、
前記話者の視線の先の人物を特定する情報が入力された場合、前記入力により特定された人物の前記割合が閾値以上の期間に対応する画像データ及び、音声データを再生させる再生制御手段を具備することを特徴とする請求項7に記載の画像処理装置。 - 複数のカメラからの画像データを受信する受信手段と、
話者を判定する話者識別手段と、
前記話者の視線の先の物体を判定する物体判定手段と、
前記話者の位置と、前記話者の視線の先の物体の位置とを判定する位置判定手段と、
前記判定された話者の位置と、前記話者の視線の先の物体の位置に基づいて、前記受信した画像データから画像データを選択する選択手段とを具備することを特徴とする画像処理装置。 - 複数のカメラからの画像データを受信する画像処理装置が行う画像処理方法であって、
話者を判定する話者識別ステップと、
前記話者の視線の先の人物を判定する人物判定ステップと、
前記話者の位置と、前記話者の視線の先の人物の位置とを判定する位置判定ステップと、
前記話者の位置と、前記話者の視線の先の人物の位置に基づいて、前記受信した画像データを選択する選択ステップとを備えることを特徴とする画像処理方法。 - 選択ステップでは、前記話者と前記話者の視線の先の人物の双方が存在する画像データを選択することを特徴とする請求項10記載の画像処理方法。
- 前記話者と前記話者の視線の先の人物の正面が撮影されている場合、前記話者と前記話者の視線の先の人物の背面が撮影されている場合よりも高くなる画質値を、前記複数のカメラからの画像データのそれぞれから算出する算出ステップを備え、
前記話者と前記話者の視線の先の人物の双方が存在する画像データを複数のカメラから受信した場合、選択ステップでは、前記算出された画質値が高い画像データを選択することを特徴とする請求項10又は11記載の画像処理方法。 - 前記算出ステップでは、前記話者の頭部の位置及び向きと、前記話者の視線の先の人物の頭部の位置及び向きとに基づいて各画質値を算出することを特徴とする請求項12記載の画像処理方法。
- 前記位置判定ステップでは、少なくとも一台のカメラからの画像データを用いて前記話者の位置と、前記話者の視線の先の人物の位置を判定することを特徴とする請求項10記載の画像処理方法。
- 前記話者判定ステップでは、複数のマイクロホンによる音声データの受信状況に基づいて、話者を判定することを特徴とする請求項10乃至14のいずれか1項に記載の画像処理方法。
- マイクロホンにより受信された音声データからテキストデータを生成するテキスト生成ステップと、
前記受信した画像データ、受信した音声データ、及び生成されたテキストデータの少なくとも一部を関連付けたデータベースを生成するデータベース生成ステップを具備することを特徴とする請求項10乃至15のうちいずれか1項に記載の画像処理方法。 - 前記データベースは、前記話者が発言した期間ごとに、前記画像データ内の人物のそれぞれについて、前記話者の視線の先にいると判定された時間の割合の情報を含み、
前記話者の視線の先の人物を特定する情報が入力された場合、前記入力により特定された人物の前記割合が閾値以上の期間に対応する画像データ及び、音声データを再生させる再生制御ステップを具備することを特徴とする請求項16記載の画像処理方法。 - 画像処理装置が行う画像処理方法であって、
複数のカメラからの画像データを受信する受信ステップと、
話者を判定する話者識別ステップと、
前記話者の視線の先の物体を判定する物体判定ステップと、
前記話者の位置と、前記話者の視線の先の物体の位置とを判定する位置判定ステップと、
前記判定された話者の位置と、前記話者の視線の先の物体の位置に基づいて、前記受信した画像データから画像データを選択する選択ステップとを備えることを特徴とする画像処理方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GBGB9908545.8A GB9908545D0 (en) | 1999-04-14 | 1999-04-14 | Image processing apparatus |
GB9908545.8 | 1999-04-14 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2000350192A JP2000350192A (ja) | 2000-12-15 |
JP2000350192A5 JP2000350192A5 (ja) | 2007-05-17 |
JP4697907B2 true JP4697907B2 (ja) | 2011-06-08 |
Family
ID=10851529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000086806A Expired - Fee Related JP4697907B2 (ja) | 1999-04-14 | 2000-03-27 | 画像処理装置及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US7113201B1 (ja) |
EP (1) | EP1045586B1 (ja) |
JP (1) | JP4697907B2 (ja) |
DE (1) | DE60030027D1 (ja) |
GB (1) | GB9908545D0 (ja) |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7050177B2 (en) | 2002-05-22 | 2006-05-23 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
US6690618B2 (en) | 2001-04-03 | 2004-02-10 | Canesta, Inc. | Method and apparatus for approximating a source position of a sound-causing event for determining an input used in operating an electronic device |
US7006236B2 (en) | 2002-05-22 | 2006-02-28 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
JP3992909B2 (ja) * | 2000-07-03 | 2007-10-17 | 富士フイルム株式会社 | 本人画像提供システム |
GB0030918D0 (en) * | 2000-12-19 | 2001-01-31 | Hewlett Packard Co | Activation of voice-controlled apparatus |
US6876775B2 (en) | 2001-02-16 | 2005-04-05 | Canesta, Inc. | Technique for removing blurring from a captured image |
WO2003021939A1 (en) | 2001-09-05 | 2003-03-13 | Canesta Inc. | Electromagnetic wave detection arrangement with improved performance and reproducibility |
US10242255B2 (en) | 2002-02-15 | 2019-03-26 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
WO2003071410A2 (en) | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US7379978B2 (en) * | 2002-07-19 | 2008-05-27 | Fiserv Incorporated | Electronic item management and archival system and method of operating the same |
US7428000B2 (en) * | 2003-06-26 | 2008-09-23 | Microsoft Corp. | System and method for distributed meetings |
GB2404297B (en) * | 2003-07-24 | 2007-12-05 | Hewlett Packard Development Co | Editing multiple camera outputs |
JP2005086365A (ja) | 2003-09-05 | 2005-03-31 | Sony Corp | 通話装置、会議装置および撮像条件調整方法 |
JP2005122128A (ja) * | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | 音声認識システム及びプログラム |
US20050228673A1 (en) * | 2004-03-30 | 2005-10-13 | Nefian Ara V | Techniques for separating and evaluating audio and video source data |
JP2006197115A (ja) * | 2005-01-12 | 2006-07-27 | Fuji Photo Film Co Ltd | 撮像装置及び画像出力装置 |
US8009871B2 (en) | 2005-02-08 | 2011-08-30 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
US8094193B2 (en) * | 2005-10-12 | 2012-01-10 | New Vad, Llc | Presentation video control system |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
DE602006007322D1 (de) * | 2006-04-25 | 2009-07-30 | Harman Becker Automotive Sys | Fahrzeugkommunikationssystem |
US10410676B2 (en) | 2006-11-27 | 2019-09-10 | Kbport Llc | Portable tablet computer based multiple sensor mount having sensor input integration with real time user controlled commenting and flagging and method of using same |
WO2008067295A2 (en) * | 2006-11-27 | 2008-06-05 | Kb Port, Llc | Method and apparatus for integrated recording and playback of video audio data inputs |
US8074581B2 (en) | 2007-10-12 | 2011-12-13 | Steelcase Inc. | Conference table assembly |
US8537196B2 (en) * | 2008-10-06 | 2013-09-17 | Microsoft Corporation | Multi-device capture and spatial browsing of conferences |
US20140361954A1 (en) | 2013-06-07 | 2014-12-11 | Lewis Epstein | Personal control apparatus and method for sharing information in a collaboration workspace |
US10631632B2 (en) | 2008-10-13 | 2020-04-28 | Steelcase Inc. | Egalitarian control apparatus and method for sharing information in a collaborative workspace |
WO2010071928A1 (en) * | 2008-12-22 | 2010-07-01 | Seeing Machines Limited | Automatic calibration of a gaze direction algorithm from user behaviour |
CN101442654B (zh) * | 2008-12-26 | 2012-05-23 | 华为终端有限公司 | 视频通信中视频对象切换的方法、装置及系统 |
US10884607B1 (en) | 2009-05-29 | 2021-01-05 | Steelcase Inc. | Personal control apparatus and method for sharing information in a collaborative workspace |
US8676581B2 (en) * | 2010-01-22 | 2014-03-18 | Microsoft Corporation | Speech recognition analysis via identification information |
US8265341B2 (en) * | 2010-01-25 | 2012-09-11 | Microsoft Corporation | Voice-body identity correlation |
DE102010035834A1 (de) * | 2010-08-30 | 2012-03-01 | Vodafone Holding Gmbh | Bilderfassungssystem und Verfahren zum Erfassen eines Objekts |
US8630854B2 (en) * | 2010-08-31 | 2014-01-14 | Fujitsu Limited | System and method for generating videoconference transcriptions |
US8791977B2 (en) | 2010-10-05 | 2014-07-29 | Fujitsu Limited | Method and system for presenting metadata during a videoconference |
US8705812B2 (en) | 2011-06-10 | 2014-04-22 | Amazon Technologies, Inc. | Enhanced face recognition in video |
DE102012105784A1 (de) * | 2012-06-29 | 2014-01-02 | Vahit Tas | Videokonferenzsystem und Videokonferenzverfahren |
WO2014096908A1 (en) * | 2012-12-21 | 2014-06-26 | Nokia Corporation | Spatial audio apparatus |
US9661041B2 (en) * | 2013-06-28 | 2017-05-23 | Linkedin Corporation | Virtual conference manager |
US9113036B2 (en) | 2013-07-17 | 2015-08-18 | Ebay Inc. | Methods, systems, and apparatus for providing video communications |
JP2015152316A (ja) * | 2014-02-10 | 2015-08-24 | 株式会社小野測器 | 音源可視化装置 |
JP6415932B2 (ja) * | 2014-11-05 | 2018-10-31 | 日本電信電話株式会社 | 推定装置、推定方法、およびプログラム |
JP6528574B2 (ja) | 2015-07-14 | 2019-06-12 | 株式会社リコー | 情報処理装置、情報処理方法、および情報処理プログラム |
JP2017028375A (ja) | 2015-07-16 | 2017-02-02 | 株式会社リコー | 映像処理装置、及びプログラム |
JP2017028633A (ja) | 2015-07-27 | 2017-02-02 | 株式会社リコー | 映像配信端末、プログラム、及び、映像配信方法 |
US9621795B1 (en) | 2016-01-08 | 2017-04-11 | Microsoft Technology Licensing, Llc | Active speaker location detection |
US10264213B1 (en) | 2016-12-15 | 2019-04-16 | Steelcase Inc. | Content amplification system and method |
JP2019121105A (ja) * | 2017-12-28 | 2019-07-22 | 富士ゼロックス株式会社 | 制御装置、及び制御プログラム |
US10951859B2 (en) | 2018-05-30 | 2021-03-16 | Microsoft Technology Licensing, Llc | Videoconferencing device and method |
KR102184649B1 (ko) * | 2019-12-05 | 2020-11-30 | (주)힐링사운드 | 치과 치료용 소리 제어 시스템 및 방법 |
JP6860178B1 (ja) * | 2019-12-27 | 2021-04-14 | Necプラットフォームズ株式会社 | 映像処理装置及び映像処理方法 |
US11295543B2 (en) | 2020-03-31 | 2022-04-05 | International Business Machines Corporation | Object detection in an image |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3392392A (en) | 1967-06-05 | 1968-07-09 | Motorola Inc | Bearing measurement system using statistical signal processing by analog techniques |
US3601530A (en) | 1969-04-29 | 1971-08-24 | Bell Telephone Labor Inc | Video conference system using voice-switched cameras |
US4333170A (en) | 1977-11-21 | 1982-06-01 | Northrop Corporation | Acoustical detection and tracking system |
GB2140558B (en) | 1982-12-22 | 1986-09-17 | Mcmichael Ltd | Acoustic direction finding systems |
JPH0771279B2 (ja) | 1988-08-17 | 1995-07-31 | 富士通株式会社 | テレビ会議用画像処理装置 |
US5231674A (en) | 1989-06-09 | 1993-07-27 | Lc Technologies, Inc. | Eye tracking method and apparatus |
US5206721A (en) * | 1990-03-08 | 1993-04-27 | Fujitsu Limited | Television conference system |
JPH04297196A (ja) * | 1991-03-26 | 1992-10-21 | Toshiba Corp | 被写体撮像装置 |
JPH04301976A (ja) * | 1991-03-28 | 1992-10-26 | Kyocera Corp | テレビ会議システム |
US5347306A (en) | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
JP3631266B2 (ja) | 1994-05-13 | 2005-03-23 | 株式会社応用計測研究所 | 移動物体の計測装置 |
US5508734A (en) | 1994-07-27 | 1996-04-16 | International Business Machines Corporation | Method and apparatus for hemispheric imaging which emphasizes peripheral content |
US5500671A (en) | 1994-10-25 | 1996-03-19 | At&T Corp. | Video conference system and method of providing parallax correction and a sense of presence |
JP3272906B2 (ja) * | 1995-05-29 | 2002-04-08 | シャープ株式会社 | 視線方向検出方法及び装置及びそれを含むマンマシンインターフェース装置 |
DE19528425C1 (de) | 1995-08-02 | 1996-05-15 | Siemens Ag | Anordnung und Verfahren zur automatischen Auswahl zweier Kamerasignale aus einer Vielzahl von Kamerasignale durch Bestimmung der Kopfposition eines Betrachters |
JPH10145763A (ja) * | 1996-11-15 | 1998-05-29 | Mitsubishi Electric Corp | 会議システム |
US5995936A (en) | 1997-02-04 | 1999-11-30 | Brais; Louis | Report generation system and method for capturing prose, audio, and video by voice command and automatically linking sound and image to formatted text locations |
CA2310114A1 (en) * | 1998-02-02 | 1999-08-02 | Steve Mann | Wearable camera system with viewfinder means |
US6593956B1 (en) | 1998-05-15 | 2003-07-15 | Polycom, Inc. | Locating an audio source |
GB2342802B (en) | 1998-10-14 | 2003-04-16 | Picturetel Corp | Method and apparatus for indexing conference content |
-
1999
- 1999-04-14 GB GBGB9908545.8A patent/GB9908545D0/en not_active Ceased
-
2000
- 2000-03-22 US US09/533,398 patent/US7113201B1/en not_active Expired - Fee Related
- 2000-03-24 DE DE60030027T patent/DE60030027D1/de not_active Expired - Lifetime
- 2000-03-24 EP EP00302422A patent/EP1045586B1/en not_active Expired - Lifetime
- 2000-03-27 JP JP2000086806A patent/JP4697907B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP1045586A2 (en) | 2000-10-18 |
JP2000350192A (ja) | 2000-12-15 |
EP1045586B1 (en) | 2006-08-16 |
EP1045586A3 (en) | 2002-08-07 |
GB9908545D0 (en) | 1999-06-09 |
US7113201B1 (en) | 2006-09-26 |
DE60030027D1 (de) | 2006-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4697907B2 (ja) | 画像処理装置及び方法 | |
JP4474013B2 (ja) | 情報処理装置 | |
US10621991B2 (en) | Joint neural network for speaker recognition | |
EP3855731B1 (en) | Context based target framing in a teleconferencing environment | |
US7139767B1 (en) | Image processing apparatus and database | |
US9949056B2 (en) | Method and apparatus for presenting to a user of a wearable apparatus additional information related to an audio scene | |
KR101732613B1 (ko) | 비디오 화상회의 동안 참가자의 외모 수정 | |
Müller et al. | Robust eye contact detection in natural multi-person interactions using gaze and speaking behaviour | |
CN102799262B (zh) | 用于确定输入语音的相关性的装置和方法 | |
JP2019531538A (ja) | ワードフロー注釈 | |
JP2004515982A (ja) | テレビ会議及び他の適用においてイベントを予測する方法及び装置 | |
CN108596107A (zh) | 基于ar设备的唇语识别方法及其装置、ar设备 | |
JP2017076202A (ja) | 反応出力システム、反応出力プログラム、反応出力方法 | |
WO2011027475A1 (ja) | テレビ会議装置 | |
JP2017064853A (ja) | ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラム | |
GB2351628A (en) | Image and sound processing apparatus | |
JP6908906B1 (ja) | 自動スイッチング装置、自動スイッチング方法及びプログラム | |
Pingali et al. | Audio-visual tracking for natural interactivity | |
CN104780341B (zh) | 一种信息处理方法以及信息处理装置 | |
Yu et al. | Towards smart meeting: Enabling technologies and a real-world application | |
JP2004248125A (ja) | 映像切り替え装置、映像切り替え方法、この方法のプログラムおよびこのプログラムを記録した記録媒体 | |
Madrigal et al. | Audio-Video detection of the active speaker in meetings | |
GB2351627A (en) | Image processing apparatus | |
CN110730378A (zh) | 一种信息处理方法及系统 | |
Takemae et al. | Automatic video editing system using stereo-based head tracking for multiparty conversation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070327 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070327 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20070327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080812 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100426 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110228 |
|
LAPS | Cancellation because of no payment of annual fees |