図1は実施例1に係る会議記録装置の構成例を示すブロック図である。図1に示すように、会議記録装置1は撮影装置2、照明装置3および音響収録装置4から構成される。撮影装置2、照明装置3および音響収録装置4は、複数設けられている。
各撮影装置2は、各撮影装置の撮影領域情報、各照明装置の照明領域情報、各音響収録装置の音響領域情報を参照し、各撮影装置が撮影対象を協調して撮影するように各撮影装置の撮影領域を表現する撮影領域情報を生成し、各撮影領域情報を用いて撮影領域を制御する。また各照明装置3は、各撮影装置の撮影領域情報、各照明装置の照明領域情報、各音響収録装置の音響領域情報を参照し、各照明装置が撮影対象を協調して照明するように各照明装置の照明領域を表現する照明領域情報を生成し、各照明領域情報を用いて照明領域を制御する。また各音響収録装置4は、各撮影装置の撮影領域情報、各照明装置の照明領域情報、各音響収録装置の音響領域情報を参照し、各音響収録装置が協調して音響情報を収録するように各音響収録装置の音響収録領域を表現する音響収録領域情報を生成し、各音響収録領域情報を用いて音響収録領域を制御する。これにより空間的または、時間的な排他制御が可能となる。次に撮影装置2、照明装置3および音響収録装置4について説明する。
図2は、撮影装置2の構成例を示すブロック図である。撮影装置2は、制御部5、撮影部6、視聴覚データ記録部7、表示部8、通信部9、撮影領域情報入力部10、生成部11、撮影領域情報記憶部12、通信部13、14および15、参加者情報入力部16、参加者情報記憶部17、駆動部18、什器情報入力部19、什器情報記憶部20、環境情報入力部21、環境情報記憶部22およびデータ処理部23から構成される。これらは、撮影装置2の内部のネットワーク、回線または回路等を介して相互に接続される。なお、他の撮影装置も同様の構成であるため説明は省略する。
撮影装置2は、撮影装置の撮影領域情報、各照明装置の照明領域情報、各音響収録装置の音響領域情報を参照し、各撮影装置が撮影対象を協調して撮影するように撮影領域を表現する撮影領域情報を生成し、この撮影領域情報を用いて撮影領域を制御する。制御部5は、撮影装置2全体を制御する。制御部5は、CPU(Central Processing Unit)およびメモリー等から構成される。撮影部6は、会議を撮影し、撮影した視聴覚データを記憶部7に出力する。撮影部6は、ビデオ・カメラ等から構成される。以下では視聴覚データは動画データを含むものとする。記憶部7は、撮影部6から入力された視聴覚データを記録する。記録部7に記録された視聴覚データは、制御部5の制御に応じて、表示部8、通信部9またはデータ処理部23に出力される。記憶部7は、例えばメモリーから構成される。なお、以下他の記憶部も同様にメモリーから構成される。表示部8は、記録部7から入力された視聴覚データを利用者に表示する。表示部8は、例えばディスプレイから構成される。
通信部9は、記録部7から入力された視聴覚データを制御部5の制御に応じて外部機器に伝送する。通信部13は、例えばLANアダプター等から構成される。なお、通信部13を構成するLANアダプターは、有線または無線の通信機器を用いて構成することができる。以下他の通信部も同様にLANアダプター等から構成される。
撮影領域情報入力部10は、撮影装置2に固有な撮影領域を表現する光軸ないし立体角等の撮影領域情報を入力するためのものである。撮影領域情報入力部10は、例えばキーボード、グラフィカル・ユーザー・インターフェース等から構成される。なお、以下において入力部は、同様に例えばキーボード、グラフィカル・ユーザー・インターフェース等から構成される。撮影領域情報入力部10を介して初期の撮影領域情報を入力してもよい。生成部11は、撮影領域情報入力部10から入力された撮影領域情報を処理し、処理の結果、更新した撮影領域情報を記憶部12に格納する。この生成部11は、例えばCPUおよびメモリー等から構成される。記憶部12は、撮影領域情報を記憶し、制御部5の制御に応じて、撮影領域情報を通信部13に出力する。
通信部13は、撮影領域情報を他の撮影装置2、照明装置3または音響収録装置4に送信する。通信部13は、他の撮影装置2から送信された撮影領域情報を受信し、生成部11に出力する。通信部14は、照明装置3から送信された照明領域情報を受信し、生成部11に出力する。通信部15は、音響収録装置から送信された照明領域情報を受信し、生成部11に出力する。参加者情報入力部16は、会議参加者の位置、会議参加者の姿勢、会議参加者の頭部の位置および方向、会議参加者の可視聴範囲、会議参加者の可動範囲等会議参加者の関連情報を会議参加者関連情報として入力するものである。これにより参加者の状態を考慮した制御が可能となる。
記憶部17は、参加者情報入力部16から入力された会議参加者関連情報を記憶する。記憶部17に記憶された会議参加者関連情報は、制御部5の制御に応じて、生成部11に出力される。
什器情報入力部19は、会議参加者に共有されるテーブルもしくはホワイトボードまたは会議参加者によって使用される椅子等什器の位置、向き、大きさ、形状、色ないし領域等の什器情報を入力するものである。これらの情報を用いることで、会議室内の什器を考慮した制御が可能となる。記憶部20は、什器情報を記憶する。記憶部20に記憶された什器情報は、制御部5の制御に応じて、生成部11に出力される。環境情報入力部21は、会議が開催される場所の大きさ、形状、色、可視光等の電磁波ないし音波の反射率、什器のアフォーダンスに関する情報等の会議環境情報を入力するものである。記憶部22は、環境情報入力部21から入力された会議環境情報を記憶するものである。記憶部22に記憶された会議環境情報は、制御部5の制御に応じて、生成部11に出力される。
データ処理部23は、記憶部7から入力された聴覚データを処理する。視聴覚データの処理結果は、制御部5の制御に応じて生成部11に出力される。データ処理部23は、CPUおよびメモリー等から構成される。
生成部11は、記憶部12から入力された撮影領域情報、通信部13から入力された他の撮影装置の撮影領域情報、通信部14から入力された照明装置3の照明領域情報、通信部15から入力された音響収録装置4の音響収録領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報、記憶部22から入力された会議環境情報、データ処理部23から入力された視聴覚データ処理結果等に基づいて、各撮影装置2が撮影対象を協調して撮影するように新たな撮影領域情報を生成し、この撮影領域情報を記憶部12に格納する。
駆動部18は、ビデオ・カメラのパン、チルト、ズームを行うモーター等および撮影装置2を移動させるためのモーター等から構成される。この駆動部18は、ビデオ・カメラのパン、チルト、ズーム制御および撮影装置2の移動を行うことで、撮影装置の撮影領域を変更する。したがって制御部5は、記憶部12に記憶された撮影領域情報を用いて駆動部18を介して撮影部6の撮影領域を制御する。各撮影装置2が、撮影対象を協調して撮影するように制御されているので、冗長性の少ない複数の映像を得ることができる。
次に照明装置3について説明する。図3は、照明装置3の構成例を示すブロック図である。照明装置3は、制御部24、照明部25、照明領域情報入力部26、生成部27、照明領域情報記憶部28、通信部29、30および31、駆動部32、データ処理部33、参加者情報入力部16、参加者情報記憶部17、什器情報入力部19、什器情報記憶部20、環境情報入力部21および環境情報記憶部22から構成される。これらは、照明装置3の内部のネットワーク、回線または回路等を介して相互に接続されている。なお各照明装置3は、同様の構成であるため他の照明装置3についての説明は省略する。照明装置3は、各撮影装置の撮影領域情報、各照明装置の照明領域情報、各音響収録装置の音響領域情報を参照し、各照明装置が撮影対象を協調して照明するように各照明装置の照明領域を表現する照明領域情報を生成し、この照明領域情報を用いて照明領域を制御する。制御部24は、照明装置3全体を制御するものである。制御部24は、CPUおよびメモリー等から構成される。照明部25は、ランプないし蛍光灯および反射板等から構成され、会議室中の会議参加者や什器等を照明する。
照明領域情報入力部26は、当該照明装置3に対応する固有の照明領域を表現する立体角等の照明領域情報を入力するものである。この照明領域情報入力部26を介して初期の照明領域情報を入力してもよい。生成部27は、照明領域情報入力部26から入力された照明領域情報を処理して、記憶部28に格納する。記憶部28は、生成部27から入力された照明領域情報を記憶する。通信部29は、記憶部28から入力された照明領域情報を他の照明装置3、撮影装置2または、音響収録装置4に送信する。
通信部29は、他の照明装置3から送信された照明領域情報を受信し、生成部27に出力する。通信部30は、撮影装置2から送信された撮影領域情報を受信し、生成部27に出力する。通信部31は、音響収録装置4から送信された照明領域情報を受信し、生成部27に出力する。
参加者情報入力部16は、会議参加者の位置、会議参加者の姿勢、会議参加者の頭部の位置および方向、会議参加者の可視聴範囲、会議参加者の可動範囲等会議参加者の関連情報を会議参加者関連情報として入力するものである。これにより参加者の状態を考慮した制御が可能となる。記憶部17は、入力された会議参加者関連情報を記憶する。記憶部17に記憶された会議参加者関連情報は、制御部24の制御に応じて、生成部27に出力される。
什器情報入力部19は、会議参加者に共有されるテーブルもしくはホワイトボードまたは会議参加者によって使用される椅子等什器の位置、向き、大きさ、形状、色ないし領域等の什器情報を入力するものである。これにより什器を考慮した制御が可能となる。記憶部20は、什器情報入力部19から入力された什器情報を記憶する。什器情報は、制御部24の制御に応じて什器情報を生成部27に出力する。
環境情報入力部21は、会議が開催される場所の大きさ、形状、色、可視光等の電磁波ないし音波の反射率、什器のアフォーダンスに関する情報等の会議環境情報を入力するものである。これにより会議環境を考慮した制御が可能となる。記憶部22は、環境情報入力部21から入力された会議環境情報を記憶する。この会議環境情報は、制御部24の制御に応じて、生成部27に出力される。データ処理部33は、照明に関するデータを処理し、処理結果を制御部24の制御に応じて、生成部27に出力する。
生成部27は、記憶部28から入力された照明領域情報、通信部29から入力された他の照明装置3の照明領域情報、通信部30から入力さらた撮影装置2の撮影領域情報、通信部31から入力された音響収録装置4の音響収録領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報、記憶部22から入力された会議環境情報、またはデータ処理部33から入力された照明データ処理結果等に基づいて、各撮影装置2が撮影対象を協調して照明するように照明領域情報を生成し、この照明領域情報を記憶部28に格納する。
駆動部32は、ライトないし蛍光灯のパン、チルトを行うモーター等および照明装置3を移動させるためのモーター等から構成される。駆動部32は、ライトないし蛍光灯のパン、チルト制御および照明装置3の移動を行い、照明装置3の照明領域を制御する。したがって制御部24は、記憶部28に記憶された照明領域情報を用いて駆動部32を介して照明部25の撮影領域を制御する。各照明装置3が、撮影対象を協調して照明するように制御されているので、冗長性の少ない複数の照明が可能となる。
次に音響収録装置4について説明する。図4は、音響収録装置4の構成例を示すブロック図である。音響収録装置4は、制御部34、音響収録部35、視聴覚データ記録部36、提示部37、通信部38、音響収録領域入力部39、生成部40、音響収録領域情報記憶部41、通信部42、43および44、駆動部45、データ処理部46、参加者情報入力部16、参加者情報記憶部17、什器情報入力部19、什器情報記憶部20、環境情報入力部21および環境情報記憶部22から構成される。これらは、音響収録装置4の内部のネットワーク、回線または回路等を介して相互に接続されている。なお他の音響収録装置4も同様の構成であるため説明を省略する。
各音響収録装置4は、各撮影装置の撮影領域情報、各照明装置の照明領域情報、各音響収録装置の音響領域情報を参照し、各音響収録装置が協調して音響情報を収録するように各音響収録装置の音響収録領域を表現する音響収録領域情報を生成し、この音響収録領域情報を用いて音響収録領域を制御する。制御部34は、音響収録装置4全体を制御する。この制御部34は、CPUおよびメモリー等から構成される。音響収録部35は、会議参加者により発話される音響、会議の場で発生する音等の視聴覚データを収録する。視聴覚データは、音響データを含む。音響収録部35は、マイク、アンプ、音響データのモニター用のスピーカーないしヘッドホン等から構成される。
記録部36は、音響収録部35から入力された視聴覚データを記憶する。記録部36に記録された視聴覚データは、制御部34の制御に応じて、提示部37、通信部38およびデータ処理部46に出力される。提示部37は、記録部36から入力した視聴覚データを利用者に提示する。提示部37は、スピーカー等から構成される。通信部38は、制御部34の制御に応じて、記録部36から入力された視聴覚データを外部機器に伝送する。
音響収録領域入力部39は、音響収録装置4に固有な音響収録領域を表現する立体角等の音響収録領域情報を入力する。この音響収録領域入力部39を介して初期の音響収録領域情報を入力する。生成部40は、音響収録領域入力部39から入力された音響収録領域情報を処理し、処理した音響収録領域情報を記憶部41に出力する。生成部40は、CPUおよびメモリー等から構成される。記憶部41は、生成部40から入力された音響収録領域情報を記憶するものである。記憶部41に記憶された音響収録領域情報は、制御部34の制御に応じて通信部42に出力される。
通信部42は、記憶部41から入力された音響収録領域情報を撮影装置2、照明装置3または、他の音響収録装置4に送信する。また通信部42は、他の音響収録装置4から送信された音響収録領域情報を受信し、生成部40に出力する。通信部43は、撮影装置2から送信された撮影領域情報を受信し、生成部40に出力する。通信部44は、照明装置3から送信された照明領域情報を受信し、生成部40に出力する。
参加者情報入力部16は、会議参加者の位置、会議参加者の姿勢、会議参加者の頭部の位置および方向、会議参加者の可視聴範囲、会議参加者の可動範囲等会議参加者の関連情報を会議参加者関連情報として入力するものである。これにより参加者の状態を考慮した制御が可能となる。記憶部17は、参加者情報入力部16から入力された会議参加者関連情報を記憶する。記憶部17に記録された会議参加者関連情報は、制御部34の制御に応じて、生成部40に出力する。
什器情報入力部19は、会議参加者に共有されるテーブル、ホワイトボードまたは会議参加者によって使用される椅子等什器の位置、向き、大きさ、形状、色または領域等の什器情報を入力するものである。これにより什器を考慮した制御が可能となる。記憶部20は、什器情報入力部19から入力された什器情報を記憶する。記憶部20に記憶された什器情報は、制御部34の制御に応じて生成部40に出力される。
環境情報入力部21は、会議が開催される場所の大きさ、形状、色、可視光等の電磁波ないし音波の反射率、什器のアフォーダンスに関する情報等の会議環境情報を入力するものである。これにより会議室の環境を考慮した制御が可能となる。記憶部22は、環境情報入力部21から入力された会議環境情報を記憶する。記憶部22に記憶された会議環境情報は、制御部34の制御に応じて、生成部40に出力される。データ処理部46は、記録部36から入力された視聴覚データを処理し、制御部34の制御に応じて、視聴覚データの処理結果を生成部40に出力する。
また生成部40は、記憶部41から入力された音響収録領域情報、通信部42から入力された他の音響収録装置4の音響収録領域情報、通信部43から入力された撮影装置2の撮影領域情報、通信部44から入力された照明装置3の照明領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報、記憶部22から入力された会議環境情報、またはデータ処理部46から入力された視聴覚データ処理結果等に基づいて、各音響収録装置4が協調して音響情報を収録するように音響収録領域情報を生成し、この音響収録領域情報を記憶部41に格納する。
駆動部45は、マイクの方向や角度の制御を行うモーター等および音響収録装置4を移動させるためのモーター等から構成される。駆動部45は、マイクの位置および角度制御および音響収録部4の移動を行うことで、音響収録部4の音響収録範囲を変更する。したがって制御部34は、記憶部41に記憶された音響収録領域情報を用いて駆動部45を介して音響収録部35の音響収録領域を制御する。各音響収録装置4が、協調して音響情報を収録するように制御されるので、冗長性の少ない複数の視聴覚データないし音響データあるいは音声データの収録が可能となる。
次に撮影領域情報を表現するデータについて説明する。図5は、撮影領域情報に関するパラメータ説明する図である。図5において、撮影装置2は、三次元空間上の点Pの位置に配置されているものとする。また撮影装置2の撮影方向上の点Qと点Pとを結ぶ直線PQとXY平面上の点Pと交差するXY平面に対する法線(直線PZ)とのなす角度をTとする。また撮影対象は、点Qに位置するものとする。点QをXY平面上に射影した点を点Uとする。直線PUとX軸とのなす角度をVとする。点Pを中心とした単位球と直線PQの交点を含む円錐を考え、当該円錐に関連する立体角をWと表現するものとする。また直線PQ間の距離をRで表現するものとする。
撮影領域情報は、上記の点Pの座標(X,Y,Z)、法線となす角度T、直線PUとX軸とのなす角度V、立体角W、対象までの距離Rおよび撮影装置2ないしカメラの仕様並びに各パラメータを特定した時刻tで表現することができる。ここで、直線PUとX軸とのなす角度Vを便宜的に方位角と呼ぶことにする。なお、照明領域および音響収録領域についても撮影領域情報を同様に表現されるので説明を省略する。
図6は、撮影領域情報記憶部12で保持される撮影領域情報を表現する撮影領域情報テーブル47を示す図である。この撮影領域情報テーブル47は、記憶部12に格納されている。撮影領域情報テーブル47は、生成部11により書き換えられる。撮影領域情報テーブル47は、撮影装置識別子47a、座標47b、法線とのなす角度47c、方位角47d、 立体角47e、距離47f、カメラ仕様47gおよび時刻47hを含む。
図6に示すように、第1の撮影装置において、撮影装置識別子47aは「CAM0」、座標47b「(0,0,0)」、法線とのなす角度47cは「T=45°」、方位角47dは「V=10°」、 立体角47e「W=1」、距離47f「R=1」、カメラ仕様47g「パン・チルト・ズーム可能カメラA」および時刻47h「1」を含む。
また第2の撮影装置において、撮影装置識別子47aは「CAM1」、座標47b「(0,1,0)」、法線とのなす角度47cは「T=60°」、方位角47dは「V=2°」、 立体角47e「W=2」、距離47f「R=2」、カメラ仕様47g「パン・チルト・ズーム可能カメラB」および時刻47h「2」を含む。また、第3の撮影装置において、撮影装置識別子47aは「CAM2」、座標47b「(1,1,0)」、法線とのなす角度47cは「T=70°」、方位角47dは「V=3°」、 立体角47e「W=3」、距離47f「R=2」、カメラ仕様47g「パン・チルト・ズーム可能カメラC」および時刻47h「3」を含む。
次に照明領域情報を表現するデータについて説明する。照明領域情報は撮影領域情報と同様に、照明装置3の座標(X’,Y’,Z’)、法線となす角度T’、方位角V’、立体角W’、距離R’および照明装置3ないしライトの仕様 並びに各パラメータを特定した時刻t’で表現することができる。
図7は、照明領域情報記憶部28に記憶される照明領域情報を表現する照明領域情報テーブル48を示す図である。この照明領域情報テーブル48は、記憶部28に格納されている。この照明領域情報テーブル48は、生成部27により書き換えられる。照明領域情報テーブル48は、照明装置識別子48a、座標48b、法線とのなす角度48c、方位角48d、立体角48e、距離48f、ライト仕様48gおよび時刻48hを含む。
図7に示すように、第1の照明装置は、照明装置識別子48a「LIGHT0」、座標48b「(0,0,1)」、法線とのなす角度48c「T’=45°」、方位角48d「V’=11°」、立体角48e「W’=1」、距離48f「R’=1」、ライト仕様48g「照明A」および時刻48h「4」を含む。また第2の照明装置は、照明装置識別子48a「LIGHT1」、座標48b「(0,1,1)」、法線とのなす角度48c「T’=60°」、方位角48d「V’=3°」、立体角48e「W’=2」、距離48f「R’=2」、ライト仕様48g「照明B」および時刻48h「5」を含む。
次に音響収録領域情報を表現するデータについて説明する。音響収録領域情報は、撮影領域情報と同様に、音響収録装置4の座標(X’’, Y’’,Z’’)、法線となす角度T’’、方位角V’’、立体角W’’、距離R’’および音響収録装置4ないしマイクの仕様並びに各パラメータを特定した時刻t’’で表現することができる。図8は、記憶部41で保持される音響収録領域情報を表現する音響収録領域情報テーブル49を示す図である。
音響収録領域情報テーブル49は、記憶部41に格納されている。音響収録領域情報テーブル49は、生成部40により書き換えられる。音響収録領域情報テーブル49は、音響収録装置識別子49a、座標49b、法線とのなす角度49c、方位角49d、立体角49e、距離49f、マイク仕様49gおよび時刻49hで構成される。図8に示すように、第1の音響収録装置は、音響収録装置識別子49a「MIC0」、座標49b「(0,0,0)」、法線とのなす角度49c「T’’=45°」、方位角49d「V’’=1°」、立体角49e「W’’=1」、距離49f「R’’=1」、マイク仕様49g「マイクA」および時刻49h「6」を含む。また第2の音響収録装置は、音響収録装置識別子49a「MIC1」、座標49b「(0,0,1)」、法線とのなす角度49c「T’’=60°」、方位角49d「V’’=3°」、立体角49e「W’’=2」、距離49f「R’’=2」、マイク仕様49g「マイクB」および時刻49h「7」を含む。
ここで、法線とのなす角度49c、方位角49d、立体角49e等は、従来技術の音源位置定位方法を利用することによって特定することができる。例えば音源位置定位方法の一つとして中島らの”音圧差情報負荷による音源定位システムの性能改善”,電子情報通信学会論文誌VOL.J87-D-II No.3, 2004,pp.919-922を利用することができる。上記生成部11、27および40は、各撮影装置2の位置情報(座標47b)、照明装置3の位置情報(座標48b)または音響収録装置4の位置情報(座標48b)を用いて、撮影領域情報、照明領域情報または音響収録領域情報を生成する。
次に、撮影装置2における撮影手続きについて説明する。図9は、撮影装置2における撮影手続きを示すフローチャートである。図9に示すように、撮影手続きは撮影装置初期化ステップS1、視聴覚データ取得ステップS2、撮影領域情報生成・更新ステップS3、撮影領域情報伝送ステップS4および撮影装置駆動ステップS5を含む。ステップS1で、撮影装置2の制御部5は、撮影装置2の各部を初期化する。ステップS2で、撮影部6は、会議を撮影し、撮影した動画データないし視聴覚データを記憶部7に出力する。一方、記憶部7は、制御部5の制御に応じて、視聴覚データを表示部8、視聴覚データ通信部9または視聴覚データ処理部23に出力する。
ステップS3で、生成部11は、記憶部12から入力された更新前の撮影領域情報、通信部13から入力された他の照明装置の撮影領域情報、通信部14から入力された照明装置の照明領域情報、通信部15から入力された音響収録装置の音響収録領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報、記憶部22から入力された会議環境情報、または視聴覚データ処理部23から入力された視聴覚データ処理結果等に基づいて、各撮影装置2が撮影対象を協調して撮影するように新たな撮影領域情報を生成する。
生成部11は、生成した撮影領域情報を記憶部12に格納する。これにより図6に示した撮影領域情報テーブル47の内容が更新される。さらに記憶部12は、制御部5の制御に応じて保持した撮影領域情報を通信部13に出力する。なお、各撮影装置2で撮影した視聴覚データから人の特徴量に基づいて人が存在する領域を抽出し、当該抽出された領域情報から撮影領域情報を生成するようにしてもよい。また照明装置3または音響収録装置4でも、上記人が存在する領域を用いて、照明領域情報または音響収録領域情報を生成するようにしてもよい。
この人の特徴量に基づいて人が存在する領域を抽出する方法として、従来技術である井出らの”ニュース映像における人物の分離による背景の場面推定”,電子情報通信学会論文誌D-II Vol. J84-D-II No.8 pp.1856-1863 2001年8月,に記載されている「顔領域を基準として人物領域を決定するテンプレート」等を応用することができる。つまり、撮影対象を人物であるとした場合、当該顔領域を基準として人物領域を決定するテンプレート等を用いて人物領域を特定することにより、人物領域に対応する立体角Wを特定することができる。生成部11は、撮影装置2の撮影部6で撮影した視聴覚データを基に立体角Wを特定し、記憶部12内の撮影領域情報テーブル47に格納する。
また法線とのなす角Tや方位角Vなどはカメラなどの撮影部6から特定することができる。また対象となる人物までの距離Rは従来のステレオ視によるいわゆる距離画像などを用いて特定することができる。ステレオ視による距離画像の取得方法としては佐川らの”複数視点からの距離画像を用いた高速表面再構築法-ロボット用実時間時空間再構成の研究(その5)-”,第17回日本ロボット学会学術講演会(1999年9月)などを用いることができる。生成部11は、法線とのなす角Tや方位角Vなどはカメラなどの撮影部6から特定し、記憶部12内の撮影領域情報テーブル47に格納する。
次に、撮影領域情報生成部11の手続きについて補足説明する。生成部11は、各撮影装置2が会議記録として必要十分な視聴覚データないし映像データを記録可能なように自己の撮影装置2の初期の(もしくは前回ないし過去の)撮影領域情報および他の撮影装置2の撮影領域情報等に基づいて、新たな撮影領域情報を生成する。撮影領域情報の演算方法として、各撮影装置2の撮影領域が可能な限り重ならないように、すなわち全体の視聴覚データに内容的な冗長性が小さくなるように撮影領域情報を生成する。
また撮影領域情報の演算方法として、各撮影装置2の撮影領域において、前述の方法によって特定した人物領域が最大となるように撮影領域情報を演算処理するとよい。そこで、撮影領域情報の演算方法を決定するための評価関数として、冗長性を表現する関数の逆数と各撮影装置2における人物領域を表現する関数とで構成される評価関数を定義する。生成部11は、当該評価関数を用いて、当該評価関数が最大となるように撮影領域情報を演算する。
例えば時刻tにおける撮影装置2相互の撮影領域の重なりをOverlapBtwnCamAndCam(t)として冗長性を表現するものとすると、その逆数は1/OperlapBtwnCamAndCam(t)となる。また撮影装置2を番号付けし、その指標ないし番号をiとし、時刻tにおけるi番目の撮影装置2の画面の全画素数をPixelsOfCamera(t, i)で表現し、時刻tにおけるi番目の撮影装置2に撮影されている人物領域をPixelsOfFigure(t, i)で表現したとすると、時刻tにおける撮影装置2における人物領域の有効度を表現する関数をPixelsOfFigure(t, i)/PixelsOfCamera(t, i)の総和として定義することができる。そこで、撮影領域情報の演算方法を決定するための評価関数Ecamera(t)を式1のように定義することができる。
ここで、式1中のa、bおよびwは係数であり、imaxは撮影装置2の総数である。また生成部11は、通信部14から入力された照明領域情報、通信部15から入力された音響収録領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報および記憶部22から入力された会議環境情報を利用して別の評価関数を定義ないし、その結果に基づいて撮影領域情報を変更することもできる。
例えば通信部14から入力した照明領域情報に基づいて、時刻tにおけるi番目の撮影装置2の撮影領域とj番目の照明装置3の照明領域の相互の重なりを表現するOverlapBtwnCamAndLight(t, i, j)を定義することができる。同様に、通信部15から入力された音響収録領域情報に基づいて、時刻tにおけるi番目の撮影装置2の撮影領域とk番目の音響収録装置4の音響収録領域の相互の重なりを表現するOverlapBtwnCamAndMic(t, i, k)を定義することができる。
前述の撮影領域に関する評価関数Ecamera(t)およびこれらのOverlapBtwnCamAndLight(t, i, j)およびOverlapBtwnCamAndMic(t, i, k)を用いて式2のように撮影領域に関する第二の評価関数Ecamera2(t)を定義することができる。
ここで、式2中のcおよびdは係数であり、jはj番目の照明装置3を表現する指標であり、jmaxは照明装置3の総数を表現する。またkはk番目の音響収録装置4を表現する指標であり、kmaxは音響収録装置4の総数を表現する。また記憶部17から入力された会議参加者関連情報の内容に基づいて式1中の係数wを制御することができる。
例えば、いわゆるRFID(Radio Frequency Identification)や人事情報データベース等を用いて会議参加者の役職など会議における会議参加者の重要度が特定できた場合、その会議参加者の重要度に応じて、係数wを制御することができる。具体的には、取締役社長の場合にwを100とし、技術執行役員の場合にwを90とし、部門長の場合にwを80などと指定することができる。人事情報データベースに社員番号が識別子として入力されており、社員番号ごとに役職が記録されているとし、さらにRFIDが社員番号を記録し、そのデータを送受信する場合、RFIDを持つ社員が会議に参加し、RFIDのデータ受信によって社員番号が特定され、そのデータを受信した時刻tが特定できる。
一方、撮影装置2は、会議室の場所、あるいはRFIDのデータ受信の電波強度あるいは撮影装置2が撮影した画像の顔認識処理と人事情報データベースの参照等から特定できる。特定された社員番号から係る人事データベースの検索によって会議参加者の役職を特定することができる。この特定された役職に基づいて会議参加者に対応する係数wを特定することができる。さらに、生成部11は、記憶部20から入力した什器情報および記憶部22から入力された会議環境情報を利用して撮影領域を演算するための評価関数を定義することができる。
記憶部20から入力された什器情報に基づいて、時刻tにおけるi番目の撮影装置2の撮影領域とm番目の什器の什器領域の相互の重なりを表現するOverlapBtwnCamAndFur1(t, i, m)を定義することができる。また記憶部20から入力された什器情報に基づいて、時刻tにおけるi番目の撮影装置2の撮影領域とn番目の什器の什器領域の相互の重なりを表現するOverlapBtwnCamAndFur2(t, i, n)を定義することができる。
また記憶部22から入力された会議環境情報に基づいて、時刻tにおけるi番目の撮影装置2の撮影領域と会議環境情報から導出されたo番目の注目領域の相互の重なりを表現するOverlapBtwnCamAndAttention(t, i, o)を定義することができる。前述の撮影領域に関する第二の評価関数Ecamera2(t)および当該OverlapBtwnCamAndFur1(t, i, m)、OverlapBtwnCamAndFur2(t, i, n)およびOverlapBtwnCamAndAttention(t, i, o)を用いて式3のように撮影領域に関する第三の評価関数Ecamera3(t)を定義することができる。
ここで、e、fおよびgは係数であり、mはm番目のテーブル等の什器を表現する指標であり、nはn番目の椅子等の什器を表現する指標であり、oはo番目の注目領域を表現する指標であり、mmaxはテーブル等の什器の総数であり、nmaxは椅子等の什器の総数であり、omaxはホワイトボードやプロジェクターのスクリーンなどの注目すべき領域(注目領域と称する)の総数である。ここで、テーブル等の什器の表面は視聴覚データないし映像データとして記録したい場合が予想され、撮影領域に関する第三の評価関数Ecamera3(t)の一部がOverlapBtwnCamAndFur1(t,i,m)として表現されている。
一方、椅子等の什器は、視聴覚データないし映像データとして記録したくない場合が予想され、撮影領域に関する第三の評価関数Ecamera3(t)の一部がOverlapBtwnCamAndFur2(t,i,m)の逆数として表現されている。
また、生成部11は、会議参加者相互の見詰め合いまたは会議参加者のホワイトボードへの凝視を撮影可能とするように撮影領域情報を生成する。なお、従来技術を応用することによって、会議参加者相互の見詰め合いまたは会議参加者のホワイトボードへの凝視の特定することができる。例えば、三宅らの”顔の向きに依存しない特徴量を用いた注視判定方法”、電子情報通信学会論文誌VOL.J86-D-II,No.12,DECEMBER.2003,pp1737-1744では顔面の定められた位置に左右一対のマークを貼付して、画像処理を行うことによって黒目変位量を計測し、その計測結果に基づき注視しているか否かを判定することができる。
この技術を応用し、ホワイトボードもしくは会議参加者に対する凝視を判定することができると考えられる。三宅らの提案する方法では「左右一対のマークを貼付する」必要があるが、本発明ではそれらのマークの代わりに、画像処理によって左右の「目頭」を特定することによって、その左右の目頭の中点を利用して黒目変位量を計測し、その黒目変位量に基づいて凝視方向を特定することを提案する。具体的には、三宅らの論文で明らかなように従来技術で、目頭を含む二値化した画像を取得することは容易である。
また左右の目を含む(外接する)長方形を特定することも可能である。これらのことを前提にすると左右の目を含む長方形の領域を特定した後に、それらの左右の目に対応する二つの長方形の互いの長方形の近い辺から目の領域ないし画素を探索することによって目頭に対応する部分(画素)を特定することが可能である。そこで、左右の目頭の領域が特定されると左右の目頭の中点を特定することができる。これ以後の処理は三宅らの方法と同様にして、黒目変位量を計測することができる。左右目頭間の中点と計測された黒目変位量に基づいて対象となる会議参加者の注視方向ないし凝視方向を特定することができる。特定の時間単位、例えば一秒毎に注視方向を特定し、その方向が変化しているか否かを判定することによって、注視ないし凝視しているか否かを判定することが可能である。
さらに、撮影装置2の位置などの撮影領域情報と前述の会議参加者の注視方向から新たな撮影領域情報を生成することができる。つまり、現時点で、撮影領域として会議参加者が特定されていると仮定した場合、撮影領域情報には、撮影装置2の位置(X, Y, Z)、法線とのなす角度T、方位角V、立体角Wおよび会議参加者との距離Rが特定されており、さらに前述の方法によって会議参加者の注視方向が特定されるので、会議室が壁などで囲まれていて、会議参加者がホワイトボードなどを注視しているとき、会議参加者が注視している新たな撮影領域を特定することができる。
また大野らの”ヒューマンインタフェースとしての視線測定技術とその応用”, 計測自動制御学会 システムインテグレーション部門講演会(SI2002), p.117-118.を応用することによって視線を計測することができる。これらの計測した視線の結果と従来の顔認識技術を用いて会議参加者同士の「見詰め合い」や「凝視」を特定することができる。
具体的には、図10に示すようにある時刻tにおいて会議参加者の顔領域Face(t)に、注視点AttentionPoint(t)が含まれるか否かを判定し、見詰め合いを特定することができる。図10は見詰め合いにおける顔領域と注視点を示す図である。例えばある会議において参加者Aと参加者Bが参加している場合、見詰め合い条件1として、会議参加者Aの顔領域Face_A(t)に、会議参加者Bの注視点AttionPoint_B(t)が含まれ、かつ、見詰め合い条件2として、会議参加者Bの顔領域Face_B(t)に、会議参加者Aの注視点AttentionPoint_A(t)が含まれていて、かつ、ある所要時間の閾値以上に見詰め合い条件1および見詰め合い条件3が成立するとき、参加者Aおよび参加者Bは見詰め合っていると特定することができる。
ここで参加者Bの代わりに注目すべき領域(注目領域)を定義し、その注目領域内に参加者Aの注視点が同様に含まれるか否かを判定することによって凝視を特定することができる。さらに視線計測技術および顔認識技術に加えて、音声認識技術を利用することによって会議参加者が「議論」している時間帯を特定することができる。具体的には、無音区間が所定の既定時間以内であり、かつ、発話者が交代されている時間帯を議論と定義することができる。議論部分以外の発話区間を「独り言」と定義することができる。なお、これらの処理は、視聴覚データ処理部23、生成部11により行われる。
図9に戻り、ステップS4で、駆動部18は、制御部5の制御に応じて、ビデオ・カメラのパン、チルト、ズーム制御および撮影部6の移動を行う。これにより撮影部6の撮影領域が制御できる。ステップS5で、通信部13は、記憶部12から入力された撮影領域情報を他の撮影装置2の通信部13に送信する。また通信部13は、他の撮影装置2の通信部13から送信された撮影領域情報を受信し、生成部11に出力する。生成部11は、次の時点の撮影領域情報を生成し、記憶部12に格納する。
次に、照明装置3における照明手続きについて説明する。図11は、照明装置3における照明手続きを示すフローチャートである。図11に示すように、照明手続きは、照明装置初期化ステップS11、照明データ取得ステップS12、照明領域情報生成・更新ステップS13、照明領域情報伝送ステップS14および照明装置駆動ステップS15を含む。
ステップS11で、制御部24は、照明装置3の各部を初期化する。ステップS12で、照明データ処理部33は、照明に関するデータを処理し、処理した照明データの処理結果を生成部27に出力する。ステップS13で、生成部27は、記憶部28から入力された照明領域情報、通信部29から入力された照明領域情報、報通信部30から入力された撮影領域情報、通信部31から入力された音響収録領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報、記憶部22から入力された会議環境情報、照明データ処理部33から入力された照明データ処理結果等に基づいて、各照明装置が撮影対象を協調して照明するように新たな照明領域情報を生成する。
生成部27は、生成した照明領域情報を記憶部28に格納する。これにより、図7で示した照明領域情報テーブル48が書き換えられる。制御部24の制御に応じて記憶部28に記憶された照明領域情報は、通信部29に出力される。なお、生成部27は、撮影装置2から撮影された視聴覚データから人の特徴量に基づいて人が撮影されている領域を抽出し、当該抽出された領域情報から照明領域情報を生成するようにしてもよい。係る人の特徴量に基づいて人が撮影されている領域を抽出する方法として、前述と同様に、従来技術である井出らの”ニュース映像における人物の分離による背景の場面推定”,電子情報通信学会論文誌D-II Vol. J84-D-II No.8 pp.1856-1863 2001年8月,に記載されている「顔領域を基準として人物領域を決定するテンプレート」等を応用することができる。
次に照明領域情報生成部27の手続きについて補足説明する。生成部27は、各照明装置3が会議記録として必要十分な視聴覚データないし映像データを記録可能なように自己の照明装置3の初期の(もしくは前回ないし過去の)照明領域情報および他の照明装置3の照明領域情報等に基づいて、新たな照明領域情報を生成する。照明領域情報の演算方法として、各照明装置3の照明領域が可能な限り重ならないように、すなわち全体の視聴覚データにおける照明としての内容的な冗長性が小さくなるように照明領域情報を演算処理するように設定できる。
また照明領域情報の演算方法として、各照明装置3の照明領域において、前述の方法によって特定した人物領域が最大となるように照明領域情報を演算処理するように設定することができる。そこで、照明領域情報の演算方法を決定するための評価関数として、冗長性を表現する関数の逆数と各照明装置3における人物領域を表現する関数とで構成される評価関数を定義することができる。生成部27は、当該評価関数を用いて、当該評価関数が最大となるように照明領域情報を演算する。
ここで、照明領域は、次のように定義する。まず、照明領域を定義すべき照明装置3を暗室の三次元空間上の原点に配置し、その暗室の空間を単位距離、例えば、1センチメートルを一辺とする立方体で仮想的に分割し、その分割された立方体の頂点に位置する点に照度計ないし輝度計を配置し、照度もしくは輝度を計測するものとする。照度計としては、テックジャム社製ディジタル照度計EL-1000など一般的な照度計を用いることができる。一方、輝度計としては、テプコン社製分光放射計SR-3など一般的な輝度計を用いることができる。また輝度計から計測される輝度の代替として、ビデオ・カメラ等で撮影した画像の平均輝度を輝度値として用いることもできる。
次に照度ないし輝度の閾値を定義する。続いて、その照度の閾値ないし輝度の閾値に一致する領域を上記のように計測した照度または輝度に対応させることによって照明領域を定義する。例えば、時刻tにおける照明装置3相互の照明領域の重なりをOverlapBtwnLightAndLight(t)として冗長性を表現するものとすると、その逆数は、1/OperlapBtwnLightAndLight(t)となる。
また照明装置3を番号付けし、その指標ないし番号をjとし、時刻tにおけるj番目の照明装置3に対応する照明領域をSpaceOfLight(t, j)で表現し、時刻tにおけるi番目の撮影装置2に撮影されている人物領域をSpaceOfFigure(t, i)で表現したとすると、時刻tにおける照明装置3における人物領域に対する照明の有効度を表現する関数をSpaceOfLight(t, j)∩SpaceOfFigure(t, i)の総和として定義することができる。ここで、∩は空間的な重なりを意味するものとする。そこで、照明領域情報の演算方法を決定するための評価関数Elight(t)を式4のように定義することができる。
ここで、式4中のa’、b’およびw’は係数であり、jmaxは照明装置3の総数である。
また生成部27は、通信部30から入力された撮影領域情報、通信部31から入力された音響収録領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報および記憶部22から入力された会議環境情報を利用して別の評価関数を定義し、その結果に基づいて照明領域情報を変更することもできる。例えば、通信部30から入力した撮影領域情報に基づいて、時刻tにおけるj番目の照明装置3の照明領域とi番目の撮影装置2の撮影領域の相互の重なりを表現するOverlapBtwnLightAndCam(t, j, i)を定義することができる。
同様に通信部31から入力した音響収録領域情報に基づいて、時刻tにおけるj番目の照明装置3の照明領域とk番目の音響収録装置4の音響収録領域の相互の重なりを表現するOverlapBtwnLightAndMic(t, j, k)を定義することができる。前述の照明領域に関する評価関数Elight(t)およびこれらのOverlapBtwnLightAndCam(t, j, i)およびOverlapBtwnLightAndMic(t, j, k)を用いて式5のように照明領域に関する第二の評価関数Elight2(t)を定義することができる。
ここで、式5中のc’およびd’は係数であり、iはi番目の撮影装置2を表現する指標であり、imaxは撮影装置2の総数を表現する。またkはk番目の音響収録装置4を表現する指標であり、kmaxは音響収録装置4の総数を表現する。また前述の撮影領域情報生成・更新ステップS3と同様に、記憶部17から入力された会議参加者関連情報の内容に基づいて式4中の係数w’を制御することができる。
例えばいわゆるRFIDや人事情報データベース等を用いて会議参加者の役職など会議における会議参加者の重要度が特定できた場合、その会議参加者の重要度に応じて、係数w’を制御することができる。具体的には、取締役社長の場合にw’を100とし、技術執行役員の場合にw’を90とし、部門長の場合にw’を80などと指定することができる。さらに生成部27は、記憶部20から入力した什器情報および記憶部22から入力した会議環境情報を利用して撮影領域を演算するための評価関数を定義することができる。
記憶部20から入力された什器情報に基づいて、時刻tにおけるj番目の照明装置3の照明領域とm番目の什器の什器領域の相互の重なりを表現するOverlapBtwnLightAndFur1(t, j, m)を定義することができる。また記憶部20から入力された什器情報に基づいて、時刻tにおけるj番目の照明装置3の照明領域とn番目の什器の什器領域の相互の重なりを表現するOverlapBtwnLightAndFur2(t, j, n)を定義することができる。
また記憶部22から入力された会議環境情報に基づいて、時刻tにおけるj番目の照明装置3の照明領域と会議環境情報から導出されたo番目の注目領域の相互の重なりを表現するOverlapBtwnLightAndAttention(t, j, o)を定義することができる。前述の照明領域に関する第二の評価関数Elight2(t)および当該OverlapBtwnLightAndFur1(t, j, m)、OverlapBtwnLightAndFur2(t, j, n)およびOverlapBtwnLightAndAttention(t, j, o)を用いて式6のように照明領域に関する第三の評価関数Elight3(t)を定義することができる。
ここで、e’、f’およびg’は係数であり、mはm番目のテーブル等の什器を表現する指標であり、nはn番目の椅子等の什器を表現する指標であり、oはo番目の注目領域を表現する指標であり、mmaxはテーブル等の什器の総数であり、nmaxは椅子等の什器の総数であり、omaxはホワイトボードやプロジェクターのスクリーンなどの注目すべき領域(注目領域)の総数である。
ここで、テーブル等の什器の表面は視聴覚データないし映像データとして記録したい場合が予想され、照明領域に関する第三の評価関数Elight3(t)の一部がOverlapBtwnLightAndFur1(t,j,m)として表現されている。一方、椅子等の什器は視聴覚データないし映像データとして記録したくない場合が予想され、照明領域に関する第三の評価関数Elight3(t)の一部がOverlapBtwnLightAndFur2(t,j,m)の逆数として表現されている。これらの処理は主に生成部27により行われる。
ステップS14で、駆動部32は、制御部24の制御に応じて、ライトないし蛍光灯のパン、チルト制御および照明部25の移動を行う。これにより照明部25の照明領域が制御される。ステップS15で、通信部29は、記憶部28から入力された照明領域情報を他の照明装置3の通信部29に送信する。また通信部29は、他の照明装置3の通信部29から送信された照明領域情報を受信し、生成部27に出力する。生成部11は、次の時点の照明領域情報を生成する。
次に、音響収録装置4における音響収録手続きについて説明する。図12は、音響収録装置4における音響収録手続きを示すフローチャートである。図12に示すように、音響収録手続きは、音響収録装置初期化ステップS21、視聴覚データ取得ステップS22、音響収録領域情報生成・更新ステップS23、音響収録領域情報伝送ステップS24および音響収録装置駆動ステップS25を含む。
ステップS21で、音響収録装置4の制御部34は、音響収録装置4の各部を初期化する。ステップS22で、音響収録部35は、会議参加者により発話される音声、会議の場で発生する音等の音響データを含む視聴覚データを収録し、収録した視聴覚データを記録部36に出力する。一方、記録部36は、制御部34の制御に応じて、視聴覚データを視聴覚データ提示部37、通信部38および視聴覚データ処理部46に出力する。
ステップS23で、生成部11は、記憶部41から入力された音響収録領域情報、通信部42から入力された音響収録領域情報、通信部43から入力された撮影領域情報、通信部44から入力された照明領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報、記憶部22から入力された会議環境情報、視聴覚データ処理部46から入力された視聴覚データ処理結果に基づいて各音響収録装置が協調して視聴覚データないし音響データもしくは音声データを収録するように新たな音響収録領域情報を生成し、この音響収録領域情報を記憶部41に格納する。これにより、図8で示した音響収録領域情報デーブル49の内容が書き換えられる。記憶部41に記憶された音響収録領域情報は、制御部34の制御に応じて、通信部42に出力される。
なお、撮影装置2から撮影された視聴覚データから人の特徴量に基づいて人が撮影されている領域を抽出し、当該抽出された領域情報から音響収録領域情報を生成するようにしてもよい。係る人の特徴量に基づいて人が撮影されている領域を抽出する方法として、前述と同様に、従来技術である井出らの”ニュース映像における人物の分離による背景の場面推定”,電子情報通信学会論文誌D-II Vol. J84-D-II No.8 pp.1856-1863 2001年8月,に記載されている「顔領域を基準として人物領域を決定するテンプレート」等を応用することができる。
次に生成部40の手続きについて補足説明する。生成部40は、各音響収録装置4が会議記録として必要十分な視聴覚データないし音声データを記録可能なように自己の音響収録装置4の初期の(もしくは前回ないし過去の)音響収録領域情報および他の音響収録装置4の音響収録領域情報等に基づいて、新たな音響収録領域情報を演算する。音響収録領域情報の演算方法として、各音響収録装置4の音響収録領域が可能な限り重ならないように、すなわち全体の視聴覚データにおける音声としての内容的な冗長性が小さくなるように音響収録領域情報を演算処理するように設定することができる。
また音響収録領域情報の演算方法として、各音響収録装置4の音響収録領域において、前述の方法によって特定した人物領域が最大となるように音響収録領域情報を演算処理するように設定することができる。そこで、音響領域情報の演算方法を決定するための評価関数として、冗長性を表現する関数の逆数と各音響収録装置4における人物領域を表現する関数とで構成される評価関数を定義することができる。生成部40は、当該評価関数を用いて、当該評価関数が最大となるように音響収録領域情報を演算することができる。
ここで、音響収録領域は、マイクロフォーンあるいはマイクのいわゆる指向性パターンあるいは感度特性を空間的に表現したものとする。例えば時刻tにおける音響収録装置4相互の音響収録領域の重なりをOverlapBtwnMicAndMic(t)として冗長性を表現するものとすると、その逆数は、1/OperlapBtwnMicAndMic(t)となる。また音響収録装置4を番号付けし、その指標ないし番号をkとし、時刻tにおけるk番目の音響収録装置4に対応する音響収録領域をSpaceOfMic(t, k)で表現し、時刻tにおけるi番目の撮影装置2に撮影されている人物領域をSpaceOfFigure(t, i)で表現したとすると、時刻tにおける音響収録装置4における人物領域に対する音響収録の有効度を表現する関数をSpaceOfMic(t, k)∩SpaceOfFigure(t, i)の総和として定義することができる。ここで、∩は空間的な重なりを意味するものとする。そこで、音響収録領域情報の演算方法を決定するための評価関数Emic(t)を式7のように定義することができる。
ここで、式7中のa’’、b’’およびw’’は係数であり、kmaxは音響収録装置4の総数である。
また生成部40は、通信部43から入力された撮影領域情報、通信部44から入力された照明領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報および記憶部22から入力された会議環境情報を利用して別の評価関数を定義ないし、その結果に基づいて照明領域情報を変更することもできる。
例えば通信部43から入力した撮影領域情報に基づいて、時刻tにおけるk番目の音響収録装置4の音響収録領域とi番目の撮影装置2の撮影領域の相互の重なりを表現するOverlapBtwnMicAndCam(t, k, i)を定義することができる。同様に、通信部44から入力した照明領域情報に基づいて、時刻tにおけるk番目の音響収録装置4の音響収録領域とj番目の照明装置3の照明領域の相互の重なりを表現するOverlapBtwnMicAndLight(t, k, j)を定義することができる。
前述の音響収録領域に関する評価関数Emic(t)およびこれらのOverlapBtwnMicAndCam(t, k, i)およびOverlapBtwnMicAndLight(t, k, j)を用いて式8のように音響収録領域に関する第二の評価関数Emic2(t)を定義することができる。
ここで、式8中のc’’およびd’’は係数であり、iはi番目の撮影装置2を表現する指標であり、imaxは撮影装置2の総数を表現する。またjはj番目の照明装置3を表現する指標であり、jmaxは照明装置3の総数を表現する。
またステップS3やステップS8と同様に、参加者情報入力部17から入力された会議参加者関連情報の内容に基づいて式7中の係数w’’を制御することができる。例えばいわゆるRFIDや人事情報データベース等を用いて会議参加者の役職など会議における会議参加者の重要度が特定できた場合、その会議参加者の重要度に応じて、w’’を制御することができる。具体的には、取締役社長の場合にw’’を100とし、技術執行役員の場合にw’’を90とし、部門長の場合にw’’を80などと指定することができる。さらに生成部40は、記憶部20から入力した什器情報および記憶部22から入力した会議環境情報を利用して撮影領域を演算するための評価関数を定義することができる。
記憶部22から入力された会議環境情報に基づいて、時刻tにおけるk番目の音響収録装置4の音響収録領域と会議環境情報から導出されたo番目の注目領域の相互の重なりを表現するOverlapBtwnMicAndAttention(t, k, o)を定義することができる。記憶部22から入力された会議環境情報に基づいて、時刻tにおけるk番目の音響収録装置4の音響収録領域と会議環境情報から導出されたp番目の音響的な妨害領域の相互の重なりを表現するOverlapBtwnMicAndObstacle(t, k, o)を定義することができる。
前述の音響収録領域に関する第二の評価関数Emic2(t)および当該OverlapBtwnMicAndAttention(t, k, o)およびOverlapBtwnMicAndObstacle(t, k, p)を用いて式9のように音響収録領域に関する第三の評価関数Emic3(t)を定義することができる。
ここで、g’’およびh’’は係数であり、oはo番目の注目領域を表現する指標であり、pはp番目の音響的な妨害領域を表現する指標であり、omaxはスピーカーなどの音響的に注目すべき領域(注目領域)の総数である。またpmaxは、プロジェクターなどの雑音源となり音響収録を避けるべき音響的な妨害領域の総数である。ここで、スピーカーなどは視聴覚データないし音声データとして記録したい場合が予想され、音響収録領域に関する第三の評価関数Emic3(t)の一部がOverlapBtwnMicAndAttention(t,k,o)として表現されている。一方、プロジェクター等の雑音源は視聴覚データないし音声データとして記録したくない場合が予想され、音響収録領域に関する第三の評価関数Emic3(t)の一部がOverlapBtwnMicAndObstacle(t,k,p)の逆数として表現されている。これらの処理は生成部40、処理部46等により行われる。
図12に戻り、ステップS24で、駆動部45は、制御部34の制御に応じて、マイクの位置および角度制御および音響収録部35の移動を行う。これにより音響収録部35の音響収録範囲が制御される。ステップS25で、通信部42は、記憶部41から入力された音響収録領域情報を他の音響収録装置4の通信部42に送信する。また通信部42は、他の音響収録装置4の通信部42から送信された音響収録領域情報を受信し、生成部40に出力する。生成部27は、次の時点の音響収録領域情報を生成する。
図13は、本発明の会議記録を会議室の一例を示す平面図である。ここで、会議室50には、会議用のテーブル51、椅子52aおよび52b並びにワイトボード53が備わっているものとする。また会議室50には二個の撮影装置2aおよび2b、二個の照明装置3aおよび3b、ならびに二個の音響収録装置4aおよび4bが備わっているものとする。
ステップS3における生成部11の撮影領域情報の処理においては、各撮影装置の生成部11は、三次元空間上の異なる空間を撮影するように撮影領域情報を生成することができる。例えば、図13における撮影装置2aおよび2bは、それぞれ立体角に対応する円錐の平面への射影54a、54bに対応する領域を撮影するように撮影領域情報を生成する。
同様に、ステップS13における生成部27の照明領域情報の処理においては、各照明装置の生成部27は、三次元空間上の異なる空間を照明するように照明領域情報を生成する。例えば、図13における照明装置3aおよび3bは、それぞれ立体角に対応する円錐の平面への射影55a、55bに対応する領域を照明するように照明領域情報を生成する。
同様に、ステップS23における生成部40の音響収録領域情報の処理においては、各音響収録装置の生成部40が三次元空間上の異なる空間で発生する視聴覚データを音響収録するように音響収録領域情報を生成する。例えば、図13における音響収録装置4aおよび4bは、それぞれ立体角に対応する円錐の平面への射影56a、56bに対応する領域からの視聴覚データを音響収録するように音響収録領域情報を生成する。
次に撮影装置2、照明装置3および音響収録装置4の時間的な制御方法について説明する。ここで、図6の撮影領域情報テーブル47のように、撮影装置2は、三台の撮影装置2がそれぞれCAM0、CAM1およびCAM2として撮影装置識別子47aで識別されている。また図7の照明領域情報テーブル48のように、照明装置3は、二台の照明装置3がそれぞれLIGHT0およびLIGHT1として照明装置識別子48aで識別されている。また図8の音響収録領域情報テーブル49のように、音響収録装置4は、二台の音響収録装置4がそれぞれMIC0およびMIC1の音響収録装置識別子49aで識別されている。
図14は、タイムスロットと各装置の制御の割り当てを示す図である。そこで、撮影装置2、照明装置3および音響収録装置4の制御を行う場合、時間が既定の単位時間、例えば、100ミリ秒ごとにタイムスロットとして区切られ、図14のように各タイムスロットがts1、ts2、ts3、…ts11のように識別されているものとする。撮影装置2、照明装置3および音響収録装置4の制御はタイムスロットを単位として時間的に排他的に制御されるものとする。すなわち、タイムスロットts1において、CAM0の撮影装置2の制御ないしパンやチルトなど状態の変更を行っている場合には、他のCAM1およびCAM2の撮影装置2、照明装置3および音響収録装置4の状態を固定する。
続くタイムスロットts2において、CAM1の撮影装置2の制御ないしパンやチルトなど状態の変更を行っている場合には、他のCAM0およびCAM2の撮影装置2、照明装置3および音響収録装置4の状態を固定する。以下同様に、それぞれのタイムスロットを各撮影装置2、照明装置3および音響収録装置4に割り当てて時間的に排他制御する。
ここで、撮影装置2は、撮影領域情報伝送ステップS5において、前記のタイムスロットに対応する撮影装置2を制御した時刻等の撮影領域情報を更新し、他の撮影装置2等に撮影領域情報を伝送する。同様に、照明装置3は、ステップS15において、前記のタイムスロットに対応する照明装置3を制御した時刻等の照明領域情報を更新し、他の照明装置3等に照明領域情報を伝送する。同様に音響収録装置4は、ステップS25において、前記のタイムスロットに対応する音響収録装置4を制御した時刻等の音響収録領域情報を更新し、他の音響収録装置4等に音響収録領域情報を伝送する。これにより各撮影装置2、各照明装置3および各音響収録装置4をそれぞれ時間的に排他制御することができる。
なお、実施例1では制御部5、24および34が各撮影装置2、各照明装置3および各音響収録装置4のそれぞれに対応して設けられている例について説明したが、会議記録装置1に1つの制御部を設けて、この1つ制御部で全ての撮影装置2、照明装置3、音響収録装置4を制御してもよい。また実施例1では生成部11、27および40が各各撮影装置2、各照明装置3および各音響収録装置4のそれぞれに対応して設けられている例について説明したが、会議記録装置1に生成部を1つ設けて、この1つの生成部で全ての撮影領域情報、照明領域情報、音響収録領域情報を生成するようにしてもよい。
次に実施例3について説明する。次に実施例3に係る設計装置について説明する。図21は、実施例3の設計装置の一例を示すブロック・ダイアグラムである。設計装置201は、制御部202、演算部203、設計データ記憶部204、表示部205、撮影領域情報入力部206、撮影領域情報記憶部207、照明領域情報入力部208、照明領域情報記憶部209、音響収録領域情報入力部210、音響収録領域情報記憶部211、参加者情報入力部212、参加者情報記憶部213、什器情報入力部214、什器情報記憶部215、環境情報入力部216および環境情報記憶部217を含む。
設計装置201は、会議室、ホワイトボードまたはテーブル、椅子もしくは投影用スクリーンを含む什器等の設計対象を設計するものである。制御部202は、設計装置201全体を制御する。制御部202は、会議室、ホワイトボードまたはテーブル、椅子もしくは投影用スクリーンを含む什器等の設計対象を設計するためのグラフィカル・ユーザ・インタフェースを表示部205に表示する。表示部205は、設計対象を設計するためのグラフィカル・ユーザ・インタフェースと、設計された設計対象を表示するものである。
図22にこのグラフィカル・ユーザ・インタフェース86の表示例を示す。このグラフィカル・ユーザ・インタフェース86は、撮影領域情報入力部206、照明領域情報入力部208、音響収録領域情報入力部210、参加者情報入力部212、什器情報入力部214、環境情報入力部216として機能する。なお、これら入力部にグラフィカル・ユーザ・インタフェース86以外のキーボード等を併用するようにしてもよい。各入力部から入力された情報はそれぞれ撮影領域情報記憶部207、照明領域情報記憶部209、音響収録領域情報記憶部211、参加者情報記憶部213、什器情報記憶部215、環境情報記憶部217に記憶される。
演算部203は、記憶部207から入力された撮影領域情報、記憶部209から入力された照明領域情報、記憶部211から入力された音響収録領域情報、記憶部213から入力された会議参加者関連情報、記憶部215から入力された什器情報および記憶部217から入力された会議環境情報に基づいて、設計対象を設計する。設計された設計対象のデータは記憶部204に格納する。表示部205は、記憶部204から入力された設計データを利用者に表示する。表示部61は、一般的なディスプレイ等から構成されている。
次にテーブル設計データを撮影領域情報および参加者関連情報から設計する方法について説明する。図22は、テーブルを設計する場合に使用するグラフィカル・ユーザ・インタフェースの一例である。図22に示すように、グラフィカル・ユーザ・インタフェース86は、作業領域71、会議室アイコン72aおよび会議室アイコン72b、什器アイコン73、撮影装置アイコン74、照明装置アイコン75、音響収録装置アイコン76、什器レイヤー・ボタン77、撮影装置レイヤー・ボタン78、照明装置レイヤー・ボタン79、音響収録装置レイヤー・ボタン80、会議参加者アイコン87aおよび87b、備品アイコン88、会議参加者レイヤー・ボタン89並びに備品レイヤー・ボタン90を含む。
実施例2において説明したグラフィカル・ユーザ・インタフェース70に対して、会議参加者アイコン87aおよび87b、備品アイコン88、会議参加者レイヤー・ボタン89並びに備品レイヤー・ボタン90が追加されている。利用者は、グラフィカル・ユーザ・インタフェース86の作業領域71に対して、会議室アイコン72aおよび72b、什器アイコン73、撮影装置アイコン74、照明装置アイコン75、音響収録装置アイコン76、会議参加者アイコン87aおよび87b、備品アイコン88を配置し、それらのアイコンに関連する属性を設定することによって、テーブル設計データを設定することができる。
グラフィカル・ユーザ・インタフェース86における作業領域71は、会議室レイヤーを基準とし、すなわち、既定のレイヤーとし、それぞれ透明にすることが可能な撮影装置レイヤー、照明装置レイヤー、音響収録装置レイヤー、会議参加者レイヤーおよび備品レイヤーから構成されている。
次にグラフィカル・ユーザ・インタフェース86を用いたテーブル設計データを撮影領域情報等から設定する手順について説明する。図23は、グラフィカル・ユーザ・インタフェースの利用手続きを示すフローチャートである。グラフィカル・ユーザ・インタフェース86の利用手続きは、会議室設定ステップS41、什器設定ステップS42、撮影装置設定ステップS43、照明装置設定ステップS44、音響収録設定ステップS45、会議参加者設定ステップS46および備品設定ステップS47を含む。
図23は、グラフィカル・ユーザ・インタフェース86の利用手続きを示すフローチャートは図18のグラフィカル・ユーザ・インタフェースの利用手続きを示すフローチャートに対して、会議参加者ステップS46および備品設定ステップS47が追加されている。なお、ステップS42では什器として椅子のみをここでは設定するものとする。
ステップS41で、利用者はグラフィカル・ユーザ・インタフェース86の会議室アイコン72aあるいは会議室アイコン72bを作業領域71にいわゆるドラッグ・アンド・ドロップする。ここで、会議室アイコン72aおよび会議室アイコン72bは会議室の場所や形状や大きさを表現するものとする。会議室アイコンは二つに限らず必要なだけ、グラフィカル・ユーザ・インタフェース86上に配置することができる。グラフィカル・ユーザ・インタフェース86から入力された会議室に関する情報は、環境情報入力部216から記憶部217に格納される。環境情報入力部216からは、会議が開催される場所の大きさ、形状、色、可視光等の電磁波ないし音波の反射率、什器のアフォーダンスに関する情報等の会議環境情報が入力できる。
ステップS42で、利用者は什器レイヤー・ボタン77を選択し、作業領域71に什器アイコン73をドラッグ・アンド・ドロップして配置する。ここで、作業領域はそれぞれ透明な基準となる会議室レイヤー、什器レイヤー、撮影装置レイヤー、照明装置レイヤーおよび音響収録装置レイヤーから構成されているものとする。会議室レイヤーは既定のレイヤーである。利用者は什器レイヤー・ボタン77を選択することによって、什器レイヤーに什器アイコン73を配置できるようになる。また利用者は什器アイコン73の属性を設定することによって、テーブルまたは椅子などを図的に識別できるようになる。
また、利用者は、什器アイコン73の属性をメニューやダイアログ等を使用して設定することによって、その作業領域71での大きさや形状や色などを設定することができる。ここで、利用者は、什器アイコン73を必要な数だけ作業領域71にドラッグ・アンド・ドロップして配置することが可能である。グラフィカル・ユーザ・インタフェース86から入力された什器に関する情報は、什器情報入力部214から記憶部215に格納される。
ステップS43で、利用者は、撮影装置レイヤー・ボタン78を選択し、作業領域71に撮影装置アイコン74をドラッグ・アンド・ドロップして配置する。利用者は撮影装置レイヤー・ボタン74を選択することによって、撮影装置レイヤーに撮影装置アイコン74を配置できるようになる。さらに図19に示したように、利用者は、撮影領域を表現する扇型の属性アイコン81を操作することによって撮影領域を設定することができる。
利用者は、撮影装置アイコン74を必要な数だけ作業領域71にドラッグ・アンド・ドロップして配置することが可能である。グラフィカル・ユーザ・インタフェース86から入力された撮影装置または撮影領域に関する情報は撮影領域情報入力部206から記憶部207に格納される。
ステップS44で、利用者は、照明装置レイヤー・ボタン79を選択し、作業領域71に照明装置アイコン75をドラッグ・アンド・ドロップして配置する。利用者は照明装置レイヤー・ボタン79を選択することによって、照明装置レイヤーに照明装置アイコン79を配置できるようになる。さらに図19に示したように、利用者は、照明領域を表現する扇型の属性アイコン82を操作することによって照明領域を設定することができる。ここで、利用者は照明装置アイコン75を必要な数だけ作業領域71にドラッグ・アンド・ドロップして配置することが可能である。グラフィカル・ユーザ・インタフェース86から入力された照明装置または照明領域に関する情報は照明領域情報入力部210から記憶部209に格納される。
ステップS45で、利用者は音響収録装置レイヤー・ボタン80を選択し、作業領域71に音響収録装置アイコン76をドラッグ・アンド・ドロップして配置する。利用者は音響収録装置レイヤー・ボタン80を選択することによって、音響収録装置レイヤーに音響収録装置アイコン76を配置できるようになる。グラフィカル・ユーザ・インタフェース86から入力された音響収録装置または音響収録領域に関する情報は音響収録領域情報入力部210から記憶部211に格納される。
ステップS46で、利用者はグラフィカル・ユーザ・インタフェース86の作業領域71に対して、会議参加者アイコン87aおよび87bを配置することによって会議参加者の情報を設定することができる。なお、利用者は、会議参加者レイヤー・ボタン89を選択することよって、作業領域71の会議参加者レイヤーに対して会議参加者アイコン87aおよび87bを設定することが可能となる。利用者は会議参加者に対応する数だけ作業領域71に対して会議参加者アイコンを配置することができる。ここでは、仮に会議参加者が二名であるとし、会議参加者アイコン87aおよび87bを作業領域71に配置するものとする。
また会議参加者の属性として、会議参加者の位置、会議参加者の見る範囲、会議参加者の姿勢、会議参加者の可視聴範囲、会議参加者の可動範囲等の会議参加者関連情報を属性アイコンを使用して設定することができる。グラフィカル・ユーザ・インタフェース86から入力された参加者に関する情報は、参加者情報入力部212から記憶部213に格納される。
次に、ステップS47で、利用者はグラフィカル・ユーザ・インタフェース86の作業領域71に対して、備品アイコン86を配置することによって備品の情報を設定することができる。なお、利用者は備品レイヤー・ボタン90を選択することによって、作業領域71の備品レイヤーに対して備品アイコン88を設定することが可能となる。利用者はホワイトボード、プロジェクターやプロジェクター用スクリーンなどの備品を必要な数だけ作業領域71に備品アイコン88を配置することができる。グラフィカル・ユーザ・インタフェース86から入力された備品に関する情報は、環境情報入力部216から記憶部217に格納される。
演算部203は、制御部202の制御下、記憶部207から入力された撮影領域情報、記憶部209から入力された照明領域情報、記憶部211から入力された音響収録領域情報、記憶部213から入力された会議参加者関連情報、記憶部215から入力された什器情報および記憶部217から入力された会議環境情報に基づいて、設計対象であるテーブルを設計する。設計された設計対象のデータは、記憶部204に格納される。表示部205は、記憶部204から入力された設計データを利用者に表示する。
前述のグラフィカル・ユーザ・インタフェースの利用手続きによって、作業領域71に対して図13に示したテーブル51を除いて図13のように椅子52aおよび52b、撮影装置2aおよび2b、照明装置3aおよび3b、音響収録装置4aおよび4B並びにホワイトボード53が配置されているものとする。会議参加者が二名の場合を想定して説明する。会議参加者は、椅子52aおよび52bにそれぞれ着席するものとする。また図24における撮影装置2aおよび2bは、各会議参加者のジェスチャーや姿勢を捕捉できるように、それぞれ立体角に対応する円錐の平面への射影54aおよび54bに対応する領域を撮影するものとする。
図24には会議参加者が他の会議参加者(相手)とホワイトボード53を見る範囲の立体角に対応する円錐の平面への射影62aおよび62bに対応する領域が扇形で示されている。ここで、会議参加者が他の会議参加者(相手)とホワイトボード53を見る範囲の立体角に対応する円錐の平面への射影62aおよび62bは、ステップS46で、会議参加者アイコン87aおよび87bの属性ないし属性アイコンとして設定することができる。
また会議参加者の属性として、「会議参加者の見る範囲」の他にも、会議参加者の位置、会議参加者の姿勢、会議参加者の可視聴範囲、会議参加者の可動範囲等の会議参加者関連情報を属性アイコンを使用して設定することができる。なお、上記のように設定した会議参加者の見る範囲は、会議参加者の頭部の位置および方向とみなすことができる。テーブル上部の領域63は、上述の射影54a、54b、62aおよび62bの平面図上で、扇形の領域の重なる領域63を含むように設計することができる。またこのように定義されたテーブル上部の領域63を包含するようにテーブルを設定することができる。
設定されたテーブルに対して、テーブルを表現する什器アイコン73を利用者に提示することができる。なお、利用者に提示されるテーブルの形状は、一種類以上の基本形状のテーブルの中から最適なテーブルを選んで表示するようにしてもよい。テーブルの基本形状は、三角形または四角形または六角形のテーブルであると良い。
一方、利用者は提示されたテーブルを表現する什器アイコン73に対して、テーブルの属性を表現する色ないし分光分布並びに反射率または透過率等をメニューあるいはダイアログ等を使用して設定することができる。また什器アイコン73の属性として係る什器の什器のアフォーダンスに関する情報をメニューあるいはダイアログ等を用いて設定することができる。ここで、例えば、図25のような半径50センチメートルの円の一部が欠けた三日月形のテーブルがある場合、円周側には三人の参加者が座ることが可能で、あるいはテーブルによって自然に促され、一方、欠けた側には、二人の会議参加者が座ることが可能である、あるいは、テーブルによって自然に促されているというようなアフォーダンスに関する情報をテーブルの属性情報として設定することができる。
以上のようなテーブルの設定方法と同様な方法で他の椅子などの什器あるいは会議室を設計することができる。また会議室設計においては、会議室の床や壁あるいは天井の属性として、利用者がメニューやダイアログなどの特定のグラフィカル・ユーザ・インタフェースを使用することによって、会議が開催される場所の大きさ、形状、色ないし分光分布、可視光等の電磁波ないし音波の反射率または透過率を設定することができる。
次に、会議室の設計について説明する。図26は、グラフィカル・ユーザ・インタフェース86の作業領域71における会議室アイコン72bの操作画面を示す図である。図27は、床プロパティ情報ダイアログボックス301を示す図である。図28は、壁プロパティ情報ダイアログボックス304を示す図である。前述したように、ステップS41において、利用者は、会議室アイコン72bを作業領域71にドラッグ・アンド・ドロップする。
次に、利用者は、ドラッグ・アンド・ドロップした会議室アイコン72bの大きさないしサイズを変更することにより、会議室の大きさを指定することができる。また、会議室アイコン72bを作業領域71にドラッグ・アンド・ドロップすることで、グラフィカル・ユーザ・インタフェース86の所定の領域に、図27に示す床プロパティ情報ダイアログボックス301および図28に示す壁プロパティ情報ダイアログボックス304が表示される。次に、利用者は床プロパティ情報ダイアログボックス301および壁プロパティ情報ダイアログボックス304を用いて会議室の詳細な情報を指定することができる。床プロパティ情報ダイアログボックス301は会議室の床の詳細な属性情報を入力するために使用される。
図27に示すように、床プロパティ情報ダイアログボックス301は、素材フィールド302a、色フィールド302bおよび仕様フィールド302c並びに色確認ビュー303から構成される。図27では、床の素材として「カーペット」が指定され、床の色として「グレイ」が指定され、床の仕様として「カーペットA」が指定されていることを示す。色確認ビュー303は、床の色を利用者に提示する。ここで、色確認ビュー303で利用者に提示する床の色は、前述の照明領域情報などからコンピューター・グラフィックスのレイトレーシング手法などを利用してシミュレーションすることによって設定することができる。
また、壁プロパティ情報ダイアログボックス304は会議室の壁の詳細な属性情報を入力するために使用される。図28に示すように、壁プロパティ情報ダイアログボックス304は、素材フィールド305a、色フィールド305bおよび仕様フィールド305c並びに色確認ビュー306から構成される。図28では、壁の素材として「コンクリート」が指定され、壁の色として「白」が指定され、壁の仕様として「壁A」が指定されていることを示す。色確認ビュー306は、壁の色を利用者に提示する。
ここで、色確認ビュー306で利用者に提示する壁の色は、前述の照明領域情報などからコンピューター・グラフィックスのレイトレーシング手法などを利用してシミュレーションすることによって設定することができる。グラフィカル・ユーザ・インタフェース86から入力された会議室に関する情報は、環境情報入力部216から記憶部217に格納される。なお、上述したように利用者が所定の操作を行うことで、各記憶部に情報が入力される。
演算部203は、制御部202の制御下、記憶部207から入力された撮影領域情報、記憶部209から入力された照明領域情報、記憶部211から入力された音響収録領域情報、記憶部213から入力された会議参加者関連情報、記憶部215から入力された什器情報および記憶部217から入力された会議環境情報等に基づいて、設計対象である会議室を設計する。設計された設計対象の会議室のデータは、記憶部204に格納される。表示部205は、記憶部204から入力された設計データを利用者に表示する。以上のように利用者は、グラフィカル・ユーザ・インタフェース86の作業領域71における会議室アイコン72b等を操作することによって会議室を設計することができる。
また、テーブルや椅子の設計は次のように行うことができる。図29は、グラフィカル・ユーザ・インタフェース86の作業領域71における什器アイコン73aおよび73bの操作画面を示す図である。図30は、什器プロパティ情報ダイアログボックス307を示す図である。図31は、什器プロパティ情報ダイアログボックス308を示す図である。グラフィカル・ユーザ・インタフェース86の作業領域71に什器アイコン73をドラッグ・アンド・ドロップすることで、図30に示す什器プロパティ情報ダイアログボックス307および図31に示す什器プロパティ情報ダイアログボックス308がグラフィカル・ユーザ・インタフェース86内の所定の領域に表示される。
また、前述したように、ステップS42において、利用者は、什器アイコンを作業領域71にドラッグ・アンド・ドロップする。これにより、図29に示すように、作業領域71内に什器アイコン73aおよび73bが配置される。什器アイコン73aはテーブルを表すアイコンである。什器アイコン73bは椅子を表すアイコンである。利用者は、什器アイコン73aおよび73bの位置とサイズないし大きさを変更することによってテーブルや椅子の什器の位置とサイズないし大きさを指定することができる。次に、利用者は、什器プロパティ情報ダイアログボックス307または308を用いて什器の詳細な情報を指定する。
図30に示すように、什器プロパティダイアログボックス307は、素材フィールド308a、色フィールド308b、仕様フィールド308cおよび種類フィールド308d並びに色確認ビュー309から構成される。図30では、什器の種類として、「テーブル」が指定され、什器の素材として「木」が指定され、什器の色として「アイボリー」が指定され、什器の仕様として「テーブルA」が指定されていることを示す。また、色確認ビュー309は、利用者に什器の色を提示する。会議室の壁や床と同様に、照明領域情報などからコンピューター・グラフィックスのレイトレーシング手法などを利用してシミュレーションすることによって色確認ビュー309に提示する色を設定することができる。なお、什器プロパティ情報ダイアログボックス307を用いて他の反射率等の什器に関する属性情報を指定することもできる。
図31に示すように、什器プロパティダイアログボックス308は、素材フィールド311a、色フィールド311b、仕様フィールド311cおよび種類フィールド311d並びに色確認ビュー312から構成される。図31では、什器の種類として、「椅子」が指定され、什器の素材として「木」が指定され、什器の色として「ブルー」が指定され、什器の仕様として「椅子A」が指定されていることを示す。また、色確認ビュー312は、利用者に什器の色を提示する。会議室の壁や床と同様に、照明領域情報などからコンピューター・グラフィックスのレイトレーシング手法などを利用してシミュレーションすることによって色確認ビュー312に提示する色を設定することができる。なお、什器プロパティ情報ダイアログボックス308を用いて他の反射率等の什器に関する属性情報を指定することもできる。
グラフィカル・ユーザ・インタフェース86から入力された什器に関する情報は、什器情報入力部214から記憶部215に格納される。なお、上述したユーザーの操作により各記憶部に所定の情報が入力される。演算部203は、制御部202の制御下、記憶部207から入力された撮影領域情報、記憶部209から入力された照明領域情報、記憶部211から入力された音響収録領域情報、記憶部213から入力された会議参加者関連情報、記憶部215から入力された什器情報および記憶部217から入力された会議環境情報等に基づいて、設計対象であるテーブルや椅子を含む什器を設計する。設計された設計対象のデータは、記憶部204に格納される。表示部205は、記憶部204から入力された設計データを利用者に表示する。以上のように利用者は、グラフィカル・ユーザ・インタフェース86の作業領域71における什器アイコン73aおよび73b等を操作することによってテーブルや椅子を含む什器を設計することができる。
また、ホワイトボード等の備品は次のように設計することができる。図32は、グラフィカル・ユーザ・インタフェース86の作業領域71における備品アイコン88aの操作画面を示す図である。前述したように、ステップS47において、利用者は、備品アイコン88を作業領域71にドラッグ・アンド・ドロップする。これにより、備品アイコン88aが作業領域71内に表示される。次に、利用者は、ドラッグ・アンド・ドロップした備品アイコン88aの位置および大きさないしサイズを変更することにより、備品の位置とサイズを指定することができる。また、備品アイコン88を作業領域71内にドラッグ・アンド・ドロップすることで、グラフィカル・ユーザ・インタフェース86内の所定の領域に備品プロパティ情報ダイアログボックス313が表示される。
図33は、備品プロパティ情報ダイアログボックス313を示す図である。利用者は、備品プロパティ情報ダイアログボックス313を用いて備品の詳細な情報を指定することができる。備品プロパティ情報ダイアログボックス313は備品の詳細な属性情報を入力するために使用される。図33に示すように、備品プロパティ情報ダイアログボックス313は、素材フィールド314a、色フィールド314b、仕様フィールド314c、種類フィールド314dおよび高さフィールド314eおよび色確認ビュー315から構成される。
図33では、備品の種類として「ホワイトボード」が指定され、備品の素材として「鉄ほか」が指定され、備品の色として「ホワイト」が指定され、備品の仕様として「ホワイトボードA」が指定され、備品の高さとして「100センチメートル」が指定されていることを示す。色確認ビュー315は、備品の色を利用者に提示する。ここで、色確認ビュー315で利用者に提示する備品の色は、前述の照明領域情報などからコンピューター・グラフィックスのレイトレーシング手法などを利用してシミュレーションすることによって設定することができる。
グラフィカル・ユーザ・インタフェース86から入力された備品に関する情報は、環境情報入力部216から記憶部217に格納される。なお、上述したユーザーの操作により各記憶部に所定の情報が入力される。演算部203は、制御部202の制御下、記憶部207から入力された撮影領域情報、記憶部209から入力された照明領域情報、記憶部211から入力された音響収録領域情報、記憶部213から入力された会議参加者関連情報、記憶部215から入力された什器情報および記憶部217から入力された会議環境情報等に基づいて、設計対象であるホワイトボードを設計する。設計された設計対象のデータは、記憶部204に格納される。表示部205は、記憶部204から入力された設計データを利用者に表示する。以上のように利用者は、グラフィカル・ユーザ・インタフェース86の作業領域71における備品アイコン88a等を操作することによってホワイトボードを設計することができる。
なお、会議記録装置、会議記録方法、設計装置または設計方法は、例えば、CPU、ROM(Read Only Memory)、RAM(Random Access Memory)等を用いて実現され、プログラムをハードディスク装置や、CD−ROM、DVDまたはフレキシブルディスクなどの可搬型記憶媒体等からインストールし、または通信回路からダウンロードし、CPUがこのプログラムを実行することで、各ステップが実現される。ここでCPUが実行するステップは以下の通りである。
会議記録プログラムは、複数の撮影手段が撮影対象を協調して撮影するように該各撮影手段の撮影領域を表現する撮影領域情報を生成する生成ステップ、複数の照明手段が撮影対象を協調して照明するように該各照明手段の照明領域を表現する照明領域情報を生成する生成ステップ、複数の音響収録手段が協調して音響情報を収録するように該各音響収録手段の音響収録領域を表現する音響収録領域情報を生成する生成ステップ、前記各生成ステップで生成した各撮影領域情報、各照明領域情報および各音響収録領域情報を用いて前記各撮影手段の撮影領域、前記各照明手段の照明領域および前記各音響収録手段の音響収録領域を制御する制御ステップをCPUに実行させる。これにより冗長性の少ない複数の映像を得ることができる。
また設計プログラムは、グラフィカル・ユーザ・インタフェース内の作業領域にドラッグ・アンド・ドロップされた会議室アイコンに応じて会議室の情報を設定するステップ、前記作業領域にドラッグ・アンド・ドロップされた什器アイコンに応じて什器の情報を設定するステップ、前記作業領域にドラッグ・アンド・ドロップされた撮影装置アイコンに応じて撮影装置の情報を設定するステップ、前記作業領域にドラッグ・アンド・ドロップされた会議参加者アイコンに応じて会議参加者の情報を設定するステップ、所定の属性アイコンの操作に応じて参加者の属性情報を設定するステップ、前記設定された情報に応じて設計対象を設計する設計ステップ、前記設計ステップで設計された設計対象を表示するステップをCPUに実行させる。これにより設定された情報に応じて設計対象を設計し、これを表示させることができる。
なお撮影装置2、生成部11、27および40、制御部5、24および34、照明装置3、音響収録装置4、通信部13、14、15、29、30、31、42、43および44、駆動部18、21、および45は、特許請求の範囲における撮影手段、生成手段、制御手段、照明手段、音響手段、通信手段、駆動手段にそれぞれ対応する。
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。