JP2005323139A - 会議記録装置、会議記録方法、設計方法およびプログラム - Google Patents

会議記録装置、会議記録方法、設計方法およびプログラム Download PDF

Info

Publication number
JP2005323139A
JP2005323139A JP2004139441A JP2004139441A JP2005323139A JP 2005323139 A JP2005323139 A JP 2005323139A JP 2004139441 A JP2004139441 A JP 2004139441A JP 2004139441 A JP2004139441 A JP 2004139441A JP 2005323139 A JP2005323139 A JP 2005323139A
Authority
JP
Japan
Prior art keywords
information
area
illumination
conference
area information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004139441A
Other languages
English (en)
Other versions
JP2005323139A5 (ja
JP4517716B2 (ja
Inventor
Kazuki Hirata
和貴 平田
Atsushi Miyazaki
宮崎  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004139441A priority Critical patent/JP4517716B2/ja
Priority to US10/987,002 priority patent/US7466335B2/en
Publication of JP2005323139A publication Critical patent/JP2005323139A/ja
Publication of JP2005323139A5 publication Critical patent/JP2005323139A5/ja
Application granted granted Critical
Publication of JP4517716B2 publication Critical patent/JP4517716B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/155Conference systems involving storage of or access to video conference sessions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 冗長性の少ない会議情報を捕捉できる会議記録装置を提供することを目的とする。
【解決手段】 会議記録装置1は、複数の撮影装置2と、複数の照明装置3と、複数の音響収録装置4と、各撮影装置2が撮影対象を協調して撮影するように各撮影装置の撮影領域を表現する領域情報を生成し、各照明装置3が撮影対象を協調して照明するように各照明装置3の照明領域を表現する領域情報を生成し、各音響収録装置4が協調して音響情報を収録するように各音響収録装置4の収録領域を表現する音響収録領域情報を生成する生成部と、生成部が生成した各領域情報を用いて各撮影装置2の撮影領域、各照明装置3の照明領域および各音響収録装置4を制御する制御手段とを有する。
【選択図】 図1

Description

本発明は、会議記録装置、会議記録方法、設計方法およびプログラムに関する。
従来、テレビ会議等の会議をビデオで撮影し、撮影された会議映像を利用する会議記録おいて、撮影される会議映像の品質を良好に維持するために、会議参加者の位置ないし音源位置を推定することによってカメラを制御するなどの方法が採られていた。具体的には、カメラ等を制御する装置や方法、あるいは会議で用いる什器や部屋の設計に関する従来技術には以下のようなものがある。
特許文献1記載の装置では、マイクロホン・アレーの各マイクに入力された音声信号の位相をシフトさせて合成することにより話者を特定し、不特定多数が参加する会議のカメラとマイクの制御を行うというものである。
特許文献2記載の装置は、複数のカメラ・アングルに対するアングル制御情報が複数のマイクに関連付けられて記憶された記憶装置を有し、使用されたマイクに関連したアングル制御情報に基づいてカメラ・アングルの制御を行うというものである。
特開平10−145763号公報 特開2002−171499号公報
しかしながら、特許文献1記載の装置は、テレビ会議において、音声データ等から音源を推定し、参加者の位置を推定することによってカメラ等を制御することを可能にするというものであるが、複数のカメラや複数の照明を会議の撮影用に用いた場合、撮影条件や照明条件等に重複が生じ、冗長性の少ない会議情報を捕捉することができないという問題がある。
また特許文献2記載の装置では、使用されたマイクに関連してカメラ・アングルを制御できるものの、会議室の環境は変化するため、マイクに関連付けるという固定的な制御では撮影条件等に重複が生じ、冗長性の少ない会議情報を捕捉することができないという問題がある。
そこで、本発明は上記問題点に鑑みてなされたもので、冗長性の少ない会議情報を捕捉できる会議記録装置、会議記録方法、設計方法またはプログラムを提供することを目的とする。
上記課題を解決するために、本発明は、請求項1に記載のように、複数の撮影手段と、前記各撮影手段が撮影対象を協調して撮影するように前記各撮影手段の撮影領域を表現する撮影領域情報を生成する生成手段と、前記生成手段が生成した各撮影領域情報を用いて前記各撮影手段の撮影領域を制御する制御手段とを有することを特徴とする会議記録装置である。請求項1記載の発明によれば、各撮影手段が撮影対象を協調して撮影するように各撮影手段の撮影領域を表現する撮影領域情報を生成し、各撮影領域情報を用いて各撮影手段の撮影領域を制御するので、冗長性の少ない複数の映像を得ることができる。
本発明は、請求項2に記載のように、複数の照明手段と、前記各照明手段が撮影対象を協調して照明するように前記各照明手段の照明領域を表現する照明領域情報を生成する生成手段と、前記生成手段が生成した各照明領域情報を用いて前記各照明手段の照明領域を制御する制御手段とを有することを特徴とする会議記録装置である。請求項2記載の発明によれば、各照明手段が撮影対象を協調して照明するように各照明手段の照明領域を表現する照明領域情報を生成し、各照明領域情報を用いて各照明手段の照明領域を制御するので、冗長性の少ない複数の照明が可能となる。
本発明は、請求項3に記載のように、複数の音響収録手段と、前記各音響収録手段が協調して音響情報を収録するように前記各音響収録手段の音響収録領域を表現する音響収録領域情報を生成する生成手段と、前記生成手段が生成した各音響収録領域情報を用いて前記各音響収録手段の音響収録領域を制御する制御手段とを有することを特徴とする会議記録装置である。請求項3記載の発明によれば、各音響収録手段が協調して音響情報を収録するように各音響収録手段の音響収録領域を表現する音響収録領域情報を生成し、各音響収録領域情報を用いて各音響収録手段の音響収録領域を制御するので、冗長性の少ない複数の音響情報の収録が可能となる。
本発明は、請求項4に記載のように、請求項1記載の会議記録装置において、更に、複数の照明手段を有し、前記生成手段は、前記各照明手段が撮影対象を協調して照明するように前記各照明手段の照明領域を表現する照明領域情報を生成し、前記制御手段は、前記生成手段が生成した各照明領域情報を用いて前記各照明手段の照明領域を制御することを特徴とする。請求項4記載の発明によれば、各照明手段が撮影対象を協調して照明するように各照明手段の照明領域を表現する照明領域情報を生成し、各照明領域情報を用いて各照明手段の照明領域を制御するので、冗長性の少ない複数の照明が可能となる。
本発明は、請求項5に記載のように、請求項1または請求項4記載の会議記録装置において、更に、複数の音響収録手段を有し、前記生成手段は、前記各音響収録手段が協調して音響情報を収録するように前記各音響収録手段の音響収録領域を表現する音響収録領域情報を生成し、前記制御手段は、前記各音響収録領域情報を用いて前記各音響収録手段の音響収録領域を制御することを特徴とする。請求項5記載の発明によれば、各音響収録手段が協調して音響情報を収録するように各音響収録手段の音響収録領域を表現する音響収録領域情報を生成し、各音響収録領域情報を用いて各音響収録手段の音響収録領域を制御するので、冗長性の少ない複数の音響情報の収録が可能となる。
本発明は、請求項6に記載のように、請求項5記載の会議記録装置において、前記生成手段は、前記各撮影手段、前記各照明手段および前記各音響収録手段をそれぞれ時間的に排他制御するように前記各撮影領域情報、前記各照明領域情報および前記音響収録領域情報を生成することを特徴とする。請求項6記載の発明によれば、時間的な排他制御が可能となる。これにより全体の制御が容易となる。制御中以外のものを固定することで時間的な排他制御が可能となる。
本発明は、請求項7に記載のように、請求項1、請求項5または請求項6記載の会議記録装置において、前記生成手段は、前記各撮影手段が三次元空間上の異なる空間を撮影するように前記各撮影領域情報を生成することを特徴とする。請求項7記載の発明によれば、各撮影手段が三次元空間上の異なる空間を撮影するように撮影領域情報を生成することで、各撮影手段を空間的に排他制御することができる。これにより冗長性の少ない複数の映像が得られる。
本発明は、請求項8に記載のように、請求項2または請求項4から請求項7のいずれか一項に記載の会議記録装置において、前記生成手段は、前記各照明手段が三次元空間上の異なる空間を照明するように前記各照明領域情報を生成することを特徴とする。請求項8記載の発明によれば、各照明手段が三次元空間上の異なる空間を照明するように各照明領域情報を生成することで、各照明手段を空間的に排他制御することができる。これにより冗長性の少ない複数の照明が可能となる。
本発明は、請求項9記載のように、請求項3から請求項8のいずれか一項に記載の会議記録装置において、前記生成手段は、前記各音響収録手段が三次元空間上の異なる空間で発生する音響情報を収録するように前記各音響収録領域情報を生成することを特徴とする。請求項9記載の発明によれば、各音響収録手段が三次元空間上の異なる空間で発生する音響情報を収録するように各音響収録領域情報を生成するので、各音響収録手段を空間的に排他制御することができる。これにより冗長性の少ない複数の音響収録が可能となる。
本発明は、請求項10に記載のように、請求項1から請求項9のいずれか一項に記載の会議記録装置において、前記生成手段は、冗長性を表現する関数を含む評価関数を用いて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする。請求項10記載の発明によれば、撮影領域、照明領域、音響収録領域が重ならないようにし、内容的な冗長性を小さくできる。
本発明は、請求項11に記載のように、請求項5から請求項10のいずれか一項に記載の会議記録装置において、前記生成手段は、前記各撮影手段で撮影した映像を用いて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする。請求項11記載の発明によれば、各撮影手段で撮影された映像を用いて会議室内の事情を考慮した撮影領域情報、照明領域情報または音声領域情報を生成できる。
本発明は、請求項12に記載のように、請求項11記載の会議記録装置において、前記生成手段は、前記撮影手段で撮影された映像中の人物が存在する領域に基づいて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする。請求項12記載の発明によれば、人物の存在を考慮した空間的な排他制御が可能となる。これにより冗長性の少ない映像が得られる。
本発明は、請求項13に記載のように、請求項11記載の会議記録装置において、前記生成手段は、前記撮影手段で撮影された映像中の人物相互の見詰め合いまたは人物のホワイトボードへの凝視を検出し、該検出結果を用いて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする。請求項13記載の発明によれば、人物相互の見詰め合いまたは人物のホワイトボードへの凝視を含んだ映像を取得することができる。
本発明は、請求項14に記載のように、請求項5から請求項13記載のいずれか一項に記載の会議記録装置において、前記生成手段は、前記各音響収録手段で収録した音響情報を用いて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする。請求項14記載の発明によれば、音響収録手段で収録した音響情報を考慮した撮影領域情報、照明音響収録領域情報を生成できる。
本発明は、請求項15に記載のように、請求項14記載の会議記録装置において、前記生成手段は、前記音響収録手段で収録した音響情報を用いて推定された音源位置から前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする。請求項15記載の発明によれば、音源位置から人物の存在を検出し、人物の存在を考慮した空間的な排他制御が可能となる。これにより冗長性の少ない映像が得られる。
本発明は、請求項16に記載のように、請求項14記載の会議記録装置において、前記生成手段は、前記各音響収録手段で収録した音響情報を音声認識技術を利用して議論または独り言を検出し、該検出結果に応じて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする。請求項16記載の発明によれば、議論または独り言を含む映像を取得できる。
本発明は、請求項17に記載のように、請求項5から請求項16のいずれか一項に記載の会議記録装置において、前記生成手段は、会議参加者の位置、会議参加者の姿勢、会議参加者の頭部の位置および方向、会議参加者の可視聴範囲、並びに会議参加者の可動範囲のうちの少なくともいずれか一つを用いて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする。請求項17記載の発明によれば、参加者の状態を考慮した妥当な撮影領域情報、照明領域情報または音響収録領域情報が生成できる。
本発明は、請求項18に記載のように、請求項5から請求項17のいずれか一項に記載の会議記録装置において、前記生成手段は、前記各撮影手段の位置情報、前記照明手段の位置情報または前記音響収録手段の位置情報を用いて、前記撮影領域情報、前記照明領域情報または前記音響収録領域情報を生成することを特徴とする。請求項18記載の発明によれば、各撮影手段の位置情報、照明手段の位置情報または音響収録手段の位置情報を考慮した妥当な撮影領域情報、照明領域情報または音響収録領域情報の生成が可能となる。
本発明は、請求項19に記載のように、請求項5から請求項18のいずれか一項に記載の会議記録装置において、前記生成手段は、第1の時点における前記各撮影領域情報、前記各照明領域情報および前記各音響収録領域情報を用いて、第1の時点の次の第2の時点の前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする。請求項19記載の発明によれば、第2の時点の撮影領域情報、照明領域情報または音響領域情報は、第1の時点の撮影領域情報、照明領域情報または音響領域情報により決定される。
本発明は、請求項20に記載のように、請求項5から請求項19のいずれか一項に記載の会議記録装置において、前記生成手段は、所定の会議室内に配置された什器に関する情報を用いて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする。請求項20記載の発明によれば、会議室内に配置された什器を考慮した妥当な撮影領域情報、照明領域情報、音響収録領域情報を生成できる。
また本発明は、請求項21に記載のように、請求項20記載の会議記録装置において、前記会議室に設置された什器に関する情報は、会議参加者に共有されるテーブル、ホワイトボードまたは会議参加者に使用される椅子の位置、向き、大きさ、形状または色を含む。
本発明は、請求項22に記載のように、請求項5から請求項21のいずれか一項に記載の会議記録装置において、前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報は、前記各撮影手段、前記各照明手段または前記各音響収録手段の識別子、座標、法線とのなす角度、方位角、立体角、仕様および対象までの距離うちの少なくともいずれか一つを含む。
本発明は、請求項23に記載のように、請求項2または請求項4から請求項22のいずれか一項に記載の会議記録装置において、前記生成手段は、会議室内の照度または輝度に応じて前記照明領域情報を生成することを特徴とする。請求項23記載の発明によれば、会議室内の照度または輝度に応じて各照明手段を制御できる。
本発明は、請求項24に記載のように、請求項5から請求項23のいずれか一項に記載の会議記録装置において、前記制御手段は、前記各撮影手段、前記各照明手段および前記各音響収録装置のそれぞれに対応して設けられていることを特徴とする。
本発明は、請求項25に記載のように、請求項5から請求項24のいずれか一項に記載の会議記録装置において、前記生成手段は、前記各撮影手段、前記各照明手段および前記各音響収録装置のそれぞれに対応して設けられていることを特徴とする。
本発明は、請求項26に記載のように、請求項25記載の会議記録装置において、前記会議記録装置は更に、前記各生成手段が生成した撮影領域情報、照明領域情報または音響収録領域情報を他の生成手段との間で送受信する通信手段を有することを特徴とする。請求項26記載の発明によれば、通信手段により各生成手段が生成した撮影領域情報、照明領域情報または音響収録領域情報を他の生成手段との間で送受信できる。
本発明は、請求項27に記載のように、請求項5から請求項26のいずれか一項に記載の会議記録装置において、前記会議記録装置は更に、前記各撮影手段、前記各照明手段または前記各音響収録手段を駆動させる駆動手段を有することを特徴とする。請求項27記載の発明によれば、各撮影手段、各照明手段または各音響収録手段を移動させることができる。
本発明は、請求項28に記載のように、請求項5から請求項27のいずれか一項に記載の会議記録装置において、前記会議記録装置は更に、前記各撮影手段、前記各照明手段または前記各音響収録手段を制御するためのグラフィカル・ユーザ・インタフェースを表示する手段を有することを特徴とする。請求項28記載の発明によれば、グラフィカル・ユーザ・インタフェースを用いて各撮影手段、各照明手段または各音響収録手段を制御することができる。
本発明は、請求項29に記載のように、請求項28記載の会議記録装置において、前記グラフィカル・ユーザ・インタフェースは、会議室を設定するアイコン、什器を設定するアイコン、前記撮影手段を設定するアイコン、前記照明手段を設定するアイコン、前記音響収録手段を設定するアイコン、これらをドラッグ・アンド・ドロップして作業するための作業領域、前記撮影手段による撮影領域を設定するアイコン、前記照明手段による照明領域を設定するアイコンおよび前記音響収録手段による音響収録領域を設定するアイコンのうちの少なくともいずれか一つを含む。請求項29記載の発明によれば、グラフィカル・ユーザ・インタフェース中のアイコンを用いて会議記録装置を制御することができる。これにより冗長性の少ない複数の映像が得られる。
本発明は、請求項30に記載のように、請求項28または請求項29記載の会議記録装置において、前記作業領域は、前記各アイコンを二次元的または三次元の空間で表現することを特徴とする。
本発明は、請求項31に記載のように、複数の撮影手段が撮影対象を協調して撮影するように該各撮影手段の撮影領域を表現する撮影領域情報を生成する生成ステップと、複数の照明手段が撮影対象を協調して照明するように該各照明手段の照明領域を表現する照明領域情報を生成する生成ステップと、複数の音響収録手段が協調して音響情報を収録するように該各音響収録手段の音響収録領域を表現する音響収録領域情報を生成する生成ステップと、前記各生成ステップで生成した各撮影領域情報、各照明領域情報および各音響収録領域情報を用いて前記各撮影手段の撮影領域、前記各照明手段の照明領域および前記各音響収録手段の音響収録領域を制御する制御ステップとを有することを特徴とする会議記録方法である。請求項31記載の発明によれば、冗長性の少ない複数の映像を得ることができる。
本発明は、請求項32に記載のように、複数の撮影手段が撮影対象を協調して撮影するように該各撮影手段の撮影領域を表現する撮影領域情報を生成する生成ステップ、複数の照明手段が撮影対象を協調して照明するように該各照明手段の照明領域を表現する照明領域情報を生成する生成ステップ、複数の音響収録手段が協調して音響情報を収録するように該各音響収録手段の音響収録領域を表現する音響収録領域情報を生成する生成ステップ、前記各生成ステップで生成した各撮影領域情報、各照明領域情報および各音響収録領域情報を用いて前記各撮影手段の撮影領域、前記各照明手段の照明領域および前記各音響収録手段の音響収録領域を制御する制御ステップをコンピュータに実行させるためのプログラムである。請求項32記載の発明によれば、冗長性の少ない複数の映像を得ることができる。
本発明は、請求項33に記載のように、グラフィカル・ユーザ・インタフェース内の作業領域にドラッグ・アンド・ドロップされた会議室アイコンに応じて会議室の情報を設定するステップと、前記作業領域にドラッグ・アンド・ドロップされた什器アイコンに応じて什器の情報を設定するステップと、前記作業領域にドラッグ・アンド・ドロップされた撮影装置アイコンに応じて撮影装置の情報を設定するステップと、前記作業領域にドラッグ・アンド・ドロップされた会議参加者アイコンに応じて会議参加者の情報を設定するステップと、所定の属性アイコンの操作に応じて参加者の属性情報を設定するステップと、前記設定された情報に応じて設計対象を設計する設計ステップと、前記設計ステップで設計された設計対象を表示するステップとを含むことを特徴とする設計方法である。請求項33記載の発明によれば、設定された情報に応じて設計対象を設計し、これを表示させることができる。
本発明は、請求項34に記載のように、請求項33記載の設計方法において、更に、 前記作業領域にドラッグ・アンド・ドロップされた照明装置アイコンに応じて照明装置の情報を設定するステップと、前記作業領域にドラッグ・アンド・ドロップされた音響収録装置アイコンに応じて音響収録装置の情報を設定するステップと、前記作業領域にドラッグ・アンド・ドロップされた備品アイコンに応じて備品の情報を設定するステップとを含む。請求項34記載の発明によれば、照明装置、音響装置および備品を考慮して設計対象を設計できる。
本発明は、請求項35に記載のように、請求項33または請求項34記載の設計方法において、前記設計方法は更に、前記作業領域上で所定の属性アイコンの操作に応じて会議参加者の位置、会議参加者の見る範囲、会議参加者の姿勢、会議参加者の可視聴範囲および会議参加者の可動範囲のうちの少なくともいずれか一つを設定するステップを含む。請求項35記載の発明によれば、会議参加者の位置、会議参加者の見る範囲、会議参加者の姿勢、会議参加者の可視聴範囲、会議参加者の可動範囲を考慮して設計対象を設計できる。
本発明は、請求項36に記載のように、請求項33から請求項35のいずれか一項に記載の設計方法において、前記会議室の情報を設計するステップは、会議室の大きさ、形状、色、分光分布、反射率または透過率を設定することを特徴とする。請求項36記載の発明によれば、会議室または什器の大きさ、形状、色、分光分布、反射率または透過率を考慮して前記設計対象を設計できる。
本発明は、請求項37に記載のように、請求項33から請求項36のいずれか一項に記載の設計方法において、前記什器の情報を設定するステップは、什器の大きさ、形状、色、分光分布、反射率または透過率を設定することを特徴とする。請求項37記載の発明によれば、会議室または什器の大きさ、形状、色、分光分布、反射率または透過率を考慮して前記設計対象を設計できる。
本発明は、請求項38に記載のように、請求項32から請求項37のいずれか一項に記載の設計方法において、前記設計対象は、会議室、ホワイトボードまたはテーブルもしくは椅子を含む什器である。請求項38記載の発明によれば、例えば会議室、ホワイトボードまたはテーブルもしくは椅子を含む什器を設計できる。
本発明は、請求項39に記載のように、グラフィカル・ユーザ・インタフェース内の作業領域にドラッグ・アンド・ドロップされた会議室アイコンに応じて会議室の情報を設定するステップ、前記作業領域にドラッグ・アンド・ドロップされた什器アイコンに応じて什器の情報を設定するステップ、前記作業領域にドラッグ・アンド・ドロップされた撮影装置アイコンに応じて撮影装置の情報を設定するステップ、前記作業領域にドラッグ・アンド・ドロップされた会議参加者アイコンに応じて会議参加者の情報を設定するステップ、所定の属性アイコンの操作に応じて参加者の属性情報を設定するステップ、前記設定された情報に応じて設計対象を設計する設計ステップをコンピュータに実行させるためのプログラムである。請求項39記載の発明によれば、設定された情報に応じて設計対象を設計し、これを表示させることができる。
本発明によれば、冗長性の少ない会議情報を捕捉できる会議記録装置、会議記録方法、設計方法またはプログラムを提供できる。
以下、本発明を実施するための最良の形態について実施例を用いて説明する。
図1は実施例1に係る会議記録装置の構成例を示すブロック図である。図1に示すように、会議記録装置1は撮影装置2、照明装置3および音響収録装置4から構成される。撮影装置2、照明装置3および音響収録装置4は、複数設けられている。
各撮影装置2は、各撮影装置の撮影領域情報、各照明装置の照明領域情報、各音響収録装置の音響領域情報を参照し、各撮影装置が撮影対象を協調して撮影するように各撮影装置の撮影領域を表現する撮影領域情報を生成し、各撮影領域情報を用いて撮影領域を制御する。また各照明装置3は、各撮影装置の撮影領域情報、各照明装置の照明領域情報、各音響収録装置の音響領域情報を参照し、各照明装置が撮影対象を協調して照明するように各照明装置の照明領域を表現する照明領域情報を生成し、各照明領域情報を用いて照明領域を制御する。また各音響収録装置4は、各撮影装置の撮影領域情報、各照明装置の照明領域情報、各音響収録装置の音響領域情報を参照し、各音響収録装置が協調して音響情報を収録するように各音響収録装置の音響収録領域を表現する音響収録領域情報を生成し、各音響収録領域情報を用いて音響収録領域を制御する。これにより空間的または、時間的な排他制御が可能となる。次に撮影装置2、照明装置3および音響収録装置4について説明する。
図2は、撮影装置2の構成例を示すブロック図である。撮影装置2は、制御部5、撮影部6、視聴覚データ記録部7、表示部8、通信部9、撮影領域情報入力部10、生成部11、撮影領域情報記憶部12、通信部13、14および15、参加者情報入力部16、参加者情報記憶部17、駆動部18、什器情報入力部19、什器情報記憶部20、環境情報入力部21、環境情報記憶部22およびデータ処理部23から構成される。これらは、撮影装置2の内部のネットワーク、回線または回路等を介して相互に接続される。なお、他の撮影装置も同様の構成であるため説明は省略する。
撮影装置2は、撮影装置の撮影領域情報、各照明装置の照明領域情報、各音響収録装置の音響領域情報を参照し、各撮影装置が撮影対象を協調して撮影するように撮影領域を表現する撮影領域情報を生成し、この撮影領域情報を用いて撮影領域を制御する。制御部5は、撮影装置2全体を制御する。制御部5は、CPU(Central Processing Unit)およびメモリー等から構成される。撮影部6は、会議を撮影し、撮影した視聴覚データを記憶部7に出力する。撮影部6は、ビデオ・カメラ等から構成される。以下では視聴覚データは動画データを含むものとする。記憶部7は、撮影部6から入力された視聴覚データを記録する。記録部7に記録された視聴覚データは、制御部5の制御に応じて、表示部8、通信部9またはデータ処理部23に出力される。記憶部7は、例えばメモリーから構成される。なお、以下他の記憶部も同様にメモリーから構成される。表示部8は、記録部7から入力された視聴覚データを利用者に表示する。表示部8は、例えばディスプレイから構成される。
通信部9は、記録部7から入力された視聴覚データを制御部5の制御に応じて外部機器に伝送する。通信部13は、例えばLANアダプター等から構成される。なお、通信部13を構成するLANアダプターは、有線または無線の通信機器を用いて構成することができる。以下他の通信部も同様にLANアダプター等から構成される。
撮影領域情報入力部10は、撮影装置2に固有な撮影領域を表現する光軸ないし立体角等の撮影領域情報を入力するためのものである。撮影領域情報入力部10は、例えばキーボード、グラフィカル・ユーザー・インターフェース等から構成される。なお、以下において入力部は、同様に例えばキーボード、グラフィカル・ユーザー・インターフェース等から構成される。撮影領域情報入力部10を介して初期の撮影領域情報を入力してもよい。生成部11は、撮影領域情報入力部10から入力された撮影領域情報を処理し、処理の結果、更新した撮影領域情報を記憶部12に格納する。この生成部11は、例えばCPUおよびメモリー等から構成される。記憶部12は、撮影領域情報を記憶し、制御部5の制御に応じて、撮影領域情報を通信部13に出力する。
通信部13は、撮影領域情報を他の撮影装置2、照明装置3または音響収録装置4に送信する。通信部13は、他の撮影装置2から送信された撮影領域情報を受信し、生成部11に出力する。通信部14は、照明装置3から送信された照明領域情報を受信し、生成部11に出力する。通信部15は、音響収録装置から送信された照明領域情報を受信し、生成部11に出力する。参加者情報入力部16は、会議参加者の位置、会議参加者の姿勢、会議参加者の頭部の位置および方向、会議参加者の可視聴範囲、会議参加者の可動範囲等会議参加者の関連情報を会議参加者関連情報として入力するものである。これにより参加者の状態を考慮した制御が可能となる。
記憶部17は、参加者情報入力部16から入力された会議参加者関連情報を記憶する。記憶部17に記憶された会議参加者関連情報は、制御部5の制御に応じて、生成部11に出力される。
什器情報入力部19は、会議参加者に共有されるテーブルもしくはホワイトボードまたは会議参加者によって使用される椅子等什器の位置、向き、大きさ、形状、色ないし領域等の什器情報を入力するものである。これらの情報を用いることで、会議室内の什器を考慮した制御が可能となる。記憶部20は、什器情報を記憶する。記憶部20に記憶された什器情報は、制御部5の制御に応じて、生成部11に出力される。環境情報入力部21は、会議が開催される場所の大きさ、形状、色、可視光等の電磁波ないし音波の反射率、什器のアフォーダンスに関する情報等の会議環境情報を入力するものである。記憶部22は、環境情報入力部21から入力された会議環境情報を記憶するものである。記憶部22に記憶された会議環境情報は、制御部5の制御に応じて、生成部11に出力される。
データ処理部23は、記憶部7から入力された聴覚データを処理する。視聴覚データの処理結果は、制御部5の制御に応じて生成部11に出力される。データ処理部23は、CPUおよびメモリー等から構成される。
生成部11は、記憶部12から入力された撮影領域情報、通信部13から入力された他の撮影装置の撮影領域情報、通信部14から入力された照明装置3の照明領域情報、通信部15から入力された音響収録装置4の音響収録領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報、記憶部22から入力された会議環境情報、データ処理部23から入力された視聴覚データ処理結果等に基づいて、各撮影装置2が撮影対象を協調して撮影するように新たな撮影領域情報を生成し、この撮影領域情報を記憶部12に格納する。
駆動部18は、ビデオ・カメラのパン、チルト、ズームを行うモーター等および撮影装置2を移動させるためのモーター等から構成される。この駆動部18は、ビデオ・カメラのパン、チルト、ズーム制御および撮影装置2の移動を行うことで、撮影装置の撮影領域を変更する。したがって制御部5は、記憶部12に記憶された撮影領域情報を用いて駆動部18を介して撮影部6の撮影領域を制御する。各撮影装置2が、撮影対象を協調して撮影するように制御されているので、冗長性の少ない複数の映像を得ることができる。
次に照明装置3について説明する。図3は、照明装置3の構成例を示すブロック図である。照明装置3は、制御部24、照明部25、照明領域情報入力部26、生成部27、照明領域情報記憶部28、通信部29、30および31、駆動部32、データ処理部33、参加者情報入力部16、参加者情報記憶部17、什器情報入力部19、什器情報記憶部20、環境情報入力部21および環境情報記憶部22から構成される。これらは、照明装置3の内部のネットワーク、回線または回路等を介して相互に接続されている。なお各照明装置3は、同様の構成であるため他の照明装置3についての説明は省略する。照明装置3は、各撮影装置の撮影領域情報、各照明装置の照明領域情報、各音響収録装置の音響領域情報を参照し、各照明装置が撮影対象を協調して照明するように各照明装置の照明領域を表現する照明領域情報を生成し、この照明領域情報を用いて照明領域を制御する。制御部24は、照明装置3全体を制御するものである。制御部24は、CPUおよびメモリー等から構成される。照明部25は、ランプないし蛍光灯および反射板等から構成され、会議室中の会議参加者や什器等を照明する。
照明領域情報入力部26は、当該照明装置3に対応する固有の照明領域を表現する立体角等の照明領域情報を入力するものである。この照明領域情報入力部26を介して初期の照明領域情報を入力してもよい。生成部27は、照明領域情報入力部26から入力された照明領域情報を処理して、記憶部28に格納する。記憶部28は、生成部27から入力された照明領域情報を記憶する。通信部29は、記憶部28から入力された照明領域情報を他の照明装置3、撮影装置2または、音響収録装置4に送信する。
通信部29は、他の照明装置3から送信された照明領域情報を受信し、生成部27に出力する。通信部30は、撮影装置2から送信された撮影領域情報を受信し、生成部27に出力する。通信部31は、音響収録装置4から送信された照明領域情報を受信し、生成部27に出力する。
参加者情報入力部16は、会議参加者の位置、会議参加者の姿勢、会議参加者の頭部の位置および方向、会議参加者の可視聴範囲、会議参加者の可動範囲等会議参加者の関連情報を会議参加者関連情報として入力するものである。これにより参加者の状態を考慮した制御が可能となる。記憶部17は、入力された会議参加者関連情報を記憶する。記憶部17に記憶された会議参加者関連情報は、制御部24の制御に応じて、生成部27に出力される。
什器情報入力部19は、会議参加者に共有されるテーブルもしくはホワイトボードまたは会議参加者によって使用される椅子等什器の位置、向き、大きさ、形状、色ないし領域等の什器情報を入力するものである。これにより什器を考慮した制御が可能となる。記憶部20は、什器情報入力部19から入力された什器情報を記憶する。什器情報は、制御部24の制御に応じて什器情報を生成部27に出力する。
環境情報入力部21は、会議が開催される場所の大きさ、形状、色、可視光等の電磁波ないし音波の反射率、什器のアフォーダンスに関する情報等の会議環境情報を入力するものである。これにより会議環境を考慮した制御が可能となる。記憶部22は、環境情報入力部21から入力された会議環境情報を記憶する。この会議環境情報は、制御部24の制御に応じて、生成部27に出力される。データ処理部33は、照明に関するデータを処理し、処理結果を制御部24の制御に応じて、生成部27に出力する。
生成部27は、記憶部28から入力された照明領域情報、通信部29から入力された他の照明装置3の照明領域情報、通信部30から入力さらた撮影装置2の撮影領域情報、通信部31から入力された音響収録装置4の音響収録領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報、記憶部22から入力された会議環境情報、またはデータ処理部33から入力された照明データ処理結果等に基づいて、各撮影装置2が撮影対象を協調して照明するように照明領域情報を生成し、この照明領域情報を記憶部28に格納する。
駆動部32は、ライトないし蛍光灯のパン、チルトを行うモーター等および照明装置3を移動させるためのモーター等から構成される。駆動部32は、ライトないし蛍光灯のパン、チルト制御および照明装置3の移動を行い、照明装置3の照明領域を制御する。したがって制御部24は、記憶部28に記憶された照明領域情報を用いて駆動部32を介して照明部25の撮影領域を制御する。各照明装置3が、撮影対象を協調して照明するように制御されているので、冗長性の少ない複数の照明が可能となる。
次に音響収録装置4について説明する。図4は、音響収録装置4の構成例を示すブロック図である。音響収録装置4は、制御部34、音響収録部35、視聴覚データ記録部36、提示部37、通信部38、音響収録領域入力部39、生成部40、音響収録領域情報記憶部41、通信部42、43および44、駆動部45、データ処理部46、参加者情報入力部16、参加者情報記憶部17、什器情報入力部19、什器情報記憶部20、環境情報入力部21および環境情報記憶部22から構成される。これらは、音響収録装置4の内部のネットワーク、回線または回路等を介して相互に接続されている。なお他の音響収録装置4も同様の構成であるため説明を省略する。
各音響収録装置4は、各撮影装置の撮影領域情報、各照明装置の照明領域情報、各音響収録装置の音響領域情報を参照し、各音響収録装置が協調して音響情報を収録するように各音響収録装置の音響収録領域を表現する音響収録領域情報を生成し、この音響収録領域情報を用いて音響収録領域を制御する。制御部34は、音響収録装置4全体を制御する。この制御部34は、CPUおよびメモリー等から構成される。音響収録部35は、会議参加者により発話される音響、会議の場で発生する音等の視聴覚データを収録する。視聴覚データは、音響データを含む。音響収録部35は、マイク、アンプ、音響データのモニター用のスピーカーないしヘッドホン等から構成される。
記録部36は、音響収録部35から入力された視聴覚データを記憶する。記録部36に記録された視聴覚データは、制御部34の制御に応じて、提示部37、通信部38およびデータ処理部46に出力される。提示部37は、記録部36から入力した視聴覚データを利用者に提示する。提示部37は、スピーカー等から構成される。通信部38は、制御部34の制御に応じて、記録部36から入力された視聴覚データを外部機器に伝送する。
音響収録領域入力部39は、音響収録装置4に固有な音響収録領域を表現する立体角等の音響収録領域情報を入力する。この音響収録領域入力部39を介して初期の音響収録領域情報を入力する。生成部40は、音響収録領域入力部39から入力された音響収録領域情報を処理し、処理した音響収録領域情報を記憶部41に出力する。生成部40は、CPUおよびメモリー等から構成される。記憶部41は、生成部40から入力された音響収録領域情報を記憶するものである。記憶部41に記憶された音響収録領域情報は、制御部34の制御に応じて通信部42に出力される。
通信部42は、記憶部41から入力された音響収録領域情報を撮影装置2、照明装置3または、他の音響収録装置4に送信する。また通信部42は、他の音響収録装置4から送信された音響収録領域情報を受信し、生成部40に出力する。通信部43は、撮影装置2から送信された撮影領域情報を受信し、生成部40に出力する。通信部44は、照明装置3から送信された照明領域情報を受信し、生成部40に出力する。
参加者情報入力部16は、会議参加者の位置、会議参加者の姿勢、会議参加者の頭部の位置および方向、会議参加者の可視聴範囲、会議参加者の可動範囲等会議参加者の関連情報を会議参加者関連情報として入力するものである。これにより参加者の状態を考慮した制御が可能となる。記憶部17は、参加者情報入力部16から入力された会議参加者関連情報を記憶する。記憶部17に記録された会議参加者関連情報は、制御部34の制御に応じて、生成部40に出力する。
什器情報入力部19は、会議参加者に共有されるテーブル、ホワイトボードまたは会議参加者によって使用される椅子等什器の位置、向き、大きさ、形状、色または領域等の什器情報を入力するものである。これにより什器を考慮した制御が可能となる。記憶部20は、什器情報入力部19から入力された什器情報を記憶する。記憶部20に記憶された什器情報は、制御部34の制御に応じて生成部40に出力される。
環境情報入力部21は、会議が開催される場所の大きさ、形状、色、可視光等の電磁波ないし音波の反射率、什器のアフォーダンスに関する情報等の会議環境情報を入力するものである。これにより会議室の環境を考慮した制御が可能となる。記憶部22は、環境情報入力部21から入力された会議環境情報を記憶する。記憶部22に記憶された会議環境情報は、制御部34の制御に応じて、生成部40に出力される。データ処理部46は、記録部36から入力された視聴覚データを処理し、制御部34の制御に応じて、視聴覚データの処理結果を生成部40に出力する。
また生成部40は、記憶部41から入力された音響収録領域情報、通信部42から入力された他の音響収録装置4の音響収録領域情報、通信部43から入力された撮影装置2の撮影領域情報、通信部44から入力された照明装置3の照明領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報、記憶部22から入力された会議環境情報、またはデータ処理部46から入力された視聴覚データ処理結果等に基づいて、各音響収録装置4が協調して音響情報を収録するように音響収録領域情報を生成し、この音響収録領域情報を記憶部41に格納する。
駆動部45は、マイクの方向や角度の制御を行うモーター等および音響収録装置4を移動させるためのモーター等から構成される。駆動部45は、マイクの位置および角度制御および音響収録部4の移動を行うことで、音響収録部4の音響収録範囲を変更する。したがって制御部34は、記憶部41に記憶された音響収録領域情報を用いて駆動部45を介して音響収録部35の音響収録領域を制御する。各音響収録装置4が、協調して音響情報を収録するように制御されるので、冗長性の少ない複数の視聴覚データないし音響データあるいは音声データの収録が可能となる。
次に撮影領域情報を表現するデータについて説明する。図5は、撮影領域情報に関するパラメータ説明する図である。図5において、撮影装置2は、三次元空間上の点Pの位置に配置されているものとする。また撮影装置2の撮影方向上の点Qと点Pとを結ぶ直線PQとXY平面上の点Pと交差するXY平面に対する法線(直線PZ)とのなす角度をTとする。また撮影対象は、点Qに位置するものとする。点QをXY平面上に射影した点を点Uとする。直線PUとX軸とのなす角度をVとする。点Pを中心とした単位球と直線PQの交点を含む円錐を考え、当該円錐に関連する立体角をWと表現するものとする。また直線PQ間の距離をRで表現するものとする。
撮影領域情報は、上記の点Pの座標(X,Y,Z)、法線となす角度T、直線PUとX軸とのなす角度V、立体角W、対象までの距離Rおよび撮影装置2ないしカメラの仕様並びに各パラメータを特定した時刻tで表現することができる。ここで、直線PUとX軸とのなす角度Vを便宜的に方位角と呼ぶことにする。なお、照明領域および音響収録領域についても撮影領域情報を同様に表現されるので説明を省略する。
図6は、撮影領域情報記憶部12で保持される撮影領域情報を表現する撮影領域情報テーブル47を示す図である。この撮影領域情報テーブル47は、記憶部12に格納されている。撮影領域情報テーブル47は、生成部11により書き換えられる。撮影領域情報テーブル47は、撮影装置識別子47a、座標47b、法線とのなす角度47c、方位角47d、 立体角47e、距離47f、カメラ仕様47gおよび時刻47hを含む。
図6に示すように、第1の撮影装置において、撮影装置識別子47aは「CAM0」、座標47b「(0,0,0)」、法線とのなす角度47cは「T=45°」、方位角47dは「V=10°」、 立体角47e「W=1」、距離47f「R=1」、カメラ仕様47g「パン・チルト・ズーム可能カメラA」および時刻47h「1」を含む。
また第2の撮影装置において、撮影装置識別子47aは「CAM1」、座標47b「(0,1,0)」、法線とのなす角度47cは「T=60°」、方位角47dは「V=2°」、 立体角47e「W=2」、距離47f「R=2」、カメラ仕様47g「パン・チルト・ズーム可能カメラB」および時刻47h「2」を含む。また、第3の撮影装置において、撮影装置識別子47aは「CAM2」、座標47b「(1,1,0)」、法線とのなす角度47cは「T=70°」、方位角47dは「V=3°」、 立体角47e「W=3」、距離47f「R=2」、カメラ仕様47g「パン・チルト・ズーム可能カメラC」および時刻47h「3」を含む。
次に照明領域情報を表現するデータについて説明する。照明領域情報は撮影領域情報と同様に、照明装置3の座標(X’,Y’,Z’)、法線となす角度T’、方位角V’、立体角W’、距離R’および照明装置3ないしライトの仕様 並びに各パラメータを特定した時刻t’で表現することができる。
図7は、照明領域情報記憶部28に記憶される照明領域情報を表現する照明領域情報テーブル48を示す図である。この照明領域情報テーブル48は、記憶部28に格納されている。この照明領域情報テーブル48は、生成部27により書き換えられる。照明領域情報テーブル48は、照明装置識別子48a、座標48b、法線とのなす角度48c、方位角48d、立体角48e、距離48f、ライト仕様48gおよび時刻48hを含む。
図7に示すように、第1の照明装置は、照明装置識別子48a「LIGHT0」、座標48b「(0,0,1)」、法線とのなす角度48c「T’=45°」、方位角48d「V’=11°」、立体角48e「W’=1」、距離48f「R’=1」、ライト仕様48g「照明A」および時刻48h「4」を含む。また第2の照明装置は、照明装置識別子48a「LIGHT1」、座標48b「(0,1,1)」、法線とのなす角度48c「T’=60°」、方位角48d「V’=3°」、立体角48e「W’=2」、距離48f「R’=2」、ライト仕様48g「照明B」および時刻48h「5」を含む。
次に音響収録領域情報を表現するデータについて説明する。音響収録領域情報は、撮影領域情報と同様に、音響収録装置4の座標(X’’, Y’’,Z’’)、法線となす角度T’’、方位角V’’、立体角W’’、距離R’’および音響収録装置4ないしマイクの仕様並びに各パラメータを特定した時刻t’’で表現することができる。図8は、記憶部41で保持される音響収録領域情報を表現する音響収録領域情報テーブル49を示す図である。
音響収録領域情報テーブル49は、記憶部41に格納されている。音響収録領域情報テーブル49は、生成部40により書き換えられる。音響収録領域情報テーブル49は、音響収録装置識別子49a、座標49b、法線とのなす角度49c、方位角49d、立体角49e、距離49f、マイク仕様49gおよび時刻49hで構成される。図8に示すように、第1の音響収録装置は、音響収録装置識別子49a「MIC0」、座標49b「(0,0,0)」、法線とのなす角度49c「T’’=45°」、方位角49d「V’’=1°」、立体角49e「W’’=1」、距離49f「R’’=1」、マイク仕様49g「マイクA」および時刻49h「6」を含む。また第2の音響収録装置は、音響収録装置識別子49a「MIC1」、座標49b「(0,0,1)」、法線とのなす角度49c「T’’=60°」、方位角49d「V’’=3°」、立体角49e「W’’=2」、距離49f「R’’=2」、マイク仕様49g「マイクB」および時刻49h「7」を含む。
ここで、法線とのなす角度49c、方位角49d、立体角49e等は、従来技術の音源位置定位方法を利用することによって特定することができる。例えば音源位置定位方法の一つとして中島らの”音圧差情報負荷による音源定位システムの性能改善”,電子情報通信学会論文誌VOL.J87-D-II No.3, 2004,pp.919-922を利用することができる。上記生成部11、27および40は、各撮影装置2の位置情報(座標47b)、照明装置3の位置情報(座標48b)または音響収録装置4の位置情報(座標48b)を用いて、撮影領域情報、照明領域情報または音響収録領域情報を生成する。
次に、撮影装置2における撮影手続きについて説明する。図9は、撮影装置2における撮影手続きを示すフローチャートである。図9に示すように、撮影手続きは撮影装置初期化ステップS1、視聴覚データ取得ステップS2、撮影領域情報生成・更新ステップS3、撮影領域情報伝送ステップS4および撮影装置駆動ステップS5を含む。ステップS1で、撮影装置2の制御部5は、撮影装置2の各部を初期化する。ステップS2で、撮影部6は、会議を撮影し、撮影した動画データないし視聴覚データを記憶部7に出力する。一方、記憶部7は、制御部5の制御に応じて、視聴覚データを表示部8、視聴覚データ通信部9または視聴覚データ処理部23に出力する。
ステップS3で、生成部11は、記憶部12から入力された更新前の撮影領域情報、通信部13から入力された他の照明装置の撮影領域情報、通信部14から入力された照明装置の照明領域情報、通信部15から入力された音響収録装置の音響収録領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報、記憶部22から入力された会議環境情報、または視聴覚データ処理部23から入力された視聴覚データ処理結果等に基づいて、各撮影装置2が撮影対象を協調して撮影するように新たな撮影領域情報を生成する。
生成部11は、生成した撮影領域情報を記憶部12に格納する。これにより図6に示した撮影領域情報テーブル47の内容が更新される。さらに記憶部12は、制御部5の制御に応じて保持した撮影領域情報を通信部13に出力する。なお、各撮影装置2で撮影した視聴覚データから人の特徴量に基づいて人が存在する領域を抽出し、当該抽出された領域情報から撮影領域情報を生成するようにしてもよい。また照明装置3または音響収録装置4でも、上記人が存在する領域を用いて、照明領域情報または音響収録領域情報を生成するようにしてもよい。
この人の特徴量に基づいて人が存在する領域を抽出する方法として、従来技術である井出らの”ニュース映像における人物の分離による背景の場面推定”,電子情報通信学会論文誌D-II Vol. J84-D-II No.8 pp.1856-1863 2001年8月,に記載されている「顔領域を基準として人物領域を決定するテンプレート」等を応用することができる。つまり、撮影対象を人物であるとした場合、当該顔領域を基準として人物領域を決定するテンプレート等を用いて人物領域を特定することにより、人物領域に対応する立体角Wを特定することができる。生成部11は、撮影装置2の撮影部6で撮影した視聴覚データを基に立体角Wを特定し、記憶部12内の撮影領域情報テーブル47に格納する。
また法線とのなす角Tや方位角Vなどはカメラなどの撮影部6から特定することができる。また対象となる人物までの距離Rは従来のステレオ視によるいわゆる距離画像などを用いて特定することができる。ステレオ視による距離画像の取得方法としては佐川らの”複数視点からの距離画像を用いた高速表面再構築法-ロボット用実時間時空間再構成の研究(その5)-”,第17回日本ロボット学会学術講演会(1999年9月)などを用いることができる。生成部11は、法線とのなす角Tや方位角Vなどはカメラなどの撮影部6から特定し、記憶部12内の撮影領域情報テーブル47に格納する。
次に、撮影領域情報生成部11の手続きについて補足説明する。生成部11は、各撮影装置2が会議記録として必要十分な視聴覚データないし映像データを記録可能なように自己の撮影装置2の初期の(もしくは前回ないし過去の)撮影領域情報および他の撮影装置2の撮影領域情報等に基づいて、新たな撮影領域情報を生成する。撮影領域情報の演算方法として、各撮影装置2の撮影領域が可能な限り重ならないように、すなわち全体の視聴覚データに内容的な冗長性が小さくなるように撮影領域情報を生成する。
また撮影領域情報の演算方法として、各撮影装置2の撮影領域において、前述の方法によって特定した人物領域が最大となるように撮影領域情報を演算処理するとよい。そこで、撮影領域情報の演算方法を決定するための評価関数として、冗長性を表現する関数の逆数と各撮影装置2における人物領域を表現する関数とで構成される評価関数を定義する。生成部11は、当該評価関数を用いて、当該評価関数が最大となるように撮影領域情報を演算する。
例えば時刻tにおける撮影装置2相互の撮影領域の重なりをOverlapBtwnCamAndCam(t)として冗長性を表現するものとすると、その逆数は1/OperlapBtwnCamAndCam(t)となる。また撮影装置2を番号付けし、その指標ないし番号をiとし、時刻tにおけるi番目の撮影装置2の画面の全画素数をPixelsOfCamera(t, i)で表現し、時刻tにおけるi番目の撮影装置2に撮影されている人物領域をPixelsOfFigure(t, i)で表現したとすると、時刻tにおける撮影装置2における人物領域の有効度を表現する関数をPixelsOfFigure(t, i)/PixelsOfCamera(t, i)の総和として定義することができる。そこで、撮影領域情報の演算方法を決定するための評価関数Ecamera(t)を式1のように定義することができる。
Figure 2005323139
ここで、式1中のa、bおよびwは係数であり、imaxは撮影装置2の総数である。また生成部11は、通信部14から入力された照明領域情報、通信部15から入力された音響収録領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報および記憶部22から入力された会議環境情報を利用して別の評価関数を定義ないし、その結果に基づいて撮影領域情報を変更することもできる。
例えば通信部14から入力した照明領域情報に基づいて、時刻tにおけるi番目の撮影装置2の撮影領域とj番目の照明装置3の照明領域の相互の重なりを表現するOverlapBtwnCamAndLight(t, i, j)を定義することができる。同様に、通信部15から入力された音響収録領域情報に基づいて、時刻tにおけるi番目の撮影装置2の撮影領域とk番目の音響収録装置4の音響収録領域の相互の重なりを表現するOverlapBtwnCamAndMic(t, i, k)を定義することができる。
前述の撮影領域に関する評価関数Ecamera(t)およびこれらのOverlapBtwnCamAndLight(t, i, j)およびOverlapBtwnCamAndMic(t, i, k)を用いて式2のように撮影領域に関する第二の評価関数Ecamera2(t)を定義することができる。
Figure 2005323139
ここで、式2中のcおよびdは係数であり、jはj番目の照明装置3を表現する指標であり、jmaxは照明装置3の総数を表現する。またkはk番目の音響収録装置4を表現する指標であり、kmaxは音響収録装置4の総数を表現する。また記憶部17から入力された会議参加者関連情報の内容に基づいて式1中の係数wを制御することができる。
例えば、いわゆるRFID(Radio Frequency Identification)や人事情報データベース等を用いて会議参加者の役職など会議における会議参加者の重要度が特定できた場合、その会議参加者の重要度に応じて、係数wを制御することができる。具体的には、取締役社長の場合にwを100とし、技術執行役員の場合にwを90とし、部門長の場合にwを80などと指定することができる。人事情報データベースに社員番号が識別子として入力されており、社員番号ごとに役職が記録されているとし、さらにRFIDが社員番号を記録し、そのデータを送受信する場合、RFIDを持つ社員が会議に参加し、RFIDのデータ受信によって社員番号が特定され、そのデータを受信した時刻tが特定できる。
一方、撮影装置2は、会議室の場所、あるいはRFIDのデータ受信の電波強度あるいは撮影装置2が撮影した画像の顔認識処理と人事情報データベースの参照等から特定できる。特定された社員番号から係る人事データベースの検索によって会議参加者の役職を特定することができる。この特定された役職に基づいて会議参加者に対応する係数wを特定することができる。さらに、生成部11は、記憶部20から入力した什器情報および記憶部22から入力された会議環境情報を利用して撮影領域を演算するための評価関数を定義することができる。
記憶部20から入力された什器情報に基づいて、時刻tにおけるi番目の撮影装置2の撮影領域とm番目の什器の什器領域の相互の重なりを表現するOverlapBtwnCamAndFur1(t, i, m)を定義することができる。また記憶部20から入力された什器情報に基づいて、時刻tにおけるi番目の撮影装置2の撮影領域とn番目の什器の什器領域の相互の重なりを表現するOverlapBtwnCamAndFur2(t, i, n)を定義することができる。
また記憶部22から入力された会議環境情報に基づいて、時刻tにおけるi番目の撮影装置2の撮影領域と会議環境情報から導出されたo番目の注目領域の相互の重なりを表現するOverlapBtwnCamAndAttention(t, i, o)を定義することができる。前述の撮影領域に関する第二の評価関数Ecamera2(t)および当該OverlapBtwnCamAndFur1(t, i, m)、OverlapBtwnCamAndFur2(t, i, n)およびOverlapBtwnCamAndAttention(t, i, o)を用いて式3のように撮影領域に関する第三の評価関数Ecamera3(t)を定義することができる。
Figure 2005323139
ここで、e、fおよびgは係数であり、mはm番目のテーブル等の什器を表現する指標であり、nはn番目の椅子等の什器を表現する指標であり、oはo番目の注目領域を表現する指標であり、mmaxはテーブル等の什器の総数であり、nmaxは椅子等の什器の総数であり、omaxはホワイトボードやプロジェクターのスクリーンなどの注目すべき領域(注目領域と称する)の総数である。ここで、テーブル等の什器の表面は視聴覚データないし映像データとして記録したい場合が予想され、撮影領域に関する第三の評価関数Ecamera3(t)の一部がOverlapBtwnCamAndFur1(t,i,m)として表現されている。
一方、椅子等の什器は、視聴覚データないし映像データとして記録したくない場合が予想され、撮影領域に関する第三の評価関数Ecamera3(t)の一部がOverlapBtwnCamAndFur2(t,i,m)の逆数として表現されている。
また、生成部11は、会議参加者相互の見詰め合いまたは会議参加者のホワイトボードへの凝視を撮影可能とするように撮影領域情報を生成する。なお、従来技術を応用することによって、会議参加者相互の見詰め合いまたは会議参加者のホワイトボードへの凝視の特定することができる。例えば、三宅らの”顔の向きに依存しない特徴量を用いた注視判定方法”、電子情報通信学会論文誌VOL.J86-D-II,No.12,DECEMBER.2003,pp1737-1744では顔面の定められた位置に左右一対のマークを貼付して、画像処理を行うことによって黒目変位量を計測し、その計測結果に基づき注視しているか否かを判定することができる。
この技術を応用し、ホワイトボードもしくは会議参加者に対する凝視を判定することができると考えられる。三宅らの提案する方法では「左右一対のマークを貼付する」必要があるが、本発明ではそれらのマークの代わりに、画像処理によって左右の「目頭」を特定することによって、その左右の目頭の中点を利用して黒目変位量を計測し、その黒目変位量に基づいて凝視方向を特定することを提案する。具体的には、三宅らの論文で明らかなように従来技術で、目頭を含む二値化した画像を取得することは容易である。
また左右の目を含む(外接する)長方形を特定することも可能である。これらのことを前提にすると左右の目を含む長方形の領域を特定した後に、それらの左右の目に対応する二つの長方形の互いの長方形の近い辺から目の領域ないし画素を探索することによって目頭に対応する部分(画素)を特定することが可能である。そこで、左右の目頭の領域が特定されると左右の目頭の中点を特定することができる。これ以後の処理は三宅らの方法と同様にして、黒目変位量を計測することができる。左右目頭間の中点と計測された黒目変位量に基づいて対象となる会議参加者の注視方向ないし凝視方向を特定することができる。特定の時間単位、例えば一秒毎に注視方向を特定し、その方向が変化しているか否かを判定することによって、注視ないし凝視しているか否かを判定することが可能である。
さらに、撮影装置2の位置などの撮影領域情報と前述の会議参加者の注視方向から新たな撮影領域情報を生成することができる。つまり、現時点で、撮影領域として会議参加者が特定されていると仮定した場合、撮影領域情報には、撮影装置2の位置(X, Y, Z)、法線とのなす角度T、方位角V、立体角Wおよび会議参加者との距離Rが特定されており、さらに前述の方法によって会議参加者の注視方向が特定されるので、会議室が壁などで囲まれていて、会議参加者がホワイトボードなどを注視しているとき、会議参加者が注視している新たな撮影領域を特定することができる。
また大野らの”ヒューマンインタフェースとしての視線測定技術とその応用”, 計測自動制御学会 システムインテグレーション部門講演会(SI2002), p.117-118.を応用することによって視線を計測することができる。これらの計測した視線の結果と従来の顔認識技術を用いて会議参加者同士の「見詰め合い」や「凝視」を特定することができる。
具体的には、図10に示すようにある時刻tにおいて会議参加者の顔領域Face(t)に、注視点AttentionPoint(t)が含まれるか否かを判定し、見詰め合いを特定することができる。図10は見詰め合いにおける顔領域と注視点を示す図である。例えばある会議において参加者Aと参加者Bが参加している場合、見詰め合い条件1として、会議参加者Aの顔領域Face_A(t)に、会議参加者Bの注視点AttionPoint_B(t)が含まれ、かつ、見詰め合い条件2として、会議参加者Bの顔領域Face_B(t)に、会議参加者Aの注視点AttentionPoint_A(t)が含まれていて、かつ、ある所要時間の閾値以上に見詰め合い条件1および見詰め合い条件3が成立するとき、参加者Aおよび参加者Bは見詰め合っていると特定することができる。
ここで参加者Bの代わりに注目すべき領域(注目領域)を定義し、その注目領域内に参加者Aの注視点が同様に含まれるか否かを判定することによって凝視を特定することができる。さらに視線計測技術および顔認識技術に加えて、音声認識技術を利用することによって会議参加者が「議論」している時間帯を特定することができる。具体的には、無音区間が所定の既定時間以内であり、かつ、発話者が交代されている時間帯を議論と定義することができる。議論部分以外の発話区間を「独り言」と定義することができる。なお、これらの処理は、視聴覚データ処理部23、生成部11により行われる。
図9に戻り、ステップS4で、駆動部18は、制御部5の制御に応じて、ビデオ・カメラのパン、チルト、ズーム制御および撮影部6の移動を行う。これにより撮影部6の撮影領域が制御できる。ステップS5で、通信部13は、記憶部12から入力された撮影領域情報を他の撮影装置2の通信部13に送信する。また通信部13は、他の撮影装置2の通信部13から送信された撮影領域情報を受信し、生成部11に出力する。生成部11は、次の時点の撮影領域情報を生成し、記憶部12に格納する。
次に、照明装置3における照明手続きについて説明する。図11は、照明装置3における照明手続きを示すフローチャートである。図11に示すように、照明手続きは、照明装置初期化ステップS11、照明データ取得ステップS12、照明領域情報生成・更新ステップS13、照明領域情報伝送ステップS14および照明装置駆動ステップS15を含む。
ステップS11で、制御部24は、照明装置3の各部を初期化する。ステップS12で、照明データ処理部33は、照明に関するデータを処理し、処理した照明データの処理結果を生成部27に出力する。ステップS13で、生成部27は、記憶部28から入力された照明領域情報、通信部29から入力された照明領域情報、報通信部30から入力された撮影領域情報、通信部31から入力された音響収録領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報、記憶部22から入力された会議環境情報、照明データ処理部33から入力された照明データ処理結果等に基づいて、各照明装置が撮影対象を協調して照明するように新たな照明領域情報を生成する。
生成部27は、生成した照明領域情報を記憶部28に格納する。これにより、図7で示した照明領域情報テーブル48が書き換えられる。制御部24の制御に応じて記憶部28に記憶された照明領域情報は、通信部29に出力される。なお、生成部27は、撮影装置2から撮影された視聴覚データから人の特徴量に基づいて人が撮影されている領域を抽出し、当該抽出された領域情報から照明領域情報を生成するようにしてもよい。係る人の特徴量に基づいて人が撮影されている領域を抽出する方法として、前述と同様に、従来技術である井出らの”ニュース映像における人物の分離による背景の場面推定”,電子情報通信学会論文誌D-II Vol. J84-D-II No.8 pp.1856-1863 2001年8月,に記載されている「顔領域を基準として人物領域を決定するテンプレート」等を応用することができる。
次に照明領域情報生成部27の手続きについて補足説明する。生成部27は、各照明装置3が会議記録として必要十分な視聴覚データないし映像データを記録可能なように自己の照明装置3の初期の(もしくは前回ないし過去の)照明領域情報および他の照明装置3の照明領域情報等に基づいて、新たな照明領域情報を生成する。照明領域情報の演算方法として、各照明装置3の照明領域が可能な限り重ならないように、すなわち全体の視聴覚データにおける照明としての内容的な冗長性が小さくなるように照明領域情報を演算処理するように設定できる。
また照明領域情報の演算方法として、各照明装置3の照明領域において、前述の方法によって特定した人物領域が最大となるように照明領域情報を演算処理するように設定することができる。そこで、照明領域情報の演算方法を決定するための評価関数として、冗長性を表現する関数の逆数と各照明装置3における人物領域を表現する関数とで構成される評価関数を定義することができる。生成部27は、当該評価関数を用いて、当該評価関数が最大となるように照明領域情報を演算する。
ここで、照明領域は、次のように定義する。まず、照明領域を定義すべき照明装置3を暗室の三次元空間上の原点に配置し、その暗室の空間を単位距離、例えば、1センチメートルを一辺とする立方体で仮想的に分割し、その分割された立方体の頂点に位置する点に照度計ないし輝度計を配置し、照度もしくは輝度を計測するものとする。照度計としては、テックジャム社製ディジタル照度計EL-1000など一般的な照度計を用いることができる。一方、輝度計としては、テプコン社製分光放射計SR-3など一般的な輝度計を用いることができる。また輝度計から計測される輝度の代替として、ビデオ・カメラ等で撮影した画像の平均輝度を輝度値として用いることもできる。
次に照度ないし輝度の閾値を定義する。続いて、その照度の閾値ないし輝度の閾値に一致する領域を上記のように計測した照度または輝度に対応させることによって照明領域を定義する。例えば、時刻tにおける照明装置3相互の照明領域の重なりをOverlapBtwnLightAndLight(t)として冗長性を表現するものとすると、その逆数は、1/OperlapBtwnLightAndLight(t)となる。
また照明装置3を番号付けし、その指標ないし番号をjとし、時刻tにおけるj番目の照明装置3に対応する照明領域をSpaceOfLight(t, j)で表現し、時刻tにおけるi番目の撮影装置2に撮影されている人物領域をSpaceOfFigure(t, i)で表現したとすると、時刻tにおける照明装置3における人物領域に対する照明の有効度を表現する関数をSpaceOfLight(t, j)∩SpaceOfFigure(t, i)の総和として定義することができる。ここで、∩は空間的な重なりを意味するものとする。そこで、照明領域情報の演算方法を決定するための評価関数Elight(t)を式4のように定義することができる。
Figure 2005323139
ここで、式4中のa’、b’およびw’は係数であり、jmaxは照明装置3の総数である。
また生成部27は、通信部30から入力された撮影領域情報、通信部31から入力された音響収録領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報および記憶部22から入力された会議環境情報を利用して別の評価関数を定義し、その結果に基づいて照明領域情報を変更することもできる。例えば、通信部30から入力した撮影領域情報に基づいて、時刻tにおけるj番目の照明装置3の照明領域とi番目の撮影装置2の撮影領域の相互の重なりを表現するOverlapBtwnLightAndCam(t, j, i)を定義することができる。
同様に通信部31から入力した音響収録領域情報に基づいて、時刻tにおけるj番目の照明装置3の照明領域とk番目の音響収録装置4の音響収録領域の相互の重なりを表現するOverlapBtwnLightAndMic(t, j, k)を定義することができる。前述の照明領域に関する評価関数Elight(t)およびこれらのOverlapBtwnLightAndCam(t, j, i)およびOverlapBtwnLightAndMic(t, j, k)を用いて式5のように照明領域に関する第二の評価関数Elight2(t)を定義することができる。
Figure 2005323139
ここで、式5中のc’およびd’は係数であり、iはi番目の撮影装置2を表現する指標であり、imaxは撮影装置2の総数を表現する。またkはk番目の音響収録装置4を表現する指標であり、kmaxは音響収録装置4の総数を表現する。また前述の撮影領域情報生成・更新ステップS3と同様に、記憶部17から入力された会議参加者関連情報の内容に基づいて式4中の係数w’を制御することができる。
例えばいわゆるRFIDや人事情報データベース等を用いて会議参加者の役職など会議における会議参加者の重要度が特定できた場合、その会議参加者の重要度に応じて、係数w’を制御することができる。具体的には、取締役社長の場合にw’を100とし、技術執行役員の場合にw’を90とし、部門長の場合にw’を80などと指定することができる。さらに生成部27は、記憶部20から入力した什器情報および記憶部22から入力した会議環境情報を利用して撮影領域を演算するための評価関数を定義することができる。
記憶部20から入力された什器情報に基づいて、時刻tにおけるj番目の照明装置3の照明領域とm番目の什器の什器領域の相互の重なりを表現するOverlapBtwnLightAndFur1(t, j, m)を定義することができる。また記憶部20から入力された什器情報に基づいて、時刻tにおけるj番目の照明装置3の照明領域とn番目の什器の什器領域の相互の重なりを表現するOverlapBtwnLightAndFur2(t, j, n)を定義することができる。
また記憶部22から入力された会議環境情報に基づいて、時刻tにおけるj番目の照明装置3の照明領域と会議環境情報から導出されたo番目の注目領域の相互の重なりを表現するOverlapBtwnLightAndAttention(t, j, o)を定義することができる。前述の照明領域に関する第二の評価関数Elight2(t)および当該OverlapBtwnLightAndFur1(t, j, m)、OverlapBtwnLightAndFur2(t, j, n)およびOverlapBtwnLightAndAttention(t, j, o)を用いて式6のように照明領域に関する第三の評価関数Elight3(t)を定義することができる。
Figure 2005323139
ここで、e’、f’およびg’は係数であり、mはm番目のテーブル等の什器を表現する指標であり、nはn番目の椅子等の什器を表現する指標であり、oはo番目の注目領域を表現する指標であり、mmaxはテーブル等の什器の総数であり、nmaxは椅子等の什器の総数であり、omaxはホワイトボードやプロジェクターのスクリーンなどの注目すべき領域(注目領域)の総数である。
ここで、テーブル等の什器の表面は視聴覚データないし映像データとして記録したい場合が予想され、照明領域に関する第三の評価関数Elight3(t)の一部がOverlapBtwnLightAndFur1(t,j,m)として表現されている。一方、椅子等の什器は視聴覚データないし映像データとして記録したくない場合が予想され、照明領域に関する第三の評価関数Elight3(t)の一部がOverlapBtwnLightAndFur2(t,j,m)の逆数として表現されている。これらの処理は主に生成部27により行われる。
ステップS14で、駆動部32は、制御部24の制御に応じて、ライトないし蛍光灯のパン、チルト制御および照明部25の移動を行う。これにより照明部25の照明領域が制御される。ステップS15で、通信部29は、記憶部28から入力された照明領域情報を他の照明装置3の通信部29に送信する。また通信部29は、他の照明装置3の通信部29から送信された照明領域情報を受信し、生成部27に出力する。生成部11は、次の時点の照明領域情報を生成する。
次に、音響収録装置4における音響収録手続きについて説明する。図12は、音響収録装置4における音響収録手続きを示すフローチャートである。図12に示すように、音響収録手続きは、音響収録装置初期化ステップS21、視聴覚データ取得ステップS22、音響収録領域情報生成・更新ステップS23、音響収録領域情報伝送ステップS24および音響収録装置駆動ステップS25を含む。
ステップS21で、音響収録装置4の制御部34は、音響収録装置4の各部を初期化する。ステップS22で、音響収録部35は、会議参加者により発話される音声、会議の場で発生する音等の音響データを含む視聴覚データを収録し、収録した視聴覚データを記録部36に出力する。一方、記録部36は、制御部34の制御に応じて、視聴覚データを視聴覚データ提示部37、通信部38および視聴覚データ処理部46に出力する。
ステップS23で、生成部11は、記憶部41から入力された音響収録領域情報、通信部42から入力された音響収録領域情報、通信部43から入力された撮影領域情報、通信部44から入力された照明領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報、記憶部22から入力された会議環境情報、視聴覚データ処理部46から入力された視聴覚データ処理結果に基づいて各音響収録装置が協調して視聴覚データないし音響データもしくは音声データを収録するように新たな音響収録領域情報を生成し、この音響収録領域情報を記憶部41に格納する。これにより、図8で示した音響収録領域情報デーブル49の内容が書き換えられる。記憶部41に記憶された音響収録領域情報は、制御部34の制御に応じて、通信部42に出力される。
なお、撮影装置2から撮影された視聴覚データから人の特徴量に基づいて人が撮影されている領域を抽出し、当該抽出された領域情報から音響収録領域情報を生成するようにしてもよい。係る人の特徴量に基づいて人が撮影されている領域を抽出する方法として、前述と同様に、従来技術である井出らの”ニュース映像における人物の分離による背景の場面推定”,電子情報通信学会論文誌D-II Vol. J84-D-II No.8 pp.1856-1863 2001年8月,に記載されている「顔領域を基準として人物領域を決定するテンプレート」等を応用することができる。
次に生成部40の手続きについて補足説明する。生成部40は、各音響収録装置4が会議記録として必要十分な視聴覚データないし音声データを記録可能なように自己の音響収録装置4の初期の(もしくは前回ないし過去の)音響収録領域情報および他の音響収録装置4の音響収録領域情報等に基づいて、新たな音響収録領域情報を演算する。音響収録領域情報の演算方法として、各音響収録装置4の音響収録領域が可能な限り重ならないように、すなわち全体の視聴覚データにおける音声としての内容的な冗長性が小さくなるように音響収録領域情報を演算処理するように設定することができる。
また音響収録領域情報の演算方法として、各音響収録装置4の音響収録領域において、前述の方法によって特定した人物領域が最大となるように音響収録領域情報を演算処理するように設定することができる。そこで、音響領域情報の演算方法を決定するための評価関数として、冗長性を表現する関数の逆数と各音響収録装置4における人物領域を表現する関数とで構成される評価関数を定義することができる。生成部40は、当該評価関数を用いて、当該評価関数が最大となるように音響収録領域情報を演算することができる。
ここで、音響収録領域は、マイクロフォーンあるいはマイクのいわゆる指向性パターンあるいは感度特性を空間的に表現したものとする。例えば時刻tにおける音響収録装置4相互の音響収録領域の重なりをOverlapBtwnMicAndMic(t)として冗長性を表現するものとすると、その逆数は、1/OperlapBtwnMicAndMic(t)となる。また音響収録装置4を番号付けし、その指標ないし番号をkとし、時刻tにおけるk番目の音響収録装置4に対応する音響収録領域をSpaceOfMic(t, k)で表現し、時刻tにおけるi番目の撮影装置2に撮影されている人物領域をSpaceOfFigure(t, i)で表現したとすると、時刻tにおける音響収録装置4における人物領域に対する音響収録の有効度を表現する関数をSpaceOfMic(t, k)∩SpaceOfFigure(t, i)の総和として定義することができる。ここで、∩は空間的な重なりを意味するものとする。そこで、音響収録領域情報の演算方法を決定するための評価関数Emic(t)を式7のように定義することができる。
Figure 2005323139
ここで、式7中のa’’、b’’およびw’’は係数であり、kmaxは音響収録装置4の総数である。
また生成部40は、通信部43から入力された撮影領域情報、通信部44から入力された照明領域情報、記憶部17から入力された会議参加者関連情報、記憶部20から入力された什器情報および記憶部22から入力された会議環境情報を利用して別の評価関数を定義ないし、その結果に基づいて照明領域情報を変更することもできる。
例えば通信部43から入力した撮影領域情報に基づいて、時刻tにおけるk番目の音響収録装置4の音響収録領域とi番目の撮影装置2の撮影領域の相互の重なりを表現するOverlapBtwnMicAndCam(t, k, i)を定義することができる。同様に、通信部44から入力した照明領域情報に基づいて、時刻tにおけるk番目の音響収録装置4の音響収録領域とj番目の照明装置3の照明領域の相互の重なりを表現するOverlapBtwnMicAndLight(t, k, j)を定義することができる。
前述の音響収録領域に関する評価関数Emic(t)およびこれらのOverlapBtwnMicAndCam(t, k, i)およびOverlapBtwnMicAndLight(t, k, j)を用いて式8のように音響収録領域に関する第二の評価関数Emic2(t)を定義することができる。
Figure 2005323139
ここで、式8中のc’’およびd’’は係数であり、iはi番目の撮影装置2を表現する指標であり、imaxは撮影装置2の総数を表現する。またjはj番目の照明装置3を表現する指標であり、jmaxは照明装置3の総数を表現する。
またステップS3やステップS8と同様に、参加者情報入力部17から入力された会議参加者関連情報の内容に基づいて式7中の係数w’’を制御することができる。例えばいわゆるRFIDや人事情報データベース等を用いて会議参加者の役職など会議における会議参加者の重要度が特定できた場合、その会議参加者の重要度に応じて、w’’を制御することができる。具体的には、取締役社長の場合にw’’を100とし、技術執行役員の場合にw’’を90とし、部門長の場合にw’’を80などと指定することができる。さらに生成部40は、記憶部20から入力した什器情報および記憶部22から入力した会議環境情報を利用して撮影領域を演算するための評価関数を定義することができる。
記憶部22から入力された会議環境情報に基づいて、時刻tにおけるk番目の音響収録装置4の音響収録領域と会議環境情報から導出されたo番目の注目領域の相互の重なりを表現するOverlapBtwnMicAndAttention(t, k, o)を定義することができる。記憶部22から入力された会議環境情報に基づいて、時刻tにおけるk番目の音響収録装置4の音響収録領域と会議環境情報から導出されたp番目の音響的な妨害領域の相互の重なりを表現するOverlapBtwnMicAndObstacle(t, k, o)を定義することができる。
前述の音響収録領域に関する第二の評価関数Emic2(t)および当該OverlapBtwnMicAndAttention(t, k, o)およびOverlapBtwnMicAndObstacle(t, k, p)を用いて式9のように音響収録領域に関する第三の評価関数Emic3(t)を定義することができる。
Figure 2005323139
ここで、g’’およびh’’は係数であり、oはo番目の注目領域を表現する指標であり、pはp番目の音響的な妨害領域を表現する指標であり、omaxはスピーカーなどの音響的に注目すべき領域(注目領域)の総数である。またpmaxは、プロジェクターなどの雑音源となり音響収録を避けるべき音響的な妨害領域の総数である。ここで、スピーカーなどは視聴覚データないし音声データとして記録したい場合が予想され、音響収録領域に関する第三の評価関数Emic3(t)の一部がOverlapBtwnMicAndAttention(t,k,o)として表現されている。一方、プロジェクター等の雑音源は視聴覚データないし音声データとして記録したくない場合が予想され、音響収録領域に関する第三の評価関数Emic3(t)の一部がOverlapBtwnMicAndObstacle(t,k,p)の逆数として表現されている。これらの処理は生成部40、処理部46等により行われる。
図12に戻り、ステップS24で、駆動部45は、制御部34の制御に応じて、マイクの位置および角度制御および音響収録部35の移動を行う。これにより音響収録部35の音響収録範囲が制御される。ステップS25で、通信部42は、記憶部41から入力された音響収録領域情報を他の音響収録装置4の通信部42に送信する。また通信部42は、他の音響収録装置4の通信部42から送信された音響収録領域情報を受信し、生成部40に出力する。生成部27は、次の時点の音響収録領域情報を生成する。
図13は、本発明の会議記録を会議室の一例を示す平面図である。ここで、会議室50には、会議用のテーブル51、椅子52aおよび52b並びにワイトボード53が備わっているものとする。また会議室50には二個の撮影装置2aおよび2b、二個の照明装置3aおよび3b、ならびに二個の音響収録装置4aおよび4bが備わっているものとする。
ステップS3における生成部11の撮影領域情報の処理においては、各撮影装置の生成部11は、三次元空間上の異なる空間を撮影するように撮影領域情報を生成することができる。例えば、図13における撮影装置2aおよび2bは、それぞれ立体角に対応する円錐の平面への射影54a、54bに対応する領域を撮影するように撮影領域情報を生成する。
同様に、ステップS13における生成部27の照明領域情報の処理においては、各照明装置の生成部27は、三次元空間上の異なる空間を照明するように照明領域情報を生成する。例えば、図13における照明装置3aおよび3bは、それぞれ立体角に対応する円錐の平面への射影55a、55bに対応する領域を照明するように照明領域情報を生成する。
同様に、ステップS23における生成部40の音響収録領域情報の処理においては、各音響収録装置の生成部40が三次元空間上の異なる空間で発生する視聴覚データを音響収録するように音響収録領域情報を生成する。例えば、図13における音響収録装置4aおよび4bは、それぞれ立体角に対応する円錐の平面への射影56a、56bに対応する領域からの視聴覚データを音響収録するように音響収録領域情報を生成する。
次に撮影装置2、照明装置3および音響収録装置4の時間的な制御方法について説明する。ここで、図6の撮影領域情報テーブル47のように、撮影装置2は、三台の撮影装置2がそれぞれCAM0、CAM1およびCAM2として撮影装置識別子47aで識別されている。また図7の照明領域情報テーブル48のように、照明装置3は、二台の照明装置3がそれぞれLIGHT0およびLIGHT1として照明装置識別子48aで識別されている。また図8の音響収録領域情報テーブル49のように、音響収録装置4は、二台の音響収録装置4がそれぞれMIC0およびMIC1の音響収録装置識別子49aで識別されている。
図14は、タイムスロットと各装置の制御の割り当てを示す図である。そこで、撮影装置2、照明装置3および音響収録装置4の制御を行う場合、時間が既定の単位時間、例えば、100ミリ秒ごとにタイムスロットとして区切られ、図14のように各タイムスロットがts1、ts2、ts3、…ts11のように識別されているものとする。撮影装置2、照明装置3および音響収録装置4の制御はタイムスロットを単位として時間的に排他的に制御されるものとする。すなわち、タイムスロットts1において、CAM0の撮影装置2の制御ないしパンやチルトなど状態の変更を行っている場合には、他のCAM1およびCAM2の撮影装置2、照明装置3および音響収録装置4の状態を固定する。
続くタイムスロットts2において、CAM1の撮影装置2の制御ないしパンやチルトなど状態の変更を行っている場合には、他のCAM0およびCAM2の撮影装置2、照明装置3および音響収録装置4の状態を固定する。以下同様に、それぞれのタイムスロットを各撮影装置2、照明装置3および音響収録装置4に割り当てて時間的に排他制御する。
ここで、撮影装置2は、撮影領域情報伝送ステップS5において、前記のタイムスロットに対応する撮影装置2を制御した時刻等の撮影領域情報を更新し、他の撮影装置2等に撮影領域情報を伝送する。同様に、照明装置3は、ステップS15において、前記のタイムスロットに対応する照明装置3を制御した時刻等の照明領域情報を更新し、他の照明装置3等に照明領域情報を伝送する。同様に音響収録装置4は、ステップS25において、前記のタイムスロットに対応する音響収録装置4を制御した時刻等の音響収録領域情報を更新し、他の音響収録装置4等に音響収録領域情報を伝送する。これにより各撮影装置2、各照明装置3および各音響収録装置4をそれぞれ時間的に排他制御することができる。
なお、実施例1では制御部5、24および34が各撮影装置2、各照明装置3および各音響収録装置4のそれぞれに対応して設けられている例について説明したが、会議記録装置1に1つの制御部を設けて、この1つ制御部で全ての撮影装置2、照明装置3、音響収録装置4を制御してもよい。また実施例1では生成部11、27および40が各各撮影装置2、各照明装置3および各音響収録装置4のそれぞれに対応して設けられている例について説明したが、会議記録装置1に生成部を1つ設けて、この1つの生成部で全ての撮影領域情報、照明領域情報、音響収録領域情報を生成するようにしてもよい。
次に、実施例2について説明する。撮影装置2の撮影領域、照明装置3の照明領域および音響収録装置4の音響収録領域を立方体でモデル化し、当該立方体のモデルを用いて撮影装置2、照明装置3および音響収録装置4を制御する場合について説明する。まず会議室が図15のように、一辺が既定の単位長である立方体で分割されているとする。例えば、会議室50が図15のように18個の立方体で分割されたものとみなすことにする。ここで、図15は、会議室50を立方体で分割した図である。次にこの分割された各立方体に対して識別子を割り当てる。例えば各立方体をBOX1からBOX18までのように識別子を定義したとする。続いて、各撮影装置2、照明装置3および音響収録装置4を相異なる立方体を担当する撮影領域、照明領域または音響収録領域として割り当てる。
このように会議室50を分割された立方体としてモデリングないし表現し、対応する撮影領域、照明領域ないし音響収録領域を割り当てることにより簡単に複数の撮影装置2、照明装置3および音響収録装置4を空間的に排他制御することができる。また撮影装置2の撮影領域、照明装置3の照明領域および音響収録装置4の音響収録領域は、会議室を上から見下ろした平面図上の扇型の形状もしくは三角形としてモデリングないし表現し、複数の撮影装置2、照明装置3および音響収録装置4を制御することも可能である。
図16は、実施例2に係る会議記録装置101のブロック図である。会議記録装置101は、撮影装置2の撮影領域、照明装置3の照明領域および音響収録装置4の音響収録領域を扇型としてモデリングないし表現し、複数の撮影装置2、照明装置3および音響収録装置4を制御する。図16に示すように、会議記録装置101は、複数の撮影装置2、複数の照明装置3、複数の音響収録装置4、制御部102および表示部103を含む。撮影装置2、照明装置3および音響収録装置4は、実施例1と同様であるため、ここでは説明を省略する。
制御部102は、撮影装置2の撮影領域、照明装置3の照明領域および音響収録装置4の音響収録領域を扇型としてモデリングないし表現し、複数の撮影装置2、照明装置3および音響収録装置4を制御するためのグラフィカル・ユーザ・インタフェースを表示部103に表示する。この制御部102は、CPU等から構成される。
図17は、このグラフィカル・ユーザ・インタフェース70を示す。表示部103は、このグラフィカル・ユーザ・インタフェース70を表示する。図17に示すように、グラフィカル・ユーザ・インタフェース70は、作業領域71、会議室アイコン室72aおよび会議室アイコン72b、什器アイコン73、撮影装置アイコン74、照明装置アイコン75、音響収録装置アイコン76、什器レイヤー・ボタン77、撮影装置レイヤー・ボタン78、照明装置レイヤー・ボタン79および音響収録装置レイヤー・ボタン80から構成される。
会議室アイコン72aおよび72bは、会議室を設定する。什器アイコン73は、什器を設定するものである。撮影装置アイコン74は、撮影装置を設定するものである。照明装置アイコン75は、照明装置を設定するものである。音響収録装置アイコン76は、音響収録装置を設定するものである。作業領域71は、これらのアイコンをドラッグ・アンド・ドロップして作業するための領域である。この作業領域は、各アイコンを二次元的または三次元の空間で表現する。
図18は、当該グラフィカル・ユーザ・インタフェースの利用手続きを示す。グラフィカル・ユーザ・インタフェース70の利用手続きは、図18に示すように、会議室設定ステップS31、什器設定ステップS32、撮影装置設定ステップS33、照明装置設定ステップS34および音響収録装置設定ステップS35を含む。ステップS31で、利用者はグラフィカル・ユーザ・インタフェース70の会議室アイコン72aあるいは会議室アイコン72bを作業領域71にいわゆるドラッグ・アンド・ドロップして会議室を設定する。ここで、会議室アイコン72aおよび会議室アイコン72bは、会議室の場所や形状や大きさを表現するものとする。会議室アイコンは、二つに限らず必要な数だけ、グラフィカル・ユーザ・インタフェース70上に配置することができる。
ステップS32で、利用者は、什器レイヤー・ボタン77を選択し、作業領域71に什器アイコン73をドラッグ・アンド・ドロップして配置する。ここで、作業領域は、それぞれ透明な基準となる会議室レイヤー、什器レイヤー、撮影装置レイヤー、照明装置レイヤーおよび音響収録装置レイヤーから構成されているものとする。会議室レイヤーは、既定のレイヤーである。利用者は、什器レイヤー・ボタン77を選択することによって、什器レイヤーに什器アイコン73を配置できるようになる。また利用者は、什器アイコン73の属性を設定することによって、テーブルまたは椅子などを図的に識別できるようになる。また利用者は什器アイコン73の属性をメニューやダイアログ等を使用して設定することによって、その作業領域71での大きさや形状や色などを設定することができる。ここで、利用者は、什器アイコン73を必要な数だけ作業領域71にドラッグ・アンド・ドロップして配置することが可能である。
ステップS33で、利用者は、撮影装置レイヤー・ボタン78を選択し、作業領域71に撮影装置アイコン74をドラッグ・アンド・ドロップして配置する。利用者は撮影装置レイヤー・ボタン78を選択することによって、撮影装置レイヤーに撮影装置アイコン74を配置できるようになる。さらに図19に示すように、利用者は撮影領域を表現する扇型の属性アイコン81を操作することによって撮影領域を設定することができる。
図19は、作業領域における作業画面を示す図である。利用者は、撮影装置アイコン74を必要な数だけ作業領域71にドラッグ・アンド・ドロップして配置することが可能である。ステップS34で、利用者は、照明装置レイヤー・ボタン79を選択し、作業領域71に照明装置アイコン75をドラッグ・アンド・ドロップして配置する。利用者は、照明装置レイヤー・ボタン79を選択することによって、照明装置レイヤーに照明装置アイコン79を配置できるようになる。さらに図19に示すように、利用者は、照明領域を表現する扇型の属性アイコン82を操作することによって照明領域を設定することができる。ここで、利用者は、照明装置アイコン75を必要な数だけ作業領域71にドラッグ・アンド・ドロップして配置することが可能である。
ステップS35で、利用者は、音響収録装置レイヤー・ボタン80を選択し、作業領域71に音響収録装置アイコン76をドラッグ・アンド・ドロップして配置する。利用者は、音響収録装置レイヤー・ボタン80を選択することによって、音響収録装置レイヤーに音響収録装置アイコン76を配置できるようになる。さらに、図19に示すように、利用者は、音響収録領域を表現する扇型の属性アイコン83を操作することによって音響収録領域を設定することができる。ここで、利用者は、音響収録装置アイコン76を必要な数だけ作業領域71にドラッグ・アンド・ドロップして配置することが可能である。
制御部102は、グラフィカル・ユーザ・インタフェース70を介して入力された情報を撮影装置2、照明装置3および音響収録装置4に送る。各撮影装置2、照明装置3および音響収録装置4は、グラフィカル・ユーザ・インタフェース70を介して入力された情報を、図2から図4に示した撮影領域情報入力部10、参加者情報入力部16、什器情報入力部19、環境情報入力部21、照明領域情報入力部26および音響収録領域情報入力部39を介して受け付ける。撮影装置2、照明装置3および音響収録装置4の各生成部11、27、40は、制御部102から入力された情報に応じて上述した撮影領域情報、照明領域情報、音響収録情報が生成される。これにより、グラフィカル・ユーザ・インタフェース70の操作に応じた撮影装置2、照明装置3および音響収録装置4の制御が可能となる。
また上記のようにグラフィカル・ユーザ・インタフェース70を使って設定した情報を会議記録設定ファイルとして記録し、次回の会議の準備時に、当該会議記録設定ファイルを参照することによって再利用することもできる。また撮影装置2の撮影領域、照明装置3の照明領域および音響収録装置4の音響収録領域を円錐ないしコーン等の三次元的な立体としてモデリングないし表現し、複数の撮影装置2、照明装置3および音響収録装置4を制御することも可能である。
図20は、三次元設計用作業領域における作業画面を示す。前述で説明したような二次元的な作業領域71における二次元的な属性アイコンの指定による制御ではなく、図20に示すように三次元的な撮影領域、照明領域、音響収録領域等の設定が可能な三次元設計作業領域84を使って利用者は、円錐として表現される三次元的な撮影領域、照明領域あるいは音響収録領域を示す属性アイコン85を配置することによって、複数の撮影装置2、照明装置3および音響収録装置4を制御することができる。
図20においては、利用者は、三次元設計作業領域84に対して、三つの撮影装置アイコン74を配置し、それぞれの撮影装置アイコン74に対応する撮影装置2に対して属性アイコン85を設定することによって撮影領域を設定する。これにより撮影装置アイコン74に対応する撮影装置2を制御することができる。また図示は省略するが、同様に利用者は、三次元設計作業領域84に対して、照明アイコンを配置し、それぞれの照明装置アイコンに対応する撮影装置2に対して属性アイコンを設定することによって照明領域を設定する。これにより照明装置アイコンに対応する照明装置3を制御することができる。
また同様に利用者は、三次元設計作業領域84に対して、音響収録アイコンを配置し、それぞれの音響収録アイコンに対応する音響収録装置4に対して属性アイコンを設定することによって音響収録領域を設定する。これにより音響収録装置アイコンに対応する音響収録装置4を制御することができる。
次に実施例3について説明する。次に実施例3に係る設計装置について説明する。図21は、実施例3の設計装置の一例を示すブロック・ダイアグラムである。設計装置201は、制御部202、演算部203、設計データ記憶部204、表示部205、撮影領域情報入力部206、撮影領域情報記憶部207、照明領域情報入力部208、照明領域情報記憶部209、音響収録領域情報入力部210、音響収録領域情報記憶部211、参加者情報入力部212、参加者情報記憶部213、什器情報入力部214、什器情報記憶部215、環境情報入力部216および環境情報記憶部217を含む。
設計装置201は、会議室、ホワイトボードまたはテーブル、椅子もしくは投影用スクリーンを含む什器等の設計対象を設計するものである。制御部202は、設計装置201全体を制御する。制御部202は、会議室、ホワイトボードまたはテーブル、椅子もしくは投影用スクリーンを含む什器等の設計対象を設計するためのグラフィカル・ユーザ・インタフェースを表示部205に表示する。表示部205は、設計対象を設計するためのグラフィカル・ユーザ・インタフェースと、設計された設計対象を表示するものである。
図22にこのグラフィカル・ユーザ・インタフェース86の表示例を示す。このグラフィカル・ユーザ・インタフェース86は、撮影領域情報入力部206、照明領域情報入力部208、音響収録領域情報入力部210、参加者情報入力部212、什器情報入力部214、環境情報入力部216として機能する。なお、これら入力部にグラフィカル・ユーザ・インタフェース86以外のキーボード等を併用するようにしてもよい。各入力部から入力された情報はそれぞれ撮影領域情報記憶部207、照明領域情報記憶部209、音響収録領域情報記憶部211、参加者情報記憶部213、什器情報記憶部215、環境情報記憶部217に記憶される。
演算部203は、記憶部207から入力された撮影領域情報、記憶部209から入力された照明領域情報、記憶部211から入力された音響収録領域情報、記憶部213から入力された会議参加者関連情報、記憶部215から入力された什器情報および記憶部217から入力された会議環境情報に基づいて、設計対象を設計する。設計された設計対象のデータは記憶部204に格納する。表示部205は、記憶部204から入力された設計データを利用者に表示する。表示部61は、一般的なディスプレイ等から構成されている。
次にテーブル設計データを撮影領域情報および参加者関連情報から設計する方法について説明する。図22は、テーブルを設計する場合に使用するグラフィカル・ユーザ・インタフェースの一例である。図22に示すように、グラフィカル・ユーザ・インタフェース86は、作業領域71、会議室アイコン72aおよび会議室アイコン72b、什器アイコン73、撮影装置アイコン74、照明装置アイコン75、音響収録装置アイコン76、什器レイヤー・ボタン77、撮影装置レイヤー・ボタン78、照明装置レイヤー・ボタン79、音響収録装置レイヤー・ボタン80、会議参加者アイコン87aおよび87b、備品アイコン88、会議参加者レイヤー・ボタン89並びに備品レイヤー・ボタン90を含む。
実施例2において説明したグラフィカル・ユーザ・インタフェース70に対して、会議参加者アイコン87aおよび87b、備品アイコン88、会議参加者レイヤー・ボタン89並びに備品レイヤー・ボタン90が追加されている。利用者は、グラフィカル・ユーザ・インタフェース86の作業領域71に対して、会議室アイコン72aおよび72b、什器アイコン73、撮影装置アイコン74、照明装置アイコン75、音響収録装置アイコン76、会議参加者アイコン87aおよび87b、備品アイコン88を配置し、それらのアイコンに関連する属性を設定することによって、テーブル設計データを設定することができる。
グラフィカル・ユーザ・インタフェース86における作業領域71は、会議室レイヤーを基準とし、すなわち、既定のレイヤーとし、それぞれ透明にすることが可能な撮影装置レイヤー、照明装置レイヤー、音響収録装置レイヤー、会議参加者レイヤーおよび備品レイヤーから構成されている。
次にグラフィカル・ユーザ・インタフェース86を用いたテーブル設計データを撮影領域情報等から設定する手順について説明する。図23は、グラフィカル・ユーザ・インタフェースの利用手続きを示すフローチャートである。グラフィカル・ユーザ・インタフェース86の利用手続きは、会議室設定ステップS41、什器設定ステップS42、撮影装置設定ステップS43、照明装置設定ステップS44、音響収録設定ステップS45、会議参加者設定ステップS46および備品設定ステップS47を含む。
図23は、グラフィカル・ユーザ・インタフェース86の利用手続きを示すフローチャートは図18のグラフィカル・ユーザ・インタフェースの利用手続きを示すフローチャートに対して、会議参加者ステップS46および備品設定ステップS47が追加されている。なお、ステップS42では什器として椅子のみをここでは設定するものとする。
ステップS41で、利用者はグラフィカル・ユーザ・インタフェース86の会議室アイコン72aあるいは会議室アイコン72bを作業領域71にいわゆるドラッグ・アンド・ドロップする。ここで、会議室アイコン72aおよび会議室アイコン72bは会議室の場所や形状や大きさを表現するものとする。会議室アイコンは二つに限らず必要なだけ、グラフィカル・ユーザ・インタフェース86上に配置することができる。グラフィカル・ユーザ・インタフェース86から入力された会議室に関する情報は、環境情報入力部216から記憶部217に格納される。環境情報入力部216からは、会議が開催される場所の大きさ、形状、色、可視光等の電磁波ないし音波の反射率、什器のアフォーダンスに関する情報等の会議環境情報が入力できる。
ステップS42で、利用者は什器レイヤー・ボタン77を選択し、作業領域71に什器アイコン73をドラッグ・アンド・ドロップして配置する。ここで、作業領域はそれぞれ透明な基準となる会議室レイヤー、什器レイヤー、撮影装置レイヤー、照明装置レイヤーおよび音響収録装置レイヤーから構成されているものとする。会議室レイヤーは既定のレイヤーである。利用者は什器レイヤー・ボタン77を選択することによって、什器レイヤーに什器アイコン73を配置できるようになる。また利用者は什器アイコン73の属性を設定することによって、テーブルまたは椅子などを図的に識別できるようになる。
また、利用者は、什器アイコン73の属性をメニューやダイアログ等を使用して設定することによって、その作業領域71での大きさや形状や色などを設定することができる。ここで、利用者は、什器アイコン73を必要な数だけ作業領域71にドラッグ・アンド・ドロップして配置することが可能である。グラフィカル・ユーザ・インタフェース86から入力された什器に関する情報は、什器情報入力部214から記憶部215に格納される。
ステップS43で、利用者は、撮影装置レイヤー・ボタン78を選択し、作業領域71に撮影装置アイコン74をドラッグ・アンド・ドロップして配置する。利用者は撮影装置レイヤー・ボタン74を選択することによって、撮影装置レイヤーに撮影装置アイコン74を配置できるようになる。さらに図19に示したように、利用者は、撮影領域を表現する扇型の属性アイコン81を操作することによって撮影領域を設定することができる。
利用者は、撮影装置アイコン74を必要な数だけ作業領域71にドラッグ・アンド・ドロップして配置することが可能である。グラフィカル・ユーザ・インタフェース86から入力された撮影装置または撮影領域に関する情報は撮影領域情報入力部206から記憶部207に格納される。
ステップS44で、利用者は、照明装置レイヤー・ボタン79を選択し、作業領域71に照明装置アイコン75をドラッグ・アンド・ドロップして配置する。利用者は照明装置レイヤー・ボタン79を選択することによって、照明装置レイヤーに照明装置アイコン79を配置できるようになる。さらに図19に示したように、利用者は、照明領域を表現する扇型の属性アイコン82を操作することによって照明領域を設定することができる。ここで、利用者は照明装置アイコン75を必要な数だけ作業領域71にドラッグ・アンド・ドロップして配置することが可能である。グラフィカル・ユーザ・インタフェース86から入力された照明装置または照明領域に関する情報は照明領域情報入力部210から記憶部209に格納される。
ステップS45で、利用者は音響収録装置レイヤー・ボタン80を選択し、作業領域71に音響収録装置アイコン76をドラッグ・アンド・ドロップして配置する。利用者は音響収録装置レイヤー・ボタン80を選択することによって、音響収録装置レイヤーに音響収録装置アイコン76を配置できるようになる。グラフィカル・ユーザ・インタフェース86から入力された音響収録装置または音響収録領域に関する情報は音響収録領域情報入力部210から記憶部211に格納される。
ステップS46で、利用者はグラフィカル・ユーザ・インタフェース86の作業領域71に対して、会議参加者アイコン87aおよび87bを配置することによって会議参加者の情報を設定することができる。なお、利用者は、会議参加者レイヤー・ボタン89を選択することよって、作業領域71の会議参加者レイヤーに対して会議参加者アイコン87aおよび87bを設定することが可能となる。利用者は会議参加者に対応する数だけ作業領域71に対して会議参加者アイコンを配置することができる。ここでは、仮に会議参加者が二名であるとし、会議参加者アイコン87aおよび87bを作業領域71に配置するものとする。
また会議参加者の属性として、会議参加者の位置、会議参加者の見る範囲、会議参加者の姿勢、会議参加者の可視聴範囲、会議参加者の可動範囲等の会議参加者関連情報を属性アイコンを使用して設定することができる。グラフィカル・ユーザ・インタフェース86から入力された参加者に関する情報は、参加者情報入力部212から記憶部213に格納される。
次に、ステップS47で、利用者はグラフィカル・ユーザ・インタフェース86の作業領域71に対して、備品アイコン86を配置することによって備品の情報を設定することができる。なお、利用者は備品レイヤー・ボタン90を選択することによって、作業領域71の備品レイヤーに対して備品アイコン88を設定することが可能となる。利用者はホワイトボード、プロジェクターやプロジェクター用スクリーンなどの備品を必要な数だけ作業領域71に備品アイコン88を配置することができる。グラフィカル・ユーザ・インタフェース86から入力された備品に関する情報は、環境情報入力部216から記憶部217に格納される。
演算部203は、制御部202の制御下、記憶部207から入力された撮影領域情報、記憶部209から入力された照明領域情報、記憶部211から入力された音響収録領域情報、記憶部213から入力された会議参加者関連情報、記憶部215から入力された什器情報および記憶部217から入力された会議環境情報に基づいて、設計対象であるテーブルを設計する。設計された設計対象のデータは、記憶部204に格納される。表示部205は、記憶部204から入力された設計データを利用者に表示する。
前述のグラフィカル・ユーザ・インタフェースの利用手続きによって、作業領域71に対して図13に示したテーブル51を除いて図13のように椅子52aおよび52b、撮影装置2aおよび2b、照明装置3aおよび3b、音響収録装置4aおよび4B並びにホワイトボード53が配置されているものとする。会議参加者が二名の場合を想定して説明する。会議参加者は、椅子52aおよび52bにそれぞれ着席するものとする。また図24における撮影装置2aおよび2bは、各会議参加者のジェスチャーや姿勢を捕捉できるように、それぞれ立体角に対応する円錐の平面への射影54aおよび54bに対応する領域を撮影するものとする。
図24には会議参加者が他の会議参加者(相手)とホワイトボード53を見る範囲の立体角に対応する円錐の平面への射影62aおよび62bに対応する領域が扇形で示されている。ここで、会議参加者が他の会議参加者(相手)とホワイトボード53を見る範囲の立体角に対応する円錐の平面への射影62aおよび62bは、ステップS46で、会議参加者アイコン87aおよび87bの属性ないし属性アイコンとして設定することができる。
また会議参加者の属性として、「会議参加者の見る範囲」の他にも、会議参加者の位置、会議参加者の姿勢、会議参加者の可視聴範囲、会議参加者の可動範囲等の会議参加者関連情報を属性アイコンを使用して設定することができる。なお、上記のように設定した会議参加者の見る範囲は、会議参加者の頭部の位置および方向とみなすことができる。テーブル上部の領域63は、上述の射影54a、54b、62aおよび62bの平面図上で、扇形の領域の重なる領域63を含むように設計することができる。またこのように定義されたテーブル上部の領域63を包含するようにテーブルを設定することができる。
設定されたテーブルに対して、テーブルを表現する什器アイコン73を利用者に提示することができる。なお、利用者に提示されるテーブルの形状は、一種類以上の基本形状のテーブルの中から最適なテーブルを選んで表示するようにしてもよい。テーブルの基本形状は、三角形または四角形または六角形のテーブルであると良い。
一方、利用者は提示されたテーブルを表現する什器アイコン73に対して、テーブルの属性を表現する色ないし分光分布並びに反射率または透過率等をメニューあるいはダイアログ等を使用して設定することができる。また什器アイコン73の属性として係る什器の什器のアフォーダンスに関する情報をメニューあるいはダイアログ等を用いて設定することができる。ここで、例えば、図25のような半径50センチメートルの円の一部が欠けた三日月形のテーブルがある場合、円周側には三人の参加者が座ることが可能で、あるいはテーブルによって自然に促され、一方、欠けた側には、二人の会議参加者が座ることが可能である、あるいは、テーブルによって自然に促されているというようなアフォーダンスに関する情報をテーブルの属性情報として設定することができる。
以上のようなテーブルの設定方法と同様な方法で他の椅子などの什器あるいは会議室を設計することができる。また会議室設計においては、会議室の床や壁あるいは天井の属性として、利用者がメニューやダイアログなどの特定のグラフィカル・ユーザ・インタフェースを使用することによって、会議が開催される場所の大きさ、形状、色ないし分光分布、可視光等の電磁波ないし音波の反射率または透過率を設定することができる。
次に、会議室の設計について説明する。図26は、グラフィカル・ユーザ・インタフェース86の作業領域71における会議室アイコン72bの操作画面を示す図である。図27は、床プロパティ情報ダイアログボックス301を示す図である。図28は、壁プロパティ情報ダイアログボックス304を示す図である。前述したように、ステップS41において、利用者は、会議室アイコン72bを作業領域71にドラッグ・アンド・ドロップする。
次に、利用者は、ドラッグ・アンド・ドロップした会議室アイコン72bの大きさないしサイズを変更することにより、会議室の大きさを指定することができる。また、会議室アイコン72bを作業領域71にドラッグ・アンド・ドロップすることで、グラフィカル・ユーザ・インタフェース86の所定の領域に、図27に示す床プロパティ情報ダイアログボックス301および図28に示す壁プロパティ情報ダイアログボックス304が表示される。次に、利用者は床プロパティ情報ダイアログボックス301および壁プロパティ情報ダイアログボックス304を用いて会議室の詳細な情報を指定することができる。床プロパティ情報ダイアログボックス301は会議室の床の詳細な属性情報を入力するために使用される。
図27に示すように、床プロパティ情報ダイアログボックス301は、素材フィールド302a、色フィールド302bおよび仕様フィールド302c並びに色確認ビュー303から構成される。図27では、床の素材として「カーペット」が指定され、床の色として「グレイ」が指定され、床の仕様として「カーペットA」が指定されていることを示す。色確認ビュー303は、床の色を利用者に提示する。ここで、色確認ビュー303で利用者に提示する床の色は、前述の照明領域情報などからコンピューター・グラフィックスのレイトレーシング手法などを利用してシミュレーションすることによって設定することができる。
また、壁プロパティ情報ダイアログボックス304は会議室の壁の詳細な属性情報を入力するために使用される。図28に示すように、壁プロパティ情報ダイアログボックス304は、素材フィールド305a、色フィールド305bおよび仕様フィールド305c並びに色確認ビュー306から構成される。図28では、壁の素材として「コンクリート」が指定され、壁の色として「白」が指定され、壁の仕様として「壁A」が指定されていることを示す。色確認ビュー306は、壁の色を利用者に提示する。
ここで、色確認ビュー306で利用者に提示する壁の色は、前述の照明領域情報などからコンピューター・グラフィックスのレイトレーシング手法などを利用してシミュレーションすることによって設定することができる。グラフィカル・ユーザ・インタフェース86から入力された会議室に関する情報は、環境情報入力部216から記憶部217に格納される。なお、上述したように利用者が所定の操作を行うことで、各記憶部に情報が入力される。
演算部203は、制御部202の制御下、記憶部207から入力された撮影領域情報、記憶部209から入力された照明領域情報、記憶部211から入力された音響収録領域情報、記憶部213から入力された会議参加者関連情報、記憶部215から入力された什器情報および記憶部217から入力された会議環境情報等に基づいて、設計対象である会議室を設計する。設計された設計対象の会議室のデータは、記憶部204に格納される。表示部205は、記憶部204から入力された設計データを利用者に表示する。以上のように利用者は、グラフィカル・ユーザ・インタフェース86の作業領域71における会議室アイコン72b等を操作することによって会議室を設計することができる。
また、テーブルや椅子の設計は次のように行うことができる。図29は、グラフィカル・ユーザ・インタフェース86の作業領域71における什器アイコン73aおよび73bの操作画面を示す図である。図30は、什器プロパティ情報ダイアログボックス307を示す図である。図31は、什器プロパティ情報ダイアログボックス308を示す図である。グラフィカル・ユーザ・インタフェース86の作業領域71に什器アイコン73をドラッグ・アンド・ドロップすることで、図30に示す什器プロパティ情報ダイアログボックス307および図31に示す什器プロパティ情報ダイアログボックス308がグラフィカル・ユーザ・インタフェース86内の所定の領域に表示される。
また、前述したように、ステップS42において、利用者は、什器アイコンを作業領域71にドラッグ・アンド・ドロップする。これにより、図29に示すように、作業領域71内に什器アイコン73aおよび73bが配置される。什器アイコン73aはテーブルを表すアイコンである。什器アイコン73bは椅子を表すアイコンである。利用者は、什器アイコン73aおよび73bの位置とサイズないし大きさを変更することによってテーブルや椅子の什器の位置とサイズないし大きさを指定することができる。次に、利用者は、什器プロパティ情報ダイアログボックス307または308を用いて什器の詳細な情報を指定する。
図30に示すように、什器プロパティダイアログボックス307は、素材フィールド308a、色フィールド308b、仕様フィールド308cおよび種類フィールド308d並びに色確認ビュー309から構成される。図30では、什器の種類として、「テーブル」が指定され、什器の素材として「木」が指定され、什器の色として「アイボリー」が指定され、什器の仕様として「テーブルA」が指定されていることを示す。また、色確認ビュー309は、利用者に什器の色を提示する。会議室の壁や床と同様に、照明領域情報などからコンピューター・グラフィックスのレイトレーシング手法などを利用してシミュレーションすることによって色確認ビュー309に提示する色を設定することができる。なお、什器プロパティ情報ダイアログボックス307を用いて他の反射率等の什器に関する属性情報を指定することもできる。
図31に示すように、什器プロパティダイアログボックス308は、素材フィールド311a、色フィールド311b、仕様フィールド311cおよび種類フィールド311d並びに色確認ビュー312から構成される。図31では、什器の種類として、「椅子」が指定され、什器の素材として「木」が指定され、什器の色として「ブルー」が指定され、什器の仕様として「椅子A」が指定されていることを示す。また、色確認ビュー312は、利用者に什器の色を提示する。会議室の壁や床と同様に、照明領域情報などからコンピューター・グラフィックスのレイトレーシング手法などを利用してシミュレーションすることによって色確認ビュー312に提示する色を設定することができる。なお、什器プロパティ情報ダイアログボックス308を用いて他の反射率等の什器に関する属性情報を指定することもできる。
グラフィカル・ユーザ・インタフェース86から入力された什器に関する情報は、什器情報入力部214から記憶部215に格納される。なお、上述したユーザーの操作により各記憶部に所定の情報が入力される。演算部203は、制御部202の制御下、記憶部207から入力された撮影領域情報、記憶部209から入力された照明領域情報、記憶部211から入力された音響収録領域情報、記憶部213から入力された会議参加者関連情報、記憶部215から入力された什器情報および記憶部217から入力された会議環境情報等に基づいて、設計対象であるテーブルや椅子を含む什器を設計する。設計された設計対象のデータは、記憶部204に格納される。表示部205は、記憶部204から入力された設計データを利用者に表示する。以上のように利用者は、グラフィカル・ユーザ・インタフェース86の作業領域71における什器アイコン73aおよび73b等を操作することによってテーブルや椅子を含む什器を設計することができる。
また、ホワイトボード等の備品は次のように設計することができる。図32は、グラフィカル・ユーザ・インタフェース86の作業領域71における備品アイコン88aの操作画面を示す図である。前述したように、ステップS47において、利用者は、備品アイコン88を作業領域71にドラッグ・アンド・ドロップする。これにより、備品アイコン88aが作業領域71内に表示される。次に、利用者は、ドラッグ・アンド・ドロップした備品アイコン88aの位置および大きさないしサイズを変更することにより、備品の位置とサイズを指定することができる。また、備品アイコン88を作業領域71内にドラッグ・アンド・ドロップすることで、グラフィカル・ユーザ・インタフェース86内の所定の領域に備品プロパティ情報ダイアログボックス313が表示される。
図33は、備品プロパティ情報ダイアログボックス313を示す図である。利用者は、備品プロパティ情報ダイアログボックス313を用いて備品の詳細な情報を指定することができる。備品プロパティ情報ダイアログボックス313は備品の詳細な属性情報を入力するために使用される。図33に示すように、備品プロパティ情報ダイアログボックス313は、素材フィールド314a、色フィールド314b、仕様フィールド314c、種類フィールド314dおよび高さフィールド314eおよび色確認ビュー315から構成される。
図33では、備品の種類として「ホワイトボード」が指定され、備品の素材として「鉄ほか」が指定され、備品の色として「ホワイト」が指定され、備品の仕様として「ホワイトボードA」が指定され、備品の高さとして「100センチメートル」が指定されていることを示す。色確認ビュー315は、備品の色を利用者に提示する。ここで、色確認ビュー315で利用者に提示する備品の色は、前述の照明領域情報などからコンピューター・グラフィックスのレイトレーシング手法などを利用してシミュレーションすることによって設定することができる。
グラフィカル・ユーザ・インタフェース86から入力された備品に関する情報は、環境情報入力部216から記憶部217に格納される。なお、上述したユーザーの操作により各記憶部に所定の情報が入力される。演算部203は、制御部202の制御下、記憶部207から入力された撮影領域情報、記憶部209から入力された照明領域情報、記憶部211から入力された音響収録領域情報、記憶部213から入力された会議参加者関連情報、記憶部215から入力された什器情報および記憶部217から入力された会議環境情報等に基づいて、設計対象であるホワイトボードを設計する。設計された設計対象のデータは、記憶部204に格納される。表示部205は、記憶部204から入力された設計データを利用者に表示する。以上のように利用者は、グラフィカル・ユーザ・インタフェース86の作業領域71における備品アイコン88a等を操作することによってホワイトボードを設計することができる。
なお、会議記録装置、会議記録方法、設計装置または設計方法は、例えば、CPU、ROM(Read Only Memory)、RAM(Random Access Memory)等を用いて実現され、プログラムをハードディスク装置や、CD−ROM、DVDまたはフレキシブルディスクなどの可搬型記憶媒体等からインストールし、または通信回路からダウンロードし、CPUがこのプログラムを実行することで、各ステップが実現される。ここでCPUが実行するステップは以下の通りである。
会議記録プログラムは、複数の撮影手段が撮影対象を協調して撮影するように該各撮影手段の撮影領域を表現する撮影領域情報を生成する生成ステップ、複数の照明手段が撮影対象を協調して照明するように該各照明手段の照明領域を表現する照明領域情報を生成する生成ステップ、複数の音響収録手段が協調して音響情報を収録するように該各音響収録手段の音響収録領域を表現する音響収録領域情報を生成する生成ステップ、前記各生成ステップで生成した各撮影領域情報、各照明領域情報および各音響収録領域情報を用いて前記各撮影手段の撮影領域、前記各照明手段の照明領域および前記各音響収録手段の音響収録領域を制御する制御ステップをCPUに実行させる。これにより冗長性の少ない複数の映像を得ることができる。
また設計プログラムは、グラフィカル・ユーザ・インタフェース内の作業領域にドラッグ・アンド・ドロップされた会議室アイコンに応じて会議室の情報を設定するステップ、前記作業領域にドラッグ・アンド・ドロップされた什器アイコンに応じて什器の情報を設定するステップ、前記作業領域にドラッグ・アンド・ドロップされた撮影装置アイコンに応じて撮影装置の情報を設定するステップ、前記作業領域にドラッグ・アンド・ドロップされた会議参加者アイコンに応じて会議参加者の情報を設定するステップ、所定の属性アイコンの操作に応じて参加者の属性情報を設定するステップ、前記設定された情報に応じて設計対象を設計する設計ステップ、前記設計ステップで設計された設計対象を表示するステップをCPUに実行させる。これにより設定された情報に応じて設計対象を設計し、これを表示させることができる。
なお撮影装置2、生成部11、27および40、制御部5、24および34、照明装置3、音響収録装置4、通信部13、14、15、29、30、31、42、43および44、駆動部18、21、および45は、特許請求の範囲における撮影手段、生成手段、制御手段、照明手段、音響手段、通信手段、駆動手段にそれぞれ対応する。
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
実施例1に係るシステムの全体構成図である。 撮影装置2の構成例を示すブロック図である。 照明装置3の構成例を示すブロック図である。 音響収録装置4の構成例を示すブロック図である。 撮影領域情報に関するパラメータ説明する図である。 撮影領域情報記憶部12で保持される撮影領域情報を表現する撮影領域情報テーブル47を示す図である。 照明領域情報記憶部28に記憶される照明領域情報を表現する照明領域情報テーブル48を示す図である。 音響収録領域情報記憶部41で保持される音響収録領域情報を表現する音響収録領域情報テーブル49を示す図である。 撮影装置2における撮影手続きを示すフローチャートである。 見詰め合いにおける顔領域と注視点を示す図である。 照明装置3における照明手続きを示すフローチャートである。 音響収録装置4における音響収録手続きを示すフローチャートである。 本発明の会議記録を会議室の一例を示す平面図である。 タイムスロットと各装置の制御の割り当てを示す図である。 会議室50を立方体で分割した図である。 実施例2に係る会議記録装置101のブロック図である。 このグラフィカル・ユーザ・インタフェース70を示す図である。 グラフィカル・ユーザ・インタフェースの利用手続きを示す図である。 作業領域における作業画面を示す図である。 三次元設計用作業領域における作業画面を示す図である。 実施例3の設計装置の一例を示すブロック・ダイアグラムである。 グラフィカル・ユーザ・インタフェース86の表示例を示す図である。 グラフィカル・ユーザ・インタフェースの利用手続きを示すフローチャートである。 テーブル設計方法を説明する図である。 テーブル設計方法を説明する図である。 グラフィカル・ユーザ・インタフェース86の作業領域71における会議室アイコン72bの操作画面を示す図である。 床プロパティ情報ダイアログボックス301を示す図である。 壁プロパティ情報ダイアログボックス304を示す図である。 グラフィカル・ユーザ・インタフェース86の作業領域71における什器アイコン73aおよび73bの操作画面を示す図である。 什器プロパティ情報ダイアログボックス307を示す図である。 什器プロパティ情報ダイアログボックス308を示す図である。 グラフィカル・ユーザ・インタフェース86の作業領域71における備品アイコン88aの操作画面を示す図である。 備品プロパティ情報ダイアログボックス313を示す図である。
符号の説明
1 会議記録装置
2 撮影装置
3 照明装置
4 音響収録装置
5、24、34 制御部
6 撮影部
11、27、40 生成部
25 照明部
45 音響収録部

Claims (39)

  1. 複数の撮影手段と、
    前記各撮影手段が撮影対象を協調して撮影するように前記各撮影手段の撮影領域を表現する撮影領域情報を生成する生成手段と、
    前記生成手段が生成した各撮影領域情報を用いて前記各撮影手段の撮影領域を制御する制御手段と
    を有することを特徴とする会議記録装置。
  2. 複数の照明手段と、
    前記各照明手段が撮影対象を協調して照明するように前記各照明手段の照明領域を表現する照明領域情報を生成する生成手段と、
    前記生成手段が生成した各照明領域情報を用いて前記各照明手段の照明領域を制御する制御手段と
    を有することを特徴とする会議記録装置。
  3. 複数の音響収録手段と、
    前記各音響収録手段が協調して音響情報を収録するように前記各音響収録手段の音響収録領域を表現する音響収録領域情報を生成する生成手段と、
    前記生成手段が生成した各音響収録領域情報を用いて前記各音響収録手段の音響収録領域を制御する制御手段と
    を有することを特徴とする会議記録装置。
  4. 前記会議記録装置は更に、
    複数の照明手段を有し、
    前記生成手段は、前記各照明手段が撮影対象を協調して照明するように前記各照明手段の照明領域を表現する照明領域情報を生成し、
    前記制御手段は、前記生成手段が生成した各照明領域情報を用いて前記各照明手段の照明領域を制御することを特徴とする請求項1記載の会議記録装置。
  5. 前記会議記録装置は更に、
    複数の音響収録手段を有し、
    前記生成手段は、前記各音響収録手段が協調して音響情報を収録するように前記各音響収録手段の音響収録領域を表現する音響収録領域情報を生成し、
    前記制御手段は、前記各音響収録領域情報を用いて前記各音響収録手段の音響収録領域を制御することを特徴とする請求項1または請求項4記載の会議記録装置。
  6. 前記生成手段は、前記各撮影手段、前記各照明手段および前記各音響収録手段をそれぞれ時間的に排他制御するように前記各撮影領域情報、前記各照明領域情報および前記音響収録領域情報を生成することを特徴とする請求項5記載の会議記録装置。
  7. 前記生成手段は、前記各撮影手段が三次元空間上の異なる空間を撮影するように前記各撮影領域情報を生成することを特徴とする請求項1、請求項5または請求項6記載の会議記録装置。
  8. 前記生成手段は、前記各照明手段が三次元空間上の異なる空間を照明するように前記各照明領域情報を生成することを特徴とする請求項2または請求項4から請求項7のいずれか一項に記載の会議記録装置。
  9. 前記生成手段は、前記各音響収録手段が三次元空間上の異なる空間で発生する音響情報を収録するように前記各音響収録領域情報を生成することを特徴とする請求項3から請求項8のいずれか一項に記載の会議記録装置。
  10. 前記生成手段は、冗長性を表現する関数を含む評価関数を用いて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする請求項1から請求項9のいずれか一項に記載の会議記録装置。
  11. 前記生成手段は、前記各撮影手段で撮影した映像を用いて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする請求項5から請求項10のいずれか一項に記載の会議記録装置。
  12. 前記生成手段は、前記撮影手段で撮影された映像中の人物が存在する領域に基づいて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする請求項11記載の会議記録装置。
  13. 前記生成手段は、前記撮影手段で撮影された映像中の人物相互の見詰め合いまたは人物のホワイトボードへの凝視を検出し、該検出結果を用いて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする請求項11記載の会議記録装置。
  14. 前記生成手段は、前記各音響収録手段で収録した音響情報を用いて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする請求項5から請求項13記載のいずれか一項に記載の会議記録装置。
  15. 前記生成手段は、前記音響収録手段で収録した音響情報を用いて推定された音源位置から前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする請求項14記載の会議記録装置。
  16. 前記生成手段は、前記各音響収録手段で収録した音響情報を音声認識技術を利用して議論または独り言を検出し、該検出結果に応じて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする請求項14記載の会議記録装置。
  17. 前記生成手段は、会議参加者の位置、会議参加者の姿勢、会議参加者の頭部の位置および方向、会議参加者の可視聴範囲、並びに会議参加者の可動範囲のうちの少なくともいずれか一つを用いて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする請求項5から請求項16のいずれか一項に記載の会議記録装置。
  18. 前記生成手段は、前記各撮影手段の位置情報、前記照明手段の位置情報または前記音響収録手段の位置情報を用いて、前記撮影領域情報、前記照明領域情報または前記音響収録領域情報を生成することを特徴とする請求項5から請求項17のいずれか一項に記載の会議記録装置。
  19. 前記生成手段は、第1の時点における前記各撮影領域情報、前記各照明領域情報および前記各音響収録領域情報を用いて、第1の時点の次の第2の時点の前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする請求項5から請求項18のいずれか一項に記載の会議記録装置。
  20. 前記生成手段は、所定の会議室内に配置された什器に関する情報を用いて前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報を生成することを特徴とする請求項5から請求項19のいずれか一項に記載の会議記録装置。
  21. 前記会議室に設置された什器に関する情報は、会議参加者に共有されるテーブル、ホワイトボードまたは会議参加者に使用される椅子の位置、向き、大きさ、形状または色を含む請求項20記載の会議記録装置。
  22. 前記各撮影領域情報、前記各照明領域情報または前記各音響収録領域情報は、前記各撮影手段、前記各照明手段または前記各音響収録手段の識別子、座標、法線とのなす角度、方位角、立体角、仕様および対象までの距離うちの少なくともいずれか一つを含む請求項5から請求項21のいずれか一項に記載の会議記録装置。
  23. 前記生成手段は、会議室内の照度または輝度に応じて前記照明領域情報を生成することを特徴とする請求項2または請求項4から請求項22のいずれか一項に記載の会議記録装置。
  24. 前記制御手段は、前記各撮影手段、前記各照明手段および前記各音響収録装置のそれぞれに対応して設けられていることを特徴とする請求項5から請求項23のいずれか一項に記載の会議記録装置。
  25. 前記生成手段は、前記各撮影手段、前記各照明手段および前記各音響収録装置のそれぞれに対応して設けられていることを特徴とする請求項5から請求項24のいずれか一項に記載の会議記録装置。
  26. 前記会議記録装置は更に、前記各生成手段が生成した撮影領域情報、照明領域情報または音響収録領域情報を他の生成手段との間で送受信する通信手段を有することを特徴とする請求項25記載の会議記録装置。
  27. 前記会議記録装置は更に、前記各撮影手段、前記各照明手段または前記各音響収録手段を駆動させる駆動手段を有することを特徴とする請求項5から請求項26のいずれか一項に記載の会議記録装置。
  28. 前記会議記録装置は更に、前記各撮影手段、前記各照明手段または前記各音響収録手段を制御するためのグラフィカル・ユーザ・インタフェースを表示する手段を有することを特徴とする請求項5から請求項27のいずれか一項に記載の会議記録装置。
  29. 前記グラフィカル・ユーザ・インタフェースは、会議室を設定するアイコン、什器を設定するアイコン、前記撮影手段を設定するアイコン、前記照明手段を設定するアイコン、前記音響収録手段を設定するアイコン、これらをドラッグ・アンド・ドロップして作業するための作業領域、前記撮影手段による撮影領域を設定するアイコン、前記照明手段による照明領域を設定するアイコンおよび前記音響収録手段による音響収録領域を設定するアイコンのうちの少なくともいずれか一つを含む請求項28記載の会議記録装置。
  30. 前記作業領域は、前記各アイコンを二次元的または三次元の空間で表現することを特徴とする請求項28または請求項29記載の会議記録装置。
  31. 複数の撮影手段が撮影対象を協調して撮影するように該各撮影手段の撮影領域を表現する撮影領域情報を生成する生成ステップと、
    複数の照明手段が撮影対象を協調して照明するように該各照明手段の照明領域を表現する照明領域情報を生成する生成ステップと、
    複数の音響収録手段が協調して音響情報を収録するように該各音響収録手段の音響収録領域を表現する音響収録領域情報を生成する生成ステップと、
    前記各生成ステップで生成した各撮影領域情報、各照明領域情報および各音響収録領域情報を用いて前記各撮影手段の撮影領域、前記各照明手段の照明領域および前記各音響収録手段の音響収録領域を制御する制御ステップと
    を有することを特徴とする会議記録方法。
  32. 複数の撮影手段が撮影対象を協調して撮影するように該各撮影手段の撮影領域を表現する撮影領域情報を生成する生成ステップ、
    複数の照明手段が撮影対象を協調して照明するように該各照明手段の照明領域を表現する照明領域情報を生成する生成ステップ、
    複数の音響収録手段が協調して音響情報を収録するように該各音響収録手段の音響収録領域を表現する音響収録領域情報を生成する生成ステップ、
    前記各生成ステップで生成した各撮影領域情報、各照明領域情報および各音響収録領域情報を用いて前記各撮影手段の撮影領域、前記各照明手段の照明領域および前記各音響収録手段の音響収録領域を制御する制御ステップをコンピュータに実行させるためのプログラム。
  33. グラフィカル・ユーザ・インタフェース内の作業領域にドラッグ・アンド・ドロップされた会議室アイコンに応じて会議室の情報を設定するステップと、
    前記作業領域にドラッグ・アンド・ドロップされた什器アイコンに応じて什器の情報を設定するステップと、
    前記作業領域にドラッグ・アンド・ドロップされた撮影装置アイコンに応じて撮影装置の情報を設定するステップと、
    前記作業領域にドラッグ・アンド・ドロップされた会議参加者アイコンに応じて会議参加者の情報を設定するステップと、
    所定の属性アイコンの操作に応じて参加者の属性情報を設定するステップと、
    前記設定された情報に応じて設計対象を設計する設計ステップと、
    前記設計ステップで設計された設計対象を表示するステップと
    を含むことを特徴とする設計方法。
  34. 前記設計方法は更に、 前記作業領域にドラッグ・アンド・ドロップされた照明装置アイコンに応じて照明装置の情報を設定するステップと、
    前記作業領域にドラッグ・アンド・ドロップされた音響収録装置アイコンに応じて音響収録装置の情報を設定するステップと、
    前記作業領域にドラッグ・アンド・ドロップされた備品アイコンに応じて備品の情報を設定するステップと、
    を含む請求項33記載の設計方法。
  35. 前記設計方法は更に、前記作業領域上で所定の属性アイコンの操作に応じて会議参加者の位置、会議参加者の見る範囲、会議参加者の姿勢、会議参加者の可視聴範囲および会議参加者の可動範囲のうちの少なくともいずれか一つを設定するステップを含む請求項33または請求項34記載の設計方法。
  36. 前記会議室の情報を設計するステップは、会議室の大きさ、形状、色、分光分布、反射率または透過率を設定することを特徴とする請求項33から請求項35のいずれか一項に記載の設計方法。
  37. 前記什器の情報を設定するステップは、什器の大きさ、形状、色、分光分布、反射率または透過率を設定することを特徴とする請求項33から請求項36のいずれか一項に記載の設計方法。
  38. 前記設計対象は、会議室、ホワイトボードまたはテーブルもしくは椅子を含む什器である請求項32から請求項37のいずれか一項に記載の設計方法。
  39. グラフィカル・ユーザ・インタフェース内の作業領域にドラッグ・アンド・ドロップされた会議室アイコンに応じて会議室の情報を設定するステップ、
    前記作業領域にドラッグ・アンド・ドロップされた什器アイコンに応じて什器の情報を設定するステップ、
    前記作業領域にドラッグ・アンド・ドロップされた撮影装置アイコンに応じて撮影装置の情報を設定するステップ、
    前記作業領域にドラッグ・アンド・ドロップされた会議参加者アイコンに応じて会議参加者の情報を設定するステップ、
    所定の属性アイコンの操作に応じて参加者の属性情報を設定するステップ、
    前記設定された情報に応じて設計対象を設計する設計ステップをコンピュータに実行させるためのプログラム。
JP2004139441A 2004-05-10 2004-05-10 会議記録装置、会議記録方法、設計方法およびプログラム Expired - Fee Related JP4517716B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004139441A JP4517716B2 (ja) 2004-05-10 2004-05-10 会議記録装置、会議記録方法、設計方法およびプログラム
US10/987,002 US7466335B2 (en) 2004-05-10 2004-11-15 Conference recording device, conference recording method, and design method and storage media storing programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004139441A JP4517716B2 (ja) 2004-05-10 2004-05-10 会議記録装置、会議記録方法、設計方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2005323139A true JP2005323139A (ja) 2005-11-17
JP2005323139A5 JP2005323139A5 (ja) 2007-06-21
JP4517716B2 JP4517716B2 (ja) 2010-08-04

Family

ID=35239069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004139441A Expired - Fee Related JP4517716B2 (ja) 2004-05-10 2004-05-10 会議記録装置、会議記録方法、設計方法およびプログラム

Country Status (2)

Country Link
US (1) US7466335B2 (ja)
JP (1) JP4517716B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193196A (ja) * 2007-02-01 2008-08-21 Casio Comput Co Ltd 撮像装置および指定音声出力方法
JP2010055222A (ja) * 2008-08-26 2010-03-11 Pfu Software Ltd 情報処理装置、情報処理システム、プログラム、及び情報処理方法
JP2017041845A (ja) * 2015-08-21 2017-02-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2019191477A (ja) * 2018-04-27 2019-10-31 日産自動車株式会社 音声認識装置及び音声認識方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706576B1 (en) 2004-12-28 2010-04-27 Avaya Inc. Dynamic video equalization of images using face-tracking
US7331310B1 (en) * 2005-02-16 2008-02-19 Ken Sersland Domestic animal training method
US7460150B1 (en) * 2005-03-14 2008-12-02 Avaya Inc. Using gaze detection to determine an area of interest within a scene
JP2006314078A (ja) * 2005-04-06 2006-11-16 Sony Corp 撮像装置、音声記録装置および音声記録方法
US7564476B1 (en) 2005-05-13 2009-07-21 Avaya Inc. Prevent video calls based on appearance
US8165282B1 (en) 2006-05-25 2012-04-24 Avaya Inc. Exploiting facial characteristics for improved agent selection
US7893953B2 (en) * 2006-06-19 2011-02-22 Steelcase Development Corporation Video conferencing lighting system
FR2931330B1 (fr) * 2008-05-13 2011-04-01 Kadrige Procede et systeme d'enregistrement automatique d'une session de communication
US8471889B1 (en) 2010-03-11 2013-06-25 Sprint Communications Company L.P. Adjusting an image for video conference display
WO2012042295A1 (en) * 2010-09-27 2012-04-05 Nokia Corporation Audio scene apparatuses and methods
KR101069269B1 (ko) * 2011-03-21 2011-10-04 엘지전자 주식회사 중앙 제어기 및 이를 포함하는 조명 시스템
US9053456B2 (en) * 2011-03-28 2015-06-09 Microsoft Technology Licensing, Llc Techniques for conference system location awareness and provisioning
US20140003654A1 (en) * 2012-06-29 2014-01-02 Nokia Corporation Method and apparatus for identifying line-of-sight and related objects of subjects in images and videos
US10341611B2 (en) * 2013-04-30 2019-07-02 Inuitive Ltd. System and method for video conferencing
US9413796B2 (en) * 2013-06-07 2016-08-09 Amx, Llc Customized information setup, access and sharing during a live conference
WO2015106156A1 (en) * 2014-01-10 2015-07-16 Revolve Robotics, Inc. Systems and methods for controlling robotic stands during videoconference operation
KR102288777B1 (ko) * 2014-09-22 2021-08-11 엘지이노텍 주식회사 조명 제어 장치 및 이의 조명 제어 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05328343A (ja) * 1992-05-19 1993-12-10 Fujitsu Ltd 多画面テレビ会議装置
JPH10145763A (ja) * 1996-11-15 1998-05-29 Mitsubishi Electric Corp 会議システム
JPH10191296A (ja) * 1996-12-27 1998-07-21 Canon Inc 画像形成装置及び方法並びにtv会議システム
JP2000244884A (ja) * 1999-02-19 2000-09-08 Matsushita Electric Ind Co Ltd テレビ会議用端末装置
JP2001128057A (ja) * 1999-09-07 2001-05-11 Fuji Xerox Co Ltd カメラ制御用ユーザインタフェースシステム
JP2003215665A (ja) * 2002-01-28 2003-07-30 Matsushita Electric Works Ltd 監視装置
JP2004118314A (ja) * 2002-09-24 2004-04-15 Advanced Telecommunication Research Institute International 発話者検出システムおよびそれを用いたテレビ会議システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09200350A (ja) * 1996-01-12 1997-07-31 Hitachi Inf Syst Ltd 電子会議システム
US6934461B1 (en) * 1999-01-05 2005-08-23 Interval Research Corporation Low attention recording, with particular application to social recording
US20020052755A1 (en) * 2000-09-26 2002-05-02 Whatley Jerry A. Method and system for providing real estate services using a global network
JP2002171499A (ja) 2000-12-01 2002-06-14 Sony Corp テレビ会議用ビデオカメラの制御方法およびテレビ会議システム
US20030103075A1 (en) * 2001-12-03 2003-06-05 Rosselot Robert Charles System and method for control of conference facilities and equipment
US6761470B2 (en) * 2002-02-08 2004-07-13 Lowel-Light Manufacturing, Inc. Controller panel and system for light and serially networked lighting system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05328343A (ja) * 1992-05-19 1993-12-10 Fujitsu Ltd 多画面テレビ会議装置
JPH10145763A (ja) * 1996-11-15 1998-05-29 Mitsubishi Electric Corp 会議システム
JPH10191296A (ja) * 1996-12-27 1998-07-21 Canon Inc 画像形成装置及び方法並びにtv会議システム
JP2000244884A (ja) * 1999-02-19 2000-09-08 Matsushita Electric Ind Co Ltd テレビ会議用端末装置
JP2001128057A (ja) * 1999-09-07 2001-05-11 Fuji Xerox Co Ltd カメラ制御用ユーザインタフェースシステム
JP2003215665A (ja) * 2002-01-28 2003-07-30 Matsushita Electric Works Ltd 監視装置
JP2004118314A (ja) * 2002-09-24 2004-04-15 Advanced Telecommunication Research Institute International 発話者検出システムおよびそれを用いたテレビ会議システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193196A (ja) * 2007-02-01 2008-08-21 Casio Comput Co Ltd 撮像装置および指定音声出力方法
JP2010055222A (ja) * 2008-08-26 2010-03-11 Pfu Software Ltd 情報処理装置、情報処理システム、プログラム、及び情報処理方法
JP2017041845A (ja) * 2015-08-21 2017-02-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2019191477A (ja) * 2018-04-27 2019-10-31 日産自動車株式会社 音声認識装置及び音声認識方法
JP7172120B2 (ja) 2018-04-27 2022-11-16 日産自動車株式会社 音声認識装置及び音声認識方法

Also Published As

Publication number Publication date
US7466335B2 (en) 2008-12-16
US20050248651A1 (en) 2005-11-10
JP4517716B2 (ja) 2010-08-04

Similar Documents

Publication Publication Date Title
JP4517716B2 (ja) 会議記録装置、会議記録方法、設計方法およびプログラム
US9979953B1 (en) Reflector-based depth mapping of a scene
US9020825B1 (en) Voice gestures
US10277813B1 (en) Remote immersive user experience from panoramic video
US9196067B1 (en) Application specific tracking of projection surfaces
US9128897B1 (en) Method and mechanism for performing cloud image display and capture with mobile devices
JP4474013B2 (ja) 情報処理装置
US8878949B2 (en) Camera based interaction and instruction
US9292089B1 (en) Gestural object selection
US9465484B1 (en) Forward and backward looking vision system
US9430187B2 (en) Remote control of projection and camera system
US10514256B1 (en) Single source multi camera vision system
WO2023134743A1 (zh) 调节智能灯光设备的方法、机器人、电子设备、存储介质及计算机程序
US9495936B1 (en) Image correction based on projection surface color
CN113632457A (zh) 包含全息内容的视频通信
US8970693B1 (en) Surface modeling with structured light
US10789912B2 (en) Methods and apparatus to control rendering of different content for different view angles of a display
US7643064B1 (en) Predictive video device system
JP2017511615A (ja) 物理的場所間のビデオ対話
JP2011033993A (ja) 情報提示装置、および情報提示方法
KR20140125183A (ko) 프로젝터 장착 안경 및 그 제어 방법
JPWO2019039119A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JPWO2016203770A1 (ja) 画像処理システム、方法、及びプログラム
CN109618088A (zh) 具有光照识别与重现功能的智能化拍摄系统及方法
US9329679B1 (en) Projection system with multi-surface projection screen

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100427

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4517716

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140528

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees