JP2007067972A - Conference system and control method for conference system - Google Patents
Conference system and control method for conference system Download PDFInfo
- Publication number
- JP2007067972A JP2007067972A JP2005252817A JP2005252817A JP2007067972A JP 2007067972 A JP2007067972 A JP 2007067972A JP 2005252817 A JP2005252817 A JP 2005252817A JP 2005252817 A JP2005252817 A JP 2005252817A JP 2007067972 A JP2007067972 A JP 2007067972A
- Authority
- JP
- Japan
- Prior art keywords
- person
- priority
- information
- keyword
- conference system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、例えばテレビ会議システム等に適用可能な会議システム及び会議システムの制御方法に関するものである。 The present invention relates to a conference system applicable to, for example, a video conference system and a conference system control method.
従来、遠隔地にいる複数の会議参加者同士で会議を行うことが可能なテレビ会議システムが実現されている。このシステムはカメラ、ディスプレイ、マイク等で構成され、固定カメラでお互いの会議室全体を撮影して会議を行う場合や、会議参加者が手動で相手側に設置されたカメラを遠隔操作して見たい映像を表示する場合や、音声によって発言者を特定して発言者を撮影する場合がある。その映像をディスプレイに表示して、遠隔地にいる参加者同士はそのディスプレイに表示された映像を通して会議を行っていた。 2. Description of the Related Art Conventionally, a video conference system that can hold a conference between a plurality of conference participants in a remote place has been realized. This system consists of a camera, a display, a microphone, etc. When a conference is performed by shooting the entire conference room with a fixed camera, or when a conference participant manually controls a camera installed on the other side. There is a case where a desired video is displayed or a case where a speaker is identified by voice and a speaker is photographed. The video was displayed on the display, and participants at remote locations had a meeting through the video displayed on the display.
例えば、特許文献1には、テレビ会議や遠隔監視などの際に、利用者の希望するカメラ姿勢等を簡単かつ瞬時に指示できるようにすることを目的とするものが開示されている。これは、雲台付きカメラで撮影した映像と、広角カメラにより撮影した映像とを表示部に映し出し、映像を見ながら遠隔の雲台付きカメラの姿勢制御を行う時、カメラが運動して撮影できる全ての領域の映像を見ながら雲台を制御できるものである。これにより、利用者は、あたかもカメラマンのようにカメラを持ってその場所に居ながら撮影範囲を制御しているかのように感じられ、容易に操作することができるものである。 For example, Japanese Patent Application Laid-Open No. 2004-151820 discloses a device that can easily and instantly indicate a camera posture or the like desired by a user during a video conference or remote monitoring. This is because the video taken by the camera with the pan head and the video taken by the wide-angle camera are projected on the display unit, and the camera can move and shoot when controlling the attitude of the remote camera with the pan head while watching the video. The camera platform can be controlled while viewing the video of all areas. Thus, the user can feel as if he / she is holding the camera and controlling the shooting range while staying at the place like a photographer and can easily operate the camera.
また、特許文献2には、設置作業が容易であって、参加者の数に制限のない会議撮影装置を提供することを目的とするものが開示されている。これは、無指向性マイクで周囲の音声を集音し、音声の中から参加者の声紋を抽出し、声紋データから発言者を特定し、参加者の中心に位置する回転カメラを発言した参加者の方に向けることにより、発言者の撮影を行う事ができるものである。 Further, Patent Document 2 discloses a device that aims to provide a conference photographing device that is easy to install and has no limitation on the number of participants. This is a participant who collects surrounding voice with an omnidirectional microphone, extracts the voiceprint of the participant from the voice, identifies the speaker from the voiceprint data, and speaks a rotating camera located at the center of the participant The speaker can be photographed by facing the person.
そこで、本発明の目的は、上記技術を改良して、例えば会議に関連の深い人物や当該会議に関連の深い発言を行なう人物等を優先的に撮影する等して会議等において効果的な画像を提供することにある。 Therefore, an object of the present invention is to improve the above-described technique and, for example, image effective in a meeting or the like by preferentially photographing a person who is deeply related to the meeting or a person who makes a remark related to the meeting. Is to provide.
本発明の会議システムの第1の態様は、人物の個人認識を行う認識手段と、人物に係る人物情報を人物毎に保持する第1のデータベースから、前記認識手段により認識された人物の人物情報を取得する人物情報取得手段と、前記認識手段により認識された各人物の人物情報に基づいて、前記各人物について優先度を決定する優先度決定手段と、前記各人物について決定された優先度に基づいて、複数の撮像装置の制御を行う制御手段とを有することを特徴とする。
本発明の会議システムの第2の態様は、音声データを取得する音声データ取得手段と、前記音声データに基づいて人物の認識を行う認識手段と、前記音声データから所定のキーワード情報を抽出するキーワード抽出手段と、前記キーワード情報に基づいて、前記認識手段により認識された人物の優先度を決定する優先度決定手段と、前記認識手段により認識された各人物について決定された優先度に基づいて、複数の撮像装置の制御を行う制御手段とを有することを特徴とする。
本発明の会議システムの制御方法の第1の態様は、複数の撮像装置を有する会議システムの制御方法であって、人物の個人認識を行う認識ステップと、人物に係る人物情報を人物毎に保持するデータベースから、前記認識ステップにより認識された人物の人物情報を取得する人物情報取得ステップと、前記認識ステップにより認識された各人物の人物情報に基づいて、前記各人物について優先度を決定する優先度決定ステップと、前記各人物について決定された優先度に基づいて、前記撮像装置の制御を行う制御ステップとを含むことを特徴とする。
本発明の会議システムの制御方法の第2の態様は、複数の撮像装置を有する会議システムの制御方法であって、音声データを取得する音声データ取得ステップと、前記音声データに基づいて人物の認識を行う認識ステップと、前記音声データから所定のキーワード情報を抽出するキーワード抽出ステップと、前記キーワード情報に基づいて、前記認識ステップにより認識された人物の優先度を決定する優先度決定ステップと、前記認識ステップにより認識された各人物について決定された優先度に基づいて、画像を撮影する少なくとも一つの撮像装置の制御を行う制御ステップとを含むことを特徴とする。
本発明のプログラムは、前記会議システムの制御方法の第1又は第2の態様をコンピュータに実行させることを特徴とする。
本発明のコンピュータ読み取り可能な記録媒体は、前記プログラムを記録したことを特徴とする。
According to a first aspect of the conference system of the present invention, the personal information of a person recognized by the recognition means from a recognition means for performing personal recognition of the person and a first database that holds the personal information related to the person for each person. Personal information acquisition means for acquiring the priority, priority determination means for determining the priority for each person based on the person information of each person recognized by the recognition means, and the priority determined for each person. And a control means for controlling a plurality of imaging devices.
According to a second aspect of the conference system of the present invention, there is provided an audio data acquisition unit that acquires audio data, a recognition unit that recognizes a person based on the audio data, and a keyword that extracts predetermined keyword information from the audio data Based on extraction means, priority determination means for determining the priority of the person recognized by the recognition means based on the keyword information, and priority determined for each person recognized by the recognition means, And a control means for controlling a plurality of imaging devices.
A first aspect of a conference system control method according to the present invention is a conference system control method having a plurality of imaging devices, in which a recognition step for performing personal recognition of a person and person information related to the person are held for each person. A personal information acquisition step for acquiring the personal information of the person recognized by the recognition step from the database, and a priority for determining the priority for each person based on the personal information of each person recognized by the recognition step And a control step for controlling the imaging device based on the priority determined for each person.
According to a second aspect of the conference system control method of the present invention, there is provided a conference system control method having a plurality of imaging devices, an audio data acquisition step for acquiring audio data, and recognition of a person based on the audio data. Performing a recognition step, a keyword extraction step for extracting predetermined keyword information from the voice data, a priority determination step for determining a priority of the person recognized by the recognition step based on the keyword information, And a control step of controlling at least one imaging device that captures an image based on the priority determined for each person recognized in the recognition step.
The program of the present invention causes a computer to execute the first or second aspect of the control method of the conference system.
The computer-readable recording medium of the present invention is characterized in that the program is recorded.
本発明においては、各人物の人物情報や音声データに含まれるキーワード情報に基づいて、各人物について優先度を決定し、その優先度に基づいて撮影装置の制御を行なうように構成している。従って、本発明によれば、例えば会議に関連の深い人物情報を有する人物や当該会議に関連の深い発言を行なう人物等に高い優先度を付与し、付与された優先度に基づいて或る人物を優先的に撮影する等して会議等に効果的な画像を提供することが可能となる。 In the present invention, the priority is determined for each person based on the person information of each person and the keyword information included in the audio data, and the photographing apparatus is controlled based on the priority. Therefore, according to the present invention, a high priority is given to, for example, a person who has personal information that is closely related to the meeting, a person who makes a speech that is deeply related to the meeting, and the like. It is possible to provide an effective image for a meeting or the like by preferentially shooting the image.
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.
本発明の実施形態に係るテレビ会議システムでは、参加者の属性や経歴情報等の参加者情報と会議の内容に沿って、参加者に優先度を付け、議題に関連の深い人物を中心としたカメラワークを行う。 In the video conference system according to the embodiment of the present invention, the participants are prioritized according to the participant information such as the attributes and background information of the participant and the content of the conference, and the person who is deeply related to the agenda is focused on. Do camera work.
図1は本発明の実施形態に係るテレビ会議システムの構成図である。本実施形態に係るテレビ会議システムは、参加者を撮影するための複数台のカメラ1(撮像装置)、外部地点の参加者を表示するディスプレイ2、マイク4からなる。また、参加者認識部3は、ディスプレイ2に内臓あるいは外部接続、参加者と参加者情報を対応させる処理部5、記録部6、参加者の優先度を算出する推論部10a、参加者情報を持つデータベース11及びキーワードデータベース12で構成される。なお、処理部5、記録部6、推論部10a、データベース11及びキーワードデータベース12は、パーソナルコンピュータなどの情報処理装置によって構成される。
FIG. 1 is a configuration diagram of a video conference system according to an embodiment of the present invention. The video conference system according to the present embodiment includes a plurality of cameras 1 (imaging devices) for photographing participants, a display 2 for displaying participants at external points, and a microphone 4. In addition, the participant recognition unit 3 includes an internal or external connection to the display 2, a
次に図2を用いて、参加者認識部3によって参加者情報を取得する方法について説明する。図2は、参加者情報の取得方法について2つの実施形態を示したものである。図2(a)に示す例では、参加者認識部3がリーダ8によって構成される例を示している。リーダ8は、会議室の入口に設置され、参加者が所持しているタグ7内の個人情報を読み取ることにより参加者を認識する。なお、参加者が有するタグ7は無線通信により非接触でリーダ8と通信するが、他の実施形態として、リーダ8と接触型で通信を行ない、内部に記録される個人情報を接触型の通信でリーダ8に読み取らせる通信装置を用いてもよい。処理部5は、読み取られた参加者のIDからデータベース11を参照して参加者に関する情報(参加者情報)を取得する。推論部10aは処理部5によって取得された参加者情報に基づいて参加者の優先度を算出し、記録部6に参加者情報と優先度を対応付けて記録する。
Next, a method for acquiring participant information by the participant recognition unit 3 will be described with reference to FIG. FIG. 2 shows two embodiments of a method for acquiring participant information. In the example illustrated in FIG. 2A, an example in which the participant recognition unit 3 is configured by the
図2(b)に示す例では、参加者認識部3がカメラ1及び画像処理部9aによって構成され、画像認識によって参加者を認識する例を示したものである。具体的には、会議室に入室する参加者をカメラ1で撮影する。そして、画像処理部9aは、カメラ1で撮影された画像データから参加者の特徴情報を抽出し、抽出した特徴情報と特徴データベース13aに登録された人物の特徴情報とから参加者を認識する構成からなる。そして、処理部5は、認識された参加者の識別情報に基づいて属性や経歴(参加者情報)をデータベース11から取得する。推論部10aは、処理部5によって取得された参加者情報に基づいて優先度を算出し、記録部6に参加者情報と優先度を記録する。その他、ここでは図示しないが、入室する際の参加者認識部3が参加者の指紋・虹彩・静脈等を認識し、同様の後段の処理によってバイオメトリクスによる参加者の認証等を行ってもよい。
In the example illustrated in FIG. 2B, the participant recognition unit 3 includes the camera 1 and the
ここで、参加者情報の取得の際に用いられるデータベース11について詳細に説明する。図3は、データベース11において格納されるデータの一構成例を模式的に示す図である。属性には、役職、所属、専門、氏名といったものが記録されており、経歴には、過去の所属や担当業務などが記録されている。その他に関連分野のキーワード、個人の論文・特許といったものを記録しておく。論文や特許に関しては、社内ネットワークに接続されたデータベースではなく、ネットワークに接続された外部のデータベースから収集してきてもよい。これらの情報は、その参加者が会議の議題とどれだけ関連があるかといった関連の深さや、その議題に対して決定権を持つかといった判断に用いることができる。
Here, the
テレビ会議システムにおいて特定の参加者に注目して撮影を行うためには、誰がどこにいるか参加者の位置を認識する必要がある。参加者の位置を取得する方法について図4を用いて説明する。図4は、参加者の位置の取得方法について2つの実施形態を示したものである。 In order to perform shooting while paying attention to a specific participant in the video conference system, it is necessary to recognize the position of the participant who is where. A method for acquiring the position of the participant will be described with reference to FIG. FIG. 4 shows two embodiments of the method for acquiring the position of the participant.
図4(a)は、動線分析と参加者情報を結びつけることにより、参加者の位置情報を取得する方法である。この方法は以下のとおりである。まず、参加者の入室前に会議室の入口で参加者認識部3によって個人認識が行われる。そして、参加者を認識した順番が記録部6に記憶される。このとき認識された参加者にはそれぞれ入室順に番号を付与する。参加者が入室したときに、入室してきた参加者を室内に設置されているカメラ1で撮影し、第二の画像処理部9bによって動線分析を行う。具体的には、入室してきた参加者をカメラ1によってそれぞれ追尾し、動線分析結果として参加者の移動履歴および最終的な位置情報を蓄積することで参加者の動線を把握できる。そして、参加者認識部3によって参加者を認識した順番と、入室した順番に応じた動線分析の結果を対応付けることによって、誰がどこに座ったかを特定できる。その結果を参加者の位置情報として参加者情報とともに記録部6に記録する。
FIG. 4A shows a method of acquiring the location information of the participant by connecting the flow line analysis and the participant information. This method is as follows. First, personal recognition is performed by the participant recognition unit 3 at the entrance of the conference room before the participant enters the room. The order in which the participants are recognized is stored in the
図4(b)は、図2(b)の参加者認識方式による参加者情報及び位置情報を取得する方法について示す。この場合、会議参加者が着席後にそれぞれのカメラ1が撮影した画像データに基づいて画像処理部9aが画像認識を行って参加者を認識するとともに、カメラ1から当該参加者への方向及び距離を算出することで、参加者の認識及び参加者の位置情報の取得を行うことができる。そして、参加者の認識を行った後に処理部5が参加者の属性や経歴等の参加者情報をデータベース11から参照し、推論部10aは参加者情報に基づいて優先度を算出し、位置情報とともに記録部6に記録する処理が行われる。
FIG. 4B shows a method for acquiring participant information and position information by the participant recognition method of FIG. In this case, the
ここで図4(a)の場合において、会議室への入室時の参加者の認識の順番と参加者が入室する順番にずれによって、参加者情報と位置情報のミスマッチを防ぐために、図4(b)に示した方法を併用してもよい。ただし、その場合は入室前にデータベース11を参照して参加者情報を取得しているので、入室後に再度データベース11を参照して参加者情報を取得する必要は無く、優先度を算出する必要もない。さらに、参加者は入室時に特定されているので、図4(b)に示す方法での画像認識ではその参加者か否かを判断するだけでよい。もし、ミスマッチと判定されたら会議に参加している他の参加者を認識して正しい参加者と位置情報の対応付けを行う。
Here, in the case of FIG. 4A, in order to prevent a mismatch between the participant information and the position information due to a deviation in the order of recognition of the participants when entering the conference room and the order in which the participants enter the room, FIG. You may use together the method shown in b). However, in this case, since the participant information is obtained by referring to the
次に、参加者が認識された際に優先順位付けを行うための情報処理装置の処理の流れを図5のフローチャートを用いて説明する。ステップS1において参加者認証部3から参加者の認識情報を受信すると、ステップS2において、処理部5はデータベース11に問い合わせて該当する参加者情報を取得する。このとき、参加者情報として参加者の属性情報、経歴情報、参加者の特許数及び内容のポイントが取得される。さらにステップS3において、処理部5は取得した参加者情報の数から参加者の人数をカウントする。ステップS4において、その会議に関連するキーワードと参加者情報から推論部10aによって優先度を算出し、記録部6に参加者情報とともに記録しておく。会議に関連するキーワードについては議長もしくは参加者が、情報処理装置が接続している社内イントラネットの会議予約システム等を利用して会議に関連したキーワードや会議内容などをあらかじめ入力し、記録部6に格納しておく。続くステップS5において、推論部10aは現在認識している参加者の人数が1人より多い場合、ステップS4で算出した優先度から優先順位付けを行う。この処理を全ての参加者に対して行うことで、参加者全員に優先順位のランキングを付けることができる。
Next, a processing flow of the information processing apparatus for prioritizing when a participant is recognized will be described with reference to the flowchart of FIG. When the recognition information of the participant is received from the participant authentication unit 3 in step S1, the
ここで、ステップS4における優先度の算出方法について説明する。優先度は参加者の決定権と関連度から算出される。決定権は参加者が会議の決定権がどの程度あるかを示す値である。また、関連度は参加者が議題に対してどの程度関連があるかを示す値である。決定権は属性情報に含まれる役職に応じて数値を与える。例えば、役職が部長と一般職では決定権は部長の方が高い数値となる。その他、ネットワークに接続された検索システムを用いて名前を検索した際にヒットした数を考慮した社会的影響度を決定権に加えても良い。 Here, the priority calculation method in step S4 will be described. The priority is calculated from the participant's right to determine and relevance. The decision right is a value indicating how much the participant has the decision right of the conference. The degree of association is a value indicating how much the participant is related to the agenda. The decision right is given a numerical value according to the job title included in the attribute information. For example, when the position is a general manager and a general position, the decision-making authority is higher for the general manager. In addition, a social influence degree that considers the number of hits when a name is searched using a search system connected to a network may be added to the decision right.
次に関連度について以下に説明する。関連度は、各キーワードの一致度と関連の深さから得られる値とキーワード一致数と経歴から得られる値との合計から算出する。図6にキーワードデータベース12に登録されたツリー構造のキーワード表の一例を示す。
Next, the relevance will be described below. The degree of association is calculated from the sum of the value obtained from the degree of matching of each keyword and the depth of association, the number of keyword matches and the value obtained from the history. FIG. 6 shows an example of a tree structure keyword table registered in the
まず、キーワード一致度と関連の深さについて説明する。例えば、議題に関連したキーワードとして「テンプレートマッチング」というキーワードが登録されていた時、参加者情報に「テンプレートマッチング」というキーワードがあれば、キーワード一致度は1とする。そして、「テンプレートマッチング」ではないが、類似性のある「マッチング」というキーワードがあれば、キーワード一致度は例えば0.9として算出する。さらに一致度には関連の深さが考慮され、一致したキーワードがツリー構造の枝の末端に存在するキーワードであれば関連の深さは1となる。しかし、ツリー構造の幹に近い言葉ほど広い意味のキーワードになるので関連の深さは0に近くなる。例えば、「画像処理」といったキーワードで一致度が高くても、「画像処理」に含まれる意味は広い(ツリー構造の幹に近い)。そのため、キーワード一致度に対応する値と関連の深さに対応する値との双方を考慮した場合、例えばこれらの値の乗算等が行われると、得られる値は1より小さい値となる。 First, the degree of keyword matching and the depth of association will be described. For example, when a keyword “template matching” is registered as a keyword related to the agenda, if the keyword “template matching” is included in the participant information, the keyword matching degree is 1. If there is a keyword “matching” that is not “template matching” but similar, the keyword matching degree is calculated as 0.9, for example. Furthermore, the degree of association is considered in the degree of matching, and the degree of association is 1 if the matched keyword is a keyword that exists at the end of a branch of the tree structure. However, the closer the word is to the trunk of the tree structure, the broader the keyword, so the related depth is close to zero. For example, even if the degree of matching is high for a keyword such as “image processing”, the meaning included in “image processing” is broad (close to the trunk of the tree structure). Therefore, when both the value corresponding to the keyword matching degree and the value corresponding to the related depth are considered, for example, when these values are multiplied, the obtained value becomes a value smaller than 1.
次に、キーワード一致数と年数について説明する。これは、データベース11を参照し、一致したキーワード数とそのキーワードが検出された経歴に基づいて算出する。例えば、参加者情報において議題に関連したキーワードと一致したキーワードの種類の合計が複数の参加者で同じであった場合、過去に関連していた参加者よりも現在この仕事に関連している参加者の方が関連があると判断する。また、キーワード数に関しては、検出したキーワード数のどこか一つの数値を境にして、関連性の有無を決定することは難しいので、曖昧さを持たせるためにファジィを用いる。図7にこの場合のファジィ変数とファジィルールの一例を示す。図7(a)は後件部ファジィ変数、図7(b)はファジィルールである。解の合成手法においてMin-Max法において重心をとる演算は、求める重心をy0、横軸をy、合成したファジィ集合をμ(y)とすると式1のように定義できる。
Next, the number of keyword matches and the number of years will be described. This is calculated by referring to the
このように関連度を、キーワード一致度と関連の深さから得られる値、およびキーワード一致数と経歴から得られる値の合計から算出する。優先度の算出にこの関連度を用いることで、同じ役職だとしても議題に関連した参加者の方が優先度は高くなる。
なお、便宜的にキーワード一致度と関連の深さから得られる値のみを関連度としてもよいし、キーワード一致数と年数から得られる値のみを関連度としてもよい。
In this way, the degree of association is calculated from the sum of the value obtained from the keyword matching degree and the depth of association, and the value obtained from the keyword matching number and the history. By using this relevance level for priority calculation, participants who are related to the agenda have higher priority even if they have the same position.
For convenience, only the value obtained from the keyword matching degree and the depth of association may be used as the degree of association, or only the value obtained from the keyword matching number and the number of years may be used as the degree of association.
以上説明したように、会議の議題、関連キーワードと参加者の属性、経歴情報から会議が行われる時に自動で参加者の優先順位付けを行うことによって、予定外の参加者にも柔軟に対応できる。さらに、議長が会議参加者の過去の経歴や専門分野などを知らなくても、会議内容に応じてその都度参加者の優先順位付けを行うことができる。 As explained above, it is possible to flexibly deal with unscheduled participants by automatically prioritizing participants when the conference is held based on the agenda of the conference, related keywords and attributes of participants, and background information. . Furthermore, even if the chairperson does not know the past backgrounds and specialized fields of the conference participants, the priorities of the participants can be given each time according to the content of the conference.
これまで説明した参加者の優先度に基づくカメラワーク例を図8に示す。参加者の位置情報は上述したとおり参加者情報とともに記録部6に記録されている。この位置情報に基づいて、カメラ1による参加者の撮影が行われる。参加者がカメラ1の台数を越える場合、発言者を撮影しているカメラ1以外は、参加者の優先順位順に、適切な位置に設置されているカメラ1を参加者の撮影に割り当てる制御が行なわれる。また、例えば、最も優先順位の高い参加者については、図8(a)に示すようにズームアップ撮影を行う制御をしてもよい。その次に優先順位の高い参加者については、図8(b)のように数人程度まとめてズームして撮影を行う制御をしてもよい。その他の参加者については、図8(c)のように広角で撮影を行う制御をしてもよい。このように撮影された映像を見ることによって、発言者や会議に参加している参加者は、議題に適した参加者の反応を見ることができる。なお、カメラワークはここで示したものに限ったものではない。
An example of camera work based on the priorities of the participants described so far is shown in FIG. As described above, the location information of the participant is recorded in the
以上説明したように、優先順位に応じたカメラワークを行うことで、意思決定者や議題に関連の深い参加者を優先的に撮影することができ、発言者側もしくは、聞き手側にいる発言者の意見に対する、意思決定者や議題に関連の深い参加者の反応を見ることができる。 As described above, by performing camera work according to priority, it is possible to preferentially photograph decision makers and participants who are closely related to the agenda, and speakers who are on the speaker side or the listener side You can see the responses of the decision makers and participants closely related to the agenda.
次に、本発明の他の実施形態として、参加者の音声からキーワードを検出・認識し、参加者に優先順位を付け、議題や話の流れに応じたカメラワークを行うテレビ会議システムについて説明する。 Next, as another embodiment of the present invention, a video conference system that detects and recognizes keywords from the voices of the participants, prioritizes the participants, and performs camera work according to the agenda and the flow of the story will be described. .
図9は本発明の他の実施形態に係るテレビ会議システムの構成図である。この実施の形態の情報処理装置は、記録部6,第二の推論部10b,キーワードデータベース12,第二のデータベース13b,音声処理部14を備える。音声処理部14は、参加者の音声からキーワードを検出・認識し、参加者との対応付けを行う。第二の推論部10bは、発言時間、発言キーワードによって優先度を算出する。なお、人物毎に音声データの特徴情報を記録する第二の特徴データベース13b以外の基本構成(例えば、参加者の位置を検出し、その検出結果に基づいてカメラ1の駆動制御を行うための構成等)は第1の実施形態と同じであるのでその説明は省略する。
FIG. 9 is a configuration diagram of a video conference system according to another embodiment of the present invention. The information processing apparatus of this embodiment includes a
初めに、参加者の発言を認識した際に優先順位付けを行う処理の流れを図10のフローチャートを用いて説明する。ステップS11において、音声処理部14は、マイク4から発言者の音声データを取得し、取得した音声データの特徴情報と特徴データベース13aに登録された人物の特徴情報とから発言者を認識する。次に、音声処理部14はステップS12において発言者と参加者との対応を記録部6に記録する。
First, the flow of processing for prioritizing when a participant's speech is recognized will be described with reference to the flowchart of FIG. In step S11, the
次に音声処理部14はステップS13において音声データの音声分割を行い、ステップS14で参加者の発言からキーワードを抽出すると、ステップS15で、記録部6において発言者及び参加者に発言時間を更に対応付けて登録する。
Next, the
次に第二の推論部10bは、ステップS16で抽出された各キーワードから優先度を算出し、記録部6において発言者、参加者及び発言時間に優先度を更に対応付けて登録する。
Next, the second reasoning unit 10b calculates a priority from each keyword extracted in step S16, and registers the priority in association with the speaker, the participant, and the speech time in the
キーワードデータベース12においては、事前に登録したキーワードの他に、会議の中で頻繁に発生するキーワードも重要と判断し、優先度を算出するためのキーワードとしてキーワードデータベース12に登録される。例えば事前に「背景差分」といったキーワードを登録していなかったとしても、会議の中で頻繁に使われるようであれば、それに関連した属性や経歴を持つ会議参加者の優先度は高くなる。従って、会議を始める時には優先度が高くなかった参加者だとしても、話の流れに応じては優先度が高くなる。これにより、会議の話の流れに応じてリアルタイムで参加者の優先度を算出できる。そのため、事前に予定していた会議の内容と途中で議題が変わってしまったとしても、会議内容に応じてその都度参加者の優先順位付け(ステップS17)を行うことができる。
In the
ここで、ステップ16の優先度の算出方法について説明する。ステップS16の優先度の算出方法は、図5のステップS4での優先度の算出方法に発言者か否かと発言時間の合計が更に考慮されたものである。発言中であれば発言者度を1とする。無音になった瞬間に発言者度を0にすると、一呼吸おいただけでも発言者ではないと判断されてしまうため、発言後も一定時間までは発言者であるとする。これを図11に示す。発言時間は発言時間の合計から変換した値を用いる。本実施形態では、これらの値を図5のステップS4の優先度の算出に用いられる各要素の値に加算又は乗算することによって優先度を求める。但し、本実施形態では、優先度の算出処理の際に参加者情報は用いていないため、データベース11を参照してキーワードが検出された経歴の年は優先度の算出に考慮されない。
Here, the priority calculation method in step 16 will be described. The priority calculation method in step S16 is a method in which the priority calculation method in step S4 in FIG. 5 further considers whether or not the speaker is a speaker and the total speech time. When speaking, the speaker degree is set to 1. If the speaker level is set to 0 at the moment of silence, it is determined that the speaker is not a speaker even after a short breath. Therefore, it is assumed that the speaker is a speaker until a certain time after speaking. This is shown in FIG. As the speech time, a value converted from the total speech time is used. In the present embodiment, the priority is obtained by adding or multiplying these values to the value of each element used for calculating the priority in step S4 in FIG. However, in this embodiment, since participant information is not used in the priority calculation process, the year of the history in which the keyword is detected with reference to the
図12に、表示切り替え部によって選択された映像を、聞き手側のディスプレイに表示する際の画面表示レイアウト例を示す。図12(a)は、発言者と発言者側にいる意思決定者を表示している場合である。また、図12(b)は、さらに、議題に関連が深い参加者を撮影した映像を同時に表示している場合を示している。表示方法のレイアウトに関してはここで示した種類に限ったものではない。画面構成は、マルチ画面ではなくシングル画面でもよい。画面設定は自動もしくは手動で変更できるものである。画面表示の切り替えに関しては、注目人物優先、発言者優先、ハイブリッドなどのモードがあり、注目人物優先モードでは、推論部10aによって算出された優先順位に応じて優先度の高い参加者をメイン画面に表示し、次に優先順位の高い参加者を撮影している映像をサブ画面に表示する処理が行われる。発言者優先モードでは、第二の推論部10bによって算出された発言者の中で優先順位の高い参加者をメイン画面に表示して、次に優先順位の高い発言者を撮影している映像をサブ画面に表示する処理が行われる。ハイブリッドモードでは、発言者をメイン画面に表示し、意思決定者などの注目人物をサブ画面に表示する。この表示は逆でも良い。モードの設定は発言時間に応じて自動で切り替わるか参加者が手動で行っても良い。例えば、聞き手側のディスプレイには発言者優先モードもしくはハイブリッドモードで表示し、発言者側のディスプレイには注目人物優先モードで表示するというようになる。
FIG. 12 shows a screen display layout example when displaying the video selected by the display switching unit on the display on the listener side. FIG. 12A shows a case in which a speaker and a decision maker on the speaker side are displayed. Further, FIG. 12B shows a case where video images of participants who are closely related to the agenda are displayed at the same time. The layout of the display method is not limited to the types shown here. The screen configuration may be a single screen instead of a multi-screen. Screen settings can be changed automatically or manually. As for the screen display switching, there are modes such as attention person priority, speaker priority, and hybrid. In the attention person priority mode, a participant with a high priority is displayed on the main screen according to the priority order calculated by the
上述した実施形態によれば、カメラは発言者に注目して撮影を行うだけではなく、参加者の属性情報や経歴によって、議題や話の流れに応じて参加者に優先順位をつけ、その発言に対する意思決定者や議題に関連の深い参加者を優先的に撮影することができる。従って、発言者やその他の会議参加者は、発言者側もしくは、別地点にいる意思決定者や議題に関連の深い参加者の意見に対する反応を見ることが可能となり、効果的な映像を表示することができるテレビ会議を行うことができる。 According to the above-described embodiment, the camera not only performs shooting while paying attention to the speaker, but also prioritizes the participant according to the agenda and the flow of the talk according to the attribute information and background of the participant, and It is possible to preferentially photograph participants who are closely related to decision-makers and agendas. Therefore, the speaker or other conference participants can see the reaction to the opinions of the speaker or the decision-makers at different points or participants who are closely related to the agenda, and display an effective video. You can have a video conference.
さらに、会議を行う場合に、重要な意見は議題に関連した知識を持つ参加者から出ることが多いと想定される。そのため、議題に応じた人物を中心的に撮影しておくことにより、カメラ映像が頻繁に切り替わったり、音に対してカメラが敏感に反応したりすることを少なくすることができる。 In addition, when conducting meetings, it is assumed that important opinions often come from participants with knowledge related to the agenda. Therefore, by taking a picture of a person according to the agenda at the center, it is possible to reduce the frequent switching of camera images and the camera's sensitive response to sound.
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、上述した情報処理装置に供給し、その情報処理装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。 Also, an object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to the above-described information processing apparatus, and a computer (or CPU or MPU) of the information processing apparatus. Needless to say, this can also be achieved by reading and executing the program code stored in the storage medium.
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。 As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(基本システム或いはオペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (basic system or operating system) running on the computer based on the instruction of the program code. Needless to say, a case where the functions of the above-described embodiment are realized by performing part or all of the actual processing and the processing is included.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, after the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion board or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
1 カメラ
2 ディスプレイ
3 参加者認識部
4 マイク
5 処理部
6 記録部
7 タグ
8 リーダ
9 画像処理部
10a 推論部
10b 第二の推論部
11 データベース
12 キーワードデータベース
13a 特徴データベース
13b 第二の特徴データベース
14 音声処理部
DESCRIPTION OF SYMBOLS 1 Camera 2 Display 3 Participant recognition part 4
Claims (22)
人物に係る人物情報を人物毎に保持する第1のデータベースから、前記認識手段により認識された人物の人物情報を取得する人物情報取得手段と、
前記認識手段により認識された各人物の人物情報に基づいて、前記各人物について優先度を決定する優先度決定手段と、
前記各人物について決定された優先度に基づいて、複数の撮像装置の制御を行う制御手段とを有することを特徴とする会議システム。 A recognition means for personal recognition of a person,
Person information acquisition means for acquiring person information of a person recognized by the recognition means from a first database that holds person information related to the person for each person;
Priority determination means for determining priority for each person based on the person information of each person recognized by the recognition means;
And a control unit that controls a plurality of imaging devices based on the priority determined for each person.
前記音声データに基づいて人物の認識を行う認識手段と、
前記音声データから所定のキーワード情報を抽出するキーワード抽出手段と、
前記キーワード情報に基づいて、前記認識手段により認識された人物の優先度を決定する優先度決定手段と、
前記認識手段により認識された各人物について決定された優先度に基づいて、複数の撮像装置の制御を行う制御手段とを有することを特徴とする会議システム。 Audio data acquisition means for acquiring audio data;
Recognizing means for recognizing a person based on the audio data;
Keyword extracting means for extracting predetermined keyword information from the voice data;
Priority determination means for determining the priority of the person recognized by the recognition means based on the keyword information;
And a control unit that controls a plurality of imaging devices based on the priority determined for each person recognized by the recognition unit.
前記認識手段により人物の個人認識が行なわれた順序と、前記動線分析手段により人物の動線分析が行なわれた順序とに基づいて、各人物の位置を特定する位置特定手段とを更に有し、
前記制御手段は、前記位置特定手段により特定される各人物の位置に基づいて、前記撮像装置の制御を行うことを特徴とする請求項1乃至16の何れか1項に記載の会議システム。 A flow line analyzing means for analyzing a flow line of each person using image data photographed by the imaging device;
There is further provided a position specifying means for specifying the position of each person based on the order in which the person is recognized by the recognition means and the order in which the person's flow analysis is performed by the flow line analysis means. And
The conference system according to any one of claims 1 to 16, wherein the control unit controls the imaging device based on a position of each person specified by the position specifying unit.
前記制御手段は、前記位置特定手段により特定される各人物の位置に基づいて、前記撮像装置の制御を行うことを特徴とする請求項1乃至16の何れか1項に記載の会議システム。 It further has a position specifying means for specifying the position of each person using image data photographed by the imaging device,
The conference system according to any one of claims 1 to 16, wherein the control unit controls the imaging device based on a position of each person specified by the position specifying unit.
人物の個人認識を行う認識ステップと、
人物に係る人物情報を人物毎に保持するデータベースから、前記認識ステップにより認識された人物の人物情報を取得する人物情報取得ステップと、
前記認識ステップにより認識された各人物の人物情報に基づいて、前記各人物について優先度を決定する優先度決定ステップと、
前記各人物について決定された優先度に基づいて、前記撮像装置の制御を行う制御ステップとを含むことを特徴とする会議システムの制御方法。 A control method for a conference system having a plurality of imaging devices,
A recognition step for personal recognition of a person,
A person information acquisition step of acquiring person information of the person recognized by the recognition step from a database holding person information related to the person for each person;
A priority determination step for determining a priority for each person based on the person information of each person recognized by the recognition step;
And a control step of controlling the imaging device based on the priority determined for each person.
音声データを取得する音声データ取得ステップと、
前記音声データに基づいて人物の認識を行う認識ステップと、
前記音声データから所定のキーワード情報を抽出するキーワード抽出ステップと、
前記キーワード情報に基づいて、前記認識ステップにより認識された人物の優先度を決定する優先度決定ステップと、
前記認識ステップにより認識された各人物について決定された優先度に基づいて、画像を撮影する少なくとも一つの撮像装置の制御を行う制御ステップとを含むことを特徴とする会議システムの制御方法。 A control method for a conference system having a plurality of imaging devices,
An audio data acquisition step for acquiring audio data;
A recognition step for recognizing a person based on the audio data;
A keyword extraction step of extracting predetermined keyword information from the voice data;
A priority determination step for determining the priority of the person recognized by the recognition step based on the keyword information;
And a control step of controlling at least one imaging device that captures an image based on the priority determined for each person recognized in the recognition step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005252817A JP2007067972A (en) | 2005-08-31 | 2005-08-31 | Conference system and control method for conference system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005252817A JP2007067972A (en) | 2005-08-31 | 2005-08-31 | Conference system and control method for conference system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007067972A true JP2007067972A (en) | 2007-03-15 |
Family
ID=37929605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005252817A Pending JP2007067972A (en) | 2005-08-31 | 2005-08-31 | Conference system and control method for conference system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007067972A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010523025A (en) * | 2007-05-10 | 2010-07-08 | ▲ホア▼▲ウェイ▼技術有限公司 | System and method for controlling an image acquisition device for performing a target location search |
JP2011004007A (en) * | 2009-06-16 | 2011-01-06 | Ricoh Co Ltd | Television conference device, television conference method, and program for the same |
US8184529B2 (en) | 2008-10-17 | 2012-05-22 | Brother Kogyo Kabushiki Kaisha | Communication apparatus, method, and program for transmitting and receiving packet data |
JP2013509094A (en) * | 2009-10-23 | 2013-03-07 | マイクロソフト コーポレーション | Automatic labeling of video sessions |
WO2017002530A1 (en) * | 2015-06-30 | 2017-01-05 | Necネッツエスアイ株式会社 | Communication system and communication method |
JP2017092675A (en) * | 2015-11-09 | 2017-05-25 | 株式会社リコー | Information processing apparatus, conference system, information processing method, and program |
US10981015B2 (en) | 2013-11-11 | 2021-04-20 | Neuronetics, Inc. | Monitoring and detecting magnetic stimulation |
JP2022003818A (en) * | 2017-07-31 | 2022-01-11 | グリー株式会社 | Image display system, image display program, image display method, and server |
-
2005
- 2005-08-31 JP JP2005252817A patent/JP2007067972A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010523025A (en) * | 2007-05-10 | 2010-07-08 | ▲ホア▼▲ウェイ▼技術有限公司 | System and method for controlling an image acquisition device for performing a target location search |
US8363119B2 (en) | 2007-05-10 | 2013-01-29 | Huawei Technologies Co., Ltd. | System and method for controlling an image collecting device to carry out a target location |
US8184529B2 (en) | 2008-10-17 | 2012-05-22 | Brother Kogyo Kabushiki Kaisha | Communication apparatus, method, and program for transmitting and receiving packet data |
JP2011004007A (en) * | 2009-06-16 | 2011-01-06 | Ricoh Co Ltd | Television conference device, television conference method, and program for the same |
JP2013509094A (en) * | 2009-10-23 | 2013-03-07 | マイクロソフト コーポレーション | Automatic labeling of video sessions |
US10981015B2 (en) | 2013-11-11 | 2021-04-20 | Neuronetics, Inc. | Monitoring and detecting magnetic stimulation |
WO2017002530A1 (en) * | 2015-06-30 | 2017-01-05 | Necネッツエスアイ株式会社 | Communication system and communication method |
JP2017017521A (en) * | 2015-06-30 | 2017-01-19 | Necネッツエスアイ株式会社 | Communication system and communication method |
US10341608B2 (en) | 2015-06-30 | 2019-07-02 | Nec Networks & System Integration Corporation | Communication system and communication method |
JP2017092675A (en) * | 2015-11-09 | 2017-05-25 | 株式会社リコー | Information processing apparatus, conference system, information processing method, and program |
JP2022003818A (en) * | 2017-07-31 | 2022-01-11 | グリー株式会社 | Image display system, image display program, image display method, and server |
JP7288022B2 (en) | 2017-07-31 | 2023-06-06 | グリー株式会社 | Image display system, image display program, image display method and server |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112075075B (en) | Method and computerized intelligent assistant for facilitating teleconferencing | |
KR101010081B1 (en) | Media identification | |
US20190190908A1 (en) | Systems and methods for automatic meeting management using identity database | |
CN112037791B (en) | Conference summary transcription method, apparatus and storage medium | |
US9064160B2 (en) | Meeting room participant recogniser | |
JP2007067972A (en) | Conference system and control method for conference system | |
WO2009089142A2 (en) | Digital camera focusing using stored object recognition | |
WO2010010736A1 (en) | Conference image creating method, conference system, server device, conference device, and so forth | |
JP5316248B2 (en) | Video conference device, video conference method, and program thereof | |
CN112040119B (en) | Conference speaker tracking method, conference speaker tracking device, computer equipment and storage medium | |
JP2007241130A (en) | System and device using voiceprint recognition | |
CN115988164A (en) | Conference room multimedia control method, system and computer equipment | |
KR101077267B1 (en) | Stenography Input System And Method For Conference Using Face Recognition | |
JP2009105652A (en) | Portable communication terminal | |
JP2006085289A (en) | Facial authentication system and facial authentication method | |
JP2003027796A (en) | Entrance/leaving control system | |
CN116665111A (en) | Attention analysis method, system and storage medium based on video conference system | |
US20220327732A1 (en) | Information processing apparatus, information processing method, and program | |
JP2008123277A (en) | Access management device, method and program | |
Singletary et al. | Symbiotic interfaces for wearable face recognition | |
JP4645301B2 (en) | Face shape change information extraction device, face image registration device, and face image authentication device | |
JP2019175421A (en) | Multi-angle face authentication system, learning method for the same, and authentication method | |
JP7501575B2 (en) | Videoconferencing system, videoconferencing method, and program | |
Singletary et al. | Learning visual models of social engagement | |
JP2006178558A (en) | Image distribution device |