JP4445348B2 - Conference / discourse state estimation method, apparatus, and conference / discourse state estimation program - Google Patents

Conference / discourse state estimation method, apparatus, and conference / discourse state estimation program Download PDF

Info

Publication number
JP4445348B2
JP4445348B2 JP2004250378A JP2004250378A JP4445348B2 JP 4445348 B2 JP4445348 B2 JP 4445348B2 JP 2004250378 A JP2004250378 A JP 2004250378A JP 2004250378 A JP2004250378 A JP 2004250378A JP 4445348 B2 JP4445348 B2 JP 4445348B2
Authority
JP
Japan
Prior art keywords
conference
discourse
state
body motion
meeting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004250378A
Other languages
Japanese (ja)
Other versions
JP2006065765A (en
Inventor
真道 細田
彰 中山
稔 小林
敏 岩城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004250378A priority Critical patent/JP4445348B2/en
Publication of JP2006065765A publication Critical patent/JP2006065765A/en
Application granted granted Critical
Publication of JP4445348B2 publication Critical patent/JP4445348B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、会議や談話がどのような状態であるかを推定し、表示を行う技術に関するものである。   The present invention relates to a technique for estimating and displaying a state of a meeting or a discourse.

動画および音声から所望の場面を検索する技術として特許文献1がある。これは、動画から身体動作情報を得て、その特徴量を記録することにより、所望の場面の検索を可能とするものである。   As a technique for searching for a desired scene from moving images and sounds, there is Patent Document 1. In this method, body motion information is obtained from a moving image, and the feature amount is recorded, so that a desired scene can be searched.

会議における会議状態の記録検索に関する技術として非特許文献1がある。これは会議参加者に発言の意図について入力させ、また、あらかじめ議事を整理して登録しておくことによって、会議の状態を捉え検索を行うことができる技術である。   There is Non-Patent Document 1 as a technology related to conference state record retrieval in a conference. This is a technique that allows a conference participant to input a speech intention and organizes and registers the agenda in advance to capture the state of the conference and perform a search.

会議における会議状態の推定に関する技術として非特許文献2がある。これは、心拍数を計測し、会議参加者間で比較することによって会議状態を推定する技術である。
特開平7−253986号公報 田中充,福宿光徳,西堀良久,勅使河原可海,“同期・非同期型統合型マルチメディア会議システムASSISTにおけるマルチメディア議事録の開発と評価”,DICOMO99 予稿集,pp.79−84,1999. 細田真道,中山彰,小林稔,岩城敏,“生体情報に基づく会議状態推定−心拍変動共鳴現象の観測−”,情処研報 2004−GN−50(7) 2004−EIP−22(7),VR学研報 CSVC2004−7,pp.43−48,2004.
There is Non-Patent Document 2 as a technique related to estimation of a meeting state in a meeting. This is a technique for estimating a conference state by measuring a heart rate and comparing it between conference participants.
Japanese Patent Laid-Open No. 7-253986 Mitsunobu Tanaka, Mitsunori Fukujuku, Yoshihisa Nishibori, Kaumi Teshigawara, “Development and Evaluation of Multimedia Minutes in Synchronous / Asynchronous Integrated Multimedia Conference System ASSIST”, DICOMO99 Proceedings, pp. 79-84, 1999. Michi Hosoda, Akira Nakayama, Satoshi Kobayashi, Satoshi Iwaki, “Conference State Estimation Based on Biological Information—Observation of Heart Rate Fluctuation Resonance Phenomenon”, Information Processing Research Report 2004-GN-50 (7) 2004-EIP-22 (7) , VR Gakken Bulletin CSVC2004-7, pp. 43-48, 2004.

特許文献1の技術は、動画などのデータについて、身体動作などの特徴量を記録して検索することができるが、2人以上で行われる会議または談話については考慮されておらず、会議や談話の状態を推定することができない。   The technique of Patent Document 1 can record and search for features such as body movements for data such as moving images, but does not take into account meetings or discourses held by two or more people. The state of cannot be estimated.

非特許文献1の技術は、会議の状態を検索するために、事前に議事を整理して登録した上で参加者に発言の意図を入力させる必要があり、事前準備および会議中の操作が煩雑となっている。   In the technique of Non-Patent Document 1, in order to search for the status of a conference, it is necessary to organize and register the agenda in advance and then let the participants input the intention of the speech, which makes complicated preparations and operations during the conference It has become.

非特許文献2の技術は、会議状態を推定するために、会議参加者の心拍数を計測している。そのため、従来は必要の無かった心拍数計測装置を用意し、これを各参加者に取り付ける必要があり、使用が煩雑になる。また、心拍数を計測することが参加者に対する心理的な圧力となることも考えられる。   The technique of Non-Patent Document 2 measures the heart rate of a conference participant in order to estimate the conference state. Therefore, it is necessary to prepare a heart rate measuring device that has not been necessary in the past and attach it to each participant, which makes the use complicated. It is also conceivable that measuring heart rate is a psychological pressure on the participants.

本発明の目的は、会議や談話がどのような状態であるかを、参加者の身体動作の情報を利用して推定する会議/談話状態推定方法、装置、およびプログラムを提供することにある。   An object of the present invention is to provide a meeting / discourse state estimation method, apparatus, and program for estimating a state of a meeting or a discourse using information on a participant's physical motion.

本発明の会議/談話状態推定方法は、会議/談話状態推定装置を用いて、会議または談話の状態を推定する会議/談話状態推定方法であって、
身体動作情報取得手段が、各参加者の身体動作を表わす情報を取得する身体動作情報取得ステップと、
身体動作情報処理手段が、得られた身体動作情報に所定の加工を行い、加工された身体動作情報を時系列に出力する身体動作情報処理ステップと、
会議/談話状態推定手段が、前記身体動作情報処理手段から時系列に出力された身体動作情報である時系列データと、会議/談話状態辞書に予め格納された会議または談話がどのような状態であるかを示す時系列データ間の相関係数を計算し、前記相関係数が最も高かった会議/談話状態を参加者個人の状態であると推定し、前記参加者個人の状態の中で最も多かった会議/談話状態が全体の会議状態であると推定する会議/談話状態推定ステップと
を有する。
The conference / discourse state estimation method of the present invention is a conference / discourse state estimation method for estimating the state of a conference or discourse using a conference / discourse state estimation device,
A body motion information acquiring means for acquiring information representing the body motion of each participant;
Body motion information processing means performs predetermined processing on the obtained body motion information, and outputs the processed body motion information in time series; and
In what state the conference / discourse state estimation means is the time series data that is the body motion information output in time series from the body motion information processing means and the conference or discourse stored in advance in the conference / discourse state dictionary Calculating a correlation coefficient between time-series data indicating whether or not there is, and estimating a meeting / discourse state having the highest correlation coefficient as a participant's individual state; A conference / discourse state estimation step for estimating that the conference / discussion state that was common is the entire conference state .

本発明は、会議や談話において参加者の身体動作情報を時系列に取得し、時系列の身体動作情報を解析することによって、会議や談話がどのような状態であったのかを示す会議談話状態を推定するものである。   The present invention obtains participants' body movement information in a time series in a meeting or discourse and analyzes the time series body movement information to indicate what kind of state the meeting or discourse is. Is estimated.

なお、会議や談話中または終了時に現在の会議/談話状態を表示することにより、議論を盛り上げたり、話者が聴衆の状態を知り、話題の転換に使用したりすることが可能となる。また、会議や談話の画像や音声などと共に会議/談話状態を記録しておけば、会議や談話中または終了後、所望の会議/談話状態であった時刻を検索してその場面を再生し、内容を確認することが可能となる。   In addition, by displaying the current meeting / discourse state during or at the end of a meeting or conversation, it is possible to excite the discussion, or the speaker can know the state of the audience and use it to change the topic. Also, if you record the meeting / discourse status along with the image and sound of the meeting / discussion, you can search for the desired meeting / discussion time during or after the conference / discussion and play back the scene. The contents can be confirmed.

本発明は、会議/談話参加者の身体動作情報を取得し、参加者相互間の身体動作情報の関係を解析することにより、心拍数測定装置などを参加者に取り付ける必要がないため、参加者に対する心理的圧力なしに、会議/談話状態を推定することができる。   The present invention acquires the body motion information of the conference / discourse participant and analyzes the relationship of the body motion information between the participants, so that it is not necessary to attach a heart rate measuring device or the like to the participant. Meeting / discourse status can be estimated without psychological pressure on.

次に、本発明の実施の形態について図面を参照して説明する。   Next, embodiments of the present invention will be described with reference to the drawings.

図1は本発明の一実施形態の会議/談話状態検出・検索装置の構成を示している。   FIG. 1 shows the configuration of a conference / discourse state detection / search apparatus according to an embodiment of the present invention.

会議/談話参加者11,12,…,1nはそれぞれの身体動作情報(各参加者11〜1nの頭部位置、頭部角度、視線方向、手の位置、手の角度、体の角度の一部または全部)を取得する、1つまたは複数の例えば3次元位置センサおよび3次元角度センサである身体動作情報取得器21,22,…,2nを一部または全部装着している。身体動作情報処理部31,32,…,3nはそれぞれ身体動作情報取得器21,22,…,2nで取得された身体動作情報に所定の加工を行う。会議/談話状態辞書4は、身体動作情報の特徴と、会議または談話がどのような状態であるかを示す会議/談話状態との組み合せを記録している。会議/談話状態推定部5は、身体動作情報処理部31〜3nから送られてきた身体動作情報から、会議/談話状態辞書4を用いて会議または談話の状態を推定し、結果を会議/談話状態表示部101,102,…,10nと会議/談話状態記録部6に送る。会議/談話状態表示部101〜10nはそれぞれ会議/談話参加者11〜1nに会議または談話の状態を示す。会議/談話状態記録部6は会議または談話の状態と、身体動作情報が取得された時刻の時刻情報を会議/談話データベース7に記録する。会議/談話状態検索部8は、所望の会議/談話状態の時刻情報を得るために会議/談話データベース7を検索し、該時刻情報を会議/談話状態検索結果表示部9で表示する。 The conference / discussion participants 1 1 , 1 2 ,..., 1 n are each body movement information (head position, head angle, line-of-sight direction, hand position, hand angle of each participant 1 1 to 1 n , A part or all of one or a plurality of body motion information acquisition units 2 1 , 2 2 ,..., 2 n which are, for example, 3D position sensors and 3D angle sensors. Wearing. Body movement information processing unit 3 1, 3 2, ..., 3 n each body movement information acquisition unit 2 1, 2 2, ..., performs predetermined processing on the acquired body movement information 2 n. The meeting / discourse state dictionary 4 records the combination of the characteristics of the body movement information and the meeting / discourse state indicating the state of the meeting or the discourse. The conference / discourse state estimation unit 5 estimates the state of the conference or the discourse using the conference / discourse state dictionary 4 from the body motion information sent from the body motion information processing units 3 1 to 3 n , and the result of the conference / Discourse status display units 10 1 , 10 2 ,..., 10 n and the conference / discussion status recording unit 6. The conference / discourse status display sections 10 1 to 10 n indicate the status of the conference or discourse to the conference / discourse participants 11 1 to 1 n , respectively. The meeting / discourse state recording unit 6 records the state of the meeting or the discourse and the time information of the time when the body movement information is acquired in the meeting / discourse database 7. The conference / discourse state search unit 8 searches the conference / discourse database 7 to obtain time information of a desired conference / discourse state, and displays the time information on the conference / discourse state search result display unit 9.

身体動作情報取得器21〜2nに用いる3次元位置センサ、3次元角度センサの例として、磁界を用いて3次元位置および角度を得ることができるPolhemus社FASTRAKを用いることができる。身体動作情報取得器21〜2nにおいて視線方向を得るためには、ナックイメージテクノロジー社EMR−NCを用いることができる。 As an example of a three-dimensional position sensor or a three-dimensional angle sensor used for the body motion information acquisition units 2 1 to 2 n , Polhemus FASTRAK that can obtain a three-dimensional position and angle using a magnetic field can be used. In order to obtain the line-of-sight direction in the body motion information acquisition units 2 1 to 2 n , NAC Image Technology EMR-NC can be used.

身体動作情報取得器21〜2nの他の例として、会議/談話参加者11〜1nの身体に装着しなくてすむ、会議/談話参加者11〜1nを撮影するカメラがある。この場合、身体動作情報処理部31〜3nにおいて、カメラ画像から頭部動作を検出するために、Intel社OpenCVライブラリを用いて画像中の顔の位置を検出し、画像中の顔の位置から頭部位置を得ることが可能である。 As another example of the body motion information acquiring unit 2 1 to 2 n, need not be worn on the body of the conference / discourse participant 1 1 to 1 n, a camera for photographing a 1 1 to 1 n Meeting / discourse participants is there. In this case, in order to detect the head movement from the camera image, the body movement information processing units 3 1 to 3 n detect the position of the face in the image using the Intel OpenCV library, and the position of the face in the image It is possible to obtain the head position from

身体動作情報処理部31〜3nは、得られた位置および角度から、速度、加速度、角速度、角加速度を計算し、それぞれ所定の帯域の周波数成分のみ通過させることのできるフィルタを通してノイズ成分を除去して時系列データを会議/談話状態推定部5に送る。身体動作情報取得器21〜2nがカメラの場合、身体動作情報処理部31〜3nはカメラから得られた画像から身体動作を検出し、身体動作を表す情報を所定の特性を持つフィルタにかけて時系列データを会議/談話状態推定部5に送る。
The body motion information processing units 3 1 to 3 n calculate velocity, acceleration, angular velocity, and angular acceleration from the obtained position and angle, and pass noise components through filters that can pass only frequency components of predetermined bands, respectively. The time series data is removed and sent to the conference / discourse state estimation unit 5. When the body motion information acquisition units 2 1 to 2 n are cameras, the body motion information processing units 3 1 to 3 n detect body motions from images obtained from the cameras and have information indicating the body motions with predetermined characteristics . The time series data is filtered and sent to the conference / discourse state estimation unit 5.

会議/談話状態推定部5は、ある参加者の時系列データを、一定の時間間隔ごとに一定範囲の時間内において、他の参加者の時系列データまたは会議/談話状態辞書4あるいはその両方と比較し、身体動作情報が取得された時刻における会議または談話の状態を推定する。   The conference / discourse state estimation unit 5 compares the time-series data of a certain participant with the time-series data of other participants and / or the conference / discourse state dictionary 4 within a certain range at regular time intervals. The state of the meeting or discourse at the time when the body movement information is acquired is estimated by comparison.

図2に会議/談話状態推定部5の処理例を示す。この例では参加者は4名とする。4人の場合の相関行列は4×4の行列となり、n人の場合の相関行列はn×nの行列となる。相関行列のn行m列の要素は、n人目の参加者とm人目の参加者との間の相関係数となっている。相関係数は互いに対して正の相関が強ければ1に近くなり、相関がなければ0に近くなり、負の相関が強ければ−1に近くなる。会議/談話状態辞書4には図3に示す相関行列と会議/談話状態の組み合せをあらかじめ登録しておく。まず、1秒ごとに過去10秒間の時系列データを取り出し(ステップ101)、各参加者間の相関係数を計算し(ステップ102)、相関行列を求める。計算した相関行列を会議/談話状態辞書4の各相関行列と比較する(ステップ103)。比較方法は行列の差分をとり、その絶対値を用いることにする。絶対値がもっとも小さかった会議状態であったと推定し(ステップ104)、結果を会議/談話状態表示部101〜10nおよび会議/談話状態記録部6に送る(ステップ105)。 FIG. 2 shows a processing example of the meeting / discourse state estimation unit 5. In this example, there are four participants. The correlation matrix for four people is a 4 × 4 matrix, and the correlation matrix for n people is an n × n matrix. The element of n rows and m columns of the correlation matrix is a correlation coefficient between the nth participant and the mth participant. The correlation coefficient is close to 1 if the positive correlation is strong, close to 0 if there is no correlation, and close to -1 if the negative correlation is strong. In the conference / discourse state dictionary 4, combinations of correlation matrix and conference / discourse state shown in FIG. 3 are registered in advance. First, time series data for the past 10 seconds is taken out every second (step 101), a correlation coefficient between each participant is calculated (step 102), and a correlation matrix is obtained. The calculated correlation matrix is compared with each correlation matrix in the conference / discourse state dictionary 4 (step 103). The comparison method takes a matrix difference and uses its absolute value. It is estimated that the meeting state has the smallest absolute value (step 104), and the result is sent to the meeting / discourse state display units 10 1 to 10 n and the meeting / discourse state recording unit 6 (step 105).

図4に会議/談話状態推定部5の他の処理例を示す。この例では参加者は5人とする。会議談話状態辞書4には図5に示す時系列データと会議/談話状態の組み合せをあらかじめ登録しておく。推定は、まず、1秒ごとに過去10秒の時系列データを取り出す(ステップ101)。各参加者の時系列データについて、会議/談話状態辞書4の時系列データとの相関係数をとる(ステップ106)。相関係数が最も高かった会議/談話状態が、該参加者個人の状態であると推定し(ステップ107)、すべての参加者において、最も多かった会議/談話状態が全体の会議状態であると推定し(ステップ108)、結果を会議/談話状態表示部101〜10nおよび会議/談話状態記録部6に送る(ステップ105)。 FIG. 4 shows another process example of the conference / discourse state estimation unit 5. In this example, there are five participants. In the meeting discourse state dictionary 4, a combination of the time series data and the meeting / discourse state shown in FIG. 5 is registered in advance. In the estimation, first, time series data of the past 10 seconds is taken out every second (step 101). A correlation coefficient with the time series data of the conference / discourse state dictionary 4 is taken for the time series data of each participant (step 106). It is estimated that the conference / discourse state having the highest correlation coefficient is the state of the individual participant (step 107), and the most common conference / discourse state is the overall conference state among all participants. Estimate (step 108), and send the result to the conference / discourse state display units 10 1 to 10 n and the conference / discourse state recording unit 6 (step 105).

会議/談話状態表示部101〜10nは、参加者11〜1nに対して、会議/談話状態推定部5の推定結果を提示する。表示例を図6に示す。 The conference / discourse state display units 10 1 to 10 n present the estimation results of the conference / discourse state estimation unit 5 to the participants 11 1 to 1 n . A display example is shown in FIG.

会議/談話状態記録部6は、会議/談話状態推定部5から送られてきた推定情報と、身体動作情報が取得されたときの時刻を会議/談話データベース7に記録する。会議/談話データベース7に記録されたレコードの例を図7に示す。   The conference / discourse state recording unit 6 records the estimated information sent from the conference / discourse state estimation unit 5 and the time when the body movement information is acquired in the conference / discourse database 7. An example of a record recorded in the conference / discourse database 7 is shown in FIG.

会議/談話状態検索部8は、検索したい会議/談話状態を入力することにより、該会議/談話状態の時刻を会議談話データベース7を用いて検索する。検索結果は会議/談話状態検索結果表示部9に送られる。   The conference / discourse state search unit 8 searches the conference / discourse state time using the conference / discourse database 7 by inputting the conference / discourse state to be searched. The search result is sent to the conference / discourse state search result display unit 9.

なお、本発明の会議/談話状態推定方法は専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間の間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。   Note that the conference / discourse state estimation method of the present invention is recorded on a computer-readable recording medium, and the program for realizing the function is recorded on the recording medium, in addition to that realized by dedicated hardware. The program may be read by a computer system and executed. The computer-readable recording medium refers to a recording medium such as a flexible disk, a magneto-optical disk, and a CD-ROM, and a storage device such as a hard disk device built in a computer system. Furthermore, a computer-readable recording medium is a server that dynamically holds a program (transmission medium or transmission wave) for a short period of time, as in the case of transmitting a program via the Internet, and a server in that case. Some of them hold programs for a certain period of time, such as volatile memory inside computer systems.

本発明の一実施形態の会議/談話状態推定装置の構成を示す図である。It is a figure which shows the structure of the meeting / discourse state estimation apparatus of one Embodiment of this invention. 会議/談話状態推定部5の処理例を示すフローチャートである。It is a flowchart which shows the process example of the meeting / discourse state estimation part 5. FIG. 会議/談話状態辞書4に登録された相関行列と会議/談話状態の例を示す図である。It is a figure which shows the example of the correlation matrix registered in the meeting / discourse state dictionary 4, and a meeting / discourse state. 会議/談話状態推定部5の他の処理例を示すフローチャートである。10 is a flowchart illustrating another example of processing of the meeting / discourse state estimation unit 5. 会議/談話状態辞書4に登録された時系列データと会議/談話状態の例を示す図である。It is a figure which shows the example of the time series data registered in the meeting / discourse state dictionary 4, and a meeting / discourse state. 会議/談話状態の表示例を示す図である。It is a figure which shows the example of a display of a meeting / discourse state. 会議/談話データベース7に記録されたレコードの例を示す図である。It is a figure which shows the example of the record recorded on the meeting / discourse database.

符号の説明Explanation of symbols

1〜1n 会議参加者
1〜2n 身体動作情報取得部
1〜3n 身体動作情報処理部
4 会議/談話状態辞書
5 会議/談話状態推定部
6 会議/談話状態記録部
7 会議/談話データベース
8 会議/談話状態検索部
9 会議/談話状態検索結果表示部
101〜108 ステップ
1 1 to 1 n conference participants 2 1 to 2 n body motion information acquisition unit 3 1 to 3 n body motion information processing unit 4 conference / discourse state dictionary 5 conference / discourse state estimation unit 6 conference / discourse state recording unit 7 conference / Discourse database 8Conference / Discourse state search unit 9Conference / Discourse state search result display unit 101-108 steps

Claims (9)

会議/談話状態推定装置を用いて、会議または談話の状態を推定する会議/談話状態推定方法であって、
身体動作情報取得手段が、各参加者の身体動作を表わす情報を取得する身体動作情報取得ステップと、
身体動作情報処理手段が、得られた身体動作情報に所定の加工を行い、加工された身体動作情報を時系列に出力する身体動作情報処理ステップと、
会議/談話状態推定手段が、前記身体動作情報処理手段から時系列に出力された身体動作情報である時系列データと、会議/談話状態辞書に予め格納された会議または談話がどのような状態であるかを示す時系列データ間の相関係数を計算し、前記相関係数が最も高かった会議/談話状態を参加者個人の状態であると推定し、前記参加者個人の状態の中で最も多かった会議/談話状態が全体の会議状態であると推定する会議/談話状態推定ステップと
を有する会議/談話状態推定方法。
A conference / discourse state estimation method for estimating a conference or discourse state using a conference / discourse state estimation device,
A body motion information acquiring means for acquiring information representing the body motion of each participant;
Body motion information processing means performs predetermined processing on the obtained body motion information, and outputs the processed body motion information in time series; and
In what state the conference / discourse state estimation means is the time series data that is the body motion information output in time series from the body motion information processing means and the conference or discourse stored in advance in the conference / discourse state dictionary Calculating a correlation coefficient between time-series data indicating whether or not there is, and estimating a meeting / discourse state having the highest correlation coefficient as a participant's individual state; A conference / discourse state estimation method including a conference / discourse state estimation step of estimating that a large number of conference / discourse states are the entire conference state .
会議または談話における、各参加者の身体動作を表す情報を取得する身体動作情報取得手段と、
得られた身体動作情報に所定の加工を行い、加工された身体動作情報を時系列に出力する身体動作情報処理手段と、
前記身体動作情報処理手段から時系列に出力された身体動作情報である時系列データと会議または談話がどのような状態であるかを示す会議/談話状態との組み合せを記録した会議/談話状態辞書と、
前記身体動作情報処理手段から出力された時系列データと前記会議/談話状態辞書に格納された時系列データ間の相関係数を計算し、前記相関係数が最も高かった会議/談話状態を参加者個人の状態であると推定し、前記参加者個人の状態の中で最も多かった会議/談話状態が全体の会議状態であると推定する会議/談話状態推定手段と
を有する会議談話状態推定装置。
Body motion information acquisition means for acquiring information representing the body motion of each participant in a meeting or discourse;
Body motion information processing means for performing predetermined processing on the obtained body motion information and outputting the processed body motion information in time series;
A meeting / discourse state dictionary that records a combination of time series data, which is body movement information output in time series from the body movement information processing means, and a meeting / discourse state indicating the state of the meeting or discourse. When,
Calculate the correlation coefficient between the time series data output from the body motion information processing means and the time series data stored in the meeting / discourse state dictionary, and participate in the meeting / discourse state with the highest correlation coefficient who estimated that individuals who are in the state, conference / discourse state estimation and a conference / discourse state estimation means most common conference / discourse state in the state of the participant individual estimates that the entire conference state apparatus.
前記身体動作情報取得手段は、各参加者の頭部位置、頭部角度、視線方向、手の位置、手の角度、体の位置、体の角度、の一部または全部を取得する、請求項2に記載の会議談話状態推定装置。 The body motion information acquisition means acquires part or all of each participant's head position, head angle, line-of-sight direction, hand position, hand angle, body position, body angle. 2. The conference / discourse state estimation device according to 2. 前記身体動作情報取得手段は、一部または全部が参加者に取り付けられた1つまたは複数の3次元位置および3次元角度センサであり、
前記身体動作情報処理手段は、前記3次元位置センサ、前記3次元角度センサによって取得された位置および角度から各センサの位置、速度、加速度、角度、角速度、角加速度、の一部または全部を検出し、これらを所定の特性を持つフィルタにかけ時系列データを出力し、
前記会議/談話状態推定手段は、ある参加者の該時系列データを、一定の時間間隔ごとに一定範囲の時間内において、他の参加者の時系列データまたは前記会議/談話状態辞書あるいはその両方と比較し、身体動作情報が取得された時刻における会議または談話の状態を推定する、請求項2または3に記載の会議/談話状態推定装置。
The body motion information acquisition means is one or a plurality of three-dimensional position and three-dimensional angle sensors, all or a part of which are attached to a participant,
The body motion information processing means detects part or all of the position, velocity, acceleration, angle, angular velocity, and angular acceleration of each sensor from the position and angle acquired by the three-dimensional position sensor and the three-dimensional angle sensor. And apply these to a filter with predetermined characteristics to output time-series data,
The conference / discourse state estimation means is configured to convert the time-series data of a certain participant into the time-series data of other participants and / or the conference / discourse state dictionary or both within a certain range of time at regular intervals. 4. The conference / discourse state estimation device according to claim 2, wherein the state of the conference or discourse at the time when the body motion information is acquired is estimated .
前記身体動作情報取得手段は、参加者の画像を取得するカメラであり、
前記身体情報処理手段は、前記カメラで得られた画像から身体動作を検出し、身体動作を表わす情報を所定の特性を持つフィルタにかけ時系列データを出力し、
前記会議/談話状態推定手段は、ある参加者の該時系列データを、一定の時間間隔ごとに一定範囲の時間内において、他の参加者の時系列データまたは前記会議/談話状態辞書あるいはその両方と比較し、身体動作情報が取得された時刻における会議または談話の状態を推定する、請求項2または3に記載の会議/談話状態推定装置。
The body movement information acquisition means is a camera that acquires images of participants,
The body information processing means detects a body motion from an image obtained by the camera, applies information representing the body motion to a filter having predetermined characteristics, and outputs time series data;
The conference / discourse state estimation means is configured to convert the time-series data of a certain participant into the time-series data of other participants and / or the conference / discourse state dictionary or both within a certain range of time at regular intervals. 4. The conference / discourse state estimation device according to claim 2, wherein the state of the conference or discourse at the time when the body motion information is acquired is estimated.
前記会議/談話状態推定手段で推定された会議/談話状態を表示する会議/談話状態表示手段をさらに有する、請求項2からのいずれか1項に記載の会議/談話状態推定装置。 The meeting / conference / discourse state estimated by the discourse state estimating means for displaying further comprises a conference / discourse status display means, conference / discourse state estimating apparatus according to any one of claims 2 to 5. 前記会議談話データベースから会議/談話中または会議/談話終了後に所望の会議/談話状態であった時刻を検索する会議/談話状態検索手段をさらに有する、請求項2からのいずれか1項に記載の会議/談話状態推定装置。 Further comprising a conference / discourse state retrieval means for retrieving the time was the desired conference / discourse state after completion of the meeting / discourse in or conference / discourse from the conference discourse database, according to any one of claims 2 to 6 Meeting / discourse state estimation device. 検索結果を表示する会議/談話状態検索結果表示手段をさらに有する、請求項に記載の会議/談話状態推定装置。 8. The conference / discourse state estimation device according to claim 7 , further comprising a conference / discourse state search result display means for displaying a search result. 請求項2からのいずれか1項に記載の会議/談話状態推定装置の機能をコンピュータで実行するための会議/談話状態推定プログラム。 Meeting / discourse state estimation program for executing the function of the conference / discourse state estimating device according a computer in any one of claims 2 to 8.
JP2004250378A 2004-08-30 2004-08-30 Conference / discourse state estimation method, apparatus, and conference / discourse state estimation program Expired - Fee Related JP4445348B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004250378A JP4445348B2 (en) 2004-08-30 2004-08-30 Conference / discourse state estimation method, apparatus, and conference / discourse state estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004250378A JP4445348B2 (en) 2004-08-30 2004-08-30 Conference / discourse state estimation method, apparatus, and conference / discourse state estimation program

Publications (2)

Publication Number Publication Date
JP2006065765A JP2006065765A (en) 2006-03-09
JP4445348B2 true JP4445348B2 (en) 2010-04-07

Family

ID=36112181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004250378A Expired - Fee Related JP4445348B2 (en) 2004-08-30 2004-08-30 Conference / discourse state estimation method, apparatus, and conference / discourse state estimation program

Country Status (1)

Country Link
JP (1) JP4445348B2 (en)

Also Published As

Publication number Publication date
JP2006065765A (en) 2006-03-09

Similar Documents

Publication Publication Date Title
Tao et al. End-to-end audiovisual speech recognition system with multitask learning
JP6464449B2 (en) Sound source separation apparatus and sound source separation method
US7343289B2 (en) System and method for audio/video speaker detection
Stiefelhagen et al. The CLEAR 2007 evaluation
JP4804801B2 (en) Conversation structure estimation method, program, and recording medium
JP2005518031A (en) Method and system for identifying a person using video / audio matching
JP2004515982A (en) Method and apparatus for predicting events in video conferencing and other applications
JP5989603B2 (en) Estimation apparatus, estimation method, and program
CN110196914A (en) A kind of method and apparatus by face information input database
EP3739573B1 (en) Information processing device, information processing method, and program
JP2005141687A (en) Method, device, and system for object tracing, program, and recording medium
JP7139680B2 (en) Activity evaluation program, device and method
JP5383056B2 (en) Sound data recording / reproducing apparatus and sound data recording / reproducing method
JP4445348B2 (en) Conference / discourse state estimation method, apparatus, and conference / discourse state estimation program
JP7370050B2 (en) Lip reading device and method
Ronzhin et al. A software system for the audiovisual monitoring of an intelligent meeting room in support of scientific and education activities
JP6997733B2 (en) Information processing equipment, information processing methods, and programs
CN112887659B (en) Conference recording method, device, equipment and storage medium
Inoue et al. Speaker diarization using eye-gaze information in multi-party conversations
WO2019156079A1 (en) Estimation device, estimation method and program
JP2012003698A (en) Conference support device, conference support method, conference support program and recording medium
Nishiguchi et al. A sensor-fusion method for detecting a speaking student
JP3980561B2 (en) CONFERENCE STATE DETECTION METHOD, DEVICE, AND CONFERENCE STATE DETECTION PROGRAM
JP2016111426A (en) Estimation device, estimation method, and program
JP2021163217A (en) Motion detection device, motion detection method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100115

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees