JP2006085440A - Information processing system, information processing method and computer program - Google Patents

Information processing system, information processing method and computer program Download PDF

Info

Publication number
JP2006085440A
JP2006085440A JP2004269685A JP2004269685A JP2006085440A JP 2006085440 A JP2006085440 A JP 2006085440A JP 2004269685 A JP2004269685 A JP 2004269685A JP 2004269685 A JP2004269685 A JP 2004269685A JP 2006085440 A JP2006085440 A JP 2006085440A
Authority
JP
Japan
Prior art keywords
information
conference
participant
meeting
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004269685A
Other languages
Japanese (ja)
Inventor
Tsutomu Oyama
努 大山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004269685A priority Critical patent/JP2006085440A/en
Publication of JP2006085440A publication Critical patent/JP2006085440A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To produce a video index reflecting a psychological state of a person participating in a conference to efficiently look back on the conference. <P>SOLUTION: At least one of material used in the conference and a conference participant is recorded as video information of the conference, and view line information of the conference participant, or biological information such as brain waves or a pulse rate is acquired as information about the conference participant. The psychological state of the conference participant is estimated on the basis of the information about the conference participant. A part of voice video information of the conference is selected on the basis of estimated psychological state information of the conference participant, and is recorded as index information. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、会議における映像情報、音声情報、ドキュメント情報(提示資料)などの情報(会議情報)を記録並びに再生する情報処理システム及び情報処理方法、並びにコンピュータ・プログラムに係り、特に、会議における映像情報、音声情報、ドキュメント情報などを記録した会議情報の中から所望のシーンを検索する会議情報アクセス作業を支援する情報処理システム及び情報処理方法、並びにコンピュータ・プログラムに関する。   The present invention relates to an information processing system and information processing method and a computer program for recording and reproducing information (conference information) such as video information, audio information, document information (presentation material) in a conference, and in particular, video in a conference. The present invention relates to an information processing system, an information processing method, and a computer program that support a conference information access operation for searching for a desired scene from conference information in which information, audio information, document information, and the like are recorded.

さらに詳しくは、本発明は、会議における音声映像情報を記録するとともに、これら記録した情報についてのインデックスを作成して、所望する情報を効率よく検索するための情報処理システム及び情報処理方法、並びにコンピュータ・プログラムに係り、特に、会議に参加した人の心理状態を反映させた映像インデックスを作成し、会議の振り返りを効率よく行なう情報処理システム及び情報処理方法、並びにコンピュータ・プログラムに関する。   More specifically, the present invention relates to an information processing system, an information processing method, and a computer for recording audio / video information in a conference, creating an index for the recorded information, and efficiently searching for desired information. The present invention relates to a program, and more particularly, to an information processing system and information processing method that efficiently creates a video index that reflects the psychological state of a person who has participated in a conference, and efficiently looks back on the conference, and a computer program.

昨今のコンピューティング技術の発展に伴い、コンピュータがオフィスや一般家庭内に深く浸透してきている。これと相俟って、さまざまな適用業務はコンピュータの支援を受けることができるようになってきている。例えば、企業における産業活動やその他のさまざまに日常生活において、会議が頻繁に行なわれているが、会議室にコンピュータを取り込むことで、会議の運用を支援することができる。   With the recent development of computing technology, computers have penetrated deeply into offices and general households. Coupled with this, various applications can now receive computer support. For example, conferences are frequently held in industrial activities and various other daily lives in a company. By incorporating a computer into a conference room, the operation of the conference can be supported.

会議支援システムの一例として、遠隔会議システムを取り上げることができる。遠隔会議システムによれば、遠隔に位置する複数の会議室において、カメラやマイクなどの画像・音声入力装置や、モニターやスピーカーなどの画像・音声出力装置を設置し、通信回線を利用して、各会議室において行なわれる発言や質疑応答などのイベントを共有し、遠隔地間で議事を同期して進行させることができる。   As an example of the conference support system, a remote conference system can be taken up. According to the remote conference system, in a plurality of remotely located conference rooms, image / audio input devices such as cameras and microphones, and image / audio output devices such as monitors and speakers are installed, and communication lines are used. Events such as remarks and questions and answers held in each conference room can be shared, and proceedings can be synchronized between remote locations.

また、会議ではプレゼンテーション用資料をスクリーンに投影し、複数の参加者間で多くの会話が交わされる。そこで、会議の参加者を撮影した映像や、参加者の発言内容などの音声だけでなく、会議で使用されるホワイトボードや、スライドその他のプレゼンテーション資料など、会議に関連するさまざまなメディア・データを記録し、コンピュータ上で映像や音声すなわち会議の進行と同期させて管理することができる。このように会議に関連するデータを保存しておくことにより、これらを次回の会議において再利用することが可能となる。   In a conference, presentation materials are projected on a screen, and many conversations are exchanged between a plurality of participants. Therefore, various media data related to the conference such as whiteboards used in the conference, slides and other presentation materials, as well as the video of the conference participants and the audio of the participants' remarks. It can be recorded and managed on a computer in synchronism with video and audio, that is, the progress of the conference. By storing the data related to the conference in this way, these can be reused in the next conference.

会議は、ほぼ毎日、複数の会議において時間毎に開催される。このため、会議毎に捕捉され、蓄積された会議データは膨大であり、その数は日々増加していく。ここで、会議での決定事項を見返すなど、会議データを再利用したいときに、所望の会議における所望の箇所(再生位置)を探し出す手間が煩わしくなる、あるいは探し出すことが困難若しくは不可能である、という問題が浮上する。   Meetings are held almost every day at multiple meetings. For this reason, the amount of conference data captured and accumulated for each conference is enormous, and the number thereof increases day by day. Here, when it is desired to reuse the conference data, such as looking back on the matters to be determined in the conference, it becomes troublesome or difficult or impossible to find the desired location (reproduction position) in the desired conference. The problem emerges.

会議などでの決定事項などは、後に発行される議事録を見返すことにより振り返ることができる。しかし、決定事項に至った詳細な経緯などは記録されないため、振り返ることができない。会議の議事録は通常、会議参加者が会議中に発言した音声情報を基にしたメモからテキスト化される。そこでテキスト化される会議情報は僅かであり、会議中の重要な発言が記録されない、内容が不明瞭なため正確に振り返ることができない、といった問題がある。また、本題からそれた内容であるが当人にとっては重要であると思える発話の内容や資料の内容など、議事録に載らないような事柄でも後で思い出したいと思う場合がある。   Decisions made at meetings, etc. can be reviewed by reviewing the minutes issued later. However, since the details of the decision are not recorded, it cannot be reviewed. Meeting minutes are usually made into text from notes based on audio information spoken by the participants during the meeting. Therefore, there are few meeting information to be converted into text, and there are problems that important utterances during the meeting are not recorded and that the contents are unclear and cannot be accurately reflected. In addition, there are cases where you want to remember later things that do not appear in the minutes, such as the content of utterances and materials that seem to be important to the person, but that are off the subject.

このような会議の振り返りを支援する技術として動画像を利用する方法がある。会議をビデオ撮影し、後で思い出したいシーンを再生することにより想起を支援する方法である。そのためには、見たいシーンをすばやく検索する技術が不可欠となる。   There is a method of using a moving image as a technology for supporting the reflection of the conference. It is a method of supporting recall by taking a video of a meeting and playing back a scene that you want to remember later. For this purpose, technology for quickly searching for a desired scene is indispensable.

例えば、会議システムにおいて、会議参加者の発言だけでなく、会議参加者の表情や使用したグラフなどの映像も議事内容として保存する議事内容蓄積装置について提案がなされている(例えば、特許文献1を参照のこと)。各端末からは会議参加者の表情などを写した映像信号に発言内容を重畳した音声映像信号が通信網経由で通信会議ノードへ送信される。通信会議ノード内の議事内容蓄積装置は、音声選択部によって各端末が送出した音声映像信号の中から音声レベルが最も高いものを求め、音声映像蓄積部に蓄積する。このようにして記録された音声映像情報は、発言者の表情や言葉のニュアンスを明確に伝えることができる。また、端末から議事内容の参照要求を受けた場合には、通信会議ノードは、再生処理部と端末とを通信網経由で接続し、音声映像蓄積部に蓄積されている音声映像信号を端末に送る。   For example, in a conference system, proposals have been made for an agenda content storage device that stores not only conference participants 'comments but also images of the participants' facial expressions and graphs used as the agenda content (for example, see Patent Document 1). See From each terminal, an audio / video signal in which the content of a speech is superimposed on a video signal in which the facial expressions of the conference participants are copied is transmitted to the communication conference node via the communication network. The agenda content storage device in the communication conference node obtains the highest audio level from the audio / video signals transmitted from each terminal by the audio selection unit, and accumulates them in the audio / video storage unit. The audio-video information recorded in this way can clearly convey the expression of the speaker and the nuances of words. In addition, when receiving a request for agenda content from the terminal, the communication conference node connects the playback processing unit and the terminal via the communication network, and sends the audio / video signal stored in the audio / video storage unit to the terminal. send.

また、使用者に負担を掛けず、映像情報を効率的に管理・検索する方法について多くの提案がなされている。例えば、シーン・チェンジ検出時に取り込んだ代表画像を適切に選び直して映像インデックスを作成する映像インデックス作成装置について提案がなされている(例えば、特許文献2を参照のこと)。この場合、まず入力映像を映像格納部に格納するとともに、シーン・チェンジ検出部によりシーン・チェンジを検出し、その検出時に入力映像から代表画像を取り込み、代表画像格納部に格納する。次に、操作により制御部が映像再生部に命令して、映像格納部から指定のシーン・チェンジ前後の映像を再生する。次に、操作により再生映像の中から最も価値の高い画像を選択し、その静止画像を置き換え画像取り込み部により取り込み、代表画像格納部の代表画像と置き換える。この置き換えがなされた代表画像群から映像インデックス生成部にて映像インデックスを生成し、インデックス印刷部にてビデオ・リストなどの映像インデックスを印刷する。   In addition, many proposals have been made on methods for efficiently managing and retrieving video information without imposing a burden on the user. For example, a video index creation apparatus that creates a video index by appropriately selecting a representative image captured when a scene change is detected has been proposed (see, for example, Patent Document 2). In this case, the input video is first stored in the video storage unit, and a scene change is detected by the scene change detection unit. At the time of detection, a representative image is captured from the input video and stored in the representative image storage unit. Next, the control unit instructs the video reproduction unit by operation to reproduce the video before and after the specified scene change from the video storage unit. Next, an image having the highest value is selected from the reproduced video by the operation, the still image is captured by the replacement image capturing unit, and replaced with the representative image in the representative image storage unit. A video index generation unit generates a video index from the group of representative images that have been replaced, and an index printing unit prints a video index such as a video list.

また、使用者に負担を掛けずに、効率的な処理で画像情報検索のための索引を作成し、目的とする画像を適切に検索することができる情報処理装置について提案がなされている(例えば、特許文献3を参照のこと)。画像情報を記録する記憶媒体に対するアクセスの際に、使用者の画像情報に対する視線の位置を位置検出器で検出し、画像情報と関連付けて記憶する。画像と視線の対応解析の際には、検出された視線に基づいて注視点決定部で注視点の座標を求め、エッジ認識部及び画像部分抽出器で注目した部分の画像を抽出する。これに基づき画像検索の際の索引が生成される。この索引画像を画像の情報再生時に提示することによって、目的とする画像を選択するためのリストが生成される。   In addition, an information processing apparatus has been proposed that can create an index for image information search with efficient processing and appropriately search for a target image without burdening the user (for example, , See Patent Document 3). When accessing a storage medium for recording image information, the position of the line of sight with respect to the user's image information is detected by a position detector and stored in association with the image information. At the time of analyzing the correspondence between the image and the line of sight, the point of interest determination unit obtains the coordinates of the point of interest based on the detected line of sight, and the edge recognition unit and the image partial extractor extract the image of the focused part. Based on this, an index for image search is generated. A list for selecting a target image is generated by presenting the index image at the time of image information reproduction.

会議を効率良く振り返るためには、会議の内容をできるだけ再現できることが望ましい。   In order to look back on the conference efficiently, it is desirable to be able to reproduce the content of the conference as much as possible.

会議情報として音声映像情報を記録するシステムは一般的となりつつあるが、記録された音声映像情報は膨大な量になる。会議の音声情報を記録するだけでなく、会議参加者の表情、使用したグラフなどの映像情報を記録する議事内容蓄積装置(特許文献1を参照のこと)では、会議内容を音声映像情報から振り返るには記録された映像を再生させる必要があるため、会議に費やした時間と同じ時間を必要としてしまい、非常に効率が悪い。また、会議参加者にとって必要としている情報は会議記録全般ではなく、ごく一部であることが多い。   A system for recording audio-video information as conference information is becoming common, but the recorded audio-video information is enormous. In an agenda content storage device (see Patent Document 1) that records video information such as facial expressions of conference participants and graphs used as well as recording audio information of conferences, the content of the conference is looked back from the audio video information. Since it is necessary to reproduce the recorded video, the same time as the time spent for the meeting is required, which is very inefficient. In addition, the information required for the conference participants is often only a part of the conference record, not the entire conference record.

また、映像情報から映像インデックスを生成して映像情報から必要としているシーンを効果的に検出する映像インデックス作成装置(特許文献2を参照のこと)では、映像が急激に変化するシーン・チェンジを検出する方法を採用しているが、このシーン・チェンジ検出時で検出されたシーンは、映像の有する画像特性に拠るものとなっており、ユーザが必要としている価値の高いシーンを検出できるとは限らないという問題である。   In addition, a video index creation device that generates a video index from video information and effectively detects a required scene from the video information (see Patent Document 2) detects a scene change in which the video changes rapidly. However, the scene detected when this scene change is detected depends on the image characteristics of the video, and it is not always possible to detect a high-value scene that the user needs. There is no problem.

また、ユーザの視線情報を利用して画像検索の索引を作成する情報処理装置(特許文献3を参照のこと)では、画面に提示されている画像に対して視線位置を検出し、索引を生成するようになっている。しかしながら、画像中に対する視線検出であるため、その適用範囲は少ない、という問題がある。この場合、画像に提示されていない対象に対する視線検出、例えば、人との直接対面状況である会議での視線検出などに対しては適用することができない。   In addition, an information processing apparatus that creates an image search index using the user's line-of-sight information (see Patent Document 3) detects the line-of-sight position of an image presented on the screen and generates an index. It is supposed to be. However, since the sight line detection is performed on the image, there is a problem that the application range is small. In this case, it cannot be applied to gaze detection for an object not presented in the image, for example, gaze detection in a meeting that is in direct contact with a person.

特開平7−46571号公報JP 7-46571 A 特開平9−93527号公報JP-A-9-93527 特開平7−200632号公報Japanese Patent Laid-Open No. 7-200362

本発明の目的は、会議における映像情報、音声情報、ドキュメント情報などを記録した会議情報の中から所望のシーンを検索する会議情報アクセス作業を好適に支援することができる、優れた情報処理システム及び情報処理方法、並びにコンピュータ・プログラムを提供することにある。   An object of the present invention is to provide an excellent information processing system capable of suitably supporting a conference information access operation for retrieving a desired scene from conference information in which video information, audio information, document information, etc. in a conference are recorded. It is to provide an information processing method and a computer program.

本発明のさらなる目的は、会議における音声映像情報を記録するとともに、これら記録した情報についてのインデックスを作成して、所望する情報を効率よく検索することができる、優れた情報処理システム及び情報処理方法、並びにコンピュータ・プログラムを提供することにある。   A further object of the present invention is to provide an excellent information processing system and information processing method capable of recording audio / video information in a conference and creating an index for the recorded information to efficiently search for desired information. And providing a computer program.

本発明は、上記課題を参酌してなされたものであり、その第1の側面は、会議の内容を記録した会議情報を管理する情報処理システムであって、会議情報を入力する会議情報入力手段と、会議中に会議参加者から発現される生体情報を会議参加者情報として取得する会議参加者情報取得手段と、会議参加者情報に基づいて会議参加者の状態を推定し、該状態に基づいて会議情報を処理するデータ処理手段とを具備することを特徴とする情報処理システムである。ここで言う会議参加者の状態とは、例えば心理状態のことである。   The present invention has been made in consideration of the above problems, and a first aspect of the present invention is an information processing system for managing conference information in which the content of a conference is recorded, and conference information input means for inputting conference information And conference participant information acquisition means for acquiring biometric information expressed from the conference participant during the conference as conference participant information, estimating the state of the conference participant based on the conference participant information, and based on the state A data processing means for processing the conference information. The state of the conference participant mentioned here is, for example, a psychological state.

ここで、会議情報は、会議の音声、映像、会議で使用されたスライドその他の会議資料のうち少なくとも1つからなる。また、会議情報は、会議で利用される資料、会議参加者のうち少なくとも一方を会議の映像情報として含む。   Here, the conference information includes at least one of conference audio, video, slides used in the conference, and other conference materials. The conference information includes at least one of materials used in the conference and conference participants as video information of the conference.

また、前記会議参加者情報取得手段は、会議参加者の視線情報、脳波、脈拍数、又はその他の生体情報を会議参加者の情報として取得する。この場合、例えば、視線情報に基づいて、会議情報中で会議参加者が興味を持った対象物を割り出すことができる。   Further, the conference participant information acquisition means acquires the conference participant's line-of-sight information, brain waves, pulse rate, or other biological information as conference participant information. In this case, for example, based on the line-of-sight information, it is possible to determine an object that the conference participant is interested in in the conference information.

そして、前記データ処理手段は、会議参加者情報から推定された会議参加者の心理状態情報に基づいて、会議情報として記録された音声映像情報の一部をインデックス情報として選別することができる。   The data processing means can select a part of the audio / video information recorded as the conference information as the index information based on the psychological state information of the conference participant estimated from the conference participant information.

前記データ処理手段は、会議参加者情報に基づいて会議参加者の心理状態を推定し、該心理状態に基づいて会議情報を処理するが、複数の会議参加者に対して心理状態を推定することができる。例えば、前記データ処理手段は、会議の争点に対して会議参加者の関心又は注意が向けられていない心理状態を推定する。   The data processing means estimates the psychological state of the conference participant based on the conference participant information and processes the conference information based on the psychological state, but estimates the psychological state for a plurality of conference participants Can do. For example, the data processing means estimates a psychological state in which a meeting participant's interest or attention is not directed to a meeting point.

そして、前記データ処理手段は、会議参加者情報から推定された心理状態に基づいて、会議情報中で会議参加者が興味の高い時点、又は興味を持った対象物を割り出すことができる。   And the said data processing means can calculate the target object in which the meeting participant is highly interested in meeting information, or the interested object based on the psychological state estimated from meeting participant information.

また、前記データ処理手段は、会議参加者情報から推定された会議参加者の心理状態情報に基づいて、前記会議状況記録手段で記録された音声映像情報の一部を選別し、これらをインデックス情報として記録することができる。   Further, the data processing means selects a part of the audio / video information recorded by the meeting status recording means based on the psychological state information of the meeting participant estimated from the meeting participant information, and uses them as index information. Can be recorded as

このように、本発明に従って会議情報のインデックス情報を生成して記録・管理の処理を行なうことにより、会議の様子を音声映像情報で振り返ることが可能となる。また、音声映像情報には人の心理状態を反映させたインデックスを付加したので、会議の音声映像情報から、所望の音声映像情報を探し出す作業が容易となり、会議を効率的に振り返ることができる。また、ユーザは会議中にメモをとるという作業から開放されるので、会議の議題から注意をそがれることなく、会議後に会議の様子を振り返ることができる。   As described above, by generating the index information of the conference information according to the present invention and performing the recording / management processing, it is possible to look back on the state of the conference with the audio-video information. Further, since an index reflecting the psychological state of the person is added to the audio / video information, it is easy to search for desired audio / video information from the audio / video information of the conference, and the conference can be looked back on efficiently. In addition, since the user is freed from taking notes during the meeting, it is possible to look back on the state of the meeting after the meeting without being distracted from the agenda of the meeting.

また、本発明の第2の側面は、会議の内容を記録した会議情報を管理するための処理をコンピュータ・システム上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、会議情報を入力する会議情報入力記録ステップと、会議中に会議参加者から発現される生体情報を会議参加者情報として取得する会議参加者情報取得ステップと、会議参加者情報に基づいて会議参加者の状態を推定し、該状態に基づいて会議情報を処理するデータ処理ステップとを具備することを特徴とするコンピュータ・プログラムである。   According to a second aspect of the present invention, there is provided a computer program written in a computer-readable format so as to execute processing for managing conference information in which the content of a conference is recorded on a computer system. A conference information input recording step for inputting information, a conference participant information acquisition step for acquiring biometric information expressed from the conference participant during the conference as conference participant information, and a conference participant based on the conference participant information A computer program comprising: a data processing step for estimating a state and processing conference information based on the state.

本発明の第2の側面に係るコンピュータ・プログラムは、コンピュータ・システム上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータ・プログラムを定義したものである。換言すれば、本発明の第2の側面に係るコンピュータ・プログラムをコンピュータ・システムにインストールすることによって、コンピュータ・システム上では協働的作用が発揮され、本発明の第1の側面に係る情報処理システムと同様の作用効果を得ることができる。   The computer program according to the second aspect of the present invention defines a computer program described in a computer-readable format so as to realize predetermined processing on a computer system. In other words, by installing the computer program according to the second aspect of the present invention in the computer system, a cooperative action is exhibited on the computer system, and the information processing according to the first aspect of the present invention is performed. The same effect as the system can be obtained.

本発明によれば、会議における音声映像情報を記録するとともに、これら記録した情報についてのインデックスを作成して、所望する情報を効率よく検索することができる、優れた情報処理システム及び情報処理方法、並びにコンピュータ・プログラムを提供することができる。   According to the present invention, an excellent information processing system and information processing method capable of recording audio-video information in a conference, creating an index for the recorded information, and efficiently searching for desired information, In addition, a computer program can be provided.

また、本発明によれば、会議に参加した人の心理状態を反映させた映像インデックスを作成し、会議の振り返りを効率よく行なうことができる、優れた情報処理システム及び情報処理方法、並びにコンピュータ・プログラムを提供することができる。   In addition, according to the present invention, an excellent information processing system and information processing method capable of creating a video index reflecting the psychological state of a person who participated in a conference and efficiently performing a review of the conference, and a computer A program can be provided.

本発明に従って会議情報の記録・管理の処理を行なうことにより、会議に参加した人が会議の様子を音声映像情報で振り返ることが可能となる。また、音声映像情報には人の心理状態を反映させたインデックスを付加したので、会議の音声映像情報から、所望の音声映像情報を探し出す作業が容易となり、会議を効率的に振り返ることができる。また、ユーザは会議中にメモをとるという作業から開放されるので、会議の議題から注意をそがれることなく、会議後に会議の様子を振り返ることができる。   By performing the process of recording / managing conference information according to the present invention, it is possible for a person who has participated in the conference to look back on the state of the conference using audio-video information. Further, since an index reflecting the psychological state of the person is added to the audio / video information, it is easy to search for desired audio / video information from the audio / video information of the conference, and the conference can be looked back on efficiently. In addition, since the user is freed from taking notes during the meeting, it is possible to look back on the state of the meeting after the meeting without being distracted from the agenda of the meeting.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。   Other objects, features, and advantages of the present invention will become apparent from more detailed description based on embodiments of the present invention described later and the accompanying drawings.

以下、図面を参照しながら本発明の実施形態について詳解する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明は、会議情報の記録・管理の処理を行なうシステムに関するものであり、具体的には、会議における音声映像情報を記録するとともに、会議に参加した人の心理状態を反映させた映像インデックスを作成して、会議の振り返りを効率よく行なうシステムである。   The present invention relates to a system for recording / managing conference information. Specifically, the present invention records audio / video information in a conference and a video index reflecting the psychological state of a person who participated in the conference. It is a system that creates and efficiently looks back on meetings.

図1には、本発明の一実施形態に係る会議記録装置の構成を模式的に示している。図示の会議記録装置は、会議状況記録部20と、参加者情報記録部30と、データ処理部40で構成される。   FIG. 1 schematically shows a configuration of a conference recording apparatus according to an embodiment of the present invention. The illustrated conference recording apparatus includes a conference status recording unit 20, a participant information recording unit 30, and a data processing unit 40.

会議状況記録部20は、会議10の様子を音声映像情報として記録する。参加者情報記録部30は、会議参加者の情報の処理及び記録を実行する。データ処理部40は、会議状況記録部20で記録されたデータと参加者情報記録部30で記録されたデータを基に、会議10のインデックスを作成する処理を実行する。   The meeting status recording unit 20 records the state of the meeting 10 as audio video information. The participant information recording unit 30 executes processing and recording of information on conference participants. The data processing unit 40 executes processing for creating an index of the conference 10 based on the data recorded by the conference status recording unit 20 and the data recorded by the participant information recording unit 30.

図2には、会議記録装置のうち、参加者情報記録部30と、データ処理部40の内部構成をより詳細に示している。   FIG. 2 shows in more detail the internal configuration of the participant information recording unit 30 and the data processing unit 40 in the conference recording apparatus.

参加者情報記録部30では、会議参加者の関心度判定に用いる、会議参加者の視線情報、脳波、脈拍数、又はその他の生体情報を会議参加者の情報として取得し記録する。図示の実施形態では、生体情報のうち視線情報を取り扱うように構成されており、参加者情報記録部30は、視線検出部31と、視対象判定部32と、視線解析部33を備えている。   The participant information recording unit 30 acquires and records the conference participant's line-of-sight information, brain waves, pulse rate, or other biological information, which is used to determine the interest level of the conference participant, as conference participant information. In the illustrated embodiment, it is configured to handle line-of-sight information among biological information, and the participant information recording unit 30 includes a line-of-sight detection unit 31, a visual target determination unit 32, and a line-of-sight analysis unit 33. .

視線検出部31は、会議10の参加者全員又は一部についての眼画像を取得する。例えば、市販のビデオ・カメラを利用して眼画像を捕捉することができる。   The line-of-sight detection unit 31 acquires eye images for all or part of the participants in the conference 10. For example, a commercially available video camera can be used to capture an eye image.

また、視線解析部33は、カメラで撮像した会議参加者の顔画像から、目の特徴量(例えば、瞳孔中心や目頭)を抽出し、視線方向推定のための特徴量を抽出する。眼画像解析については、例えば、坂口外著、信学技報(PRU95−28、1995)に記載されている。   In addition, the line-of-sight analysis unit 33 extracts eye feature amounts (for example, the center of the pupil and the eyes) from the face images of the conference participants captured by the camera, and extracts feature amounts for eye-gaze direction estimation. The eye image analysis is described in, for example, Sakaguchi-gai, Shingaku Giho (PRU95-28, 1995).

また、視対象判定部32は、例えば、個別IDを発信するLEDマーカを会議室内の要所や会議参加者に取り付け、参加者の頭部に取り付けたカメラの映像からLEDマーカを読み取り、視対象として自動的に判定することができる。視対象判定については、例えば、角外著、ヒューマンインターフェースシンポジウム2002(一般発表、2002)を参照されたい。   In addition, the visual target determination unit 32 attaches an LED marker that transmits an individual ID to a key point in a conference room or a conference participant, reads the LED marker from a camera image attached to the participant's head, Can be automatically determined. For the visual target determination, refer to, for example, Kakugai, Human Interface Symposium 2002 (general presentation, 2002).

また、視線情報の代わりに脳波を使用する場合、脳波は、通常、頭皮上に付着した電極を通して、微小な電位変化を計測することで知ることができる。簡易的な脳波計測装置として、例えば、頭皮上の左右前頭部の2チャンネルから脳の活動電位を計測するシステム(ひとセンシング株式会社、HSK中枢リズムモニタシステム)がある。   In addition, when an electroencephalogram is used instead of the line-of-sight information, the electroencephalogram can usually be known by measuring a minute potential change through an electrode attached on the scalp. As a simple electroencephalogram measurement apparatus, for example, there is a system (Human Sensing Co., Ltd., HSK central rhythm monitor system) that measures brain action potentials from two channels of the left and right frontal regions on the scalp.

データ処理部40では、参加者情報記録部30で記録された会議参加者の情報に基づいて会議参加者の心理状態を推定し、さらに推定された心理状態に基づいて、会議情報中で会議参加者が興味の高い時点や興味を持った対象物を割り出して、会議情報記録部20により記録された音声映像情報中の該当する場所の情報を用いてインデックス情報を生成する。例えば、複数の会議参加者に対して心理状態を推定する。また、会議の争点に対して会議参加者の関心又は注意が向けられていない心理状態を推定する。   In the data processing unit 40, the psychological state of the conference participant is estimated based on the information of the conference participant recorded by the participant information recording unit 30, and the conference participation is included in the conference information based on the estimated psychological state. Indexes are generated using information on the corresponding places in the audio-video information recorded by the conference information recording unit 20 by determining the time point at which the person is highly interested or the object of interest. For example, the psychological state is estimated for a plurality of conference participants. In addition, the psychological state in which the attention or attention of the conference participant is not directed to the issue of the conference is estimated.

図2に示す実施形態では、データ処理部40は、関心度判定部41と、インデックス情報生成部42と、インデックス情報記録部43で構成され、会議参加者の心理状態を関心度という形態で判定する。そして、この関心度の判定に基づいて、会議状況記録部20で記録された音声映像情報の一部をインデックス情報として選別する。   In the embodiment shown in FIG. 2, the data processing unit 40 includes an interest level determination unit 41, an index information generation unit 42, and an index information recording unit 43, and determines the psychological state of the conference participants in the form of the interest level. To do. Based on the determination of the degree of interest, a part of the audio / video information recorded by the conference status recording unit 20 is selected as index information.

図3には、会議10において会議状況記録部20による記録対象となる実施態様を図解している。   FIG. 3 illustrates an embodiment that is to be recorded by the meeting status recording unit 20 in the meeting 10.

同図に示す例は、会議10は、4人の会議参加者A11、B12、C13、D14で運営され、PC(Personal Computer)15を利用して資料16が提示されている。会議状況記録部20が会議の音声情報を含む映像情報を記録するとともに、視線情報記録部30が会議参加者の視線情報を記録する。   In the example shown in the figure, the conference 10 is operated by four conference participants A11, B12, C13, and D14, and a document 16 is presented using a PC (Personal Computer) 15. The conference status recording unit 20 records video information including audio information of the conference, and the line-of-sight information recording unit 30 records the line-of-sight information of the conference participants.

まず、各処理部の実行する処理の概要について、図2並びに図3を参照しながら説明し、その後、当該システムの具体的な処理動作について詳細に説明する。   First, an outline of processing executed by each processing unit will be described with reference to FIGS. 2 and 3, and then specific processing operations of the system will be described in detail.

図3における会議状況記録部20の具体的な装置として、例えばビデオ・カメラを使用することができる。会議状況記録部20は、会議参加者11〜14、又は会議で提示されている資料16の少なくともいずれかを含む映像を記録し、会議参加者11〜14の発話や会議で提示されている資料16から発せられる音声と、時間情報が付加された映像情報として記録する。   For example, a video camera can be used as a specific device of the conference status recording unit 20 in FIG. The conference status recording unit 20 records video including at least one of the conference participants 11 to 14 or the material 16 presented at the conference, and the material presented at the utterance or conference of the conference participants 11 to 14 16 and recorded as video information to which time information is added.

視線情報記録部30内の視線検出部31は、例えばアイカメラなどで構成され、会議10における会議参加者11〜14の視線の向きと、視線の向きを検出した時間情報を検出する。視対象判定部32は、視線検出部31で検出された会議参加者11〜14の視線の向き情報から、会議10内での視線を向けていた対象物を判定し、視線を向けた時刻に対応付けて視対象情報を取得する。   The line-of-sight detection unit 31 in the line-of-sight information recording unit 30 includes, for example, an eye camera and detects the direction of the line of sight of the conference participants 11 to 14 in the conference 10 and the time information for detecting the direction of the line of sight. The line-of-sight determination unit 32 determines an object that is directed to the line of sight within the conference 10 from the line-of-sight direction information of the conference participants 11 to 14 detected by the line-of-sight detection unit 31, and at the time when the line of sight is directed. The visual target information is acquired in association with each other.

視線解析部33は、視線検出部31で検出された会議参加者11〜14の視線の向き情報から、視線の動きを解析する。通常、1台のアイカメラでは1人の視線検出を行なうので、会議参加者すべての人の視線を検出する場合は、会議参加者人数分のアイカメラを用いる。   The line-of-sight analysis unit 33 analyzes the movement of the line of sight from the line-of-sight information of the conference participants 11 to 14 detected by the line-of-sight detection unit 31. Normally, one eye camera detects the line of sight of one person, so when detecting the line of sight of all the participants in the conference, eye cameras for the number of conference participants are used.

データ処理部40内の関心度判定部41は、視線情報記録部30の出力である視線情報から会議参加者の心理状態を推定し、取得する。関心度判定部41により、会議参加者の会議における心理状態を時間情報とともに取得することができる。   The degree-of-interest determination unit 41 in the data processing unit 40 estimates and acquires the psychological state of the conference participant from the line-of-sight information that is the output of the line-of-sight information recording unit 30. The interest level determination unit 41 can acquire the psychological state of the conference participant in the conference together with the time information.

データ処理部40内のインデックス情報生成部42は、関心度判定部41の出力である心理状態データと会議状況記録部20で記録された音声映像情報を関連付けて、会議状況記録部20の音声映像情報から映像インデックスを生成する。   The index information generation unit 42 in the data processing unit 40 associates the psychological state data that is the output of the interest level determination unit 41 with the audio / video information recorded by the conference status recording unit 20, and the audio / video of the conference status recording unit 20. A video index is generated from the information.

インデックス情報記録部43は、インデックス情報生成部42で作成した映像インデックスを記録する。   The index information recording unit 43 records the video index created by the index information generating unit 42.

議事録提示部43は、インデックス情報記録部43で記録された映像インデックスを表示させることができる。会議参加者は映像インデックスを任意に選択することで、会議状況記録部20の映像情報から会議10を効率良く振り返ることができる。   The minutes presentation unit 43 can display the video index recorded by the index information recording unit 43. By arbitrarily selecting the video index, the conference participant can efficiently look back on the conference 10 from the video information in the conference status recording unit 20.

次に、具体的な処理例について説明する。複数人の会議参加者が、コンピュータを利用して提示された資料を見ながら、進行していく会議を一例とする。   Next, a specific processing example will be described. An example is a conference in which a plurality of conference participants proceed while viewing a document presented using a computer.

会議状況記録部20の会議中の状況を記録する装置として、例えばビデオ・カメラがある。ビデオ・カメラで記録される映像の対象は会議参加者、あるいは提示された資料の少なくとも一方が含まれているものとする。会議10で提示された資料とは、例えば、コンピュータを利用して壁に投影された電子資料や、コンピュータ・ディスプレイに映し出されている電子資料、会議参加者に配布されているプリント資料などが挙げられる。このとき、映像だけでなく、映像と同時に音声もまた記録される。記録される音声は、例えば、会議参加者の発話、コンピュータを利用して提示された資料から発せられる音声などが挙げられる。ビデオ・カメラで記録されたデータはデジタル処理可能なデータに変換され、データ処理部へ伝送される。   For example, a video camera is available as an apparatus for recording the status during the conference by the conference status recording unit 20. It is assumed that the target of the video recorded by the video camera includes at least one of conference participants or presented materials. The materials presented at the conference 10 include, for example, electronic materials projected on a wall using a computer, electronic materials projected on a computer display, and printed materials distributed to conference participants. It is done. At this time, not only the video but also the audio is recorded simultaneously with the video. Examples of the voice to be recorded include the speech of a conference participant, the voice uttered from a material presented using a computer, and the like. Data recorded by the video camera is converted into data that can be digitally processed and transmitted to the data processing unit.

視線情報取得部30は、会議参加者の視線情報を取得する。視線情報を取得する方法としては、例えば、アイカメラの画像解析による視線検出方法がある。図4には、視線情報を取得し、視対象判定並びに視線解析を行なう処理手順を示している。   The line-of-sight information acquisition unit 30 acquires line-of-sight information of conference participants. As a method for acquiring line-of-sight information, for example, there is a line-of-sight detection method based on image analysis of an eye camera. FIG. 4 shows a processing procedure for obtaining line-of-sight information, and performing eye-gaze determination and line-of-sight analysis.

まず、アイカメラを用いて、会議参加者の眼画像の取得と、眼画像を取得した時刻を取得する(ステップS301)。   First, using an eye camera, acquisition of the eye image of a conference participant and the time when the eye image was acquired are acquired (step S301).

次いで、ステップS301で取得した眼画像に対してソフトウェア処理を施し、眼画像を解析する(ステップS302)。視線解析部33は、カメラで撮像した会議参加者の顔画像から、目の特徴量(例えば、瞳孔中心や目頭)を抽出し、視線方向推定のための特徴量を抽出する。眼画像解析については、例えば、坂口外著、信学技報(PRU95−28、1995)に記載されている。   Next, software processing is performed on the eye image acquired in step S301, and the eye image is analyzed (step S302). The line-of-sight analysis unit 33 extracts eye feature amounts (for example, the center of the pupil and the eyes) from the face images of the conference participants imaged by the camera, and extracts feature amounts for eye-gaze direction estimation. The eye image analysis is described in, for example, Sakaguchi-gai, Shingaku Giho (PRU95-28, 1995).

次いで、ステップS302で解析された眼画像解析の結果より、会議参加者の視線の方向をソフトウェア処理により算出し、視線の方向を視線の方向を検出した時間情報とともに記録する(ステップS303)。   Next, from the result of the eye image analysis analyzed in step S302, the direction of the line of sight of the conference participant is calculated by software processing, and the direction of the line of sight is recorded together with time information for detecting the direction of the line of sight (step S303).

視線検出部31は、ステップS301〜S303に相当する処理を実行する。   The line-of-sight detection unit 31 executes processing corresponding to steps S301 to S303.

次いで、ステップS303で算出された会議参加者の視線の方向より、視線が向けられている対象を判定する(ステップS304)。視対象判定部32は、例えば、個別IDを発信するLEDマーカを会議室内の要所や会議参加者に取り付け、参加者の頭部に取り付けたカメラの映像からLEDマーカを読み取り、視対象として自動的に判定することができる。視対象判定については、例えば、角外著、ヒューマンインターフェースシンポジウム2002(一般発表、2002)を参照されたい。   Next, the target to which the line of sight is directed is determined from the direction of the line of sight of the conference participant calculated in step S303 (step S304). The visual target determination unit 32, for example, attaches an LED marker that transmits an individual ID to a key point in a conference room or a conference participant, reads the LED marker from a video image of a camera attached to the participant's head, and automatically sets it as a visual target. Can be determined automatically. For the visual target determination, refer to, for example, Kakugai, Human Interface Symposium 2002 (general presentation, 2002).

次いで、ステップS304で判定された視対象情報を取得する(ステップS305)。視対象を取得するので、例えば、視線が向けられている対象の切り替わりの有無情報も記録することができる。   Next, the visual target information determined in step S304 is acquired (step S305). Since the visual target is acquired, for example, the presence / absence information of the switching of the target to which the line of sight is directed can also be recorded.

視対象取得部32は、ステップS304〜S305に相当する処理を実行する。   The visual target acquisition unit 32 executes processing corresponding to steps S304 to S305.

次いで、ステップS303で算出した視線方向から、視線の動きを解析する(ステップS306)。ここで言う視線の動きとは、例えば、停留時間、移動距離などである。視線解析部33はステップS306に相当する処理を実行する。   Next, the movement of the line of sight is analyzed from the line-of-sight direction calculated in step S303 (step S306). The movement of the line of sight mentioned here is, for example, a stopping time, a moving distance, and the like. The line-of-sight analysis unit 33 executes a process corresponding to step S306.

そして、ステップS305で取得した視対象情報とステップS306で取得した視線の動き情報を保存する(ステップS307)。   Then, the visual target information acquired in step S305 and the visual line movement information acquired in step S306 are stored (step S307).

図5には、視線情報取得部で得られたデータの一例を示している。視線を検出した時間を1秒間隔で記録し、視対象判定部32で取得した視対象と、視対象の切り替えの有無、視線解析部31で取得した視線の停留時間と移動距離を、時間と対応させて記録している。なお、本実施形態における取得データの時間間隔は1秒間であるが、本発明の要旨はこれに限定されるものではない。   FIG. 5 shows an example of data obtained by the line-of-sight information acquisition unit. The time when the line of sight is detected is recorded at intervals of 1 second, and the visual target acquired by the visual target determination unit 32, the presence / absence of switching of the visual target, the gaze stop time and the movement distance acquired by the visual line analysis unit 31, and the time Correspondingly recorded. In addition, although the time interval of the acquisition data in this embodiment is 1 second, the summary of this invention is not limited to this.

図4に示したステップS301〜S307を経て得られた視線情報は、データ処理部40へ伝送される。   The line-of-sight information obtained through steps S301 to S307 illustrated in FIG. 4 is transmitted to the data processing unit 40.

データ処理部40の関心度判定部41では、伝送された視線情報から会議参加者の心理状態を推定し、時間情報と関連付けた関心の度合いを記録する。   The interest level determination unit 41 of the data processing unit 40 estimates the psychological state of the conference participant from the transmitted line-of-sight information, and records the degree of interest associated with the time information.

関心の度合いとは、会議参加者が抱く心理状態を表すものである。図6には、関心度判定部41において人の心理状態を推定するための処理手順をフローチャートの形式で示している。   The degree of interest represents the psychological state held by the conference participants. FIG. 6 shows a processing procedure for estimating a person's psychological state in the interest level determination unit 41 in the form of a flowchart.

関心度判定部41は、視線情報検出部31で得られた視線情報を取得すると(ステップS401)、これを視線データベースと照合し、人の心理状態を推定する(ステップS402)。   When the degree-of-interest determination unit 41 acquires the line-of-sight information obtained by the line-of-sight information detection unit 31 (step S401), the interest level determination unit 41 collates this with the line-of-sight database and estimates the human psychological state (step S402).

図7には、視線データベースに格納されているデータの一例を示している。ここで、視線データベースとは、あらかじめ用意されたデータベースであり、視線の動きと視対象、人の心理状態を対応させたデータを格納している。視線の動きは、例えば、停留時間、移動距離などで構成され、視線データベースは、視線毎のレコードに、視線の動き(視線方向と停留時間、移動距離、視対象の切り替えの有無)、視対象、ユーザの状態(心理状態)を格納している。人の心理状態とは、例えば、興味を持っているのか、疑問を持っているのか、飽きているのかなどである。   FIG. 7 shows an example of data stored in the line-of-sight database. Here, the line-of-sight database is a database prepared in advance, and stores data in which the movement of the line of sight is associated with the visual target and the psychological state of the person. The line-of-sight movement is composed of, for example, a stop time, a movement distance, etc., and the line-of-sight database includes a line-of-sight record, a line-of-sight movement (line-of-sight direction and stop time, movement distance, presence / absence of switching of a visual target), The user's state (psychological state) is stored. A person's psychological state is, for example, whether they are interested, have doubts, or are bored.

また、視線情報取得部で記録したすべての時間に人の心理状態を推定する必要はない。   In addition, it is not necessary to estimate a person's psychological state at all times recorded by the line-of-sight information acquisition unit.

インデックス情報生成部42は、関心度判定部41の出力である、時間情報と対応した関心の度合いから、会議状況記録部20で記録された音声映像情報の一部をインデックス情報として選択する。   The index information generation unit 42 selects a part of the audio / video information recorded by the conference status recording unit 20 as index information from the degree of interest corresponding to the time information, which is the output of the interest level determination unit 41.

図8には、関心度判定部41で、人の心理状態を「興味がある」と判定した時間t1(701)〜t5(705)と、その時間に対応した音声映像情報から、音声映像情報の一部を選択し(r1〜r5)、映像インデックス(u1〜u5)を生成している例を示している。   In FIG. 8, from the time t1 (701) to t5 (705) when the interest level determination unit 41 determines that the person's psychological state is “interested” and the audio video information corresponding to the time, the audio video information is obtained. Is selected (r1 to r5), and an image index (u1 to u5) is generated.

上述したように、関心度は視線解析や視対象判定により判定することができるが、勿論、図示のように会議中に記録された会議参加者の脳波や脈拍、その他の生体情報(図示しない)を基に関心度を判定することもできる。   As described above, the degree of interest can be determined by line-of-sight analysis or visual target determination. Of course, as shown in the figure, the brain waves and pulses of the conference participants recorded during the meeting, and other biological information (not shown) The degree of interest can also be determined based on.

選択された音声映像情報の一部とは、「興味がある」と判定された時間の開始時刻に対応する音声映像情報であり、映像インデックスとは選択された音声映像情報の一部から生成される静止画像である。   The selected audio / video information is audio / video information corresponding to the start time of the time determined to be “interesting”, and the video index is generated from the selected audio / video information. Still image.

なお、関心度判定部41で判定された心理状態は、「興味がある」に限定されるものではない。例えば他の心理状態として、「疑問を感じている」時の映像インデックスを生成することも可能とするように、関心度判定部41で「疑問を感じている」と判定された時間の開始時刻を用いて、音声映像情報から静止画像をインデックスとして生成することも可能とする。また、関心度判定部41で判定された心理状態を、例えば、「興味がある」、「疑問を感じている」、「飽きている」など、複数組み合わせて、音声映像情報から静止画像をインデックスとして生成することも可能とする。   The psychological state determined by the interest level determination unit 41 is not limited to “interested”. For example, as another psychological state, the start time of the time determined as “feeling doubt” by the interest level determination unit 41 so that it is possible to generate a video index when “feeling doubt” Can be used to generate a still image as an index from audio-video information. In addition, the psychological state determined by the interest level determination unit 41 is combined with a plurality of psychological states such as “I am interested”, “I feel doubt”, “I am bored”, etc., and a still image is indexed from the audio-video information. Can also be generated.

インデックス情報生成部42で選択される音声映像情報の一部は、特定の心理状態を判定された時間の開始時間に限定されるものではない。特定の心理状態を判定された時間の中心値など他の時間情報で代用することも可能とする。   A part of the audio-video information selected by the index information generation unit 42 is not limited to the start time of the time when the specific psychological state is determined. It is also possible to substitute other time information such as the center value of the time at which a specific psychological state is determined.

さらに、インデックス情報生成部42は、会議状況記録部20で記録された音声映像情報の一部を選択し映像インデックスを生成する際、関心度判定部41の出力に視線情報の出力を加味して、会議状況記録部20で記録された音声映像情報の一部を選択することも可能とする。例えば、視線情報の出力は時間に関連付けられた視対象情報があるので、会議状況記録部20で記録された音声映像情報の一部を選択する際、視対象で映像インデックスを生成することも可能とする。   Further, when the index information generating unit 42 selects a part of the audio / video information recorded by the meeting status recording unit 20 and generates a video index, the index information generating unit 42 takes the output of the line-of-sight information into the output of the interest level determination unit 41. It is also possible to select a part of the audio / video information recorded by the conference status recording unit 20. For example, since the visual line information output includes visual target information associated with time, it is possible to generate a video index on the visual target when selecting a part of the audio-video information recorded by the meeting status recording unit 20 And

インデックス情報記録部43に記録されるインデックス情報は、インデックス情報生成部42で生成された静止画像と静止画像を取得した時間情報である。   The index information recorded in the index information recording unit 43 is the still image generated by the index information generating unit 42 and the time information when the still image is acquired.

議事提示部50は、インデックス情報記録部43に記録された静止画像を取得した時間情報と静止画像からなる議事をユーザに提示する。図9には、同図に示すように、インデックス情報記録部43に記録された静止画像を取得した時間情報801と静止画像802が提示される。例えば、ディスプレイに表示されている静止画像をマウスなどで選択し、実行処理することで、その静止画像に対応した時刻からの音声映像情報をディスプレイ803上で再生することができる。   The proceeding presentation unit 50 presents to the user the proceedings made up of time information and still images obtained from the still images recorded in the index information recording unit 43. As shown in FIG. 9, time information 801 and a still image 802 obtained by acquiring a still image recorded in the index information recording unit 43 are presented. For example, audio / video information from the time corresponding to the still image can be reproduced on the display 803 by selecting and executing the still image displayed on the display with a mouse or the like.

以上が、本発明についての一実施形態である。なお、図3に示した会議10のビデオ・カメラ設置数は1台に限定されるものではなく、複数台設置し、各ビデオ・カメラで映像として記録する対象を限定してもよい。例えば、3台のビデオ・カメラを設置し、1台は会議参加者A、1台は会議参加者B、もう1台は提示された電子資料をそれぞれ映像記録することも可能である。この場合、インデックス情報生成部42で、関心度判定部41の出力から選択される音声映像情報は、会議参加者A、会議参加者B、又は電子情報のいずれかから任意に選択することも可能とする。   The above is one embodiment of the present invention. Note that the number of video cameras installed in the conference 10 shown in FIG. 3 is not limited to one, and a plurality of video cameras may be installed, and the target to be recorded as video by each video camera may be limited. For example, it is possible to install three video cameras, one for conference participant A, one for conference participant B, and the other for video recording of the presented electronic materials. In this case, the audio / video information selected from the output of the interest level determination unit 41 by the index information generation unit 42 can be arbitrarily selected from the conference participant A, the conference participant B, or electronic information. And

視線情報記録部30は会議参加者の人数分を設けることが可能であるため、図3に示す会議参加者11〜14のそれぞれについて視線の方向を求め、各参加者人数分の映像インデックスを生成することも可能とする。   Since the line-of-sight information recording unit 30 can provide the number of conference participants, the direction of the line-of-sight is obtained for each of the conference participants 11 to 14 shown in FIG. It is also possible to do.

以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。   The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiment without departing from the gist of the present invention.

本明細書では、会議情報のインデキシングを行なう実施形態を例に挙げて本発明について詳解してきたが、本発明の要旨はこれに限定されるものではない。会議の記録以外の音声映像情報、若しくは音声映像以外の記録コンテンツを扱うようにシステムにおいても、本発明を適用することにより、ユーザの視線情報やその他の生体情報に基づいて心理状態を推定し、この推定結果に基づいて記録コンテンツのインデキシングや、コンテンツを分類・整理するためのその他の処理を好適に行なうことができる。   In the present specification, the present invention has been described in detail by taking an embodiment in which conference information is indexed as an example, but the gist of the present invention is not limited thereto. In the system so as to handle audio-video information other than conference recording, or recorded content other than audio-video, by applying the present invention, the psychological state is estimated based on the user's line-of-sight information and other biological information, Based on the estimation result, it is possible to suitably perform indexing of the recorded content and other processing for classifying and organizing the content.

要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、特許請求の範囲を参酌すべきである。   In short, the present invention has been disclosed in the form of exemplification, and the description of the present specification should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims should be taken into consideration.

図1は、本発明の一実施形態に係る会議記録装置の構成を模式的に示した図である。FIG. 1 is a diagram schematically showing a configuration of a conference recording apparatus according to an embodiment of the present invention. 図2は、会議記録装置のうち、参加者情報記録部30と、データ処理部40の内部構成をより詳細に示した図である。FIG. 2 is a diagram showing in more detail the internal configuration of the participant information recording unit 30 and the data processing unit 40 in the conference recording apparatus. 図3は、会議10において会議状況記録部20による記録対象となる実施態様を説明するための図である。FIG. 3 is a diagram for explaining an embodiment to be recorded by the conference status recording unit 20 in the conference 10. 図4は、視線情報を取得し、視対象判定並びに視線解析を行なう処理手順を示した図である。FIG. 4 is a diagram illustrating a processing procedure for acquiring line-of-sight information, performing line-of-sight determination and line-of-sight analysis. 図5は、視線情報取得部で得られたデータの一例を示した図である。FIG. 5 is a diagram illustrating an example of data obtained by the line-of-sight information acquisition unit. 図6は、関心度判定部41において人の心理状態を推定するための処理手順を示したフローチャートである。FIG. 6 is a flowchart showing a processing procedure for estimating a person's psychological state in the interest level determination unit 41. 図7は、視線データベースに格納されているデータの一例を示した図である。FIG. 7 is a diagram illustrating an example of data stored in the line-of-sight database. 図8は、関心度判定部41で、人の心理状態を「興味がある」と判定した時間t1(701)〜t5(705)と、その時間に対応した音声映像情報から、音声映像情報の一部を選択し(r1〜r5)、映像インデックス(u1〜u5)を生成している例を示した図である。FIG. 8 shows the audio video information from the time t1 (701) to t5 (705) when the interest level determination unit 41 determines that the person's psychological state is “interested” and the audio video information corresponding to the time. It is the figure which showed the example which selected a part (r1-r5) and produced | generated the video index (u1-u5). 図9は、インデックス情報記録部43に記録された静止画像を取得した時間情報と静止画像からなる議事をユーザに提示した画面構成例を示した図である。FIG. 9 is a diagram showing a screen configuration example in which the user is presented with the time information obtained from the still image recorded in the index information recording unit 43 and the proceedings made up of the still image.

符号の説明Explanation of symbols

10…会議
20…会議状況記録部
30…参加し情報記録部
31…視線検出部
32…視対象判定部
33…視線解析部
40…データ処理部
41…関心度判定部
42…インデックス情報生成部
43…インデックス情報記録部
50…議事提示部
DESCRIPTION OF SYMBOLS 10 ... Meeting 20 ... Meeting status recording part 30 ... Participating information recording part 31 ... Gaze detection part 32 ... Gaze target determination part 33 ... Gaze analysis part 40 ... Data processing part 41 ... Interest level determination part 42 ... Index information generation part 43 ... Index information recording part 50 ... Agenda presentation part

Claims (21)

会議の内容を記録した会議情報を管理する情報処理システムであって、
会議情報を入力する会議情報入力手段と、
会議中に会議参加者から発現される生体情報を会議参加者情報として取得する会議参加者情報取得手段と、
会議参加者情報に基づいて会議参加者の状態を推定し、該状態に基づいて会議情報を処理するデータ処理手段と、
を具備することを特徴とする情報処理システム。
An information processing system for managing conference information recording the content of a conference,
Meeting information input means for inputting meeting information;
Conference participant information acquisition means for acquiring biometric information expressed from the conference participants during the conference as conference participant information;
Data processing means for estimating the state of the conference participant based on the conference participant information and processing the conference information based on the state;
An information processing system comprising:
会議参加者の状態は心理状態である、
ことを特徴とする請求項1に記載の情報処理システム。
The state of the conference participants is a psychological state,
The information processing system according to claim 1.
会議情報は、会議の音声、映像、会議で使用されたスライドその他の会議資料のうち少なくとも1つからなる、
ことを特徴とする請求項1に記載の情報処理システム。
The meeting information consists of at least one of meeting audio, video, slides used in the meeting, and other meeting materials.
The information processing system according to claim 1.
会議情報は、会議で利用される資料、会議参加者のうち少なくとも一方を会議の映像情報として含む、
ことを特徴とする請求項2に記載の情報処理システム。
The conference information includes at least one of materials used in the conference and conference participants as video information of the conference.
The information processing system according to claim 2.
前記会議参加者情報取得手段は、会議参加者の視線情報、脳波、脈拍数、又はその他の生体情報のうち少なくとも1つを会議参加者情報として取得する、
ことを特徴とする請求項1に記載の情報処理システム。
The conference participant information acquisition means acquires at least one of gaze information, brain waves, pulse rate, or other biological information of the conference participant as conference participant information.
The information processing system according to claim 1.
前記データ処理手段は、会議参加者情報から推定された会議参加者の状態情報に基づいて、会議情報として記録された音声映像情報の一部をインデックス情報として選別する、
ことを特徴とする請求項1に記載の情報処理システム。
The data processing means selects a part of the audio-video information recorded as the conference information as index information based on the status information of the conference participant estimated from the conference participant information.
The information processing system according to claim 1.
前記データ処理手段は、複数の会議参加者に対して心理状態を推定する、
ことを特徴とする請求項1に記載の情報処理システム。
The data processing means estimates a psychological state for a plurality of conference participants.
The information processing system according to claim 1.
前記データ処理手段は、会議の争点に対して会議参加者の関心又は注意が向けられていない心理状態を推定する、
ことを特徴とする請求項1に記載の情報処理システム。
The data processing means estimates a psychological state in which a meeting participant's interest or attention is not directed to a meeting point;
The information processing system according to claim 1.
前記データ処理手段は、会議参加者情報から推定された心理状態に基づいて、会議情報中で会議参加者の心理状態に対応させた(興味が高いだけではなく、疑問に感じた、飽きた、などの状態も含む)時点、又は心理状態に対応した(興味が高いだけではなく、疑問に感じた、飽きた、などの状態も含む)対象物を割り出す、
ことを特徴とする請求項1に記載の情報処理システム。
Based on the psychological state estimated from the conference participant information, the data processing means was made to correspond to the conference participant's psychological state in the conference information (not only high interest, but also felt doubtful, bored, To identify objects that correspond to the point in time or psychological state (including not only high interest but also the state of feeling doubtful, tired, etc.)
The information processing system according to claim 1.
前記データ処理手段は、会議参加者情報として取得された視線情報に基づいて、会議情報中に会議参加者の心理状態に基づいた(興味が高いだけではなく、疑問に感じた、飽きた、などの状態も含む)対象物を割り出す、
ことを特徴とする請求項5に記載の情報処理システム。
Based on the line-of-sight information acquired as the conference participant information, the data processing means is based on the psychological state of the conference participant during the conference information (not only high interest, but also felt doubtful, bored, etc. The target)
The information processing system according to claim 5.
会議の内容を記録した会議情報を管理する情報処理方法であって、
会議情報を入力する会議情報入力記録ステップと、
会議中に会議参加者から発現される生体情報を会議参加者情報として取得する会議参加者情報取得ステップと、
会議参加者情報に基づいて会議参加者の状態を推定し、該状態に基づいて会議情報を処理するデータ処理ステップと、
を具備することを特徴とする情報処理方法。
An information processing method for managing conference information in which the content of a conference is recorded,
Meeting information input recording step for inputting meeting information;
Meeting participant information acquisition step for acquiring biological information expressed from the meeting participant during the meeting as meeting participant information;
A data processing step for estimating a state of the conference participant based on the conference participant information and processing the conference information based on the state;
An information processing method comprising:
会議参加者の状態は心理状態である、
ことを特徴とする請求項11に記載の情報処理方法。
The state of the conference participants is a psychological state,
The information processing method according to claim 11.
会議情報は、会議の音声、映像、会議で使用されたスライドその他の会議資料のうち少なくとも1つからなる、
ことを特徴とする請求項11に記載の情報処理方法。
The meeting information consists of at least one of meeting audio, video, slides used in the meeting, and other meeting materials.
The information processing method according to claim 11.
会議情報は、会議で利用される資料、会議参加者のうち少なくとも一方を会議の映像情報として含む、
ことを特徴とする請求項11に記載の情報処理方法。
The conference information includes at least one of materials used in the conference and conference participants as video information of the conference.
The information processing method according to claim 11.
前記会議参加者情報取得ステップでは、会議参加者の視線情報、脳波、脈拍数、又はその他の生体情報のうち少なくとも1つを会議参加者情報として取得する、
ことを特徴とする請求項11に記載の情報処理方法。
In the conference participant information acquisition step, at least one of the conference participant's line-of-sight information, brain wave, pulse rate, or other biological information is acquired as conference participant information.
The information processing method according to claim 11.
前記データ処理ステップでは、会議参加者情報から推定された会議参加者の状態情報に基づいて、会議情報として記録された音声映像情報の一部をインデックス情報として選別する、
ことを特徴とする請求項11に記載の情報処理方法。
In the data processing step, based on the state information of the conference participant estimated from the conference participant information, a part of the audio / video information recorded as the conference information is selected as index information.
The information processing method according to claim 11.
前記データ処理ステップでは、複数の会議参加者に対して心理状態を推定する、
ことを特徴とする請求項11に記載の情報処理方法。
In the data processing step, a psychological state is estimated for a plurality of conference participants.
The information processing method according to claim 11.
前記データ処理ステップでは、会議参加者情報から推定された心理状態に基づいて、会議情報中で会議参加者の心理状態に対応させた(興味が高いだけではなく、疑問に感じた、飽きた、などの状態も含む)時点、又は心理状態に対応した(興味が高いだけではなく、疑問に感じた、飽きた、などの状態も含む)対象物を割り出す、
ことを特徴とする請求項11に記載の情報処理方法。
In the data processing step, based on the psychological state estimated from the conference participant information, it was made to correspond to the psychological state of the conference participant in the conference information (not only high interest, but also felt doubtful, bored, To identify objects that correspond to the point in time or psychological state (including not only high interest but also the state of feeling doubtful, tired, etc.)
The information processing method according to claim 11.
前記データ処理ステップでは、会議参加者情報から推定された心理状態に基づいて、会議情報中で会議参加者の心理状態に対応させた(興味が高いだけではなく、疑問に感じた、飽きた、などの状態も含む)時点、又は心理状態に対応した(興味が高いだけではなく、疑問に感じた、飽きた、などの状態も含む)対象物を割り出す、
ことを特徴とする請求項11に記載の情報処理方法。
In the data processing step, based on the psychological state estimated from the conference participant information, it was made to correspond to the psychological state of the conference participant in the conference information (not only high interest, but also felt doubtful, bored, To identify objects that correspond to the point in time or psychological state (including not only high interest but also the state of feeling doubtful, tired, etc.)
The information processing method according to claim 11.
前記データ処理ステップでは、会議参加者情報として取得された視線情報に基づいて、会議情報中で会議参加者が興味を持った対象物を割り出す、
ことを特徴とする請求項13に記載の情報処理方法。
In the data processing step, based on the line-of-sight information acquired as the conference participant information, an object in which the conference participant is interested in the conference information is determined.
The information processing method according to claim 13.
会議の内容を記録した会議情報を管理するための処理をコンピュータ・システム上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、
会議情報を入力する会議情報入力記録ステップと、
会議中に会議参加者から発現される生体情報を会議参加者情報として取得する会議参加者情報取得ステップと、
会議参加者情報に基づいて会議参加者の状態を推定し、該状態に基づいて会議情報を処理するデータ処理ステップと、
を具備することを特徴とするコンピュータ・プログラム。
A computer program written in a computer-readable format so as to execute processing for managing conference information in which the content of a conference is recorded on a computer system,
Meeting information input recording step for inputting meeting information;
Meeting participant information acquisition step for acquiring biological information expressed from the meeting participant during the meeting as meeting participant information;
A data processing step for estimating a state of the conference participant based on the conference participant information and processing the conference information based on the state;
A computer program comprising:
JP2004269685A 2004-09-16 2004-09-16 Information processing system, information processing method and computer program Pending JP2006085440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004269685A JP2006085440A (en) 2004-09-16 2004-09-16 Information processing system, information processing method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004269685A JP2006085440A (en) 2004-09-16 2004-09-16 Information processing system, information processing method and computer program

Publications (1)

Publication Number Publication Date
JP2006085440A true JP2006085440A (en) 2006-03-30

Family

ID=36163900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004269685A Pending JP2006085440A (en) 2004-09-16 2004-09-16 Information processing system, information processing method and computer program

Country Status (1)

Country Link
JP (1) JP2006085440A (en)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007200127A (en) * 2006-01-27 2007-08-09 Advanced Telecommunication Research Institute International Expression image recording and retrieving device
JP2009282937A (en) * 2008-05-26 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> Automatic information organization presentation device and automatic information organization presentation processing program
JP2011228998A (en) * 2010-04-21 2011-11-10 Nippon Telegr & Teleph Corp <Ntt> Remote conference apparatus, remote conference method, and remote conference program
JP2013097555A (en) * 2011-10-31 2013-05-20 Fujitsu Ltd Electronic data management method, program and electronic data management device
JP2015069243A (en) * 2013-09-26 2015-04-13 株式会社リコー Distribution system, distribution method, and program
JP2017091536A (en) * 2015-11-10 2017-05-25 株式会社リコー Electronic conference system
JP2017164215A (en) * 2016-03-15 2017-09-21 オムロン株式会社 Interest degree estimation apparatus, interest degree estimation method, program, and recording medium
WO2017191713A1 (en) * 2016-05-02 2017-11-09 ソニー株式会社 Control device, control method, and computer program
JP2018109893A (en) * 2017-01-05 2018-07-12 富士通株式会社 Information processing method, apparatus, and program
US10062057B2 (en) 2015-11-10 2018-08-28 Ricoh Company, Ltd. Electronic meeting intelligence
US10510051B2 (en) 2016-10-11 2019-12-17 Ricoh Company, Ltd. Real-time (intra-meeting) processing using artificial intelligence
US10552546B2 (en) 2017-10-09 2020-02-04 Ricoh Company, Ltd. Speech-to-text conversion for interactive whiteboard appliances in multi-language electronic meetings
US10553208B2 (en) 2017-10-09 2020-02-04 Ricoh Company, Ltd. Speech-to-text conversion for interactive whiteboard appliances using multiple services
US10572858B2 (en) 2016-10-11 2020-02-25 Ricoh Company, Ltd. Managing electronic meetings using artificial intelligence and meeting rules templates
US10757148B2 (en) 2018-03-02 2020-08-25 Ricoh Company, Ltd. Conducting electronic meetings over computer networks using interactive whiteboard appliances and mobile devices
US10860985B2 (en) 2016-10-11 2020-12-08 Ricoh Company, Ltd. Post-meeting processing using artificial intelligence
US10956875B2 (en) 2017-10-09 2021-03-23 Ricoh Company, Ltd. Attendance tracking, presentation files, meeting services and agenda extraction for interactive whiteboard appliances
US11030585B2 (en) 2017-10-09 2021-06-08 Ricoh Company, Ltd. Person detection, person identification and meeting start for interactive whiteboard appliances
US11062271B2 (en) 2017-10-09 2021-07-13 Ricoh Company, Ltd. Interactive whiteboard appliances with learning capabilities
US11080466B2 (en) 2019-03-15 2021-08-03 Ricoh Company, Ltd. Updating existing content suggestion to include suggestions from recorded media using artificial intelligence
US11263384B2 (en) 2019-03-15 2022-03-01 Ricoh Company, Ltd. Generating document edit requests for electronic documents managed by a third-party document management service using artificial intelligence
US11270060B2 (en) 2019-03-15 2022-03-08 Ricoh Company, Ltd. Generating suggested document edits from recorded media using artificial intelligence
US11307735B2 (en) 2016-10-11 2022-04-19 Ricoh Company, Ltd. Creating agendas for electronic meetings using artificial intelligence
US11392754B2 (en) 2019-03-15 2022-07-19 Ricoh Company, Ltd. Artificial intelligence assisted review of physical documents
US11573993B2 (en) 2019-03-15 2023-02-07 Ricoh Company, Ltd. Generating a meeting review document that includes links to the one or more documents reviewed
US11720741B2 (en) 2019-03-15 2023-08-08 Ricoh Company, Ltd. Artificial intelligence assisted review of electronic documents
WO2023223498A1 (en) * 2022-05-19 2023-11-23 日本電信電話株式会社 Meeting evaluation system

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007200127A (en) * 2006-01-27 2007-08-09 Advanced Telecommunication Research Institute International Expression image recording and retrieving device
JP2009282937A (en) * 2008-05-26 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> Automatic information organization presentation device and automatic information organization presentation processing program
JP2011228998A (en) * 2010-04-21 2011-11-10 Nippon Telegr & Teleph Corp <Ntt> Remote conference apparatus, remote conference method, and remote conference program
JP2013097555A (en) * 2011-10-31 2013-05-20 Fujitsu Ltd Electronic data management method, program and electronic data management device
JP2015069243A (en) * 2013-09-26 2015-04-13 株式会社リコー Distribution system, distribution method, and program
US11120342B2 (en) 2015-11-10 2021-09-14 Ricoh Company, Ltd. Electronic meeting intelligence
JP2017091536A (en) * 2015-11-10 2017-05-25 株式会社リコー Electronic conference system
JP7464098B2 (en) 2015-11-10 2024-04-09 株式会社リコー Electronic conference system
US10062057B2 (en) 2015-11-10 2018-08-28 Ricoh Company, Ltd. Electronic meeting intelligence
JP2018170009A (en) * 2015-11-10 2018-11-01 株式会社リコー Electronic conference system
US10445706B2 (en) 2015-11-10 2019-10-15 Ricoh Company, Ltd. Electronic meeting intelligence
JP2017164215A (en) * 2016-03-15 2017-09-21 オムロン株式会社 Interest degree estimation apparatus, interest degree estimation method, program, and recording medium
US11188288B2 (en) 2016-05-02 2021-11-30 Sony Corporation Control device and control method to issue notification on occurrence of processing overflow
US10649715B2 (en) 2016-05-02 2020-05-12 Sony Corporation Control device and control method to issue notification on occurrence of processing overflow
WO2017191713A1 (en) * 2016-05-02 2017-11-09 ソニー株式会社 Control device, control method, and computer program
US10510051B2 (en) 2016-10-11 2019-12-17 Ricoh Company, Ltd. Real-time (intra-meeting) processing using artificial intelligence
US10572858B2 (en) 2016-10-11 2020-02-25 Ricoh Company, Ltd. Managing electronic meetings using artificial intelligence and meeting rules templates
US11307735B2 (en) 2016-10-11 2022-04-19 Ricoh Company, Ltd. Creating agendas for electronic meetings using artificial intelligence
US10860985B2 (en) 2016-10-11 2020-12-08 Ricoh Company, Ltd. Post-meeting processing using artificial intelligence
JP2018109893A (en) * 2017-01-05 2018-07-12 富士通株式会社 Information processing method, apparatus, and program
US11030585B2 (en) 2017-10-09 2021-06-08 Ricoh Company, Ltd. Person detection, person identification and meeting start for interactive whiteboard appliances
US11645630B2 (en) 2017-10-09 2023-05-09 Ricoh Company, Ltd. Person detection, person identification and meeting start for interactive whiteboard appliances
US10553208B2 (en) 2017-10-09 2020-02-04 Ricoh Company, Ltd. Speech-to-text conversion for interactive whiteboard appliances using multiple services
US10552546B2 (en) 2017-10-09 2020-02-04 Ricoh Company, Ltd. Speech-to-text conversion for interactive whiteboard appliances in multi-language electronic meetings
US10956875B2 (en) 2017-10-09 2021-03-23 Ricoh Company, Ltd. Attendance tracking, presentation files, meeting services and agenda extraction for interactive whiteboard appliances
US11062271B2 (en) 2017-10-09 2021-07-13 Ricoh Company, Ltd. Interactive whiteboard appliances with learning capabilities
US10757148B2 (en) 2018-03-02 2020-08-25 Ricoh Company, Ltd. Conducting electronic meetings over computer networks using interactive whiteboard appliances and mobile devices
US11270060B2 (en) 2019-03-15 2022-03-08 Ricoh Company, Ltd. Generating suggested document edits from recorded media using artificial intelligence
US11392754B2 (en) 2019-03-15 2022-07-19 Ricoh Company, Ltd. Artificial intelligence assisted review of physical documents
US11573993B2 (en) 2019-03-15 2023-02-07 Ricoh Company, Ltd. Generating a meeting review document that includes links to the one or more documents reviewed
US11263384B2 (en) 2019-03-15 2022-03-01 Ricoh Company, Ltd. Generating document edit requests for electronic documents managed by a third-party document management service using artificial intelligence
US11720741B2 (en) 2019-03-15 2023-08-08 Ricoh Company, Ltd. Artificial intelligence assisted review of electronic documents
US11080466B2 (en) 2019-03-15 2021-08-03 Ricoh Company, Ltd. Updating existing content suggestion to include suggestions from recorded media using artificial intelligence
WO2023223498A1 (en) * 2022-05-19 2023-11-23 日本電信電話株式会社 Meeting evaluation system

Similar Documents

Publication Publication Date Title
JP2006085440A (en) Information processing system, information processing method and computer program
US7299405B1 (en) Method and system for information management to facilitate the exchange of ideas during a collaborative effort
US7598975B2 (en) Automatic face extraction for use in recorded meetings timelines
CN111193890B (en) Conference record analyzing device and method and conference record playing system
CN101715102A (en) Displaying dynamic caller identity during point-to-point and multipoint audio/video conference
JP2005267279A (en) Information processing system and information processing method, and computer program
Yu et al. Capture, recognition, and visualization of human semantic interactions in meetings
JP4543694B2 (en) COMMUNICATION SYSTEM, COMMUNICATION SYSTEM SERVER, AND SERVER PROCESSING METHOD
JP2013105374A (en) Minutes creation support device, minutes creation support system, and program for minutes creation
JP4572545B2 (en) Information processing system, information processing method, and computer program
Ronzhin et al. A software system for the audiovisual monitoring of an intelligent meeting room in support of scientific and education activities
JP2008219142A (en) Device and method for displaying conference minutes
JP4282343B2 (en) Information management apparatus, information management system, and program
Banerjee et al. Creating multi-modal, user-centric records of meetings with the carnegie mellon meeting recorder architecture
Wellner et al. Browsing recordings of multi-party interactions in ambient intelligence environments
CN111770300A (en) Conference information processing method and virtual reality head-mounted equipment
JP7465012B2 (en) Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program
JP7445331B2 (en) Video meeting evaluation terminal and video meeting evaluation method
JP7121436B1 (en) Video analysis program
JP7465013B2 (en) Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program
WO2022201264A1 (en) Video analysis program
Hayashi et al. An experimental environment for analyzing collaborative learning interaction
JP7100938B1 (en) Video analysis program
WO2022201266A1 (en) Video analysis program
JP7156742B1 (en) Video image analysis system