JP6304941B2 - CONFERENCE INFORMATION RECORDING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD, AND COMPUTER PROGRAM - Google Patents

CONFERENCE INFORMATION RECORDING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD, AND COMPUTER PROGRAM Download PDF

Info

Publication number
JP6304941B2
JP6304941B2 JP2013097735A JP2013097735A JP6304941B2 JP 6304941 B2 JP6304941 B2 JP 6304941B2 JP 2013097735 A JP2013097735 A JP 2013097735A JP 2013097735 A JP2013097735 A JP 2013097735A JP 6304941 B2 JP6304941 B2 JP 6304941B2
Authority
JP
Japan
Prior art keywords
conference
information
cpu
data
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013097735A
Other languages
Japanese (ja)
Other versions
JP2014220619A (en
Inventor
元気 池田
元気 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013097735A priority Critical patent/JP6304941B2/en
Publication of JP2014220619A publication Critical patent/JP2014220619A/en
Application granted granted Critical
Publication of JP6304941B2 publication Critical patent/JP6304941B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、会議情報記録システム、情報処理装置、制御方法およびコンピュータプログラムに関する。   The present invention relates to a conference information recording system, an information processing apparatus, a control method, and a computer program.

デジタル技術の進展に伴い、会議の様子を映像(動画および音声)として記録する会議情報記録システムが提案されている。会議情報記録システムでは、映像に加えて、プロジェクタやディスプレイに表示していた会議資料を記録することができる。この会議資料は、電子ファイルとして記録することもでき、表示画像を記録して得た静止画の場合もある。また、会議記録は、会議参加者がPC等のコンピュータを操作して入力した議事テキスト(会議議事録やメモ)を含む。また、会議記録は、会議参加者による操作指示に基づいて記録するタグ、例えば、その操作の前後に重要な会話が成されたことを示す時刻情報や、会議シーンも含む。会議シーンとは、「オープニング」や「プレゼン」、「質疑/応答」、「議論」、「熟考/沈黙」、「まとめ」といった会議の状態である。会議記録の様子としては、例えば音量や温度、明度など、各種センサにより収集されたデータを記録することができる。   Along with the advancement of digital technology, a conference information recording system that records the state of a conference as video (moving image and audio) has been proposed. In the conference information recording system, in addition to the video, the conference material displayed on the projector or the display can be recorded. This conference material can be recorded as an electronic file, and it may be a still image obtained by recording a display image. The conference record also includes agenda text (meeting minutes and memos) entered by a conference participant operating a computer such as a PC. The conference record also includes a tag to be recorded based on an operation instruction from a conference participant, for example, time information indicating that an important conversation has been made before and after the operation, and a conference scene. The conference scene is a state of the conference such as “opening”, “presentation”, “question / answer”, “discussion”, “contemplation / silence”, “summary”. As the state of the conference recording, for example, data collected by various sensors such as volume, temperature, and brightness can be recorded.

また、会議に関して収集したデータを解析・加工して生成したデータも、記録の対象とすることができる。例えば、記録した動画を解析し、会議参加者の顔部分を抽出した顔画像情報を記録する。これは、会議参加者の表情を参照することに役立つ。音声を解析して得る話者情報、音声認識処理により得たテキストや会議資料をOCR処理して得たテキスト、議事テキストに対して、統計的に解析処理することによって得られる重要語句であるキーワードなどを記録することも可能である。   In addition, data generated by analyzing and processing data collected for the conference can also be recorded. For example, the recorded moving image is analyzed, and the face image information obtained by extracting the face part of the conference participant is recorded. This is useful for referring to the facial expressions of conference participants. Keywords that are important phrases obtained by statistically analyzing speaker information obtained by analyzing speech, text obtained by speech recognition processing, text obtained by OCR processing of conference materials, and proceedings text Etc. can also be recorded.

例えば、特許文献1は、会議情報を収集し、収集した会議情報を区切りを付けて各会議情報に属性情報を付加することにより、会議情報の利用性を向上させる会議情報記録システムを開示している。   For example, Patent Document 1 discloses a conference information recording system that improves the usability of conference information by collecting conference information, adding attribute information to each conference information by separating the collected conference information. Yes.

特開2007−199866号公報JP 2007-199866 A

会議情報記録システムを利用することにより、過去の会議の様子を、より詳細かつ正確に振り返ることができる。しかしながら、会議情報は大量のデータとして記録されるため、ユーザが所望する箇所を探し出して閲覧するには手間がかかる。特許文献1が開示する会議情報記録システムでは、属性情報などの“検索キー”を用いて、会議情報の中から特定の情報を検索することができるが、依然として大量のデータを参照する必要がある。また、検索キーを用いて特定の情報を検索する場合、少なくとも過去の会議の様子のうち、検索キーと成り得る情報をユーザは覚えている必要が生じる。しかし、ユーザは必ずしもそうした情報を覚えているとは限らず、その場合、その会議の全てのデータを参照する必要がある。また、参照すべきデータは複数の種類から成るものであり、それらが時系列に提示される。従って、ユーザは、各時間帯においてどの種類のデータに着目すべきか分からず、効率よく過去の会議を振り返ることができない。   By using the conference information recording system, it is possible to look back on the state of past conferences in more detail and accurately. However, since the conference information is recorded as a large amount of data, it takes time and effort to find and browse a desired portion of the user. In the conference information recording system disclosed in Patent Document 1, specific information can be searched from conference information using a “search key” such as attribute information, but it is still necessary to refer to a large amount of data. . Further, when searching for specific information using a search key, it is necessary for the user to remember at least information that can be used as a search key in past meetings. However, the user does not always remember such information, and in that case, it is necessary to refer to all data of the conference. The data to be referred to is composed of a plurality of types, and these are presented in time series. Therefore, the user does not know what type of data should be focused in each time zone, and cannot efficiently look back on past meetings.

本発明は、会議シーンに応じて、強調して表示する項目を決定することで、各時間帯においてどの種類のデータに着目すべきかをユーザに提示する会議情報記録システムを提供することを目的とする。   An object of the present invention is to provide a conference information recording system that presents to a user what type of data should be focused in each time period by determining items to be highlighted in accordance with a conference scene. To do.

本発明の一実施形態の会議情報記録システムは、会議に関する異なる種類のデータを取得する取得手段を有し、前記取得手段により取得された前記異なる種類のデータに基づいて生成される画面を表示する情報処理システムであって、前記取得手段により取得されたデータを種類ごとに、前記取得手段により取得された時間順で並べた前記画面を表示する表示手段と、前記会議中の各時刻における会議シーンを、複数の会議シーンからひとつ設定する設定手段とを備え、前記表示手段は、前記設定手段により設定された会議シーンごとに、強調して表示する前記データの種類を変えるA conference information recording system according to an embodiment of the present invention includes an acquisition unit that acquires different types of data related to a conference, and displays a screen generated based on the different types of data acquired by the acquisition unit. An information processing system, wherein the display unit displays the screen in which the data acquired by the acquisition unit is arranged in order of time acquired by the acquisition unit for each type, and a conference scene at each time during the conference And setting means for setting one of a plurality of conference scenes , and the display means changes the type of data to be highlighted for each conference scene set by the setting means .

本発明の会議情報記録システムによれば、会議シーンに応じて、強調して表示する項目が決定されることで、各時間帯においてどの種類のデータに着目すべきかをユーザに提示することができる。これによりユーザは、より効率よく過去の会議を振り返ることができる。   According to the conference information recording system of the present invention, it is possible to present to the user what type of data to focus on in each time zone by determining the items to be highlighted in accordance with the conference scene. . Thereby, the user can look back on the past meetings more efficiently.

本実施例の会議情報記録システムの構成例を示す図である。It is a figure which shows the structural example of the meeting information recording system of a present Example. 会議情報収集装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a meeting information collection apparatus. 会議情報記録サーバとコンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of a meeting information recording server and a computer. 会議情報収集装置の表示デバイスが表示する画面例である。It is an example of a screen which the display device of a meeting information collection device displays. 会議情報のデータ構成例を示す図である。It is a figure which shows the data structural example of meeting information. 会議情報のデータ構成例を示す図である。It is a figure which shows the data structural example of meeting information. 解析・加工によって生成された会議情報のデータ構成例を示す図である。It is a figure which shows the example of a data structure of the meeting information produced | generated by analysis and processing. コンピュータの表示デバイスが表示する画面例を示す。The example of a screen which the display device of a computer displays is shown. コンピュータの表示デバイスが表示する画面例を示す。The example of a screen which the display device of a computer displays is shown. 表示画像を生成する手順を示したフローチャートである。It is the flowchart which showed the procedure which produces | generates a display image. 表示画像を生成する手順を示したフローチャートである。It is the flowchart which showed the procedure which produces | generates a display image. 表示画像を生成する手順を示したフローチャートである。It is the flowchart which showed the procedure which produces | generates a display image. 表示画像を生成する手順を示したフローチャートである。It is the flowchart which showed the procedure which produces | generates a display image. 表示画像を生成する手順を示したフローチャートである。It is the flowchart which showed the procedure which produces | generates a display image. 実施例2の、コンピュータの表示デバイスが表示する画面例を示す。The example of a screen which the display device of a computer of Example 2 displays is shown. 表示画像を生成する手順を示したフローチャートである。It is the flowchart which showed the procedure which produces | generates a display image. 表示画像を生成する手順を示したフローチャートである。It is the flowchart which showed the procedure which produces | generates a display image. 表示画像を生成する手順を示したフローチャートである。It is the flowchart which showed the procedure which produces | generates a display image. スクロール処理の制御情報であるデータ構成例を示す。The example of a data structure which is the control information of a scroll process is shown. スクロール制御情報を生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which produces | generates scroll control information. スクロール制御情報を生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which produces | generates scroll control information. スクロール制御情報を生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which produces | generates scroll control information. スクロール制御情報を生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which produces | generates scroll control information. スクロール制御情報を生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which produces | generates scroll control information. スクロール制御情報を生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which produces | generates scroll control information. 表示画像をスクロールする処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which scrolls a display image.

図1は、本実施例に掛る会議情報記録システムの構成を示した構成図である。会議情報記録システム100は、会議情報収集装置101、会議情報記録サーバ102、コンピュータ103、コンピュータ104、コンピュータ105を備える。これらの装置/機器は、ネットワーク106を介して接続されている。ネットワーク106は、有線/無線を問わず、相互に通信可能であれば、任意のネットワークが使用されてよい。なお、図1に示す会議情報記録システム100は複数のコンピュータを備えているが、コンピュータは1台でもよく、4台以上のコンピュータを備えていてよい。   FIG. 1 is a configuration diagram illustrating a configuration of a conference information recording system according to the present embodiment. The conference information recording system 100 includes a conference information collection device 101, a conference information recording server 102, a computer 103, a computer 104, and a computer 105. These apparatuses / devices are connected via the network 106. Any network 106 may be used as long as it can communicate with each other regardless of wired / wireless. The conference information recording system 100 shown in FIG. 1 includes a plurality of computers, but the number of computers may be one, or four or more computers.

会議情報収集装置101は、会議室などの会議開催場所に配置され、動画、音声、会議シーンなど複数の種類のデータを収集する。以下では、会議に関して収集・生成して得た、複数の種類から成るデータを「会議情報」と呼称する。会議情報記録システム100では、会議情報に含まれる各種データを、時刻情報と共に記録することにより、データ間の関連付けを成す事ができる。そして、収集したデータと時刻情報とを会議情報とし、定期的に会議情報記録サーバ102に送信する。また、会議情報収集装置101は、プロジェクタデバイスを有しており、後述のコンピュータ103からの出力画像をスクリーンや壁面等に投影することができる。なお、会議情報収集装置101は、例えばオフィスや所定の会場等において開催される会議を記録するが、本発明が適用対象とする会議は、複数の人物の視認/発声行動を伴う集まりであればよく、オフィスや所定の会場等において開催される会議に限定されない。例えば、面接や、取り調べ等も本発明の適用対象となる。   The conference information collection device 101 is arranged at a conference venue such as a conference room, and collects a plurality of types of data such as moving images, audio, and conference scenes. Hereinafter, data of a plurality of types obtained by collecting and generating a conference will be referred to as “conference information”. In the conference information recording system 100, the various data included in the conference information can be recorded together with the time information, thereby making it possible to associate the data. The collected data and time information are used as meeting information, and are periodically transmitted to the meeting information recording server 102. In addition, the conference information collection apparatus 101 has a projector device, and can project an output image from the computer 103 described later onto a screen, a wall surface, or the like. The conference information collection device 101 records conferences held in, for example, offices or predetermined venues, but the conference to which the present invention is applied is a group that involves the visual / speaking behavior of a plurality of persons. Often, it is not limited to meetings held in offices or predetermined venues. For example, interviews and surveys are also applicable to the present invention.

会議情報記録サーバ102は、一般的なPCであり、会議情報収集装置101より複数項目のデータを会議情報として受信し、当該会議情報を解析・加工して生成した会議情報とを記録して管理する。本実施例では、会議情報収集装置101と会議情報記録サーバ102が別離した装置として記載しているが、両機器の機能を備えた単一の装置として構成されてよい。この場合、会議情報収集装置101と会議情報記録サーバ102が会議に関する複数項目のデータを収集し、収集したデータに基づいて会議情報を作成する会議情報作成装置として機能する。   The conference information recording server 102 is a general PC, receives a plurality of items of data as conference information from the conference information collection device 101, records and manages the conference information generated by analyzing and processing the conference information. To do. In this embodiment, the conference information collection device 101 and the conference information recording server 102 are described as separate devices, but may be configured as a single device having the functions of both devices. In this case, the conference information collection device 101 and the conference information recording server 102 function as a conference information creation device that collects a plurality of items of data related to the conference and creates conference information based on the collected data.

コンピュータ103およびコンピュータ104、コンピュータ105は、一般的なPCであるが、例えばタブレットやスマートフォン等の端末装置であってもよい。本実施例では、コンピュータ103は会議開催場所に配置され、プレゼンテーション用途等の会議資料(電子文書)より出力画像を生成する。コンピュータ103は、出力画像を会議情報収集装置101へ送信し、会議情報収集装置101が備えるプロジェクタデバイスによって、その内容を投影して表示することができる。コンピュータ104も会議開催場所に配置され、入力デバイスを介して議事やメモを入力するために用いられる。コンピュータ105は、会議の後に、会議情報記録サーバ102が記録している会議情報を閲覧するための情報処理装置である。尚、ユーザは、会議情報の閲覧は、コンピュータ105を用いて行うに限らず、コンピュータ103やコンピュータ104を用いて行ってもよい。また、本実施形態の制御方法は、図1に示す会議情報記録システムの制御方法である。本実施形態のコンピュータプログラムは、この制御方法をコンピュータに実行させる。   The computer 103, the computer 104, and the computer 105 are general PCs, but may be terminal devices such as tablets and smartphones. In this embodiment, the computer 103 is arranged at a meeting holding place, and generates an output image from meeting material (electronic document) for presentation use. The computer 103 can transmit the output image to the conference information collecting apparatus 101 and project and display the contents by a projector device included in the conference information collecting apparatus 101. The computer 104 is also arranged at the meeting place and is used for inputting the agenda and memo via the input device. The computer 105 is an information processing apparatus for browsing conference information recorded by the conference information recording server 102 after the conference. Note that the user may browse the conference information not only using the computer 105 but also using the computer 103 or the computer 104. Moreover, the control method of this embodiment is a control method of the conference information recording system shown in FIG. The computer program of this embodiment causes a computer to execute this control method.

図2は、図1の会議情報収集装置101のハードウェア構成例を示すブロック図である。会議情報収集装置101は、CPU201、ROM202、RAM204、ストレージ205、入力デバイス206、表示デバイス207、外部インタフェース208を備える。また、会議情報収集装置101は、カメラデバイス209、マイクデバイス210、プロジェクタデバイス211、センサ入力デバイス212、温度センサ213、音量センサ214、明度センサ215を備える。各部は、データバス203を介して相互にデータを送受信することができる。なお、CPUは、Central Processing Unitの略称である。RAMは、Random Access Memoryの略称である。ROMは、Read Only Memoryの略称である。   FIG. 2 is a block diagram illustrating a hardware configuration example of the conference information collection apparatus 101 in FIG. The conference information collection apparatus 101 includes a CPU 201, a ROM 202, a RAM 204, a storage 205, an input device 206, a display device 207, and an external interface 208. The conference information collecting apparatus 101 includes a camera device 209, a microphone device 210, a projector device 211, a sensor input device 212, a temperature sensor 213, a volume sensor 214, and a brightness sensor 215. Each unit can transmit and receive data to and from each other via the data bus 203. CPU is an abbreviation for Central Processing Unit. RAM is an abbreviation for Random Access Memory. ROM is an abbreviation for Read Only Memory.

CPU201は、この会議情報収集装置全体を制御するためのコントローラである。CPU201は、不揮発メモリであるROM202に格納されているブートプログラムによりOS(オペレーティングシステム)を起動する。CPU201は、このOSの上で、ストレージ205に記憶されているコントローラプログラムを実行する。コントローラプログラムは、会議情報収集装置全体を制御するプログラムである。CPU201は、データバス203などのバスを介して各部を制御する。RAM204は、CPU201のメインメモリやワークエリア等の一時記憶領域として動作するものである。ストレージ205は、読み出しと書き込みが可能な不揮発メモリであり、前述のコントローラプログラムを保存する。また、会議情報収集装置101は、各種の会議情報を収集して定期的に会議情報記録サーバ102へ送信するが、送信するまで間、当該会議情報をストレージ205に一時的に保存する。   The CPU 201 is a controller for controlling the entire conference information collection device. The CPU 201 starts an OS (operating system) by a boot program stored in a ROM 202 which is a nonvolatile memory. The CPU 201 executes the controller program stored in the storage 205 on this OS. The controller program is a program for controlling the entire conference information collecting apparatus. The CPU 201 controls each unit via a bus such as the data bus 203. The RAM 204 operates as a temporary storage area such as the main memory or work area of the CPU 201. The storage 205 is a non-volatile memory that can be read and written, and stores the aforementioned controller program. The conference information collection apparatus 101 collects various types of conference information and periodically transmits the conference information to the conference information recording server 102. The conference information is temporarily stored in the storage 205 until the conference information is collected.

入力デバイス206は、タッチパネルやハードキー、マウスなどから構成さる入力装置である。また、表示デバイス207は、LCDやCRTなどの表示装置である。入力デバイス206は、ユーザの操作指示を受け付けると、CPU201に伝達する。表示デバイス207は、CPU201が生成した表示データを画面上に表示する。CPU201は、入力デバイス206から受信した指示情報と、表示デバイス207に表示させている表示データとに基づいて、操作を判定する。CPU201は、判定結果に応じて、会議情報収集装置101を制御するとともに、操作内容に応じて新たな表示データを生成し、表示デバイス207に表示させる。外部インタフェース208は、LANや電話回線、赤外線といった近接無線などのネットワークを介して、別体の外部機器と各種データの送信あるいは受信を行う。   The input device 206 is an input device including a touch panel, hard keys, a mouse, and the like. The display device 207 is a display device such as an LCD or CRT. When the input device 206 receives a user operation instruction, the input device 206 transmits the instruction to the CPU 201. The display device 207 displays the display data generated by the CPU 201 on the screen. The CPU 201 determines an operation based on the instruction information received from the input device 206 and the display data displayed on the display device 207. The CPU 201 controls the conference information collection apparatus 101 according to the determination result, generates new display data according to the operation content, and causes the display device 207 to display the display data. The external interface 208 transmits or receives various data to / from a separate external device via a network such as a LAN, a telephone line, or a near field radio such as infrared rays.

カメラデバイス209は、いわゆるデジタルカメラであり、動画を撮影することができる。カメラデバイス209は、会議開催場所全体の様子を記録できるよう、360度方向の撮影ができるタイプのものや、複数のレンズおよび画像素子を具備して撮影することで会議開催場所全体の様子を撮影するよう構成することが好ましい。カメラデバイス209は、レンズおよび画像素子により取得される撮影画像を、1秒間に所定のフレーム分(例えば30フレーム、フレームレート30fps)を取得することで、MPEGなどの動画データとして取得する。   The camera device 209 is a so-called digital camera and can shoot a moving image. The camera device 209 can shoot the entire conference venue by recording a 360-degree direction so that the entire conference venue can be recorded, or by including a plurality of lenses and image elements. It is preferable to constitute so. The camera device 209 acquires a captured image acquired by the lens and the image element as moving image data such as MPEG by acquiring a predetermined frame (for example, 30 frames, frame rate 30 fps) per second.

マイクデバイス210は、入力された音声をデジタル信号化し、例えばWAVEなどの音声データとして取得する。プロジェクタデバイス211は、光源と投射レンズにより、出力画像をスクリーンや壁面等に投影して表示することができる。センサ入力デバイス212は、各種センサと接続され、その入力信号をデジタル信号化して取得する。本実施例では、センサ入力デバイス212は、温度センサ213、音量センサ214、明度センサ215と接続されている。   The microphone device 210 converts the input sound into a digital signal and acquires it as sound data such as WAVE, for example. The projector device 211 can project and display an output image on a screen, a wall surface, or the like using a light source and a projection lens. The sensor input device 212 is connected to various sensors and acquires the input signal by converting it into a digital signal. In this embodiment, the sensor input device 212 is connected to the temperature sensor 213, the volume sensor 214, and the brightness sensor 215.

図3は、図1の会議情報記録サーバ102とコンピュータ105の構成を示すブロック図である。まず、会議情報記録サーバ102について説明する。会議情報記録サーバ102は、CPU301、ROM302、RAM304、ストレージ305、入力デバイス306、表示デバイス307、外部インタフェース308を備える。各部は、データバス303を介して相互にデータを送受信することができる。CPU301は、この会議情報記録サーバ全体を制御するためのコントローラである。CPU301は、不揮発メモリであるROM302に格納されているブートプログラムによりOSを起動する。このOSの上で、ストレージ305に記憶されている会議情報記録サーバプログラムを実行する。CPU301がこの会議情報記録サーバプログラムを実行することより、会議情報記録サーバ102の各処理を実現する。CPU301は、データバス303などのバスを介して各部を制御する。   FIG. 3 is a block diagram showing the configuration of the conference information recording server 102 and the computer 105 of FIG. First, the conference information recording server 102 will be described. The conference information recording server 102 includes a CPU 301, ROM 302, RAM 304, storage 305, input device 306, display device 307, and external interface 308. Each unit can transmit and receive data to and from each other via the data bus 303. The CPU 301 is a controller for controlling the entire conference information recording server. The CPU 301 activates the OS by a boot program stored in a ROM 302 that is a nonvolatile memory. On this OS, the conference information recording server program stored in the storage 305 is executed. Each process of the conference information recording server 102 is realized by the CPU 301 executing this conference information recording server program. The CPU 301 controls each unit via a bus such as the data bus 303.

RAM304は、CPU301のメインメモリやワークエリア等の一時記憶領域として動作するものである。ストレージ305は、読み出しと書き込みが可能な不揮発メモリであり、前述のサーバプログラムを保存する。また、会議情報記録サーバ102は、会議情報収集装置101が収集した各種の会議情報や、当該会議情報を解析・加工して生成した会議情報をストレージ305に記録して管理する。   The RAM 304 operates as a temporary storage area such as the main memory or work area of the CPU 301. The storage 305 is a non-volatile memory that can be read and written, and stores the server program described above. The conference information recording server 102 records and manages various conference information collected by the conference information collection apparatus 101 and conference information generated by analyzing and processing the conference information in the storage 305.

入力デバイス306、表示デバイス307、外部インタフェース308は、図2を用いて説明した各部と同様の構成であるため、説明を省略する。CPU301は、入力デバイス306より受信した指示情報と、表示デバイス307に表示させている表示データとから、操作を判定する。CPU301は、この判定結果に応じて、会議情報記録サーバ102を制御するとともに、操作内容に応じて新たな表示データを生成し表示デバイス307に表示させる。入力デバイス306や表示デバイス307は、主に、サーバ管理者が、会議情報記録サーバ102のメンテナンス等を行う目的で使用される。   The input device 306, the display device 307, and the external interface 308 have the same configuration as each unit described with reference to FIG. The CPU 301 determines an operation from the instruction information received from the input device 306 and the display data displayed on the display device 307. The CPU 301 controls the conference information recording server 102 according to the determination result, and generates new display data according to the operation content and causes the display device 307 to display it. The input device 306 and the display device 307 are mainly used for the purpose of maintenance of the conference information recording server 102 by the server administrator.

次に、コンピュータ105について説明する。コンピュータ105は、CPU311、ROM312、RAM314、ストレージ315、入力デバイス316、表示デバイス317、外部インタフェース318を備える。各部は、データバス313を介して相互にデータを送受信することができる。各部は図3(A)を用いて説明した会議情報記録サーバ102の各部と同様の構成であるため、説明は省略する。CPU311は、ストレージ305に記憶されている会議情報表示プログラムを実行することより、コンピュータ105の各処理を実現する。尚、コンピュータ103やコンピュータ104の構成は、コンピュータ105の構成と同様であり、説明は省略する。   Next, the computer 105 will be described. The computer 105 includes a CPU 311, ROM 312, RAM 314, storage 315, input device 316, display device 317, and external interface 318. Each unit can transmit / receive data to / from each other via the data bus 313. Each unit has the same configuration as each unit of the conference information recording server 102 described with reference to FIG. The CPU 311 implements each process of the computer 105 by executing the conference information display program stored in the storage 305. Note that the configurations of the computer 103 and the computer 104 are the same as the configuration of the computer 105, and a description thereof will be omitted.

次に、会議情報収集装置101の表示デバイス207における表示内容について説明する。図4は、会議情報収集装置101の表示デバイス207の表示例を示す画面図である。図4(A)の画面400は、会議開始前に表示する画面である。   Next, display contents on the display device 207 of the conference information collection apparatus 101 will be described. FIG. 4 is a screen diagram illustrating a display example of the display device 207 of the conference information collection apparatus 101. A screen 400 in FIG. 4A is a screen displayed before the start of the conference.

「会議開始」ボタン401は、ユーザが会議情報収集装置101に会議の開始を通知するためのものである。CPU201は、入力デバイス206を介して「会議開始」ボタン401への指示を受け付けると、表示デバイス207に、図4(B)に示す画面410を表示させる。画面410は、会議中に表示する画面である。会議情報の収集のためのユーザによる操作指示受け付けるための内容を表示する。   A “conference start” button 401 is used by the user to notify the conference information collection apparatus 101 of the start of the conference. When the CPU 201 receives an instruction to the “conference start” button 401 via the input device 206, the CPU 201 displays a screen 410 shown in FIG. 4B on the display device 207. A screen 410 is a screen displayed during the meeting. The contents for receiving an operation instruction by the user for collecting the meeting information are displayed.

図4(B)は、会議シーン選択画面の一例を示す。表示デバイス207は、当該会議シーン選択画面を提示する提示手段として機能する。図4(B)に示す画面例では、表示デバイス207は、オープニング411、プレゼン412、質疑/応答413、議論414、熟考/沈黙415、まとめ416等のボタン群を表示する。各ボタン411〜416は、会議情報収集装置101に、現在の会議シーンを記録させるためのボタン群である。ユーザがこれらボタン群のうちのひとつを指示すると、その指示時刻から次に他のボタンを指示するまでの時間帯は、当該指示したボタンが示す会議シーンであることを会議情報収集装置101に記録させることができる。つまり、各々の会議シーンは、時間情報と紐付けて記録される。   FIG. 4B shows an example of a meeting scene selection screen. The display device 207 functions as a presentation unit that presents the conference scene selection screen. In the screen example shown in FIG. 4B, the display device 207 displays a group of buttons such as an opening 411, a presentation 412, a question / response 413, a discussion 414, a contemplation / silence 415, and a summary 416. Each button 411 to 416 is a group of buttons for causing the conference information collecting apparatus 101 to record the current conference scene. When the user designates one of these buttons, the conference information collecting apparatus 101 records that the time period from the designated time until the next button is designated is the conference scene indicated by the designated button. Can be made. That is, each conference scene is recorded in association with time information.

ここで「会議シーン」について説明する。本実施例では、会議シーンを、会議の状態として以下のうちのいずれかの値を取り得るものとして定義する。「オープニング」は、会議の冒頭などにおいて、会議の背景や目的、アウトプット等を説明する状況である。「プレゼンテーション」は、会議で行われる、いわゆるプレゼンテーションであり、プレゼンターが他の会議参加者に対して、提案内容や計画案等を説明し、理解を得るための状況である。これには、一般的に、会議資料をプロジェクタやディスプレイに投影しながら行うことが多い。   Here, the “conference scene” will be described. In the present embodiment, a conference scene is defined as one that can take one of the following values as a conference state. “Opening” is a situation where the background, purpose, output, etc. of the conference are explained at the beginning of the conference. “Presentation” is a so-called presentation that is given at a conference, and is a situation in which a presenter explains the content of a proposal, a plan, etc. to other conference participants and gains understanding. In general, this is often performed while projecting a conference material on a projector or display.

「質疑/応答」は、いわゆる質疑応答であり、何らかの話題、例えばプレゼンテーションの内容、に対する質問と回答のやりとりを行う状況である。「議論」は、いわゆる議論であり、何らかの話題に対して合意に至るために、会議参加者達が意見を戦わせる状況である。「熟考/沈黙」は、会議において、会議参加者が、自分の意見や考えをまとめたり、アイデア出しを行う状況である。あるいは、議論が膠着・停滞してしまい、場が沈黙した状況である。「まとめ」は、会議の終了間際に、当該会議において決定した事項やアクションアイテムをまとめて振り返る状況である。   The “question / answer” is a so-called question-and-answer session in which a question and answer are exchanged with respect to a certain topic, for example, the content of a presentation. “Discussion” is a so-called discussion, and is a situation in which conference participants fight opinions in order to reach an agreement on some topic. “Contemplation / silence” is a situation in which a conference participant summarizes his / her opinions and thoughts and presents ideas at the conference. Or, the discussion was stuck and stagnated, and the place was silent. “Summary” is a situation in which items and action items determined in the conference are reviewed at the end of the conference.

ユーザが、画面410に表示された各ボタン411〜416を入力デバイス206などを用いて押下することにより、現在行われている会議に会議シーンを割り当て、会議情報収集装置101のストレージ205に記録することができる。   When the user presses the buttons 411 to 416 displayed on the screen 410 using the input device 206 or the like, the user assigns a conference scene to the current conference and records it in the storage 205 of the conference information collection apparatus 101. be able to.

「重要」ボタン417は、会議の重要ポイントを記録するためのアイコンである。効果としては、「重要」ボタン417を指示した時刻が記録されることであるが、例えば、重要な発言がなされたり、特徴的な出来事が生じた際に、ユーザはこのボタンにより重要性を記録させることができる。あるいは、ユーザは、これから重要な発言を行う、と言った際に当該ボタンを指示してもよい。ユーザにより、「重要」ボタン417が選択されると、CPU201は「重要」ボタン417が選択された時刻に紐付けて重要タグ情報を記録する。これにより、表示デバイス317は、重要タグ情報が記録された時刻に対応する単位時間の区間に対して描画処理を行う際に、重要度を示す目印を描画することが可能となる。つまり、「重要」ボタン417を用いることで、後に大量のデータである会議情報を振り返る際の“目印”を付けることが可能となる。「会議終了」ボタン418は、会議情報収集装置101に会議の終了を通知するためのボタンである。CPU201は、「会議終了」ボタン417への指示を受け付けると、表示デバイス207に画面400と同様の画面を表示させ、会議情報の記録を終了する。   The “important” button 417 is an icon for recording an important point of the conference. The effect is that the time at which the “important” button 417 is instructed is recorded. For example, when an important statement is made or a characteristic event occurs, the user records the importance with this button. Can be made. Alternatively, the user may instruct the button when he / she says to make an important statement. When the “important” button 417 is selected by the user, the CPU 201 records the important tag information in association with the time when the “important” button 417 is selected. As a result, the display device 317 can draw a mark indicating the importance level when performing the drawing process on the section of the unit time corresponding to the time when the important tag information is recorded. In other words, by using the “important” button 417, it is possible to attach a “mark” when looking back on conference information that is a large amount of data later. The “conference end” button 418 is a button for notifying the conference information collection apparatus 101 of the end of the conference. When the CPU 201 receives an instruction to the “end conference” button 417, the CPU 201 displays a screen similar to the screen 400 on the display device 207 and ends the recording of the conference information.

ここで、「最小時間間隔」を定義する。本実施例における会議情報記録システムによれば、会議の様子を複数の種類のデータ項目からなる会議情報として記録する。本実施例では、コンピュータ105などが会議情報を画面上に表示する際には、タイムライン(時系列)に会議情報を並べて提示する。タイムラインにおける会議情報の提示間隔は、ユーザ操作により変更することができるよう構成するが、この時間間隔の最小値を「最小時間間隔」と定義する。本実施例においては、最小時間間隔を10秒と定義して説明する。   Here, a “minimum time interval” is defined. According to the conference information recording system in the present embodiment, the state of the conference is recorded as conference information composed of a plurality of types of data items. In this embodiment, when the computer 105 or the like displays the conference information on the screen, the conference information is presented side by side on a timeline (time series). The conference information presentation interval on the timeline is configured to be changed by a user operation, and the minimum value of this time interval is defined as “minimum time interval”. In this embodiment, the minimum time interval is defined as 10 seconds.

次に、会議情報収集装置101によって収集される会議情報について、図5と図6を用いて説明する。図5および図6は、会議情報収集装置101が収集してストレージ205に一時的に記録した、会議情報のデータ構成例を示す。会議情報記録サーバ102が会議情報収集装置101より受信してストレージ305に記録する会議情報も、図5や図6に示すものと同様の構成である。CPU201は、「会議開始」ボタン401への指示を受け付けると、以下に示す会議情報の収集処理を開始する。   Next, meeting information collected by the meeting information collecting apparatus 101 will be described with reference to FIGS. 5 and 6 show examples of the data structure of conference information collected by the conference information collection device 101 and temporarily recorded in the storage 205. FIG. The conference information received by the conference information recording server 102 from the conference information collection device 101 and recorded in the storage 305 has the same configuration as that shown in FIGS. When the CPU 201 receives an instruction to the “conference start” button 401, the CPU 201 starts a meeting information collection process described below.

図5(A)は、動画情報テーブル500を示す。CPU201は、カメラデバイス209により会議の様子を撮影し、動画データを収集し、収集したデータを動画情報テーブル500に記録する。CPU201は、撮影開始時刻列501に、撮影開始時刻(会議開始時刻)を記録し、撮影終了時刻列502に、撮影終了時刻を記録する。また、CPU201は、動画データをファイルとしてストレージ205に記録し、そのファイル名を動画データ列503に記録する。   FIG. 5A shows a moving image information table 500. The CPU 201 captures the state of the meeting with the camera device 209, collects moving image data, and records the collected data in the moving image information table 500. The CPU 201 records the shooting start time (conference start time) in the shooting start time column 501 and records the shooting end time in the shooting end time column 502. Further, the CPU 201 records moving image data as a file in the storage 205 and records the file name in the moving image data string 503.

図5(B)は、音声情報テーブル510を示す。CPU201は、マイクデバイス210により会議中の会話を録音し、音声データを収集し、収集したデータを音声情報テーブル510に記録する。CPU201は、録音開始時刻列511に録音開始時刻(会議開始時刻)を記録し、録音終了時刻列512に録音終了時刻を記録する。また、CPU201は、音声データをファイルとしてストレージ205に記録し、そのファイル名を音声データ列513に記録する。   FIG. 5B shows the audio information table 510. The CPU 201 records the conversation during the conference by the microphone device 210, collects voice data, and records the collected data in the voice information table 510. The CPU 201 records the recording start time (conference start time) in the recording start time column 511 and records the recording end time in the recording end time column 512. In addition, the CPU 201 records audio data as a file in the storage 205 and records the file name in the audio data string 513.

図5(C)は、議事テキスト情報テーブル520を示す。コンピュータ104は、入力デバイスより入力されたテキストデータを、改行コードが入力される毎に会議情報収集装置101に送信する。このとき、改行コードが入力された時刻情報も合わせて送信する。CPU201は、受信したテキストデータと時刻情報を議事テキスト情報テーブル520に記録する。CPU201は、改行コードの入力時刻を入力時刻列521に、テキストデータを議事テキストデータ列522に、それぞれ記録する。   FIG. 5C shows an agenda text information table 520. The computer 104 transmits the text data input from the input device to the conference information collecting apparatus 101 every time a line feed code is input. At this time, the time information when the line feed code is input is also transmitted. The CPU 201 records the received text data and time information in the agenda text information table 520. The CPU 201 records the input time of the line feed code in the input time column 521 and the text data in the proceeding text data column 522, respectively.

図5(D)は、会議資料情報テーブル530を示す。CPU201は、コンピュータ103が会議資料に基づいて生成した出力画像を、外部インタフェース208を介して受信し、プロジェクタデバイス211により投影する。この際、CPU201は、投影している出力画像を最小時間間隔おきに現在時刻(出力画像取得時刻)と共に会議資料情報テーブル530に記憶する。尚、プロジェクタデバイス211への出力画像の入力がない場合には、会議資料情報は収集しない。CPU201は、出力画像取得時刻を出力画像取得時刻列531に記録する。また、CPU201は、出力画像をファイルとしてストレージ205に記録すると共に、出力画像取得時刻にslide1などのファイル名を紐付けて出力画像列532に記録する。   FIG. 5D shows a conference material information table 530. The CPU 201 receives an output image generated by the computer 103 based on the conference material via the external interface 208 and projects it by the projector device 211. At this time, the CPU 201 stores the projected output image in the conference material information table 530 together with the current time (output image acquisition time) at every minimum time interval. If no output image is input to the projector device 211, the conference material information is not collected. The CPU 201 records the output image acquisition time in the output image acquisition time column 531. In addition, the CPU 201 records the output image as a file in the storage 205, and records the output image in the output image sequence 532 in association with a file name such as slide 1 at the output image acquisition time.

図5(E)は、温度情報テーブル540を示す。CPU201は、会議開催会場の環境情報として、センサ入力デバイス212および温度センサ213より、最小時間間隔おきに温度データを取得する。そして、CPU201は、時刻情報(温度データ取得時刻)と共に温度情報テーブル540に記憶する。CPU201は、温度データ取得時刻を温度データ取得時刻列541に、温度データを温度データ列542に、それぞれ記録する。   FIG. 5E shows a temperature information table 540. The CPU 201 acquires temperature data from the sensor input device 212 and the temperature sensor 213 as the environment information of the conference venue at intervals of the minimum time. And CPU201 memorize | stores in the temperature information table 540 with time information (temperature data acquisition time). The CPU 201 records the temperature data acquisition time in the temperature data acquisition time column 541 and the temperature data in the temperature data column 542, respectively.

図6(A)は、音量情報テーブル600を示す。CPU201は、会議の活性度を示す情報として、センサ入力デバイス212および音量センサ214より、最小時間間隔おきに音量データを取得する。そして、CPU201は、時刻情報(音量データ取得時刻)と共に音量情報テーブル600に記録する。CPU201は、音量データ取得時刻を音量データ取得時刻列601に記録し、音量データを音量データ列602に、それぞれ記録する。   FIG. 6A shows a volume information table 600. The CPU 201 acquires volume data from the sensor input device 212 and the volume sensor 214 as information indicating the degree of activity of the conference at every minimum time interval. Then, the CPU 201 records it in the volume information table 600 together with time information (volume data acquisition time). The CPU 201 records the volume data acquisition time in the volume data acquisition time column 601 and records the volume data in the volume data column 602.

図6(B)は、明度情報テーブル610を示す。CPU201は、会議開催会場の環境情報として、センサ入力デバイス212および明度センサ215より、最小時間間隔おきに明度データを取得する。そして、CPU201は、時刻情報(明度データ取得時刻)と共に明度情報テーブル610に記憶する。CPU201は、明度データ取得時刻を明度データ取得時刻列611に、明度データを明度データ列612に、それぞれ記録する。   FIG. 6B shows a brightness information table 610. The CPU 201 acquires lightness data from the sensor input device 212 and the lightness sensor 215 every minimum time interval as environment information of the conference venue. Then, the CPU 201 stores it in the lightness information table 610 together with time information (lightness data acquisition time). The CPU 201 records the lightness data acquisition time in the lightness data acquisition time column 611 and the lightness data in the lightness data column 612, respectively.

図6(C)は、重要タグ情報テーブル620を示す。CPU201は、「重要」ボタン417への指示を受け付けると、時刻情報(重要タグ付与時刻)を重要タグ付与時刻列621に記録する。   FIG. 6C shows an important tag information table 620. When receiving an instruction to the “important” button 417, the CPU 201 records time information (important tag assignment time) in the important tag assignment time column 621.

図6(D)は、会議シーン情報テーブル630を示す。CPU201は、ボタン411〜416のいずれかのボタンへの指示を受け付けると、当該ボタンに該当する会議シーンを示す値を、時刻情報(会議シーン開始時刻)と共に会議シーン情報テーブル630に記録する。記録する会議シーンについては前述の通りである。会議シーン開始時刻を会議シーン開始時刻列631に、会議シーンを会議シーン列632に、それぞれ記録する。CPU201は、「会議終了」ボタン418への指示を受け付けると、会議情報の収集処理を終了する。そして、ストレージ205に記録した上述の会議情報を、外部インタフェース208を介して会議情報記録サーバ102に送信する。   FIG. 6D shows a conference scene information table 630. When the CPU 201 receives an instruction to any one of the buttons 411 to 416, the CPU 201 records a value indicating the conference scene corresponding to the button in the conference scene information table 630 together with time information (conference scene start time). The conference scene to be recorded is as described above. The conference scene start time is recorded in the conference scene start time column 631, and the conference scene is recorded in the conference scene column 632, respectively. When the CPU 201 accepts an instruction to the “end conference” button 418, the conference information collection process ends. Then, the conference information recorded in the storage 205 is transmitted to the conference information recording server 102 via the external interface 208.

次に、会議情報記録サーバ102によって解析・加工して生成される会議情報について、図7を用いて説明する。図7は、会議情報記録サーバ102が生成し、ストレージ305に記録した会議情報のデータ構成を示す。CPU301は、外部インタフェース308を介して、会議情報収集装置101が収集した会議情報を受信すると、ストレージ305に記録する。そして、記録した会議情報を次のように解析・加工して新たに会議情報を生成し、先に記録した会議情報と共にストレージ305に記録する。   Next, conference information generated by analysis and processing by the conference information recording server 102 will be described with reference to FIG. FIG. 7 shows a data structure of conference information generated by the conference information recording server 102 and recorded in the storage 305. When the conference information collected by the conference information collection apparatus 101 is received via the external interface 308, the CPU 301 records the conference information in the storage 305. Then, the recorded conference information is analyzed and processed as follows to newly generate conference information and recorded in the storage 305 together with the previously recorded conference information.

図7(A)は、解析・加工された顔画像情報テーブルを示す。CPU301は、顔画像情報として、会議における会議参加者達の表情の移り変わりの様子を示す会議情報を生成する。CPU301は、動画データ列503が示すファイルに記録した動画データから、最小時間間隔毎にフレーム画像を抽出する。Haar−Like特徴による識別器等を用いて当該フレーム画像中の顔部分の位置を特定して顔画像として切り出す(会議参加者数に応じた複数の画像を得る)。また、撮影開始時刻と最小時間間隔、動画データのフレームレートとから、抽出したフレーム画像の時刻情報(顔画像取得時刻)を得ることができる。CPU301は、生成した顔画像情報を顔画像取得時刻と共に顔画像情報テーブル700に記録する。CPU301は、顔画像取得時刻を顔画像取得時刻列701に記録する。また、CPU301は、各顔画像をファイルとしてストレージ305に記録すると共に、そのファイル名をカンマ区切りで連結して、顔画像列702に記録する。   FIG. 7A shows the analyzed and processed face image information table. CPU301 produces | generates the meeting information which shows the mode of the transition of the facial expression of the meeting participants in a meeting as face image information. The CPU 301 extracts frame images for each minimum time interval from the moving image data recorded in the file indicated by the moving image data string 503. The position of the face portion in the frame image is specified using a discriminator or the like based on the Haar-Like feature and cut out as a face image (a plurality of images corresponding to the number of participants in the conference are obtained). Further, the time information (face image acquisition time) of the extracted frame image can be obtained from the shooting start time, the minimum time interval, and the frame rate of the moving image data. The CPU 301 records the generated face image information in the face image information table 700 together with the face image acquisition time. The CPU 301 records the face image acquisition time in the face image acquisition time column 701. In addition, the CPU 301 records each face image as a file in the storage 305, concatenates the file names separated by commas, and records them in the face image sequence 702.

図7(B)は、解析・加工された話者情報テーブルを示す。CPU301は、音声情報に含まれる会話について、話者情報として、発言者の切り替わりの様子を示す会議情報を生成する。CPU301は、音声データ列513が示すファイルに記録した音声データより有音区間を抽出する。CPU301は、抽出したそれぞれの有音区間を幾つかの区間に分割して、各区間に含まれる音声データに対して音声信号処理を施して声紋を得る。こうして得られた声紋群についてマッチング処理を施せば、同一人物の発言を特定することができる。CPUは、このようにして特定された発言者に、発言者A、Bなどの発言者名を割り当てる。   FIG. 7B shows a speaker information table that has been analyzed and processed. CPU301 produces | generates the meeting information which shows the mode of switching of a speaker as speaker information about the conversation contained in audio | voice information. The CPU 301 extracts a sound section from the sound data recorded in the file indicated by the sound data string 513. The CPU 301 divides each extracted voiced section into several sections, and performs voice signal processing on the voice data included in each section to obtain a voiceprint. If the matching process is performed on the voiceprint group thus obtained, it is possible to specify the speech of the same person. The CPU assigns speaker names such as speakers A and B to the speaker specified in this way.

また、音声情報の録音開始時刻と音声データのサンプリング周波数とから、当該発言の時刻情報(発言開始時刻から発言終了時刻)を得ることができる。以上より、会議参加者それぞれについて、会議中の個々の発言について、発言者を示す情報と当該発言の開始時刻と終了時刻を得ることができる。   Also, the time information of the speech (from the speech start time to the speech end time) can be obtained from the recording start time of the speech information and the sampling frequency of the speech data. As described above, for each conference participant, the information indicating the speaker and the start time and end time of the speech can be obtained for each speech in the conference.

更に、動画情報に含まれるフレーム画像から、発言開始時刻前後の複数のフレーム画像を得て前述の顔画像情報の生成と同様の方法で、顔画像を得ることができる。そして、複数フレームに渡り会議参加者の顔画像について口部分の動きを検出し解析すれば、当該発話者の顔画像を推定することができる。   Furthermore, a plurality of frame images before and after the speech start time are obtained from the frame images included in the moving image information, and a face image can be obtained by the same method as the generation of the face image information described above. Then, if the movement of the mouth part is detected and analyzed for the face images of the conference participants over a plurality of frames, the face image of the speaker can be estimated.

CPU301は、生成した話者情報を話者情報テーブル710に記録するCPU301は、発言時刻(発言開始時刻と発言終了時刻を‘-’で連結)を発言時刻列711に、発言者を発言者列712に、それぞれ記録する。また、CPU301は、前述のようにして推定した顔画像について、発言時刻直近のフレーム画像から抽出したものを、ファイルとしてストレージ305に記録すると共に、そのファイル名を発言者顔画像列713に記録する。   The CPU 301 records the generated speaker information in the speaker information table 710. The CPU 301 stores the speech time (the speech start time and the speech end time are connected by “-”) in the speech time column 711, and the speaker in the speaker sequence. 712, respectively. Further, the CPU 301 records the face image estimated as described above, extracted from the frame image nearest to the utterance time, as a file in the storage 305, and records the file name in the speaker face image sequence 713. .

図7(C)は、キーワード情報テーブル720を示す。CPU301は、会議情報からテキストを取得し、当該テキストからキーワードを抽出する。対象となる会議情報は、音声データ列513が示す音声データを音声認識処理して得るテキスト、議事テキストデータ列522に記録したテキストである。また、対象となる会議情報は、出力画像列532に記録したプロジェクタデバイス211への出力画像をOCR処理して得るテキストである。   FIG. 7C shows the keyword information table 720. CPU301 acquires a text from meeting information and extracts a keyword from the said text. The target conference information is text obtained by performing voice recognition processing on the voice data indicated by the voice data string 513 and text recorded in the agenda text data string 522. The target conference information is text obtained by performing OCR processing on the output image to the projector device 211 recorded in the output image sequence 532.

キーワード抽出の例としては、例えば、次の方法を挙げることができる。CPU301は、これらのテキストを形態素解析して形態素に分解する。そして、分解した形態素それぞれについて、TF−IDF(Term Frequency−Inverse Document Frequency)による重要度の指標計算を行う。そしてその値が、一定値以上であるものをキーワードとして抽出する。   As an example of keyword extraction, the following method can be mentioned, for example. The CPU 301 analyzes these texts and analyzes them into morphemes. Then, for each decomposed morpheme, an index of importance is calculated by TF-IDF (Term Frequency-Inverse Document Frequency). Those whose values are equal to or greater than a certain value are extracted as keywords.

更に、抽出したキーワードのそれぞれについて、出現時刻列721と抽出源列723を計算する。抽出したキーワードが、音声認識処理して得たテキストに含まれていれば、抽出源として音声情報を挙げることができる。出現時刻列721は、認識処理した音声データの処理区間とサンプリングレートより算出することができる。抽出したキーワードが、議事テキスト情報に含まれていれば、抽出源として議事テキスト情報を挙げることができる。出現時刻は、キーワードを含む議事テキストデータ列522に該当する入力時刻列521の値により特定できる。抽出したキーワードが出力画像をOCR処理によって得たテキストに含まれていれば、抽出源として会議資料情報を挙げることができる。出現時刻は、キーワードを含んでいた出力画像の出力画像取得時刻列531の値により特定できる。CPU301は、このようにして得た出現時刻とキーワードと抽出源を、キーワード情報テーブル720に記録する。CPU301は、出現時刻を出現時刻列721に、キーワードをキーワード列722に、抽出源を抽出源列723に、それぞれ記録する。以上の処理により、会議情報収集サーバ102は、会議に関する会議情報を収集・生成して記録することができる。   Furthermore, the appearance time column 721 and the extraction source column 723 are calculated for each of the extracted keywords. If the extracted keyword is included in the text obtained by the speech recognition process, speech information can be cited as an extraction source. The appearance time column 721 can be calculated from the processing section and the sampling rate of the speech data that has been recognized. If the extracted keyword is included in the agenda text information, the agenda text information can be cited as an extraction source. The appearance time can be specified by the value of the input time column 521 corresponding to the agenda text data column 522 including the keyword. If the extracted keyword is included in the text obtained by the OCR processing of the output image, the conference material information can be cited as the extraction source. The appearance time can be specified by the value of the output image acquisition time column 531 of the output image including the keyword. The CPU 301 records the appearance time, keyword, and extraction source thus obtained in the keyword information table 720. The CPU 301 records the appearance time in the appearance time column 721, the keyword in the keyword column 722, and the extraction source in the extraction source column 723, respectively. Through the above processing, the conference information collection server 102 can collect, generate and record conference information related to the conference.

次に、コンピュータ105(あるいはコンピュータ103、コンピュータ104)の画面上に表示される会議情報について説明する。会議情報は大量のデータから成る情報であるため、画面上には、ユーザが効率的に閲覧できるよう、注目すべきデータの種類が示唆されるように表示される。このために、会議シーン情報の種別に応じて、会議情報の各項目の表示方法を以下のように決定する。   Next, conference information displayed on the screen of the computer 105 (or the computer 103 or the computer 104) will be described. Since the conference information is information composed of a large amount of data, it is displayed on the screen so that the type of data to be noted is suggested so that the user can browse efficiently. For this reason, the display method of each item of conference information is determined as follows according to the type of conference scene information.

会議シーン情報が「オープニング」の場合には、その会議の目的や背景などの重要情報が議事テキストとして記録されると考える。よって、この場合には、議事テキスト情報を強調して表示する。会議シーン情報が「プレゼン」の場合には、プレゼンターがプロジェクタデバイス211により投影される会議資料を用いてプレゼンテーションを行ったと考えられる。よって、注目すべきは会議資料である。また、プロジェクタを用いたプレゼンテーションの際には、照明を落として投影面が良く見えるようにすることが多い。何らかの理由でプレゼンテーションを中断する際には、一旦照明を上げるなどの操作をする。このように、プレゼンテーションと照明のレベルは関連性が高いと考える。よって、会議シーン情報が「プレゼン」の場合には、会議資料情報と明度情報を強調して表示する。   When the meeting scene information is “opening”, it is considered that important information such as the purpose and background of the meeting is recorded as the agenda text. Therefore, in this case, the agenda text information is highlighted and displayed. When the conference scene information is “presentation”, it is considered that the presenter made a presentation using the conference material projected by the projector device 211. Therefore, what should be noted is the meeting material. Also, during presentations using projectors, the lighting is often turned off so that the projection surface can be seen well. When the presentation is interrupted for some reason, an operation such as raising the lighting is once performed. In this way, the level of presentation and lighting are highly relevant. Therefore, when the conference scene information is “presentation”, the conference material information and the brightness information are highlighted and displayed.

会議シーン情報が「質疑/応答」の場合には、誰がどのような内容を質問したか、そして誰がそのような内容を回答したか、が重要であると考える。更に、その際の話者(質問者や回答者)の表情も会議の振り返りにとって重要な情報であると考える。例えば、建設的な質問であったのか、それとも否定的であったか、などを把握することができる。よって、会議シーン情報が「質疑/応答」の場合には、議事テキスト情報と話者情報を強調して表示する。   When the conference scene information is “Q & A”, it is considered important who asked what kind of content and who answered such content. Further, the facial expressions of the speakers (questioners and respondents) at that time are also important information for reviewing the conference. For example, it is possible to grasp whether it was a constructive question or a negative question. Therefore, when the meeting scene information is “Q & A / Response”, the agenda text information and the speaker information are highlighted.

会議シーン情報が「議論」の場合には、議論の流れや盛り上がりを容易に把握できることが、会議の振り返りにとって重要と考える。また、議論の質を類推するために、発言者以外の会議参加者の表情も有用な情報であると考える。よって、会議シーン情報が「議論」の場合には、話者情報と音量情報、顔画像情報を強調して表示する。なお、議論中の発言内容は途中経過であり、二転三転する可能性があり、後にまとめられる結論・決定事項が重要となる。よって、議論中の発言が記録されるであろう議事テキスト情報は重要視しない。   When the conference scene information is “discussion”, it is important for reviewing the conference to be able to easily grasp the flow and excitement of the discussion. Also, in order to infer the quality of the discussion, the facial expressions of conference participants other than the speakers are also useful information. Therefore, when the conference scene information is “discussion”, the speaker information, the volume information, and the face image information are highlighted and displayed. In addition, the content of the remarks under discussion is in the middle of the process, and it may change over and over, and the conclusions and decisions to be summarized later are important. Therefore, the agenda text information that will be recorded during the discussion is not important.

会議シーン情報が「熟考/沈黙」の場合は、会議の進行は停滞している状況であるため、振り返りに有用な情報は少ない。よって、会議シーン情報が「熟考/沈黙」の場合は、いずれの会議情報も強調した表示は行わない。   When the conference scene information is “contemplation / silence”, the progress of the conference is stagnant, so there is little information useful for reflection. Therefore, when the conference scene information is “contemplation / silence”, no conference information is highlighted.

会議シーン情報が「まとめ」の場合には、その会議におけるまとめが成され、決定事項やアクションアイテムが議事テキストに記録されると考える。よって、会議シーン情報が「まとめ」の場合には、議事テキスト情報を強調してテキスト表示する。   When the meeting scene information is “summary”, the conclusion in the meeting is made, and the decision items and action items are recorded in the agenda text. Therefore, when the meeting scene information is “Summary”, the agenda text information is highlighted and displayed in text.

以上を踏まえて、会議情報の表示について説明する。図8および図9は、本実施例に掛る、コンピュータ105の表示デバイス317が表示する画面例を示す。CPU311は、外部インタフェース318を介して、会議情報記録サーバ102より会議情報を受信し、これを元に表示画像800(会議情報画面)を生成して表示デバイス317に表示させる。   Based on the above, the display of conference information will be described. 8 and 9 show examples of screens displayed on the display device 317 of the computer 105 according to the present embodiment. The CPU 311 receives the conference information from the conference information recording server 102 via the external interface 318, generates a display image 800 (conference information screen) based on the conference information, and displays it on the display device 317.

タイムライン表示部位801は、タイムラインを表示するものである。タイムラインには一定間隔で目盛りをふって表示する。この一定間隔(目盛りと目盛りの間隔)を、タイムラインの「単位時間」と呼称する。本実施例では、表示画像800は、タイムラインの単位時間が5分の場合を例として示しているものとする。表示画像800では、タイムラインに対して垂直となる方向(図8の例では水平方向)に、会議情報の各項目(種類)のデータが並べて表示される。ユーザが図9に示す単位時間縮小ボタン802を、入力デバイス316を介して指示すると、タイムラインの単位時間を5分よりも小さな値に変更することができる。ユーザが図9に示す単位時間拡大ボタン803を指示すると、タイムラインの単位時間を5分よりも大きな値に変更することができる。単位時間の最小値は最小時間間隔であり、最大値は、例えば10分、のようにすればよく、任意の単位時間が設定されてよい。   The timeline display part 801 displays a timeline. The timeline is displayed with scales at regular intervals. This fixed interval (distance between scales) is called “unit time” of the timeline. In this embodiment, it is assumed that the display image 800 shows an example in which the unit time of the timeline is 5 minutes. In the display image 800, data of each item (type) of conference information is displayed side by side in a direction perpendicular to the timeline (horizontal direction in the example of FIG. 8). When the user instructs the unit time reduction button 802 shown in FIG. 9 via the input device 316, the unit time of the timeline can be changed to a value smaller than 5 minutes. When the user designates the unit time enlargement button 803 shown in FIG. 9, the unit time on the timeline can be changed to a value larger than 5 minutes. The minimum value of the unit time is the minimum time interval, and the maximum value may be 10 minutes, for example, and an arbitrary unit time may be set.

会議シーン情報表示部位804は、会議シーン情報を示す表示部位である。CPU311は、会議シーン情報テーブル630の内容に従って、会議シーン情報表示部位804の表示画像を生成する。CPU311は、「オープニング」、「プレゼン」、「質疑/応答」、「議論」、「熟考/沈黙」、「まとめ」の各会議シーンに模様ないし色を割当てる。そして、会議シーン開始時刻列631と会議シーン列632の値に従い、前述の模様(色)でタイムラインに沿った帯状の矩形を描画する。帯状の矩形の切り替わりが、会議シーンの変化を示す。本実施例では、色によって会議シーンの切り替わりが表示されているが、例えば、ユーザが入力デバイス316を用いて不図示のカーソルを帯状の矩形に合わせると会議シーン名がポップアップ表示される構成が用いられてもよい。   The meeting scene information display part 804 is a display part showing meeting scene information. The CPU 311 generates a display image of the conference scene information display part 804 according to the contents of the conference scene information table 630. The CPU 311 assigns patterns or colors to the conference scenes “opening”, “presentation”, “question / answer”, “discussion”, “contemplation / silence”, and “summary”. Then, according to the values of the conference scene start time column 631 and the conference scene column 632, a band-like rectangle along the timeline is drawn with the above-described pattern (color). The change of the belt-like rectangle indicates a change in the conference scene. In this embodiment, the switching of the conference scene is displayed depending on the color. For example, when the user uses the input device 316 to move a cursor (not shown) to a belt-like rectangle, the conference scene name pops up. May be.

議事テキスト情報表示部位805は、議事テキスト情報を示す表示部位である。CPU311は、議事テキスト情報テーブル520の内容に従って、議事テキスト情報表示部位805の表示画像を生成する。タイムラインのある単位時間の区間について、入力時刻列521に記録した時刻が当該区間の時間帯に含まれるレコードを検索する。そして、該当レコードの議事テキストデータ列522の値をタイムライン方向に並べて描画する。このとき、CPU301は、タイムラインの当該区間の会議シーン情報が「オープニング」ないし「質疑/応答」、「まとめ」の場合には、そうでない場合に比して、議事テキスト情報表示部位805を強調して描画する。例えば、フォントサイズをより大きくし、書体をボールド体とし、また、議事テキスト情報表示部位805を赤枠で囲って描画する。尚、ある区間内に複数の会議シーンが含まれている場合には、その割合が最も大きなものをその区間の会議シーンと判定する。以降に示す他の表示部位の説明においても同様である。   The agenda text information display part 805 is a display part showing the agenda text information. The CPU 311 generates a display image of the agenda text information display part 805 in accordance with the contents of the agenda text information table 520. For a section of a unit time on the timeline, a record in which the time recorded in the input time column 521 is included in the time zone of the section is searched. Then, the values of the agenda text data string 522 of the corresponding record are drawn side by side in the timeline direction. At this time, the CPU 301 emphasizes the agenda text information display area 805 when the meeting scene information of the section of the timeline is “opening”, “question / answer”, or “summary”, as compared to the case where it is not. And draw. For example, the font size is increased, the typeface is bold, and the agenda text information display area 805 is surrounded by a red frame. When a plurality of conference scenes are included in a certain section, the one having the largest ratio is determined as the conference scene in that section. The same applies to the description of other display parts described below.

会議資料情報表示部位806は、会議資料情報を示す表示部位である。CPU311は、会議資料情報テーブル530の内容に従って、会議資料情報表示部位806の表示画像を生成する。会議資料情報テーブル530には、タイムラインのある単位時間の区間に該当するレコードが複数記録されている場合がある。この場合は、それら複数のレコードのうち、出力画像取得時刻列531の時刻が、当該区間の開始時刻に最も近いレコードを選択する。そして当該レコードの出力画像列の値が示す出力画像を表示画像800に出力する。   The meeting material information display part 806 is a display part showing meeting material information. The CPU 311 generates a display image of the meeting material information display part 806 according to the contents of the meeting material information table 530. In the conference material information table 530, there may be a case where a plurality of records corresponding to a unit time section with a timeline are recorded. In this case, the record whose output image acquisition time column 531 is closest to the start time of the section is selected from the plurality of records. Then, the output image indicated by the value of the output image sequence of the record is output to the display image 800.

このとき、CPU311は、タイムラインの当該区間の会議シーン情報が「プレゼン」の場合には、そうでない場合に比して、会議資料情報表示部位806を強調して描画する。例えば、出力画像をより大きく(例えば1.5倍に拡大)して描画し、また、会議資料情報表示部位806を赤枠で囲って描画する。尚、会議シーン情報が「プレゼン」であっても、ひとつ前の区間の会議シーン情報が「プレゼン」であって、当該ひとつ前の区間で描画した出力画像と、今回の区間で描画する出力画像とに差分がない場合は強調表示しないようにしてもよい。つまり、会議シーン情報が「プレゼン」の場合であっても、会議資料の内容が変化した場合のみ強調表示するものである。尚、図中の会議資料情報表示部位806の部分に示される各矩形は、出力画像を示す。   At this time, when the conference scene information in the section of the timeline is “presentation”, the CPU 311 draws the conference material information display region 806 with emphasis as compared with the case where the conference scene information is not. For example, the output image is drawn with a larger size (for example, enlarged by 1.5 times), and the meeting material information display region 806 is drawn with a red frame. Even if the conference scene information is “presentation”, the conference scene information of the previous section is “presentation”, and the output image drawn in the previous section and the output image drawn in the current section If there is no difference between them, the highlighting may not be performed. That is, even when the conference scene information is “presentation”, the highlight is displayed only when the content of the conference material changes. In addition, each rectangle shown in the part of the meeting material information display part 806 in the drawing indicates an output image.

話者情報表示部位807は、話者情報を示す表示部位である。CPU311は、話者情報テーブル710の内容に従って話者情報表示部位807の表示画像を生成する。CPU311は、発言者列712に記録されている各発言者に線種(直線・破線・点線、等)ないし色を割り当てる。そして、発言時刻列711の時刻に従い、当該発言者が発言している時間の分、前述の線種ないし色でタイムラインに沿った線分を描画する。線分の切り替わりが話者の交代を示す。   The speaker information display part 807 is a display part showing speaker information. The CPU 311 generates a display image of the speaker information display part 807 according to the contents of the speaker information table 710. The CPU 311 assigns a line type (straight line, broken line, dotted line, etc.) or color to each speaker recorded in the speaker column 712. Then, according to the time in the speech time column 711, a line segment along the time line is drawn with the above-described line type or color for the time the speaker is speaking. The change of the line segment indicates the change of the speaker.

また、発言者顔画像列713の値が示す発言開始時の顔画像を取得し、線分の描画開始位置近傍に描画する。このとき、CPU311は、タイムラインの当該区間の会議シーン情報が、「質疑/応答」や「議論」の場合には、そうでない場合に比して、話者情報表示部位807を強調して描画する。例えば、発言者顔画像をより大きく(例えば1.5倍に拡大)して出力し、また、発言者顔画像を破線枠ないし赤枠で囲って描画する。あるいは、会議シーンが「質疑/応答」および「議論」の場合には、発言開始時の発言者顔画像のみならず、発言中の複数の発言者顔画像を描画してもよい。尚、図中の話者情報表示部位807の部分に示される各矩形は、発言者顔画像を示す。   In addition, the face image at the start of the speech indicated by the value of the speaker face image sequence 713 is acquired and drawn near the drawing start position of the line segment. At this time, the CPU 311 emphasizes and draws the speaker information display part 807 when the conference scene information of the relevant section of the timeline is “question / answer” or “discussion”, as compared with the case where it is not. To do. For example, the speaker face image is enlarged (for example, enlarged by 1.5 times) and output, and the speaker face image is drawn surrounded by a broken line frame or a red frame. Alternatively, when the conference scene is “question / answer” and “discussion”, not only the speaker face image at the start of the speech, but also a plurality of speaker face images during the speech may be drawn. In addition, each rectangle shown in the portion of the speaker information display portion 807 in the figure indicates a speaker face image.

キーワード情報表示部位808は、キーワード情報を示す表示部位である。CPU311は、キーワード情報テーブル720の内容に従って、キーワード情報表示部位808の表示画像を生成する。タイムラインのある単位時間の区間について、出現時刻列721に記録した時刻が当該区間の時間帯に含まれるレコードを検索する。そして、検索したレコードのキーワード列722の値をタイムライン方向に並べて描画する。よって、単位時間が大きければある区間内に含まれるキーワード情報は多くなり、逆に単位時間が小さければある区間内に含まれるキーワード情報は少なくなる。尚、このとき、抽出源列723の値に従って、キーワードを表示する文字の色やフォントを変じてもよい。これにより、会議を特徴付けるキーワードが、いずれの会議情報に含まれるかを示すことができる。   The keyword information display part 808 is a display part indicating keyword information. The CPU 311 generates a display image of the keyword information display part 808 according to the content of the keyword information table 720. For a section of a unit time on the timeline, a record in which the time recorded in the appearance time column 721 is included in the time zone of the section is searched. Then, the values in the keyword column 722 of the retrieved records are drawn side by side in the timeline direction. Therefore, if the unit time is large, more keyword information is included in the section, and conversely if the unit time is small, the keyword information is included in the section. At this time, the character color or font for displaying the keyword may be changed according to the value of the extraction source column 723. Thereby, it can be shown in which meeting information the keyword characterizing the meeting is included.

重要タグ情報表示部位809は、重要タグ情報を示す表示部位である。CPU311は、重要タグ情報テーブル620の内容に従って、重要タグ情報表示部位809の表示画像を生成する。タイムラインのある単位時間の区間について、重要タグ付与時刻列621に記録した時刻が当該区間の時間帯に含まれるレコード検索する。そして、検索されたレコード数に応じて、重要タグを示すマーク(例えばチェックマーク)を並べて描画する。よって、単位時間が大きければある単位時間内に含まれる重要タグ情報は多くなり、逆に単位時間が小さければある単位時間内に含まれる重要タグ情報は少なくなる。   The important tag information display part 809 is a display part showing important tag information. The CPU 311 generates a display image of the important tag information display part 809 according to the contents of the important tag information table 620. For a section of a unit time on the timeline, a record search is performed in which the time recorded in the important tag assignment time column 621 is included in the time zone of the section. Then, in accordance with the number of retrieved records, marks (for example, check marks) indicating important tags are drawn side by side. Therefore, if the unit time is large, the important tag information included in a certain unit time increases. Conversely, if the unit time is small, the important tag information included in a certain unit time decreases.

温度情報表示部位810は、温度情報を示す表示部位である。CPU311は、温度情報テーブル540の内容に従って、温度情報表示部位810の表示画像を生成する。温度データ取得時刻列541の時刻と温度データ列542の温度データとから、タイムラインに沿った折れ線グラフを描画する。折れ線グラフの山の変化により、会議開催場の環境(寒い日で会議室内も寒かった、等)を示す。   The temperature information display part 810 is a display part showing temperature information. The CPU 311 generates a display image of the temperature information display part 810 according to the contents of the temperature information table 540. From the time in the temperature data acquisition time column 541 and the temperature data in the temperature data column 542, a line graph along the time line is drawn. The change in the mountain of the line graph indicates the environment of the conference venue (the cold day and the conference room were cold, etc.).

音量情報表示部位811は、音量情報を示す表示部位である。CPU311は、音量情報テーブル600の内容に従って、音量情報表示部位811の表示画像を生成する。音量データ取得時刻列601の時刻と音量データ列602の音量データとから、タイムラインに沿った折れ線グラフを描画する。折れ線グラフの山の変化により、会議の盛り上がりを示し、その会議の内容を想起させることに寄与する。このとき、CPU311は、タイムラインの当該単位時間の会議シーン情報が「議論」の場合には、そうでない場合に比して、音量情報表示部位811を強調して描画する。例えば、折れ線グラフの線を太くし、音量情報表示部位811を破線枠ないし赤枠で囲って描画する。   The volume information display part 811 is a display part showing volume information. The CPU 311 generates a display image of the volume information display part 811 according to the contents of the volume information table 600. A line graph along the timeline is drawn from the time in the volume data acquisition time column 601 and the volume data in the volume data column 602. The change in the mountain of the line graph shows the excitement of the meeting and contributes to recalling the contents of the meeting. At this time, when the conference scene information of the unit time in the timeline is “discussion”, the CPU 311 emphasizes and draws the volume information display portion 811 as compared to the case where the conference scene information is not. For example, the line graph line is thickened and the volume information display region 811 is drawn surrounded by a broken line frame or a red frame.

明度情報表示部位812は、明度情報を示す表示部位である。CPU311は、明度情報テーブル610の内容に従って、明度情報表示部位812の表示画像を生成する。明度データ取得時刻列611の時刻と明度データ列612の明度データとから、タイムラインに沿った折れ線グラフを描画する。折れ線グラフの山の変化により、会議開催場の環境(照明が消えて暗い状態だった、等)を示す。このとき、CPU311は、タイムラインの当該単位時間の会議シーン情報が「プレゼン」の場合には、そうでない場合に比して、明度情報表示部位812を強調して描画する。例えば、折れ線グラフの線を太くし、明度情報表示部位812を赤枠で囲って描画する。   The lightness information display part 812 is a display part showing lightness information. The CPU 311 generates a display image of the lightness information display part 812 according to the content of the lightness information table 610. A line graph along the timeline is drawn from the time in the brightness data acquisition time column 611 and the brightness data in the brightness data column 612. The change in the mountain of the line graph indicates the environment of the conference hall (the lighting was dark and the lighting was dark). At this time, when the conference scene information of the unit time in the timeline is “presentation”, the CPU 311 emphasizes and draws the lightness information display part 812 as compared to the case where it is not. For example, the line graph line is thickened and the brightness information display region 812 is drawn with a red frame.

動画情報表示部位813は、動画情報を示す表示部位である。CPU311は、動画データ列503が示す動画データから、タイムラインのある単位時間の区間について、その開始時刻に該当するフレーム画像を取得して描画する。尚、動画情報表示部位813に対して操作指示が成された場合には、当該区間の開始時刻から、動画データを再生して表示することができる。また、図中の動画情報表示部位813の部分に示される各矩形は、フレーム画像を示す。   The moving image information display part 813 is a display part indicating moving image information. The CPU 311 obtains and draws a frame image corresponding to the start time for a certain unit time interval on the timeline from the moving image data indicated by the moving image data string 503. When an operation instruction is given to the moving image information display portion 813, the moving image data can be reproduced and displayed from the start time of the section. In addition, each rectangle shown in the moving image information display part 813 in the figure indicates a frame image.

顔画像情報表示部位814は、顔画像情報を表示する部位である。CPU311は、顔画像情報テーブル700の内容に従って、顔画像情報表示部位814の表示画像を生成する。タイムラインのある単位時間の区間について、その開始時刻の後であって最も近い時刻を記録した顔画像取得時刻列701のレコードを検索する。そして、当該レコードの顔画像列702に記録されている値が示す顔画像を取得して描画する。このとき、CPU311は、タイムラインの当該単位時間の会議シーン情報が「議論」の場合には、そうでない場合に比して、顔画像情報表示部位814を強調して表示する。例えば、顔画像をより大きく(例えば1.5倍に拡大)して描画し、また、顔画像情報表示部位814を赤枠で囲って描画する。尚、図中の顔画像情報表示部位814の部分に示される各矩形は、顔画像を示す。   The face image information display part 814 is a part for displaying face image information. The CPU 311 generates a display image of the face image information display part 814 according to the contents of the face image information table 700. For a section of a unit time on the timeline, a record in the face image acquisition time column 701 in which the nearest time is recorded after the start time is searched. Then, the face image indicated by the value recorded in the face image sequence 702 of the record is acquired and drawn. At this time, when the conference scene information of the unit time on the timeline is “discussion”, the CPU 311 emphasizes and displays the face image information display part 814 as compared to the case where the conference scene information is not. For example, the face image is drawn with a larger size (for example, enlarged by 1.5 times), and the face image information display portion 814 is drawn with a red frame. In addition, each rectangle shown in the part of the face image information display part 814 in the figure indicates a face image.

次に、CPU311が、図8および図9に示した表示画像800を生成する方法について、図10乃至図14を用いて説明する。図10乃至図14は、表示画像生成処理の手順を示したフローチャートである。コンピュータ105のCPU311が、ストレージ315に記録されている会議情報表示プログラムを読み込み、RAM314に展開して実行する。これにより、コンピュータ105は、表示画像生成処理を実行し、図8および図9に示す画面を表示デバイス317に表示することが可能となる。コンピュータ105のCPU311は、ユーザにより会議情報の表示指示が成された場合や、ユーザにより単位時間縮小ボタン802や単位時間拡大ボタン803の操作指示が成された場合に表示画像生成処理を実行する。   Next, a method in which the CPU 311 generates the display image 800 shown in FIGS. 8 and 9 will be described with reference to FIGS. 10 to 14. 10 to 14 are flowcharts showing the procedure of the display image generation process. The CPU 311 of the computer 105 reads the conference information display program recorded in the storage 315, expands it in the RAM 314, and executes it. Accordingly, the computer 105 can execute display image generation processing and display the screens shown in FIGS. 8 and 9 on the display device 317. The CPU 311 of the computer 105 executes display image generation processing when an instruction to display conference information is made by the user or when an instruction to operate the unit time reduction button 802 or the unit time enlargement button 803 is made by the user.

まず、CPU311は、ステップ901において、外部インタフェース318を介して、会議情報記録サーバ102より表示対象の会議情報を受信し、ストレージ315に一時的に記録する。CPU311は、ステップ902において、タイムラインの単位時間を決定する。例えば、デフォルトでは5分と固定的に決定するが、単位時間縮小ボタン802や単位時間拡大ボタン803が操作指示された場合には、その操作内容に応じて5分よりも小さな値/大きな値に決定する。   First, in step 901, the CPU 311 receives conference information to be displayed from the conference information recording server 102 via the external interface 318, and temporarily records it in the storage 315. In step 902, the CPU 311 determines a unit time of the timeline. For example, it is fixedly determined to be 5 minutes by default, but when a unit time reduction button 802 or a unit time expansion button 803 is instructed to operate, the value is set to a value smaller / larger than 5 minutes depending on the operation content. decide.

CPU311は、ステップ903において、タイムラインの開始時刻と終了時刻を計算する。これには、まず、動画情報テーブル500の撮影開始時刻列501と撮影終了時刻列502を、それぞれ会議開始時刻と会議終了時刻として取得する。そして、会議開始時刻の直前の時刻であって、単位時間で割り切れる時刻をタイムラインの開始時刻として求める。例えば、会議開始時刻が13:00:15(13時00分15秒)であり、単位時間が5分であれば、13:00:00をタイムライン開始時刻として得る。別の例を挙げれば、会議開始時刻が13:08:00であり、同じく単位時間が5分であれば、13:05:00をタイムライン開始時刻として得る。また、会議終了時刻の直後の時刻であって、単位時間で割り切れる時刻をタイムラインの終了時刻として求める。例えば、会議終了時刻が14:28:55であれば14:30:00をタイムラインの終了時刻として得る。   In step 903, the CPU 311 calculates the start time and end time of the timeline. For this, first, the shooting start time column 501 and the shooting end time column 502 of the moving image information table 500 are acquired as the conference start time and the conference end time, respectively. Then, the time immediately before the conference start time and divisible by the unit time is obtained as the timeline start time. For example, if the conference start time is 13:00:15 (13:00:15) and the unit time is 5 minutes, 13:00:00 is obtained as the timeline start time. As another example, if the conference start time is 13:08:00 and the unit time is also 5 minutes, 13:05:00 is obtained as the timeline start time. Also, the time immediately after the conference end time and divisible by the unit time is obtained as the timeline end time. For example, if the conference end time is 14:28:55, 14:30: 00 is obtained as the timeline end time.

CPU311は、ステップ904において、タイムライン開始時刻からタイムライン終了時刻までの間の、単位時間毎の区間の数を計算する。これは、タイムライン終了時刻とタイムライン開始時刻の差分を単位時間で割ることにより得られる。例えば、タイムライン開始時刻が13:00:00であり、タイムライン終了時刻が14:30:00であれば、その差分は90分である。単位時間5分で割ると、区間数は18と求められる。CPU311は、計算した区間毎に描画処理を行う。   In step 904, the CPU 311 calculates the number of sections per unit time from the timeline start time to the timeline end time. This is obtained by dividing the difference between the timeline end time and the timeline start time by the unit time. For example, if the timeline start time is 13:00 and the timeline end time is 14:30, the difference is 90 minutes. Dividing by the unit time of 5 minutes gives 18 sections. The CPU 311 performs a drawing process for each calculated interval.

CPU311は、ステップ905において、ステップ904で求めた区間数の数だけ、それら区間の会議情報を表示画像800に対して描画したか否かを判定する。言い換えると、ステップ906からステップ918の処理を、区間数分実行したか否かを判定する。YESと判定する場合にはステップ919に処理は遷移し、NOと判定する場合にはステップ906に処理は遷移する。   In step 905, the CPU 311 determines whether or not the conference information of those sections has been drawn on the display image 800 by the number of sections obtained in step 904. In other words, it is determined whether or not the processing from step 906 to step 918 has been executed for the number of sections. When it determines with YES, a process transfers to step 919, and when it determines with NO, a process transfers to step 906.

CPU311は、ステップ906において、処理対象の区間のタイムラインを、表示画像800に対して描画する。タイムラインの直線と、当該区間の開始時刻の目盛りを描画する。CPU311は、ステップ907において、処理対象の区間の会議シーン情報表示部位804を、表示画像800に対して描画する。CPU311は、会議シーン情報テーブル630から、会議シーン開始時刻列631の時刻が当該区間内に含まれるレコードを検索する。そして、取得したレコードの内容に従って、前述の通り、表示画像800に対して、各会議シーンに割り当てた模様や色などで帯状の矩形を描画する。   In step 906, the CPU 311 draws the timeline of the processing target section on the display image 800. A straight line of the timeline and a scale of the start time of the section are drawn. In step 907, the CPU 311 draws the conference scene information display part 804 in the processing target section on the display image 800. The CPU 311 searches the conference scene information table 630 for records in which the time in the conference scene start time column 631 is included in the section. Then, according to the contents of the acquired record, as described above, a band-like rectangle is drawn on the display image 800 with a pattern or color assigned to each conference scene.

CPU311は、ステップ908において、ステップ907で取得した会議シーン情報テーブル630のレコードを集計し、処理対象の区間内に占める会議シーンの割合を計算する。当該区間に複数の会議シーンが含まれる場合には、その割合が大きいものを、本区間の会議シーンに決定する。そして、後述する他の会議情報の表示方法の決定に用いる。   In step 908, the CPU 311 aggregates the records in the conference scene information table 630 acquired in step 907 and calculates the ratio of the conference scene in the section to be processed. When a plurality of conference scenes are included in the section, the one having a large ratio is determined as the conference scene of the section. And it uses for the determination of the display method of the other meeting information mentioned later.

CPU311は、ステップ909において、処理対象の区間の議事テキスト情報表示部位805を、表示画像800に対して描画する。CPU311は、ステップ910において、処理対象の区間の会議資料情報表示部位806を、表示画像800に対して描画する。CPU311は、ステップ911において、処理対象の区間の話者情報表示部位807を、表示画像800に対して描画する。こCPU311は、ステップ912において、処理対象の区間のキーワード情報表示部位808を、表示画像800に対して描画する。ステップ909乃至ステップ912の処理の詳細は、図11を用いて後述する。   In step 909, the CPU 311 draws the agenda text information display part 805 of the section to be processed on the display image 800. In step 910, the CPU 311 draws the conference material information display region 806 in the processing target section on the display image 800. In step 911, the CPU 311 draws the speaker information display part 807 in the processing target section on the display image 800. In step 912, the CPU 311 draws the keyword information display part 808 in the processing target section on the display image 800. Details of the processing in steps 909 to 912 will be described later with reference to FIG.

CPU311は、ステップ913において、処理対象の区間の重要タグ情報表示部位809を、表示画像800に対して描画する。CPU311は、ステップ914において、処理対象の区間の温度情報表示部位810を、表示画像800に対して描画する。CPU311は、ステップ915において、処理対象の区間の音量情報表示部位811を、表示画像800に対して描画する。ステップ913乃至ステップ915の処理の詳細は、図12を用いて後述する。CPU311は、ステップ916において、処理対象の区間の明度情報表示部位812を、表示画像800に対して描画する。ステップ916の処理の詳細は、図13を用いて後述する。CPU311は、ステップ917において、処理対象の区間の動画情報表示部位813を、表示画像800に対して描画する。CPU311は、ステップ918において、処理対象の区間の顔画像情報表示部位814を、表示画像800に対して描画する。ステップ917およびステップ918の処理の詳細は、図14を用いて後述する。   In step 913, the CPU 311 draws the important tag information display part 809 in the processing target section on the display image 800. In step 914, the CPU 311 draws the temperature information display part 810 of the section to be processed on the display image 800. In step 915, the CPU 311 draws the volume information display part 811 in the processing target section on the display image 800. Details of the processing in steps 913 to 915 will be described later with reference to FIG. In step 916, the CPU 311 draws the brightness information display part 812 of the section to be processed on the display image 800. Details of the processing in step 916 will be described later with reference to FIG. In step 917, the CPU 311 draws the moving image information display part 813 in the processing target section on the display image 800. In step 918, the CPU 311 draws the face image information display part 814 in the processing target section on the display image 800. Details of the processing of step 917 and step 918 will be described later with reference to FIG.

CPU311は、区間数の数だけ、それら区間の会議情報を表示画像800に対して描画した後、ステップ905からステップ919に処理を進め、単位時間縮小ボタン802と単位時間拡大ボタン803を、表示画像800に対して描画する。そして処理を終了する。   The CPU 311 draws the conference information of the sections as many as the number of sections on the display image 800, and then advances the processing from step 905 to step 919. The unit time reduction button 802 and the unit time enlargement button 803 are displayed on the display image 800. Draw for 800. Then, the process ends.

次に、図11を参照し、図10で説明したステップ909乃至ステップ912の処理の詳細を説明する。図11(A)に示す処理1000は、ステップ909(議事テキスト情報表示部位805の描画)の詳細を示したフローチャートである。CPU311は、ステップ1001において、描画する議事テキスト情報を取得する。すなわち、CPU311は、議事テキスト情報テーブル520から、入力時刻列521の時刻が処理対象の区間内に含まれるレコードを検索して取得する。   Next, with reference to FIG. 11, the details of the processing of step 909 to step 912 described in FIG. 10 will be described. A process 1000 shown in FIG. 11A is a flowchart showing details of step 909 (drawing of the agenda text information display part 805). In step 1001, the CPU 311 acquires agenda text information to be drawn. That is, the CPU 311 searches the agenda text information table 520 for a record whose time in the input time column 521 is included in the section to be processed.

CPU311は、ステップ1002において、ステップ1001で描画対象の議事テキスト情報を取得できたか否か、すなわち、取得したレコードの件数は1件以上であったか否かを判定する。YESと判定する場合にはステップ1003に処理は遷移し、NOと判定する場合には処理を終了する。   In step 1002, the CPU 311 determines whether or not the agenda text information to be drawn has been acquired in step 1001, that is, whether or not the number of acquired records is one or more. When it determines with YES, a process transfers to step 1003, and when it determines with NO, a process is complete | finished.

CPU311は、ステップ1003において、ステップ908で決定した当該区間の会議シーンが「オープニング」または「質疑/応答」、または「まとめ」であるか否かを判定する。YESと判定する場合には、ステップ1004に処理は遷移し、NOと判定する場合には、ステップ1005に処理は遷移する。   In step 1003, the CPU 311 determines whether the conference scene in the section determined in step 908 is “opening”, “question / answer”, or “summary”. If YES is determined, the process transitions to step 1004, and if NO is determined, the process transitions to step 1005.

CPU311は、ステップ1004において、ステップ1001で取得したレコードの議事テキストデータ列522の値をタイムライン方向に並べ、表示画像800に対して強調して描画する。「強調」とは、前述の通り、例えば、フォントサイズをより大きくし、書体をボールド体とし、また、議事テキスト情報表示部位805を破線枠ないし赤枠で囲うことである。上述の強調処理は上述の例に限定されず、任意の強調処理が施されてよい。例えば、「オープニング」、「質疑/応答」、「まとめ」の各々に対し、異なる強調処理が施されてもよい。一方、CPU311は、ステップ1005において、ステップ1001で取得したレコードの議事テキストデータ列522の値をタイムライン方向に並べて(強調せずに)描画する。   In step 1004, the CPU 311 arranges the values of the agenda text data string 522 of the record acquired in step 1001 in the timeline direction and draws it with emphasis on the display image 800. As described above, “emphasis” means, for example, increasing the font size, making the typeface bold, and enclosing the agenda text information display portion 805 with a broken line frame or a red frame. The above-described enhancement processing is not limited to the above-described example, and arbitrary enhancement processing may be performed. For example, different emphasis processing may be performed on each of “opening”, “question / answer”, and “summary”. On the other hand, in step 1005, the CPU 311 draws the values of the agenda text data string 522 of the record acquired in step 1001 in the timeline direction (without emphasis).

図11(B)に示す処理1010は、ステップ910(会議資料情報表示部位806の描画)の詳細を示したフローチャートである。CPU311は、ステップ1011において、描画する会議資料情報を取得する。すなわち、CPU311は、会議資料情報テーブル530から、出力画像取得時刻列531の時刻が処理対象の区間内に含まれるレコードを検索して取得する。更に、取得したレコードのうち、当該区間の開始時刻に最も近いレコードを特定する。そして、当該レコードの出力画像列532が示す出力画像を取得する。   A process 1010 shown in FIG. 11B is a flowchart showing details of step 910 (drawing of the conference material information display part 806). In step 1011, the CPU 311 acquires conference material information to be drawn. In other words, the CPU 311 searches the conference material information table 530 for a record in which the time in the output image acquisition time column 531 is included in the processing target section. Further, among the acquired records, the record closest to the start time of the section is specified. And the output image which the output image sequence 532 of the said record shows is acquired.

CPU311は、ステップ1012において、ステップ1011で描画対象の会議資料情報を取得できたか否か、すなわち、取得したレコードの件数は1件以上であったか否かを判定する。YESと判定する場合にはステップ1013に処理は遷移し、NOと判定する場合には処理を終了する。   In step 1012, the CPU 311 determines whether the drawing target meeting material information has been acquired in step 1011, that is, whether the number of acquired records is one or more. When it determines with YES, a process transfers to step 1013, and when it determines with NO, a process is complete | finished.

CPU311は、ステップ1013において、ステップ908で決定した当該区間の会議シーンが「プレゼン」であるか否かを判定する。YESと判定する場合には、ステップ1014に処理は遷移し、NOと判定する場合には、ステップ1015に処理は遷移する。   In step 1013, the CPU 311 determines whether or not the conference scene in the section determined in step 908 is “presentation”. If YES is determined, the process transitions to step 1014, and if NO is determined, the process transitions to step 1015.

CPU311は、ステップ1014において、ステップ1011で取得した出力画像を、表示画像800に対して強調して描画する。ステップ1014における「強調」処理とは、前述の通り、例えば、出力画像をより大きく(例えば1.5倍に拡大)し、また、会議資料情報表示部位806を破線枠ないし赤枠で囲うことである。一方、CPU311は、ステップ1015において、ステップ1011で取得した出力画像を(強調せずに)描画する。   In step 1014, the CPU 311 draws the output image acquired in step 1011 with emphasis on the display image 800. As described above, the “enhancement” processing in step 1014 is, for example, by enlarging the output image (for example, enlarging by 1.5 times) and enclosing the meeting material information display portion 806 with a broken line frame or a red frame. is there. On the other hand, in step 1015, the CPU 311 draws the output image acquired in step 1011 (without emphasis).

図11(C)に示す処理1020は、ステップ911(話者情報表示部位807の描画)の詳細を示したフローチャートである。CPU311は、ステップ1021において、描画する話者情報を取得する。すなわち、CPU311は、話者情報テーブル710から、発言時刻列711の時刻が処理対象の区間内に含まれるレコードを検索して取得する。   A process 1020 shown in FIG. 11C is a flowchart showing details of step 911 (drawing of the speaker information display portion 807). In step 1021, the CPU 311 acquires speaker information to be drawn. That is, the CPU 311 searches the speaker information table 710 for a record in which the time in the speech time string 711 is included in the section to be processed.

CPU311は、ステップ1022において、ステップ1011で描画対象の話者情報を取得できたか否か、すなわち、取得したレコードの件数は1件以上であったか否かを判定する。YESと判定する場合にはステップ1023に処理は遷移し、NOと判定する場合には処理を終了する。CPU311は、ステップ1023において、ステップ908で決定した当該区間の会議シーンが「質疑/応答」、または「議論」であるか否かを判定する。YESと判定する場合には、ステップ1024に処理は遷移し、NOと判定する場合には、ステップ1025に遷移する。   In step 1022, the CPU 311 determines whether or not the speaker information to be drawn has been acquired in step 1011, that is, whether or not the number of acquired records is one or more. When it determines with YES, a process transfers to step 1023, and when it determines with NO, a process is complete | finished. In step 1023, the CPU 311 determines whether or not the conference scene in the section determined in step 908 is “Q & A” or “Discussion”. When it determines with YES, a process transfers to step 1024, and when it determines with NO, it changes to step 1025.

CPU311は、ステップ1024において、前述のとおり、ステップ1021で取得したレコードの発言者列712の発言者に応じた線分と、発言者顔画像列713の値が示す発言者顔画像を、表示画像800に対して強調して描画する。ステップ1024における「強調」処理とは、前述の通り、発言者顔画像をより大きく(例えば1.5倍に拡大)して出力し、また、発言者顔画像を破線枠ないし赤枠で囲うことである。   In step 1024, as described above, the CPU 311 displays the line segment corresponding to the speaker in the speaker column 712 of the record acquired in step 1021 and the speaker face image indicated by the value of the speaker face image column 713 as the display image. Drawing with emphasis on 800. The “enhancement” process in step 1024 is to output the speaker face image larger (for example, 1.5 times larger) as described above, and to surround the speaker face image with a broken line frame or a red frame. It is.

一方、CPU311は、ステップ1025において、ステップ1021で取得したレコードの発言者列712の発言者に応じた線分と、発言者顔画像列713の値が示す顔画像を、表示画像800に対して(強調せずに)描画する。   On the other hand, in step 1025, the CPU 311 displays a line segment corresponding to the speaker in the speaker column 712 of the record acquired in step 1021 and the face image indicated by the value of the speaker face image column 713 with respect to the display image 800. Draw (without emphasis).

図11(D)に示す処理1030は、ステップ912(キーワード情報表示部位808の描画)の詳細を示したフローチャートである。CPU311は、ステップ1031において、描画するキーワード情報を取得する。すなわち、CPU311は、キーワード情報テーブル720から、出現時刻列721の時刻が処理対象の区間内に含まれるレコードを検索して取得する。   A process 1030 shown in FIG. 11D is a flowchart showing details of step 912 (drawing of the keyword information display portion 808). In step 1031, the CPU 311 acquires keyword information to be drawn. That is, the CPU 311 searches the keyword information table 720 for a record in which the time in the appearance time column 721 is included in the section to be processed.

CPU311は、ステップ1032において、ステップ1031で描画対象のキーワード情報を取得できたか否か、すなわち、取得したレコードの件数は1件以上であったか否かを判定する。YESと判定する場合にはステップ1033に処理は遷移し、NOと判定する場合には処理を終了する。CPU311は、ステップ1033において、ステップ1031で取得したレコードのキーワード列722の値をタイムライン方向に並べて、表示画像800に対して描画する。   In step 1032, the CPU 311 determines whether or not the keyword information to be drawn has been acquired in step 1031, that is, whether or not the number of acquired records is one or more. When it determines with YES, a process transfers to step 1033, and when it determines with NO, a process is complete | finished. In step 1033, the CPU 311 arranges the values in the keyword string 722 of the record acquired in step 1031 in the timeline direction and draws the display image 800.

次に、図12を参照し、図10で説明したステップ913乃至ステップ915の処理の詳細を説明する。図12(A)に示す処理1100は、ステップ913(重要タグ情報表示部位809の描画)の詳細を示したフローチャートである。CPU311は、ステップ1101において、描画する重要タグ情報を取得する。すなわち、CPU311は、重要タグ情報テーブル620から、重要タグ付与時刻列621の時刻が処理対象の区間内に含まれるレコードを検索して取得する。   Next, with reference to FIG. 12, the details of the processing in steps 913 to 915 described in FIG. 10 will be described. A process 1100 shown in FIG. 12A is a flowchart showing details of step 913 (drawing of the important tag information display portion 809). In step 1101, the CPU 311 acquires important tag information to be drawn. That is, the CPU 311 searches the important tag information table 620 for records in which the time of the important tag assignment time column 621 is included in the processing target section.

CPU311は、ステップ1102において、ステップ1101で描画対象の重要タグ情報を取得できたか否か、すなわち、取得したレコードの件数は1件以上であったか否かを判定する。YESと判定する場合にはステップ1103に処理は遷移し、NOと判定する場合には処理を終了する。CPU311は、ステップ1103において、ステップ1101で取得したレコードの数に応じて、重要タグを示すマーク(例えばチェックマーク)を並べて、表示画像800に対して描画する。   In step 1102, the CPU 311 determines whether or not the important tag information to be drawn has been acquired in step 1101, that is, whether or not the number of acquired records is one or more. When it determines with YES, a process transfers to step 1103, and when it determines with NO, a process is complete | finished. In step 1103, the CPU 311 arranges marks (for example, check marks) indicating important tags in accordance with the number of records acquired in step 1101, and draws them on the display image 800.

図12(B)に示す処理1110は、ステップ914(温度情報表示部位810の描画)の詳細を示したフローチャートである。CPU311は、ステップ1111において、描画する温度情報を取得する。すなわち、CPU311は、温度情報テーブル540から、温度データ取得時刻列541の時刻が処理対象の区間内に含まれるレコードを検索して取得する。CPU311は、ステップ1112において、ステップ1111で取得したレコードの温度データ列542の値に従って、折れ線グラフを表示画像800に対して描画する。   The process 1110 shown in FIG. 12B is a flowchart showing details of step 914 (drawing of the temperature information display part 810). In step 1111, the CPU 311 acquires temperature information to be drawn. That is, the CPU 311 searches the temperature information table 540 for a record in which the time in the temperature data acquisition time column 541 is included in the section to be processed. In step 1112, the CPU 311 draws a line graph on the display image 800 in accordance with the value of the temperature data string 542 of the record acquired in step 1111.

図12(C)に示す処理1120は、ステップ915(音量情報表示部位811の描画)の詳細を示したフローチャートである。CPU311は、ステップ1121において、描画する音量情報を取得する。すなわち、CPU311は、音量情報テーブル600から、音量データ取得時刻列601の時刻が処理対象の区間内に含まれるレコードを検索して取得する。本実施例では、取得したレコードを、音量データ取得時刻列601に基づいて、昇順にソートしておく。CPU311は、ステップ1122において、ステップ1121で取得したレコードの数分、ステップ1123〜ステップ1129の処理を繰り返したか否か判定する。YESであれば処理を終了し、NOであればステップ1123に遷移する。   A process 1120 shown in FIG. 12C is a flowchart showing details of step 915 (drawing of the volume information display portion 811). In step 1121, the CPU 311 acquires volume information to be drawn. That is, the CPU 311 searches the volume information table 600 for a record in which the time in the volume data acquisition time column 601 is included in the section to be processed. In this embodiment, the acquired records are sorted in ascending order based on the volume data acquisition time column 601. In step 1122, the CPU 311 determines whether or not the processing in steps 1123 to 1129 has been repeated for the number of records acquired in step 1121. If yes, the process ends. If no, the process proceeds to step 1123.

CPU311は、ステップ1123において、処理対象のレコードの音量データ取得時刻列601の時刻における会議シーンが、「議論」であるか否かを判定する。この判定のため、CPU311は会議シーン情報テーブル630を検索し、会議シーン開始時刻列631の時刻が、処理対象のレコードの音量データ取得時刻601の時刻に対して、直前最近であるレコードと、直後最近であるレコードを取得する。そして、CPU311は、取得した両レコードの会議シーンのいずれかが「議論」であれば、YESと判定し、処理はステップ1124に遷移する。NOであれば処理はステップ1128に遷移する。   In step 1123, the CPU 311 determines whether or not the conference scene at the time in the volume data acquisition time column 601 of the record to be processed is “discussion”. For this determination, the CPU 311 searches the conference scene information table 630, and the record in which the time in the conference scene start time column 631 is immediately before and immediately after the volume data acquisition time 601 of the record to be processed is immediately after. Get the most recent record. Then, if any of the acquired conference scenes of both records is “discussion”, the CPU 311 determines YES, and the process transitions to step 1124. If NO, the process transitions to step 1128.

CPU311は、ステップ1124において、会議シーンが「議論」の状態が続いているか否かを判定する。これには、RAM314に音量用議論中フラグデータを記憶しているか否かを判定する。音量用議論中フラグとは、以前にステップ1123を実行した際に、YESと判定(会議シーンが「議論」と判定)し、その状態が続いている事を示す情報である。換言すれば、一つ前の区間に対するステップ1123の判定が、「議論」の判定であったことを示す。YESと判定する場合には、ステップ1126に処理は遷移し、NOと判定する場合にはステップ1125に処理は遷移する。   In step 1124, the CPU 311 determines whether or not the conference scene is in the “discussion” state. For this, it is determined whether or not the volume discussion flag data is stored in the RAM 314. The volume discussion flag is information indicating that, when step 1123 has been executed previously, YES is determined (the conference scene is determined as “discussion”), and the state continues. In other words, it indicates that the determination in step 1123 for the previous section was a “discussion” determination. If YES is determined, the process transitions to step 1126, and if NO is determined, the process transitions to step 1125.

ステップ1124においてNOと判定したことは、会議シーンが「議論」以外の状態から「議論」の状態に変化したことを示す。よって、CPU311は、ステップ1125において、強調表示のための枠(破線枠ないし赤枠)の下部水平線を描画する。また、このとき、音量用議論中フラグデータをRAM314に記憶する。   The determination of NO in step 1124 indicates that the conference scene has changed from a state other than “discussion” to a “discussion” state. Therefore, the CPU 311 draws a lower horizontal line of a frame for highlighting (a broken line frame or a red frame) in step 1125. Further, at this time, the volume discussion flag data is stored in the RAM 314.

CPU311は、ステップ1126において、ひとつ前の処理対処のレコードと現在処理対象のレコードの音量データ列602の値を基に折れ線グラフを、表示画像800に対して強調して描画する。ステップ1126における「強調」処理とは、前述の通り、例えば、折れ線グラフの線を太くし、音量情報表示部位811を破線枠ないし赤枠で囲うことである。破線枠ないし赤枠の下部水平線と上部水平線はそれぞれステップ1125およびステップ1129において描画するので、ステップ1126では左部垂直線と右部垂直線のみを描画する。   In step 1126, the CPU 311 draws a line graph with emphasis on the display image 800 based on the value of the volume data string 602 of the previous processing record and the current processing target record. The “emphasis” processing in step 1126 is, for example, to thicken the line graph line and surround the volume information display portion 811 with a broken line frame or a red frame as described above. Since the lower horizontal line and the upper horizontal line of the broken line frame or the red frame are drawn in step 1125 and step 1129, respectively, only the left vertical line and right vertical line are drawn in step 1126.

一方、CPU311は、ステップ1127において、ひとつ前の処理対象のレコードと現在処理対象のレコードの音量データ列602の値を基に折れ線グラフを、表示画像800に対して(強調せずに)描画する。また、ステップ1123で、会議シーンは「議論」ではないと判定した場合(NOと判定した場合)には、ステップ1128において、これまで会議シーンが「議論」であったか否かを判定する。この判定のため、CPU311はRAM314に音量用議論中フラグデータを記憶しているか否かを判定する。音量用議論中フラグデータを記憶しており、CPU311がYESと判定する場合には、ステップ1129に処理は遷移し、NOと判定する場合にはステップ1127に処理は遷移する。   On the other hand, in step 1127, the CPU 311 draws a line graph on the display image 800 (without emphasis) based on the value of the volume data string 602 of the previous processing target record and the current processing target record. . If it is determined in step 1123 that the conference scene is not “discussion” (NO), it is determined in step 1128 whether or not the conference scene has been “discussion”. For this determination, the CPU 311 determines whether or not the volume discussion flag data is stored in the RAM 314. If the CPU 311 determines YES, the process transitions to step 1129, and if NO, the process transitions to step 1127.

ステップ1128においてYESと判定したことは、会議シーンが「議論」の状態から「議論」以外の状態に変化したことを示す。よって、CPU311は、ステップ1129において、強調表示のための枠(破線枠ないし赤枠)の上部水平線を描画する。ステップ1129の処理により、強調表示のための枠が完成する。また、このとき、音量用議論中フラグデータをRAM314から消去する。そして、ステップ1127へ遷移する。   A determination of YES in step 1128 indicates that the conference scene has changed from a “discussion” state to a state other than “discussion”. Therefore, in step 1129, the CPU 311 draws the upper horizontal line of a frame for highlighting (a broken line frame or a red frame). By the processing in step 1129, a frame for highlighting is completed. At this time, the volume-under-consideration flag data is deleted from the RAM 314. Then, the process proceeds to step 1127.

図13に示す処理1200は、図10を参照して説明したステップ916(明度情報表示部位812の描画)の詳細を示したフローチャートである。CPU311は、ステップ1201において、描画する明度情報を取得する。すなわち、CPU311は、明度情報テーブル610から、明度データ取得時刻列611の時刻が処理対象の区間内に含まれるレコードを検索して取得する。本実施例では、取得したレコードを、明度データ取得時刻列611に基づいて、昇順にソートしておく。   A process 1200 shown in FIG. 13 is a flowchart showing details of step 916 (drawing of the brightness information display part 812) described with reference to FIG. In step 1201, the CPU 311 acquires lightness information to be drawn. That is, the CPU 311 searches the brightness information table 610 for a record in which the time in the brightness data acquisition time column 611 is included in the processing target section. In this embodiment, the acquired records are sorted in ascending order based on the brightness data acquisition time column 611.

CPU311は、ステップ1202において、ステップ1201で取得したレコードの数分、ステップ1203〜ステップ1209の処理を繰り返したか否か判定する。YESであれば処理を終了し、NOであればステップ1203に遷移する。CPU311は、ステップ1203において、処理対象のレコードの明度データ取得時刻列611の時刻における会議シーンが、「プレゼン」であるか否かを判定する。この判定のため、CPU311は、会議シーン情報テーブル630を検索し、会議シーン開始時刻列631の時刻が、処理対象のレコードの明度データ取得時刻列611の時刻に対して、直前最近であるレコードと、直後最近であるレコードを取得する。そして、取得した両レコードの会議シーンのいずれかが「プレゼン」であれば、YESと判定し、ステップ1204に処理は遷移する。そうでなければ(NOであれば)ステップ1208に処理は遷移する。   In step 1202, the CPU 311 determines whether or not the processing in steps 1203 to 1209 has been repeated for the number of records acquired in step 1201. If yes, the process ends. If no, the process proceeds to step 1203. In step 1203, the CPU 311 determines whether or not the conference scene at the time in the brightness data acquisition time column 611 of the record to be processed is “presentation”. For this determination, the CPU 311 searches the conference scene information table 630, and records that the time in the conference scene start time column 631 is the most recent record with respect to the time in the brightness data acquisition time column 611 of the record to be processed. , Immediately after, get the record that is recent. If any of the acquired conference scenes of both records is “presentation”, the determination is YES, and the process proceeds to step 1204. Otherwise (if NO), the process transitions to step 1208.

CPU311は、ステップ1204において、会議シーンが「プレゼン」の状態が続いているか否かを判定する。この判定のため、CPU311はRAM314に明度用プレゼン中フラグデータを記憶しているか否かを判定する。明度用プレゼン中フラグとは、以前にステップ1203を実行した際に、YESと判定(会議シーンが「プレゼン」と判定)し、その状態が続いている事を示す情報である。YESと判定する場合には、ステップ1206に処理は遷移し、NOと判定する場合にはステップ1205に処理は遷移する。   In step 1204, the CPU 311 determines whether or not the conference scene is in the “presentation” state. For this determination, the CPU 311 determines whether or not the brightness presenting flag data is stored in the RAM 314. The lightness presenting flag is information indicating that, when Step 1203 has been executed previously, it is determined as YES (the conference scene is determined as “Presentation”) and the state continues. When it determines with YES, a process transfers to step 1206, and when it determines with NO, a process transfers to step 1205.

ステップ1204においてNOと判定したことは、会議シーンが「プレゼン」以外の状態から「プレゼン」の状態に変化したことを示す。よって、CPU311は、ステップ1205において、強調表示のための枠(破線枠ないし赤枠)の下部水平線を描画する。また、このとき、CPU311は明度用プレゼン中フラグデータをRAM314に記憶する。   The determination of NO in step 1204 indicates that the conference scene has changed from a state other than “presentation” to a “presentation” state. Therefore, in step 1205, the CPU 311 draws a lower horizontal line of a frame for highlighting (a broken line frame or a red frame). At this time, the CPU 311 stores lightness presenting flag data in the RAM 314.

CPU311は、ステップ1206において、ひとつ前の処理対処のレコードと現在処理対象のレコードの明度データ列612の値を基に、折れ線グラフを、表示画像800に対して強調して描画する。ステップ1206における「強調」処理とは、前述の通り、例えば、折れ線グラフの線を太くし、明度情報表示部位812を破線枠ないし赤枠で囲うことである。破線枠ないし赤枠の下部水平線と上部水平線はそれぞれステップ1205およびステップ1209において描画するので、ステップ1206では左部垂直線と右部垂直線のみを描画する)。   In step 1206, the CPU 311 draws a line graph with emphasis on the display image 800 based on the value of the lightness data string 612 of the previous processing record and the current processing target record. The “enhancement” processing in step 1206 is, for example, making the line graph line thick and surrounding the brightness information display region 812 with a broken line frame or a red frame as described above. Since the lower horizontal line and the upper horizontal line of the broken line frame or the red frame are drawn in step 1205 and step 1209, respectively, only the left vertical line and right vertical line are drawn in step 1206).

一方、CPU311は、ステップ1207において、ひとつ前の処理対処のレコードと現在処理対象のレコードの明度データ列612の値を基に折れ線グラフを、表示画像800に対して(強調せずに)描画する。   On the other hand, in step 1207, the CPU 311 draws a line graph on the display image 800 (without emphasis) based on the value of the brightness data string 612 of the previous processing record and the current processing target record. .

また、ステップ1203で、会議シーンは「プレゼン」ではないと判定した場合(NOと判定した場合)には、CPU311はステップ1208において、これまで会議シーンが「プレゼン」であったか否かを判定する。この判定のため、CPU311は、RAM314に明度用プレゼン中フラグデータを記憶しているか否かを判定する。YESと判定する場合には、ステップ1209に処理は遷移し、NOと判定する場合にはステップ1207に処理は遷移する。   If it is determined in step 1203 that the conference scene is not “presentation” (NO), the CPU 311 determines in step 1208 whether the conference scene has been “presentation”. For this determination, the CPU 311 determines whether or not the brightness presenting flag data is stored in the RAM 314. When it determines with YES, a process transfers to step 1209, and when it determines with NO, a process transfers to step 1207.

ステップ1208においてNOと判定したことは、会議シーンが「プレゼン」の状態から「プレゼン」以外の状態に変化したことを示す。よって、CPU311は、ステップ1209において、強調表示のための枠(破線枠ないし赤枠)の上部水平線を描画する。また、このとき、明度用プレゼン中フラグデータをRAM314から消去する。そして、ステップ1207へ遷移する。   The determination of NO in step 1208 indicates that the conference scene has changed from the “presentation” state to a state other than “presentation”. Therefore, in step 1209, the CPU 311 draws the upper horizontal line of a frame for highlighting (a broken line frame or a red frame). At this time, the lightness presenting flag data is erased from the RAM 314. Then, the process proceeds to step 1207.

次に、図14を参照し、図10で説明したステップ917およびステップ918の処理の詳細を説明する。図14(A)に示す処理1210は、ステップ917(動画情報表示部位813の描画)の詳細を示したフローチャートである。CPU311は、ステップ1211において、描画する動画情報を取得する。すなわち、CPU311は、動画データ列503が示す動画データ中のフレーム画像より、処理対象の区間の開始時刻に直近直後のフレーム画像を取得する。CPU311は、ステップ1212において、ステップ1211で取得したフレーム画像を、表示画像800に対して描画する。   Next, the details of the processing of step 917 and step 918 described in FIG. 10 will be described with reference to FIG. A process 1210 shown in FIG. 14A is a flowchart showing details of step 917 (drawing of the moving image information display portion 813). In step 1211, the CPU 311 acquires moving image information to be drawn. That is, the CPU 311 acquires the frame image immediately after the start time of the section to be processed from the frame image in the moving image data indicated by the moving image data string 503. In step 1212, the CPU 311 draws the frame image acquired in step 1211 on the display image 800.

図14(B)に示す処理1220は、ステップ918(顔画像情報表示部位814の描画)の詳細を示したフローチャートである。CPU311は、ステップ1221において、描画する顔画像情報を取得する。すなわち、CPU311は、顔画像情報テーブル700から、顔画像取得時刻列701の時刻が処理対象の区間内に含まれるレコードを検索して取得する。更に、取得したレコードのうち、当該区間の開始時刻に最も近いレコードを特定する。そして、当該レコードの顔画像列702が示す顔画像を取得する。   A process 1220 shown in FIG. 14B is a flowchart showing details of step 918 (drawing of the face image information display part 814). In step 1221, the CPU 311 acquires face image information to be drawn. That is, the CPU 311 searches the face image information table 700 for a record in which the time in the face image acquisition time column 701 is included in the processing target section. Further, among the acquired records, the record closest to the start time of the section is specified. Then, the face image indicated by the face image sequence 702 of the record is acquired.

CPU311は、ステップ1222において、ステップ908で決定した当該区間の会議シーンが「議論」であるか否かを判定する。YESと判定する場合にはステップ1223に処理は遷移し、NOと判定する場合にはステップ1224に処理は遷移する。CPU311は、ステップ1223において、ステップ1221で取得した顔画像を、表示画像800に対して強調して描画する。「強調」とは、前述の通り、例えば、顔画像をより大きく(例えば1.5倍に拡大)し、また、顔画像情報表示部位814を破線枠ないし赤枠で囲うことである。一方、CPU311は、ステップ1224において、ステップ1221で取得した顔画像を(強調せずに)描画する。   In step 1222, the CPU 311 determines whether or not the conference scene in the section determined in step 908 is “discussion”. When it determines with YES, a process transfers to step 1223, and when it determines with NO, a process transfers to step 1224. In step 1223, the CPU 311 draws the face image acquired in step 1221 with emphasis on the display image 800. As described above, “enhancement” means, for example, enlarging the face image (for example, enlarging it by 1.5 times) and surrounding the face image information display region 814 with a broken line frame or a red frame. On the other hand, in step 1224, the CPU 311 draws the face image acquired in step 1221 (without emphasis).

以上のように、本実施例によれば、複数の項目から成る会議情報を表示する際、注目すべきデータの種類を示唆すべく、会議シーンに応じて注目すべき項目を強調して表示する。これによりユーザは、大量の会議情報であっても、効率よく好適に閲覧することができる。   As described above, according to the present embodiment, when conference information including a plurality of items is displayed, the item to be noted is highlighted according to the conference scene in order to suggest the type of data to be noted. . Thereby, even if a user is a lot of meeting information, he can browse efficiently and suitably.

尚、動画情報表示部位813に対して操作指示が成された場合には、表示デバイス317が、指示対象部位に該当する単位時間の区間の開始時刻から、動画データを再生して表示する。この際、動画データと共に他の会議情報を表示してもよい。このとき、それら会議情報も、タイムラインの進行に伴って表示内容を更新すると好ましい。更に、動画データと共に表示する会議情報の項目は、表示画像800の生成において強調表示したことと同様に、会議シーン情報に応じて表示すべき会議情報の項目を決定してもよい。   When an operation instruction is given to the moving image information display portion 813, the display device 317 reproduces and displays moving image data from the start time of the unit time section corresponding to the instruction target portion. At this time, other conference information may be displayed together with the moving image data. At this time, it is preferable to update the display contents of the conference information as the timeline progresses. Furthermore, the item of the conference information displayed together with the moving image data may determine the item of the conference information to be displayed according to the conference scene information in the same manner as highlighted in the generation of the display image 800.

また、本実施例では、会議シーンの収集方法として、ユーザが、会議情報収集装置の入力デバイスを操作して会議シーンを選択入力する方法を示したが、他の方法であってもよい。例えば、特開2006−302045に開示されているように、発話者数と発話の重なり具合から会議シーンを推定するなどしてもよい。   In the present embodiment, as a method for collecting a conference scene, a method in which a user selects and inputs a conference scene by operating an input device of the conference information collection device is shown, but another method may be used. For example, as disclosed in Japanese Patent Application Laid-Open No. 2006-302045, a conference scene may be estimated from the number of speakers and the degree of overlap of utterances.

本実施例では、会議シーンを「オープニング」、「プレゼンテーション」、「質疑/応答」、「議論」、「まとめ」とする例を示したが、この限りではない。これ以外の会議シーンを定義し、それに応じて注目すべきデータの種類を決定し、これに従って表示方法を決定してもよい。また、各会議シーンにおいて注目すべきデータの種類も、本実施例に示したものに固定されるものではなく、他の組み合わせを用いてもよい。更に、会議シーンや、当該会議シーンの際に注目すべきデータの種類を設定可能に構成してもよい。   In the present embodiment, an example in which the conference scene is “opening”, “presentation”, “question / answer”, “discussion”, and “summary” is shown, but this is not restrictive. Other meeting scenes may be defined, the type of data to be noticed may be determined accordingly, and the display method may be determined accordingly. Also, the types of data to be noted in each conference scene are not fixed to those shown in the present embodiment, and other combinations may be used. Furthermore, the conference scene and the type of data to be noted in the conference scene may be settable.

また、本実施例では、会議情報記録システム100は複数の装置を備えて構成されているが、システム構成は本実施例に限定されない。例えば、会議情報収集装置101と会議情報記録サーバが一体となった装置が用いられてもよい。この装置に表示デバイスが搭載されていれば、一台の装置により本実施例で説明したシステムと同様の処理が実行可能となる。   In this embodiment, the conference information recording system 100 includes a plurality of devices. However, the system configuration is not limited to this embodiment. For example, a device in which the conference information collection device 101 and the conference information recording server are integrated may be used. If a display device is mounted on this apparatus, the same processing as that of the system described in this embodiment can be executed by one apparatus.

(実施例2)
実施例1では、会議シーンに応じて会議情報の項目を強調して表示する例を示した。本実施例では、強調表示ではなく、注目すべき項目を抽出して表示する例について説明する。
(Example 2)
In the first embodiment, an example in which items of conference information are highlighted and displayed according to the conference scene is shown. In the present embodiment, an example will be described in which notable items are displayed, but notable items are extracted and displayed.

図15は、実施例2において、コンピュータ105の表示デバイス317が表示する画面例を示す。実施例1では、CPU311は、会議情報収集サーバ102から受信した全ての会議情報を用い、会議シーンに応じて会議情報の項目を強調して表示画像800を生成した。本実施例では、会議シーンに応じて、会議情報の項目を抽出し、抽出した項目のみを用いて表示画像1300を生成する。各会議シーンに対して、重要とする会議情報の項目は、実施例1と同様であるが、本実施例では、図示のとおり、重要とする会議情報の項目のみを抽出して表示画像1300に描画する。   FIG. 15 shows an example of a screen displayed by the display device 317 of the computer 105 in the second embodiment. In the first embodiment, the CPU 311 uses all the meeting information received from the meeting information collection server 102 and generates the display image 800 by emphasizing the items of the meeting information according to the meeting scene. In the present embodiment, items of conference information are extracted according to the conference scene, and the display image 1300 is generated using only the extracted items. The items of important conference information for each conference scene are the same as those in the first embodiment, but in this embodiment, only the items of important conference information are extracted and displayed in the display image 1300 as shown in the figure. draw.

時間帯1301は、会議シーン情報が「オープニング」の時間帯である。CPU311は、この時間帯では、議事テキスト情報を抽出して、表示画像1300に描画する。時間帯1302は、会議シーン情報が「プレゼン」の時間帯である。CPU311は、この時間帯では、会議資料情報および明度情報を抽出して、表示画像1300に描画する。時間帯1303は、会議シーン情報が「質疑/応答」の時間帯である。CPU311は、この時間帯では、議事テキスト情報と話者情報を抽出して、表示画像1300に描画する。時間帯1304および時間帯1306は、会議シーンが「議論」の時間帯である。CPU311は、この時間帯では、話者情報と音量情報、顔画像情報を抽出して、表示画像1300に描画する。時間帯1305は、会議シーンが「熟考/沈黙」の時間帯である。CPU311は、この時間帯に抽出する項目はないと判定し、表示画像1300には、会議シーン情報以外には何も描画しない。時間帯1307は、会議シーンが「まとめ」の時間帯である。CPU311は、この時間帯では、議事テキスト情報を抽出して、表示画像1300に描画する。   The time zone 1301 is a time zone in which the conference scene information is “opening”. In this time zone, the CPU 311 extracts the agenda text information and draws it on the display image 1300. The time zone 1302 is a time zone in which the conference scene information is “presentation”. In this time zone, the CPU 311 extracts the conference material information and the brightness information and draws them on the display image 1300. The time zone 1303 is a time zone in which the conference scene information is “Q & A”. In this time zone, the CPU 311 extracts the agenda text information and the speaker information and draws them on the display image 1300. The time zone 1304 and the time zone 1306 are time zones in which the conference scene is “discussion”. In this time zone, the CPU 311 extracts speaker information, volume information, and face image information and draws them on the display image 1300. The time zone 1305 is a time zone in which the conference scene is “contemplation / silence”. The CPU 311 determines that there are no items to be extracted during this time period, and draws nothing on the display image 1300 other than the conference scene information. The time zone 1307 is a time zone in which the conference scene is “summary”. In this time zone, the CPU 311 extracts the agenda text information and draws it on the display image 1300.

全体表示ボタン1308は、上述の通り抽出した項目以外の項目についても表示を指示するためのボタンである。全体表示ボタン1308を指示すると、CPU311は表示画像800を生成して表示デバイス317に表示させる。   The whole display button 1308 is a button for instructing display of items other than the items extracted as described above. When the whole display button 1308 is instructed, the CPU 311 generates a display image 800 and causes the display device 317 to display it.

次に、CPU311が、図13に示した表示画像1300を生成する方法について、図16乃至図18を用いて説明する。図16乃至図18は、表示画像生成処理の手順を示したフローチャートである。コンピュータ105において、CPU311は、ストレージ315に記録されている会議情報表示プログラムを読み込み、RAM314に展開して実行する。これにより、コンピュータ105は、表示画像生成処理を実行し、図15に示す画面を表示デバイス317に表示することが可能となる。コンピュータ105のCPU311は、ユーザにより会議情報の表示指示が成された場合や、ユーザにより単位時間縮小ボタン802や単位時間拡大ボタン803の操作指示が成された場合に表示画像生成処理を実行する。   Next, a method in which the CPU 311 generates the display image 1300 illustrated in FIG. 13 will be described with reference to FIGS. 16 to 18 are flowcharts showing the procedure of the display image generation process. In the computer 105, the CPU 311 reads the conference information display program recorded in the storage 315, expands it in the RAM 314, and executes it. As a result, the computer 105 can execute the display image generation process and display the screen shown in FIG. 15 on the display device 317. The CPU 311 of the computer 105 executes display image generation processing when an instruction to display conference information is made by the user or when an instruction to operate the unit time reduction button 802 or the unit time enlargement button 803 is made by the user.

図16に示す、ステップ901からステップ908、ステップ919は、図10で説明したステップと同様の処理であるため、説明を省略する。CPU311は、S908で処理対象の区間の会議シーンを決定すると、処理をステップ1401に進める。ステップ1401において、CPU311は、処理対象の区間について、議事テキスト情報を描画する。CPU311は、ステップ1402において、処理対象の区間について、会議資料情報を描画する。CPU311は、ステップ1403において、処理対象の区間について、話者情報を描画する。ステップ1401乃至ステップ1403の処理の詳細は、図17を用いて後述する。   Steps 901 to 908 and 919 shown in FIG. 16 are the same as the steps described in FIG. When the CPU 311 determines the conference scene of the section to be processed in S908, the process proceeds to step 1401. In step 1401, the CPU 311 draws agenda text information for the section to be processed. In step 1402, the CPU 311 draws conference material information for the section to be processed. In step 1403, the CPU 311 draws speaker information for the section to be processed. Details of the processing in steps 1401 to 1403 will be described later with reference to FIG.

CPU311は、ステップ1404において、処理対象の区間について、音量情報を描画する。CPU311は、ステップ1405において、処理対象の区間について、明度情報を描画する。CPU311は、ステップ1406において、処理対象の区間について、顔画像情報を描画する。CPU311は、区間数の数だけ、それら区間の会議情報を表示画像1300に対して描画した後、ステップ1407に処理を進める。ステップ1404乃至ステップ1406の処理の詳細は、図18を用いて後述する。ステップ1407において、全体表示ボタン1308を、表示画像1300に対して描画する。そして処理を終了する。   In step 1404, the CPU 311 draws volume information for the section to be processed. In step 1405, the CPU 311 draws lightness information for the section to be processed. In step 1406, the CPU 311 draws face image information for the section to be processed. The CPU 311 advances the processing to step 1407 after drawing the conference information of the sections on the display image 1300 by the number of sections. Details of the processing in steps 1404 to 1406 will be described later with reference to FIG. In step 1407, the entire display button 1308 is drawn on the display image 1300. Then, the process ends.

次に、図17を参照し、図16で説明したステップ1401乃至ステップ1403の処理の詳細を説明する。図17(A)に示す処理1500は、ステップ1401(議事テキスト情報の描画)の詳細を示したフローチャートである。CPU311は、ステップ1501において、ステップ908で決定した当該区間の会議シーンが「オープニング」または「質疑/応答」、または「まとめ」であるか否かを判定する。YESと判定する場合には、ステップ1502に処理は遷移し、NOと判定する場合には、表示画像1300に何も描画せずに処理を終了する。CPU311は、ステップ1502において、描画する議事テキスト情報を取得する。すなわち、CPU311は、議事テキスト情報テーブル520から、入力時刻列521の時刻が処理対象の区間内に含まれるレコードを検索して取得する。CPU311は、ステップ1503において、ステップ1502で取得したレコードの議事テキストデータ列522の値をタイムライン方向に並べ、表示画像1300に対して描画する。   Next, details of the processing of Steps 1401 to 1403 described with reference to FIG. 16 will be described with reference to FIG. A process 1500 shown in FIG. 17A is a flowchart showing details of step 1401 (drawing of agenda text information). In step 1501, the CPU 311 determines whether the conference scene in the section determined in step 908 is “opening”, “question / answer”, or “summary”. If YES is determined, the process proceeds to step 1502. If NO is determined, the process ends without drawing anything on the display image 1300. In step 1502, the CPU 311 acquires agenda text information to be drawn. That is, the CPU 311 searches the agenda text information table 520 for a record whose time in the input time column 521 is included in the section to be processed. In step 1503, the CPU 311 arranges the values of the agenda text data string 522 of the record acquired in step 1502 in the timeline direction and draws it on the display image 1300.

図17(B)に示す処理1510は、ステップ1402(会議資料情報の描画)の詳細を示したフローチャートである。CPU311は、ステップ1511において、ステップ908で決定した当該区間の会議シーンが「プレゼン」であるか否かを判定する。YESと判定する場合には、ステップ1512に処理は遷移し、NOと判定する場合には、表示画像1300に何も描画せずに処理を終了する。CPU311は、ステップ1512において、描画する会議資料情報を取得する。すなわち、CPU311は、会議資料情報テーブル530から、出力画像取得時刻531の時刻が処理対象の区間内に含まれるレコードを検索して取得する。更に、取得したレコードのうち、当該区間の開始時刻に最も近いレコードを特定する。そして、当該レコードの出力画像列532が示す出力画像を取得する。CPU311は、ステップ1513において、ステップ1512で取得した出力画像を、表示画像1300に対して描画する。   A process 1510 shown in FIG. 17B is a flowchart showing details of step 1402 (drawing conference material information). In step 1511, the CPU 311 determines whether or not the conference scene in the section determined in step 908 is “presentation”. If YES is determined, the process proceeds to step 1512. If NO is determined, the process ends without drawing anything on the display image 1300. In step 1512, the CPU 311 acquires conference material information to be drawn. That is, the CPU 311 searches the conference material information table 530 for a record in which the time of the output image acquisition time 531 is included in the section to be processed and acquires it. Further, among the acquired records, the record closest to the start time of the section is specified. And the output image which the output image sequence 532 of the said record shows is acquired. In step 1513, the CPU 311 draws the output image acquired in step 1512 on the display image 1300.

図17(C)に示す処理1520は、ステップ1403(話者情報の描画)の詳細を示したフローチャートである。CPU311は、ステップ1521において、ステップ908で決定した当該区間の会議シーンが「質疑/応答」、または「議論」であるか否かを判定する。YESと判定する場合には、ステップ1522に処理は遷移し、NOと判定する場合には、表示画像1300に何も表示せずに処理を終了する。CPU311は、ステップ1522において、描画する話者情報を取得する。すなわち、CPU311は、話者情報テーブル710から、発言時刻列711の時刻が処理対象の区間内に含まれるレコードを検索して取得する。CPU311は、ステップ1523において、前述のとおり、ステップ1522で取得したレコードの発言者列712の発言者に応じた線分と、発言者顔画像列713の値が示す発言者顔画像を、表示画像1300に対して描画する。   A process 1520 shown in FIG. 17C is a flowchart showing details of step 1403 (drawing speaker information). In step 1521, the CPU 311 determines whether or not the conference scene in the section determined in step 908 is “Q & A” or “Discussion”. If YES is determined, the process proceeds to step 1522. If NO is determined, the process ends without displaying anything on the display image 1300. In step 1522, the CPU 311 acquires speaker information to be drawn. That is, the CPU 311 searches the speaker information table 710 for a record in which the time in the speech time string 711 is included in the section to be processed. In step 1523, as described above, the CPU 311 displays the line segment corresponding to the speaker in the speaker column 712 of the record acquired in step 1522 and the speaker face image indicated by the value of the speaker face image column 713 as the display image. Draw for 1300.

次に、図18を参照し、図16で説明したステップ1404乃至ステップ1406の処理の詳細を説明する。図18(A)に示す処理1530は、ステップ1404(音量情報の描画)の詳細を示したフローチャートである。CPU311は、ステップ1531において、描画する音量情報を取得する。すなわち、CPU311は、音量情報テーブル600から、音量データ取得時刻列601の時刻が処理対象の区間内に含まれるレコードを検索して取得する。本実施例では、取得したレコードを、音量データ取得時刻列601に基づいて、昇順にソートしておく。   Next, details of the processing of Steps 1404 to 1406 described with reference to FIG. 16 will be described with reference to FIG. A process 1530 shown in FIG. 18A is a flowchart showing details of step 1404 (drawing of volume information). In step 1531, the CPU 311 acquires volume information to be drawn. That is, the CPU 311 searches the volume information table 600 for a record in which the time in the volume data acquisition time column 601 is included in the section to be processed. In this embodiment, the acquired records are sorted in ascending order based on the volume data acquisition time column 601.

CPU311は、ステップ1532において、ステップ1531で取得したレコードの数分、ステップ1533〜ステップ1535の処理を繰り返したか否か判定する。YESであれば処理を終了し、NOであればステップ1533に遷移する。   In step 1532, the CPU 311 determines whether or not the processing in steps 1533 to 1535 has been repeated for the number of records acquired in step 1531. If yes, the process ends. If no, the process proceeds to step 1533.

CPU311は、ステップ1533において、処理対象のレコードの音量データ取得時刻列601の時刻における会議シーンが、「議論」であるか否かを判定する。これには、会議シーン情報テーブル630を検索し、会議シーン開始時刻列631の時刻が、処理対象のレコードの音量データ取得時刻601の時刻に対して、直前最近であるレコードと、直後最近であるレコードを取得する。そして、取得した両レコードの会議シーンのいずれかが「議論」であれば、YESと判定し、ステップ1534に遷移する。そうでなければ(NOであれば)ステップ1532に遷移する。このとき、音量用議論中フラグデータ(後述)をRAM314から削除する。   In step 1533, the CPU 311 determines whether or not the conference scene at the time in the volume data acquisition time column 601 of the record to be processed is “discussion”. For this, the conference scene information table 630 is searched, and the time in the conference scene start time column 631 is the record immediately before and the latest immediately after the volume data acquisition time 601 of the record to be processed. Get a record. If any of the acquired conference scenes of both records is “discussion”, the determination is YES, and the process proceeds to step 1534. Otherwise (if NO), go to step 1532. At this time, the volume discussion flag data (described later) is deleted from the RAM 314.

CPU311は、ステップ1534において、会議シーンが「議論」の状態が続いているか否かを判定する。これには、RAM314に音量用議論中フラグデータを記憶しているか否かを判定する。音量用議論中フラグとは、以前にステップ1533を実行した際に、YESと判定(会議シーンが「議論」と判定)し、その状態が続いている事を示す情報である。音量用議論中フラグデータを記憶しておりYESと判定する場合には、ステップ1535に処理は遷移し、NOと判定する場合にはステップ1532に処理は遷移する。CPU311は、ステップ1535において、ひとつ前の処理対処のレコードと現在処理対象のレコードの音量データ列602の値を基に、折れ線グラフを表示画像1300に対して描画する。   In step 1534, the CPU 311 determines whether or not the conference scene is in the “discussion” state. For this, it is determined whether or not the volume discussion flag data is stored in the RAM 314. The volume-in-progress flag is information indicating that when step 1533 has been executed previously, it is determined as YES (the conference scene is determined as “discussion”) and the state continues. If the volume discussion flag data is stored and it is determined YES, the process transitions to step 1535, and if it is determined NO, the process transitions to step 1532. In step 1535, the CPU 311 draws a line graph on the display image 1300 based on the value of the volume data string 602 of the previous processing record and the current processing target record.

処理1540は、ステップ1405(明度情報の描画)の詳細を示したフローチャートである。CPU311は、ステップ1541において、描画する明度情報を取得する。すなわち、CPU311は、明度情報テーブル610から、明度データ取得時刻列611の時刻が処理対象の区間内に含まれるレコードを検索して取得する。本実施例では、取得したレコードを、明度データ取得時刻列611に基づいて、昇順にソートしておく。   A process 1540 is a flowchart showing details of step 1405 (lightness information drawing). In step 1541, the CPU 311 acquires lightness information to be drawn. That is, the CPU 311 searches the brightness information table 610 for a record in which the time in the brightness data acquisition time column 611 is included in the processing target section. In this embodiment, the acquired records are sorted in ascending order based on the brightness data acquisition time column 611.

CPU311は、ステップ1542において、ステップ1541で取得したレコードの数分、ステップ1543〜ステップ1545の処理を繰り返したか否か判定する。YESであれば処理を終了し、NOであればステップ1543に遷移する。   In step 1542, the CPU 311 determines whether or not the processing in steps 1543 to 1545 has been repeated for the number of records acquired in step 1541. If yes, the process ends. If no, the process proceeds to step 1543.

CPU311は、ステップ1543において、処理対象のレコードの明度データ取得時刻列611の時刻における会議シーンが、「プレゼン」であるか否かを判定する。これには、会議シーン情報テーブル630を検索し、会議シーン開始時刻列631の時刻が、処理対象のレコードの明度データ取得時刻列611の時刻に対して、直前最近であるレコードと、直後最近であるレコードを取得する。そして、取得した両レコードの会議シーンのいずれかが「プレゼン」であれば、YESと判定し、ステップ1544に遷移する。そうでなければ(NOであれば)ステップ1542に遷移する。このとき、明度用プレゼン中フラグデータ(後述)をRAM314から削除する。   In step 1543, the CPU 311 determines whether or not the conference scene at the time in the brightness data acquisition time column 611 of the record to be processed is “presentation”. For this, the conference scene information table 630 is searched, and the record in the conference scene start time column 631 is the record immediately before and the record immediately after the record in the brightness data acquisition time column 611 of the record to be processed. Get a record. If any of the acquired conference scenes of both records is “presentation”, the determination is YES, and the process proceeds to step 1544. Otherwise (if NO), transition to step 1542. At this time, lightness presenting flag data (described later) is deleted from the RAM 314.

CPU311は、ステップ1544において、会議シーンが「プレゼン」の状態が続いているか否かを判定する。これには、RAM314に明度用プレゼン中フラグデータを記憶しているか否かを判定する。明度用議論中フラグとは、以前にステップ1543を実行した際に、YESと判定(会議シーンが「プレゼン」と判定)し、その状態が続いている事を示す情報である。明度用プレゼン中フラグデータを記憶しておりYESと判定する場合には、ステップ1545に遷移し、NOと判定する場合にはステップ1542に遷移する。   In step 1544, the CPU 311 determines whether or not the conference scene is in the “presentation” state. For this, it is determined whether or not the brightness presenting flag data is stored in the RAM 314. The lightness discussion flag is information indicating that, when step 1543 has been executed previously, it is determined as YES (determined that the conference scene is “presentation”) and the state continues. If the lightness presenting flag data is stored and the determination is YES, the process proceeds to step 1545. If the determination is NO, the process proceeds to step 1542.

CPU311は、ステップ1545において、ひとつ前の処理対処のレコードと現在処理対象のレコードの明度データ列612の値を基に、折れ線グラフを表示画像1300に対して描画する。   In step 1545, the CPU 311 draws a line graph on the display image 1300 based on the value of the lightness data string 612 of the previous processing record and the current processing target record.

図18(C)に示す処理1550は、ステップ1406(顔画像情報の描画)の詳細を示したフローチャートである。CPU311は、ステップ1551において、ステップ908で決定した当該区間の会議シーンが「議論」であるか否かを判定する。YESと判定する場合には、ステップ1552に処理は遷移し、NOと判定する場合には、表示画像1300に何も描画せずに処理を終了する。CPU311は、ステップ1552において、描画する顔画像情報を取得する。すなわち、CPU311は、顔画像情報テーブル700から、顔画像取得時刻列701の時刻が処理対象の区間内に含まれるレコードを検索して取得する。更に、取得したレコードのうち、当該区間の開始時刻に最も近いレコードを特定する。そして、当該レコードの顔画像列702が示す顔画像を取得する。CPU311は、ステップ1553において、ステップ1552で取得した出力画像を、表示画像1300に対して描画する。   A process 1550 shown in FIG. 18C is a flowchart showing details of step 1406 (drawing face image information). In step 1551, the CPU 311 determines whether or not the conference scene in the section determined in step 908 is “discussion”. If YES is determined, the process proceeds to step 1552. If NO is determined, the process ends without drawing anything on the display image 1300. In step 1552, the CPU 311 acquires face image information to be drawn. That is, the CPU 311 searches the face image information table 700 for a record in which the time in the face image acquisition time column 701 is included in the processing target section. Further, among the acquired records, the record closest to the start time of the section is specified. Then, the face image indicated by the face image sequence 702 of the record is acquired. In step 1553, the CPU 311 draws the output image acquired in step 1552 on the display image 1300.

以上のように、本実施例によれば、複数の項目から成る会議情報を表示する際、注目すべき項目を閲覧させるべく、会議シーンに応じて注目すべき項目を抽出して表示する。これにより、例えば、表示領域の小さな画面を有するコンピュータや端末において会議情報を参照する際に、ユーザは効率よく好適に会議情報を閲覧することができる。   As described above, according to the present embodiment, when conference information including a plurality of items is displayed, items to be noted are extracted and displayed according to the conference scene in order to browse the items to be noted. Thereby, for example, when referring to conference information on a computer or terminal having a screen with a small display area, the user can efficiently and suitably view the conference information.

(実施例3)
実施例3では、コンピュータ105の表示デバイス317に表示した会議情報について、タイムラインに従う方向へスクロール処理する方法を説明する。会議時間が長いと、表示デバイスの画面には、全ての会議情報が表示されない。また、ユーザが図9に示すような単位時間縮小ボタンを利用した場合、さらに多くの単位時間の区間が増加する。このような場合、ユーザは入力デバイス316を介してタイムラインに従う方向へスクロール指示を行うことができる。本実施例では、会議シーンに応じて、好適にスクロール表示の方法が決定される。
(Example 3)
In the third embodiment, a method of scrolling the conference information displayed on the display device 317 of the computer 105 in the direction according to the timeline will be described. If the meeting time is long, not all meeting information is displayed on the screen of the display device. Further, when the user uses a unit time reduction button as shown in FIG. 9, more unit time sections increase. In such a case, the user can issue a scroll instruction in a direction according to the timeline via the input device 316. In the present embodiment, a scroll display method is suitably determined according to the conference scene.

まず、CPU311は、各区間について、スクロール処理の制御情報を生成する。図19は、このスクロール処理の制御情報であるデータの構成を示すデータ構成図である。スクロール制御情報テーブル1620は、CPU311が表示画像800を生成する際に生成し、RAM314に記憶する。後述するように、CPU311は、スクロール制御情報テーブル1620の内容に従って、表示画像800のタイムライン方向へのスクロールの速度を制御する。   First, the CPU 311 generates control information for scroll processing for each section. FIG. 19 is a data configuration diagram showing a configuration of data which is control information of the scroll processing. The scroll control information table 1620 is generated when the CPU 311 generates the display image 800 and is stored in the RAM 314. As will be described later, the CPU 311 controls the speed of scrolling the display image 800 in the timeline direction according to the contents of the scroll control information table 1620.

区間位置列1621には、スクロール時に速度を変じるべき区間の位置を記憶する。この位置とは表示画像800の下端からの高さ方向のピクセル数であり、速度を変じるべき区間の開始位置ピクセル数と終了位置ピクセル数をカンマで連結して記録したものである。CPU311は、会議シーンに応じて参照を促すべき表示画像上の部位を判定し、当該部位の位置を記録する。CPU311は、スクロール時に、この値に応じてスクロール速度を制御して変更する。CPU311は、減速度値列1622には、スクロール速度の減速度(加速度)を記憶する。区間位置列1621に示す区間に対して決定するスクロール速度の減速度値である。本実施例のおいては、CPU311は、減速度値として「A2」か「A3」を記録する。値はA2<A1<0<A3、A1とするが、詳細は後述する。   The section position column 1621 stores the position of the section whose speed should be changed during scrolling. This position is the number of pixels in the height direction from the lower end of the display image 800, and is recorded by connecting the start position pixel number and the end position pixel number of the section whose speed is to be changed with a comma. The CPU 311 determines a part on the display image to be referred to according to the conference scene, and records the position of the part. The CPU 311 controls and changes the scroll speed according to this value when scrolling. The CPU 311 stores a deceleration (acceleration) of the scroll speed in the deceleration value column 1622. This is a deceleration value of the scroll speed determined for the section shown in the section position column 1621. In this embodiment, the CPU 311 records “A2” or “A3” as the deceleration value. The values are A2 <A1 <0 <A3, A1, which will be described in detail later.

次に、スクロール制御情報テーブル1620を生成する手順について、図20乃至図25を用いて説明する。図20乃至図25は、本実施例における表示画像800の生成処理の手順を示すフローチャートである。なお、図20に示すステップ901からステップ919は、図10で説明した同符号における処理と同様である。   Next, a procedure for generating the scroll control information table 1620 will be described with reference to FIGS. FIG. 20 to FIG. 25 are flowcharts showing the procedure of the generation process of the display image 800 in this embodiment. Note that steps 901 to 919 shown in FIG. 20 are the same as the processes with the same reference numerals described in FIG.

CPU311は、ステップ908で処理対象の区間の会議シーンを決定した後、ステップ1701において、当該区間の会議シーンは「熟考/沈黙」であるか否かを判定する。YESと判定する場合にはステップ1702に処理は遷移し、NOと判定する場合にはステップ909に遷移する。   After determining the conference scene in the section to be processed in step 908, the CPU 311 determines in step 1701 whether the conference scene in the section is “contemplation / silence”. When it determines with YES, a process transfers to step 1702, and when it determines with NO, it changes to step 909.

CPU311は、ステップ1702において、処理対象の区間の位置を区間位置列1621に追加して記憶する。また、減速度値列1622にはA3を記録する。これにより、会議シーンが「熟考/沈黙」の区間をスクロール制御情報テーブル1620に記録することができる。尚、既に登録されているレコードについて、追加する区間と隣接する区間であって、減速度値列1622の値が同一のレコードがある場合には、新規にレコードを追加せずに、このレコードの区間位置列1621の値を更新する。例えば、区間位置列1621の値が「480,560」(減速度値列1622の値は「A2」)のレコードが既に存在し、区間位置列1621の値が「560,640」(減速度値列1622の値は「A2」)のレコードを追加したい場合、次のようにする。CPU311は、新規レコードは追加せず、当該登録済みレコードの区間位置列1621の値を「480,640」に更新する。このレコードの追加方法は、以降の各ステップにおけるスクロール制御情報テーブル1620への記憶処理においても同様である。   In step 1702, the CPU 311 adds the position of the section to be processed to the section position column 1621 and stores it. A3 is recorded in the deceleration value column 1622. As a result, the section in which the conference scene is “contemplation / silence” can be recorded in the scroll control information table 1620. If there is a record that is adjacent to the section to be added and has the same value in the deceleration value column 1622 for a record that has already been registered, this record is not added to the record. The value in the section position column 1621 is updated. For example, a record with the section position column 1621 having the value “480,560” (the deceleration value column 1622 has the value “A2”) already exists, and the section position column 1621 has the value “560,640” (the deceleration value). When it is desired to add a record having a value “A2”) in the column 1622, the following is performed. The CPU 311 updates the value of the section position column 1621 of the registered record to “480, 640” without adding a new record. The method for adding this record is the same in the storage processing in the scroll control information table 1620 in the subsequent steps.

次に、図22乃至図25を参照し、図20のステップ909、910、911、915、918の処理の詳細を説明する。図21の処理1800は、議事テキスト情報の描画処理である。ステップ1001からステップ1005は、図11(A)で示した処理と同様であるため説明を省略する。CPU311は、ステップ1004で、処理対象の区間の議事テキスト情報を強調して描画した後、ステップ1801において、処理対象の区間の位置を区間位置列1621に追加して記憶する。また、減速度値列1622には減速度値A2を記録する。これにより、会議シーンが「オープニング」や「質疑/応答」、「まとめ」の場合であって、議事テキスト情報が存在する区間をスクロール制御情報テーブル1620に記録することができる。   Next, details of the processing of steps 909, 910, 911, 915, and 918 of FIG. 20 will be described with reference to FIGS. A process 1800 in FIG. 21 is a drawing process of the agenda text information. Steps 1001 to 1005 are the same as the process shown in FIG. In step 1004, the CPU 311 emphasizes and draws the agenda text information of the section to be processed, and then adds and stores the position of the section to be processed in the section position column 1621 in step 1801. The deceleration value column 1622 records the deceleration value A2. As a result, a section in which the conference scene is “opening”, “question / answer”, or “summary” and the agenda text information exists can be recorded in the scroll control information table 1620.

図22は、会議資情報の描画処理である。処理1810において、ステップ1011からステップ1015は、図11(B)で示した処理と同様であるため説明を省略する。CPU311は、ステップ1014の描画処理の後、ステップ1811において、一つ前の区間は「プレゼン」であってその区間において描画した会議資料情報(出力画像)と、現在処理対象の区間の会議資料情報とに差分があるか否かを判定する。YESと判定する場合にはステップ1812に処理は遷移し、NOと判定する場合には処理は終了する。   FIG. 22 is a drawing process for conference information. In process 1810, steps 1011 to 1015 are the same as the processes shown in FIG. After the drawing process of step 1014, the CPU 311 has the presentation material in step 1811 as “presentation”, the conference material information (output image) drawn in that zone, and the conference material information of the current processing target segment. It is determined whether or not there is a difference. When it determines with YES, a process transfers to step 1812, and when it determines with NO, a process is complete | finished.

CPU311は、ステップ1812において、処理対象の区間の位置を区間位置列1621に追加して記憶する。また、減速度値列1622には減速度値A2を記録する。これにより、会議シーンが「プレゼン」の場合であって、会議資料情報に変化があった区間をスクロール制御情報テーブル1620に記録することができる。   In step 1812, the CPU 311 adds the position of the section to be processed to the section position column 1621 and stores it. The deceleration value column 1622 records the deceleration value A2. As a result, a section in which the conference scene information is “presentation” and the conference material information has changed can be recorded in the scroll control information table 1620.

図23は、話者情報の描画処理である。処理1820において、ステップ1021からステップ1025は、図11(C)で示した処理と同様であるため説明を省略する。CPU311は、ステップ1024の描画処理の後、ステップ1821において、描画対象に複数の話者の線分を含む、つまり話者交代があるか否かを判定する。YESと判定する場合には、ステップ1822に処理は遷移し、NOと判定する場合には処理は終了する。   FIG. 23 shows speaker information drawing processing. In process 1820, steps 1021 to 1025 are the same as the process shown in FIG. After the drawing process in step 1024, the CPU 311 determines in step 1821 whether or not the drawing target includes line segments of a plurality of speakers, that is, there is a speaker change. When it determines with YES, a process transfers to step 1822, and a process is complete | finished when it determines with NO.

CPU311は、ステップ1822において、処理対象の区間の位置を区間位置列1621に追加して記憶する。また、CPU311は、減速度値列1622には減速度値A2を記録する。これにより、会議シーンが「質疑/応答」や「議論」の場合であって、話者交代があった区間をスクロール制御情報テーブル1620に記録することができる。   In step 1822, the CPU 311 adds the position of the section to be processed to the section position column 1621 and stores it. Further, the CPU 311 records the deceleration value A2 in the deceleration value column 1622. As a result, a section in which the conference scene is “question / answer” or “discussion” and the speaker is changed can be recorded in the scroll control information table 1620.

図24は、音情報の描画処理である。処理1900において、ステップ1121からステップ1127は、図12(C)で示した処理と同様であるため説明を省略する。CPU311は、ステップ1126で、処理対象の区間の音量情報を強調して描画した後、ステップ1901において、音量データの値が所定値以上であるか否かを判定する。この所定値とは、例えば、全音量データの平均値を算出し、算出された値を所定値と設定してよい。YESと判定する場合には、ステップ1902に処理は遷移し、NOと判定する場合には、ステップ1122に処理は遷移する。CPU311は、ステップ1902において、当該区間の位置を区間位置列1621に追加して記憶する。また、減速度値列1622には減速度値A2を記録する。これにより、会議シーンが「議論」の場合であって、所定値以上であった区間、つまり盛り上がりを見せたと推定される区間、をスクロール制御情報テーブル1620に記録することができる。   FIG. 24 shows sound information drawing processing. In the processing 1900, steps 1121 to 1127 are the same as the processing shown in FIG. In step 1126, the CPU 311 emphasizes and draws the volume information of the section to be processed. In step 1901, the CPU 311 determines whether or not the volume data value is equal to or greater than a predetermined value. As this predetermined value, for example, an average value of all sound volume data may be calculated, and the calculated value may be set as the predetermined value. If YES is determined, the process transitions to step 1902, and if NO is determined, the process transitions to step 1122. In step 1902, the CPU 311 adds the position of the section to the section position column 1621 and stores it. The deceleration value column 1622 records the deceleration value A2. As a result, it is possible to record in the scroll control information table 1620 a section where the conference scene is “discussion” and which is greater than or equal to a predetermined value, that is, a section estimated to show excitement.

図25は、顔画像情報の描画処理である。処理2000において、ステップ1221からステップ1224は、図14(B)で示した処理と同様であるため説明を省略する。CPU311は、ステップ1223の描画処理の後、ステップ2001において各顔画像について笑顔判定を行い、いずれの顔画像も笑顔ではないか否かを判定する。笑顔判定は、例えば、口角が上がる、目尻が下がるなどの変化を統計的識別手法により解析して判定すればよい。YESと判定する場合には、ステップ2002に処理は遷移し、NOと判定する場合には処理は終了する。   FIG. 25 is a drawing process of face image information. In the process 2000, steps 1221 to 1224 are the same as the processes shown in FIG. After the drawing process in step 1223, the CPU 311 performs smile determination on each face image in step 2001, and determines whether any face image is a smile. The smile determination may be performed by analyzing changes such as an increase in the corner of the mouth and a decrease in the corner of the eye using a statistical identification method. When it determines with YES, a process transfers to step 2002, and when it determines with NO, a process is complete | finished.

CPU311は、ステップ2002において、当該区間の位置を区間位置列1621に追加して記憶する。また、減速度値列1622には減速度値A2を記録する。以上は、笑顔がないことをもって、議論への集中や白熱さと解釈するものである。これにより、会議シーンが「議論」の場合であって、議論に集中し白熱していると推定する区間、をスクロール制御情報テーブル1620に記録することができる。   In step 2002, the CPU 311 adds the position of the section to the section position column 1621 and stores it. The deceleration value column 1622 records the deceleration value A2. The above is interpreted as the concentration of discussion and incandescence when there is no smile. As a result, it is possible to record in the scroll control information table 1620 the section in which the conference scene is “discussion” and it is estimated that the conference scene is concentrated and incandescent.

次に、CPU311が、表示画像800をタイムライン方向にスクロールして、表示デバイス317の表示を更新する際の処理について説明する。図26は、当該処理の手順を示したフローチャートである。本処理は、ユーザが入力デバイス316を介してスクロール指示を行った場合に実行される。まず、CPU311は、ステップ2101において、スクロールの(初)速度vおよび減速度aを決定する。ここでは、速度vを速度値V1とし、減速度aを減速度値A1(A1<0)とする。   Next, processing when the CPU 311 updates the display of the display device 317 by scrolling the display image 800 in the timeline direction will be described. FIG. 26 is a flowchart showing the procedure of the processing. This process is executed when the user gives a scroll instruction via the input device 316. First, in step 2101, the CPU 311 determines a scrolling (initial) speed v and a deceleration a. Here, the speed v is a speed value V1, and the deceleration a is a deceleration value A1 (A1 <0).

CPU311は、ステップ2102において、スクロールを停止するか否かを判定する。これは、速度vが所定の閾値以下であるならばYESと判定し、そうでないならばNOと判定する。所定の閾値とは値0に近い数値を予め決定しておけばよい。NOと判定する場合にはステップ2103に処理は遷移し、YESと判定する場合には、処理を終了する。   In step 2102, the CPU 311 determines whether to stop scrolling. This is determined as YES if the speed v is less than or equal to a predetermined threshold, and NO if not. The predetermined threshold may be determined in advance as a numerical value close to the value 0. When it determines with NO, a process transfers to step 2103, and when it determines with YES, a process is complete | finished.

CPU311は、ステップ2103において、RAM314に終了位置が記憶されているか否かを判定する。終了位置については後述する。YESと判定する場合にはステップ2104に処理は遷移し、NOと判定する場合にはステップ2106に遷移する。   In step 2103, the CPU 311 determines whether or not the end position is stored in the RAM 314. The end position will be described later. When it determines with YES, a process transfers to step 2104, and when it determines with NO, it changes to step 2106.

CPU311は、ステップ2104において、RAM314に記憶されている終了位置が示す表示画像800上の位置が、表示デバイス317の表示領域内に含まれているか否かを判定する。YESと判定する場合にはステップ2105に処理は遷移し、NOと判定する場合にはステップ2106に処理は遷移する。CPU311は、ステップ2105において、減速度aを減速度値A1に更新する。このとき、RAM314から終了位置を削除する。   In step 2104, the CPU 311 determines whether the position on the display image 800 indicated by the end position stored in the RAM 314 is included in the display area of the display device 317. If YES is determined, the process transitions to step 2105, and if NO is determined, the process transitions to step 2106. In step 2105, the CPU 311 updates the deceleration a to the deceleration value A1. At this time, the end position is deleted from the RAM 314.

CPU311は、ステップ2106において、移動量dを算出する。これは次の式により得ることができる。d = v * t + 0.5 * a * t * t。CPU311は、ステップ2107において、移動量dの分、表示画像800を移動した場合に、表示デバイス317の表示領域に対して現在表示領域外であって、移動後に表示領域内となる領域について、次を判定する。CPU311は、スクロール制御情報テーブル1620に登録されているレコードの中で、区間位置列1621の値の開始位置が、当該領域に含まれるか否かを判定する。YESと判定する場合にはステップ2108に処理は遷移し、NOと判定する場合にはステップ2110に処理は遷移する。   In step 2106, the CPU 311 calculates the movement amount d. This can be obtained by the following equation. d = v * t + 0.5 * a * t * t. In step 2107, when the display image 800 is moved by the movement amount d in step 2107, the CPU 311 performs the following operation for an area that is outside the current display area with respect to the display area of the display device 317 and is within the display area after the movement. Determine. The CPU 311 determines whether or not the start position of the value of the section position column 1621 is included in the area in the records registered in the scroll control information table 1620. When it determines with YES, a process transfers to step 2108, and when it determines with NO, a process transfers to step 2110.

CPU311は、ステップ2108において、ステップ2107で判定に用いたスクロール制御情報テーブル1620のレコードの減速度値列1622の値を取得し、当該値で減速度aを更新する。減速度値列1622の値がA2ならば、次回の移動量dの計算時より、スクロール移動はより減速するよう制御される。また、減速度値1622の値がA3ならが、スクロール移動は加速するよう制御される。   In step 2108, the CPU 311 acquires the value of the deceleration value column 1622 of the record of the scroll control information table 1620 used for the determination in step 2107, and updates the deceleration a with the value. If the value in the deceleration value column 1622 is A2, the scroll movement is controlled to be further decelerated from the next calculation of the movement amount d. If the deceleration value 1622 is A3, the scroll movement is controlled to accelerate.

CPU311は、ステップ2109において、ステップ2107で判定に用いたスクロール制御情報テーブル1620の区間位置列1621の値の終了位置を取得し、RAM314に記憶する。このRAM314に記憶した終了位置を、ステップ2103からステップ2105の処理において判定することにより、ステップ2108で更新した減速度aの値を元の値A1に戻すことができる。CPU311は、ステップ2110において、表示デバイス317の表示領域に対する表示画像800の位置を、移動量dの分だけタイムライン方向に移動する。そして、表示デバイス317に表示を更新させる。   In step 2109, the CPU 311 acquires the end position of the value in the section position column 1621 of the scroll control information table 1620 used for the determination in step 2107 and stores it in the RAM 314. By determining the end position stored in the RAM 314 in the processing from step 2103 to step 2105, the value of the deceleration a updated in step 2108 can be returned to the original value A1. In step 2110, the CPU 311 moves the position of the display image 800 relative to the display area of the display device 317 in the timeline direction by the movement amount d. Then, the display device 317 updates the display.

以上により、表示画像800のスクロールを、会議シーンに応じて好適に決定することができる。より詳細には、表示画像800上の部位であって、会議シーンが「プレゼン」に該当する箇所においては、会議資料情報が変化した際に、スクロール速度を減速してユーザに閲覧を示唆する。同様に、会議シーンが「質疑/応答」に該当する箇所においては、議事テキスト情報が記録されていることや、話者情報について話者が切り替わったことに基づいて、スクロール速度を減速してユーザに閲覧を示唆する。   As described above, scrolling of the display image 800 can be suitably determined according to the conference scene. More specifically, in a portion on the display image 800 where the conference scene corresponds to “presentation”, when the conference material information changes, the scrolling speed is reduced to suggest viewing to the user. Similarly, at the location where the meeting scene corresponds to “Q & A”, the user can reduce the scrolling speed based on the fact that the proceeding text information is recorded or the speaker is switched for the speaker information. Suggest browsing.

また、会議シーンが「議論」に該当する箇所においては、話者情報について話者が切り替わったことや、音量情報から推定される議論の盛り上がり、顔画像情報から推定される議論の白熱具合を考慮する。そしてこれに基づいて、スクロール速度を減速してユーザに閲覧を示唆する。会議シーンが「熟考/沈黙」に該当する箇所においては、会議の進行は停滞している状況であり、会議情報の閲覧による振り返りに有用な情報は少ないと考えられる。よって、この場合には、スクロール速度を加速し、早々に当該部位をスクロールして経過する。または、会議シーンが「熟考/沈黙」に該当する箇所はスクロールをスキップさせる構成としてもよい。   In addition, in places where the meeting scene corresponds to “discussion”, consideration is given to the switching of the speaker information, the excitement of the discussion estimated from the volume information, and the incandescence of the discussion estimated from the face image information. To do. Based on this, the scrolling speed is reduced to suggest browsing to the user. Where the conference scene corresponds to “contemplation / silence”, the progress of the conference is stagnant, and it is considered that there is little information useful for reviewing the conference information. Therefore, in this case, the scroll speed is accelerated, and the part is quickly scrolled. Alternatively, it may be configured such that scrolling is skipped at a location where the conference scene corresponds to “contemplation / silence”.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そしてそのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (computer program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program. In this case, the program and the storage medium storing the program constitute the present invention.

101 会議情報収集装置
102 会議情報記録サーバ
105 コンピュータ
311 CPU
317 表示デバイス
101 meeting information collecting apparatus 102 meeting information recording server 105 computer 311 CPU
317 Display device

Claims (15)

会議に関する異なる種類のデータを取得する取得手段を有し、前記取得手段により取得された前記異なる種類のデータに基づいて生成される画面を表示する情報処理システムであって、
前記取得手段により取得されたデータを種類ごとに、前記取得手段により取得された時間順で並べた前記画面を表示する表示手段と、
前記会議中の各時刻における会議シーンを、複数の会議シーンからひとつ設定する設定手段と
を備え、
前記表示手段は、前記設定手段により設定された会議シーンごとに、強調して表示する前記データの種類を変える
ことを特徴とする情報処理システム。
An information processing system that includes an acquisition unit that acquires different types of data related to a conference, and that displays a screen generated based on the different types of data acquired by the acquisition unit,
Display means for displaying the screen in which the data acquired by the acquisition means are arranged in order of time acquired by the acquisition means for each type;
A setting means for setting one meeting scene at each time during the meeting from a plurality of meeting scenes,
The information processing system characterized in that the display means changes the type of the data to be highlighted for each conference scene set by the setting means.
前記表示手段は、前記会議シーンの選択を受け付ける選択画面を表示し、
前記設定手段は、前記表示手段に表示される前記選択画面を介して、会議シーンの選択が受け付けられてから、次に会議シーンの選択を受け付けるまでを、前記選択画面を介して選択を受け付けた前記会議シーンとして設定する
ことを特徴とする請求項1に記載の情報処理システム。
The display means displays a selection screen for accepting selection of the conference scene,
The setting means accepts the selection via the selection screen from when the selection of the conference scene is accepted via the selection screen displayed on the display means until the next selection of the conference scene is accepted. The information processing system according to claim 1, wherein the information processing system is set as the conference scene.
前記取得手段は、前記会議の開始時刻と終了時刻を取得し、
前記表示手段は、前記取得手段により取得された前記会議の開始時刻と終了時刻に基づく会議時間を所定の時間毎に区切った前記画面を表示する
ことを特徴とする請求項1または2に記載の情報処理システム。
The acquisition means acquires a start time and an end time of the conference,
The said display means displays the said screen which divided | segmented the meeting time based on the start time and the end time of the said meeting acquired by the said acquisition means for every predetermined time. The Claim 1 or 2 characterized by the above-mentioned. Information processing system.
前記選択画面を介して会議シーンが選択された時刻と、当該選択された会議シーンを対応づけて記憶する記憶手段をさらに有する
ことを特徴とする請求項に記載の情報処理システム。
The information processing system according to claim 2 , further comprising storage means for storing the time when the conference scene is selected via the selection screen and the selected conference scene in association with each other.
前記記憶手段は、さらに、前記取得手段により取得されたデータと当該データの取得された時刻を対応づけて記憶する
ことを特徴とする請求項4に記載の情報処理システム。
The information processing system according to claim 4, wherein the storage unit further stores the data acquired by the acquisition unit in association with the acquisition time of the data.
前記会議シーンは、少なくともプレゼンと、質疑応答と、議論と、まとめと、を含む
ことを特徴とする請求項1乃至5のいずれか一項に記載の情報処理システム。
The information processing system according to any one of claims 1 to 5, wherein the conference scene includes at least a presentation, a question and answer session, a discussion, and a summary.
前記取得手段は、少なくとも音声データ、テキストデータ、会議資料として出力された画像データを取得し、
前記取得手段により取得された、前記音声データ、前記テキストデータ、会議資料として出力された前記画像データのいずれかに基づいて、会議のキーワードを抽出するキーワード抽出手段をさらに有する
ことを特徴とする請求項6に記載の情報処理システム。
The acquisition means acquires at least audio data, text data, image data output as meeting material,
The apparatus further comprises keyword extraction means for extracting a conference keyword based on any of the audio data, the text data, and the image data output as conference material acquired by the acquisition means. Item 7. The information processing system according to Item 6.
取得手段は、少なくとも音声データを取得し、
前記取得手段により取得された前記音声データに基づいて、話者のデータと当該話者の発言の開始時刻と終了時刻を抽出する話者情報抽出手段をさらに有する
ことを特徴とする請求項6に記載の情報処理システム。
The acquisition means acquires at least audio data,
7. The apparatus according to claim 6, further comprising speaker information extraction means for extracting speaker data and a start time and an end time of the speaker's speech based on the voice data acquired by the acquisition means. The information processing system described.
前記情報処理システムは、撮像部をさらに有し、
前記取得手段は、少なくとも会議中に前記撮像部により撮像された画像データを取得し、
前記取得手段により取得された前記画像データから、前記会議の参加者の顔画像を抽出する顔画像抽出手段と、をさらに有する
ことを特徴とする請求項6に記載の情報処理システム。
The information processing system further includes an imaging unit,
The acquisition means acquires image data captured by the imaging unit at least during a meeting,
The information processing system according to claim 6, further comprising face image extraction means for extracting face images of participants in the conference from the image data acquired by the acquisition means.
前記表示手段は、前記会議シーンが前記プレゼンの場合、前記異なる種類のデータのうち、前記会議資料として出力された画像データを拡大して表示する
ことを特徴とする請求項7に記載の情報処理システム。
8. The information processing according to claim 7, wherein, when the conference scene is the presentation, the display unit enlarges and displays the image data output as the conference material among the different types of data. system.
前記表示手段は、前記会議シーンが前記質疑応答の場合、前記異なる種類のデータのうち、質疑応答を行う前記話者のデータを拡大して表示する
ことを特徴とする請求項8に記載の情報処理システム。
9. The information according to claim 8, wherein, when the conference scene is the question and answer session, the display unit enlarges and displays the data of the speaker performing the question and answer session among the different types of data. Processing system.
前記表示手段は、前記会議シーンが前記議論の場合、前記異なる種類のデータのうち、議論を行う話者の前記顔画像を拡大して表示する
ことを特徴とする請求項9に記載の情報処理システム。
The information processing method according to claim 9, wherein when the conference scene is the discussion, the display unit enlarges and displays the face image of the speaker who performs the discussion among the different types of data. system.
前記表示手段は、前記会議シーンが前記まとめの場合、前記異なる種類のデータのうち、前記テキストデータを拡大して表示する
ことを特徴とする請求項7に記載の情報処理システム。
The information processing system according to claim 7, wherein, when the conference scene is the summary, the display unit enlarges and displays the text data among the different types of data.
会議に関する異なる種類のデータを取得する取得手段を有し、前記取得手段により取得された前記異なる種類のデータに基づいて生成される画面を表示する情報処理システムにおける制御方法であって、
前記取得手段により取得されたデータを種類ごとに、前記取得手段により取得された時間順で並べた前記画面を表示する表示工程と、
前記会議中の各時刻における会議シーンを、複数の会議シーンからひとつ設定する設定工程と、
を有し、
表示工程では、前記設定工程で設定された会議シーンごとに、強調して表示する前記データの種類を変える
ことを特徴とする情報処理システムの制御方法。
A control method in an information processing system that has an acquisition unit that acquires different types of data related to a conference and displays a screen generated based on the different types of data acquired by the acquisition unit,
A display step of displaying the screen in which the data acquired by the acquisition unit is arranged in order of time acquired by the acquisition unit for each type,
A setting step for setting one meeting scene from a plurality of meeting scenes at each time during the meeting;
Have
In the display step, the type of data to be highlighted and changed for each conference scene set in the setting step is changed.
請求項14に記載の情報処理システムの制御方法をコンピュータにより実行することを特徴とするコンピュータプログラム。

A computer program for executing the control method of the information processing system according to claim 14 by a computer.

JP2013097735A 2013-05-07 2013-05-07 CONFERENCE INFORMATION RECORDING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD, AND COMPUTER PROGRAM Expired - Fee Related JP6304941B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013097735A JP6304941B2 (en) 2013-05-07 2013-05-07 CONFERENCE INFORMATION RECORDING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD, AND COMPUTER PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013097735A JP6304941B2 (en) 2013-05-07 2013-05-07 CONFERENCE INFORMATION RECORDING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD, AND COMPUTER PROGRAM

Publications (2)

Publication Number Publication Date
JP2014220619A JP2014220619A (en) 2014-11-20
JP6304941B2 true JP6304941B2 (en) 2018-04-04

Family

ID=51938720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013097735A Expired - Fee Related JP6304941B2 (en) 2013-05-07 2013-05-07 CONFERENCE INFORMATION RECORDING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD, AND COMPUTER PROGRAM

Country Status (1)

Country Link
JP (1) JP6304941B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6350260B2 (en) * 2014-12-16 2018-07-04 コニカミノルタ株式会社 CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT SYSTEM, CONFERENCE SUPPORT METHOD, AND CONFERENCE SUPPORT PROGRAM
JP6062474B2 (en) * 2015-03-20 2017-01-18 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP6640464B2 (en) * 2015-04-02 2020-02-05 シャープ株式会社 Conference management device, conference management method, and conference management program
JP2017138719A (en) * 2016-02-02 2017-08-10 株式会社リコー Information processing system, information processing method, and information processing program
JP6722505B2 (en) * 2016-05-11 2020-07-15 富士通株式会社 Image control method, device, and program
JP6270975B2 (en) * 2016-12-14 2018-01-31 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP6875861B2 (en) * 2017-01-05 2021-05-26 富士通株式会社 Information processing methods, devices, and programs
JP2018201153A (en) * 2017-05-29 2018-12-20 京セラドキュメントソリューションズ株式会社 Information processing system
JP2019012438A (en) * 2017-06-30 2019-01-24 レノボ・シンガポール・プライベート・リミテッド Meeting management device, meeting management method, and meeting management program
JP7322480B2 (en) * 2018-04-20 2023-08-08 株式会社リコー Communication terminal, management system, display method, and program
CN112825551B (en) * 2019-11-21 2023-05-26 中国科学院沈阳计算技术研究所有限公司 Video conference important content prompting and transferring storage method and system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004350134A (en) * 2003-05-23 2004-12-09 Nippon Telegr & Teleph Corp <Ntt> Meeting outline grasp support method in multi-point electronic conference system, server for multi-point electronic conference system, meeting outline grasp support program, and recording medium with the program recorded thereon
JP4576133B2 (en) * 2004-02-25 2010-11-04 パイオニア株式会社 Network conference system, conference terminal and conference server
JP2005267279A (en) * 2004-03-18 2005-09-29 Fuji Xerox Co Ltd Information processing system and information processing method, and computer program
JP2008084110A (en) * 2006-09-28 2008-04-10 Toshiba Corp Information display device, information display method and information display program

Also Published As

Publication number Publication date
JP2014220619A (en) 2014-11-20

Similar Documents

Publication Publication Date Title
JP6304941B2 (en) CONFERENCE INFORMATION RECORDING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD, AND COMPUTER PROGRAM
JP4439462B2 (en) Information presenting method, information presenting apparatus, and information presenting program
EP3817395A1 (en) Video recording method and apparatus, device, and readable storage medium
JP5559691B2 (en) Enhanced interface for voice and video communication
WO2016191074A1 (en) Prioritized display of visual content in computer presentations
TW201633794A (en) Information processing apparatus, information processing method, and program
JP2016046705A (en) Conference record editing apparatus, method and program for the same, conference record reproduction apparatus, and conference system
US20190171760A1 (en) System, summarization apparatus, summarization system, and method of controlling summarization apparatus, for acquiring summary information
JP2005124160A (en) Conference supporting system, information display, program and control method
US11792504B2 (en) Personalized videos
US20120266084A1 (en) Image display device providing individualized feedback
WO2022198934A1 (en) Method and apparatus for generating video synchronized to beat of music
US11393134B2 (en) Customizing soundtracks and hairstyles in modifiable videos of multimedia messaging application
WO2018105373A1 (en) Information processing device, information processing method, and information processing system
JP2011164681A (en) Device, method and program for inputting character and computer-readable recording medium recording the same
JP6697043B2 (en) Animation image generation method based on key input and user terminal performing the method
JP6814604B2 (en) Meeting information display system, meeting information display method and meeting information display program
JPH0798734A (en) Working state controller
JP5907231B1 (en) INPUT INFORMATION SUPPORT DEVICE, INPUT INFORMATION SUPPORT METHOD, AND INPUT INFORMATION SUPPORT PROGRAM
US20220360740A1 (en) Video teleconference curated user profile picture
JP2020009011A (en) Photobook creation system and server device
JPWO2018105373A1 (en) Information processing apparatus, information processing method, and information processing system
JP2007288539A (en) Conference system and method therefor
JP2017182822A (en) Input information support device, input information support method, and input information support program
CN115240681A (en) Method and device for generating conference summary

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180306

R151 Written notification of patent or utility model registration

Ref document number: 6304941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees