JP2019149083A - Minute creating apparatus, minute creating method, and program - Google Patents

Minute creating apparatus, minute creating method, and program Download PDF

Info

Publication number
JP2019149083A
JP2019149083A JP2018034435A JP2018034435A JP2019149083A JP 2019149083 A JP2019149083 A JP 2019149083A JP 2018034435 A JP2018034435 A JP 2018034435A JP 2018034435 A JP2018034435 A JP 2018034435A JP 2019149083 A JP2019149083 A JP 2019149083A
Authority
JP
Japan
Prior art keywords
conference
text
image data
time
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018034435A
Other languages
Japanese (ja)
Inventor
啓水 奥間
Hiromi Okuma
啓水 奥間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018034435A priority Critical patent/JP2019149083A/en
Publication of JP2019149083A publication Critical patent/JP2019149083A/en
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Machine Translation (AREA)
  • Facsimiles In General (AREA)
  • Telephonic Communication Services (AREA)

Abstract

To provide an apparatus which creates a layout by associating data such as sound generated during a meeting, an image and the like with one another.SOLUTION: In a minute 1100 consisting of a plurality of minute page groups including text data and image data, a text obtained by speech recognition of audio data generated during a meeting and an image data are stored. A single meeting is divided into plural periods based on time information, and a layout 1120 (1121) is created by associating the sound data and the image data both of which are generated in the same time period.SELECTED DRAWING: Figure 11

Description

本発明は、会議情報を表示する装置に関する。特に、会議中に発生した音声や画像などのデータを関連づけてレイアウトする装置に関する。   The present invention relates to an apparatus for displaying conference information. In particular, the present invention relates to an apparatus that performs layout by associating data such as audio and images generated during a meeting.

従来、人の発話を音声認識してテキスト化するディクテーション技術がある。特許文献1には、人の発話を音声認識してテキスト化し、要約することで、議事録を生成するシステムが開示されている。また、特許文献1には、映像に含まれる文字を画像認識してテキスト化し、要約することで、議事録を生成するシステムが開示されている。   Conventionally, there is a dictation technique for recognizing a person's utterance and converting it into text. Patent Document 1 discloses a system for generating minutes by recognizing a person's utterance, converting it into text, and summarizing it. Patent Document 1 discloses a system that generates minutes by recognizing characters included in a video, converting them into text, and summarizing them.

特許第5104762号Japanese Patent No. 5104762

会議には一般的に複数のアジェンダがあり、アジェンダ毎に議論が行われる。また、議論中にはホワイトボードなどに議論の内容を書き込みながら会議が進行する場合がある。そして、会議が終了すると、会議についての議事録を作成する場合が多い。
このとき、ユーザが議論を振り返りやすいように、例えば、あるアジェンダを議論していたときに書き込まれた画像を、そのアジェンダの議論の内容を要約したテキストと対応づけてレイアウトされた議事録を生成できれば望ましい。
A conference generally has a plurality of agendas, and discussions are held for each agenda. In addition, during the discussion, the conference may proceed while writing the content of the discussion on a whiteboard or the like. When the meeting is completed, the minutes of the meeting are often created.
At this time, to make it easier for users to look back on the discussion, for example, generate a minutes that is laid out by associating images written when discussing an agenda with text summarizing the content of the discussion on that agenda It is desirable if possible.

特許文献1で生成される議事録は、要約されたテキストがレイアウトされている。
しかし、特許文献1には、例えば、アジェンダ毎に要約してレイアウトした議事録を生成することは開示されていない。また、発話を要約したテキストと、その際に書き込まれた画像とを対応づけて、議事録を生成することも開示されていない。
The minutes generated in Patent Document 1 are laid out with summarized text.
However, Patent Document 1 does not disclose, for example, the generation of the minutes that are summarized and laid out for each agenda. Also, there is no disclosure of generating a minutes by associating a text summarizing an utterance with an image written at that time.

本発明は、会議において発生した会議情報の中の音声データから生成されたテキストと、前記音声データが発生した第1の時刻と、を取得する第1の取得手段と、前記会議情報の中の画像データと、前記画像データが発生した第2の時刻と、を取得する第2の取得手段と、前記テキストと、前記第1の時刻と、を記録する第1の記録手段と、前記画像データと、前記第2の時刻と、を記録する第2の記録手段と、前記会議を複数の区間に分割する分割手段と、前記区間の開始時刻から終了時刻までに発生したテキストを、前記第1の記録手段に記録された前記テキストの中から、選択する第1の選択手段と、前記区間の開始時刻から終了時刻までに発生した画像データを、前記第2の記録手段に記録された前記画像データの中から、選択する第2の選択手段と、前記第1の選択手段が選択した前記テキストと、前記第2の選択手段が選択した前記画像データとを、対応づけてレイアウトを作成する作成手段と、を有することを特徴とする議事録生成装置である。   The present invention provides a first acquisition means for acquiring a text generated from audio data in conference information generated in a conference, and a first time at which the audio data is generated, and in the conference information Second acquisition means for acquiring image data and a second time when the image data occurred, first recording means for recording the text and the first time, and the image data Second recording means for recording the second time, dividing means for dividing the conference into a plurality of sections, and text generated from the start time to the end time of the sections, The first selection means to select from the text recorded in the recording means, and the image data generated from the start time to the end time of the section are recorded in the second recording means. Select from the data And a creation means for creating a layout by associating the text selected by the first selection means with the image data selected by the second selection means. Is a minutes generation device.

会議中発生した音声や画像を、区間毎に対応づけてレイアウトすることができる。   Audio and images generated during the conference can be laid out in association with each section.

会議システムの構成例である。It is an example of composition of a conference system. 会議装置、会議サーバ、PCの構成例である。It is an example of composition of a conference device, a conference server, and PC. 表示デバイスに表示される画面の例である。It is an example of the screen displayed on a display device. 会議情報のデータ構成の例である。It is an example of the data structure of meeting information. 会議情報を記録する手順を示すフローチャートである。It is a flowchart which shows the procedure which records meeting information. 表示ページの変化を記録する手順を示すフローチャートである。It is a flowchart which shows the procedure which records the change of a display page. 議事録元情報のデータ構成の例である。It is an example of the data structure of the minutes source information. 議事録元情報のデータ構成の例である。It is an example of the data structure of the minutes source information. 議事録を生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which produces | generates the minutes. 議事録のレイアウト処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the layout processing of the minutes. 生成される議事録の概要である。A summary of the minutes to be generated. 要約テキストを生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which produces | generates a summary text. 会議情報記録処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a meeting information recording process. 議事録レイアウト処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the minutes layout process. 差分画像を生成する例である。It is an example which produces | generates a difference image. 会議情報記録処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a meeting information recording process. 撮影を促す通知の表示の例である。It is an example of a display of a notification that prompts photographing. 画像情報テーブルの構成の例である。It is an example of a structure of an image information table. 議事録のレイアウト処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the layout processing of the minutes.

以下、本発明の実施例について図面を用いて説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本実施例の会議システムの構成を示す図である。   FIG. 1 is a diagram illustrating a configuration of a conference system according to the present embodiment.

会議システム100は、会議装置101、会議サーバ102、PC103を備える。会議装置101と会議サーバ102は、ネットワーク104を介して接続される。   The conference system 100 includes a conference device 101, a conference server 102, and a PC 103. The conference apparatus 101 and the conference server 102 are connected via the network 104.

会議装置101は、例えば会議テーブル上のように、会議室などの会議開催場所に配置される。会議装置101は、会議中に発生した音声や画像など複数の種類のデータ(以下、「会議情報」と言う)を記録する。
会議装置101は、複数の種別の会議状態の変化点を検出し、会議情報の一部として記録する。そして、会議装置101は、会議情報を会議サーバ102に送信する。
The conference apparatus 101 is arranged at a conference holding place such as a conference room, for example, on a conference table. The conference device 101 records a plurality of types of data (hereinafter referred to as “conference information”) such as voice and images generated during the conference.
The conference apparatus 101 detects a change point of a plurality of types of conference states and records it as a part of conference information. Then, the conference apparatus 101 transmits the conference information to the conference server 102.

なお、会議装置101は、例えばオフィスや所定の会場などにおいて開催される会議を記録することを想定している。しかし、本発明の「会議」は、オフィスや所定の会場などにおいて開催される狭義の会議には限定されず、複数の人物の視認/発声行動を伴うような集まりであればよい。例えば、面接や、取り調べなども、本発明の会議に含まれる。
また、本発明の「議事録」は、本発明の会議において発生した音声や画像などの会議情報を表示可能にまとめたものであればよく、会議がそうであるように、名称の如何は問わない。
Note that it is assumed that the conference apparatus 101 records a conference held in an office or a predetermined venue, for example. However, the “conference” of the present invention is not limited to a narrow-sense meeting held in an office, a predetermined venue, or the like, and may be a group that involves visual recognition / speaking behavior of a plurality of persons. For example, interviews and surveys are also included in the conference of the present invention.
In addition, the “minutes” of the present invention may be any information that can display conference information such as voices and images generated at the conference of the present invention in a displayable manner. Absent.

会議サーバ102は、一般的なPC(Personal Computer)やクラウドサーバである。
会議サーバ102は、会議装置101から会議情報を受信し、これを解析・加工して議事録を作成する。会議サーバ102は、会議情報に含まれる音声データを音声認識して、テキストを生成する。また、会議情報に含まれる画像データを文字認識して、テキストを生成する。
The conference server 102 is a general PC (Personal Computer) or a cloud server.
The conference server 102 receives the conference information from the conference device 101, analyzes and processes it, and creates the minutes. The conference server 102 recognizes voice data included in the conference information and generates text. In addition, text data is generated by recognizing image data included in the conference information.

会議サーバ102は、一つの会議全体を複数の区間に分割する。このために、会議サーバは、会議情報を解析して、会議状態の変化点を検出する。そして、検出された会議状態の変化点に基づいて、一つの会議全体を複数の区間に分割する。
ここで、「会議状態」とは、例えば、会議のアジェンダ、要点(後述)、話者、表示される資料、表示される資料のページ、などの会議中に発生する各種のイベントを示すものである。そして、このように複数のイベントの種別により定義することができる。
また、「会議状態の変化点」とは、これらの会議状態の変化、すなわち、会議におけるアジェンダの変更、要点の発生、話者の変更、表示される資料の変更、表示される資料のページの更新など、が生じる時点を言う。
このように、変化点の種別には複数がある。また、それらに応じて会議の区間にも、アジェンダごと、要点ごと、話者ごと、資料ごと、資料ページごと、などの複数の種別(以下、この区間の種別を「区間種別」と言う)ごとに分割することができる。区間種別は、ユーザが選択することできる。
会議サーバ102は、上述した区間やテキストを含む情報から議事録を生成する。そして、作成した議事録を配信する。
The conference server 102 divides an entire conference into a plurality of sections. For this purpose, the conference server analyzes the conference information and detects the change point of the conference state. Then, based on the detected change point of the conference state, one entire conference is divided into a plurality of sections.
Here, “conference state” refers to various events that occur during the conference, such as the conference agenda, key points (described later), speakers, displayed materials, displayed material pages, and the like. is there. And it can define by the kind of several events in this way.
In addition, the “change point of the conference state” means the change of the conference state, that is, the change of the agenda in the conference, the occurrence of the main point, the change of the speaker, the change of the displayed material, the page of the displayed material Say when updates occur.
Thus, there are a plurality of types of change points. In addition, according to them, each section of the conference also has a plurality of types such as each agenda, each point, each speaker, each material, each material page, etc. (hereinafter, this section type is referred to as “section type”). Can be divided into The section type can be selected by the user.
The conference server 102 generates a minutes from information including the section and text described above. Then, distribute the created minutes.

なお、図1においては、会議システム100は、会議装置101と会議サーバ102を一台ずつ備えているが、会議装置101や会議サーバ102を複数台備えるよう構成してもよい。
また、図1においては、会議装置101と会議サーバ102とを別離した装置として記載しているが、両装置の機能を備えた単一の装置として構成されてもよい。
In FIG. 1, the conference system 100 includes one conference device 101 and one conference server 102, but may be configured to include a plurality of conference devices 101 and conference servers 102.
In FIG. 1, the conference apparatus 101 and the conference server 102 are illustrated as separate apparatuses, but may be configured as a single apparatus having the functions of both apparatuses.

PC103は、一般的なPCやノートPCである。
PC103は、アプリケーションプログラムを実行し、会議で参照する資料をディスプレイに表示することができる。また、プロジェクタを接続して、表示内容を投影してもよい。
PC103は、ユーザの指示などに応じてアプリケーションプログラムが表示している資料を変更すると、表示された資料の識別情報を会議装置101に送信する。識別情報としては、資料のファイル名を用いることができる。また、PC103は、ユーザの指示などに応じてアプリケーションプログラムが表示している資料のページを変更すると、表示画像データを会議装置101に送信する。
The PC 103 is a general PC or notebook PC.
The PC 103 can execute an application program and display materials to be referred to in the conference on the display. Further, a display may be projected by connecting a projector.
When the material displayed by the application program is changed in accordance with a user instruction or the like, the PC 103 transmits identification information of the displayed material to the conference apparatus 101. As the identification information, the file name of the material can be used. The PC 103 transmits display image data to the conference apparatus 101 when the document page displayed by the application program is changed in accordance with a user instruction or the like.

図2は、図1の会議装置101、会議サーバ102、PC103のハードウェア構成例を示すブロック図である。
図2(a)は、会議装置101のハードウェア構成例である。図2(b)は、会議サーバ102の構成例であり、また、PC103のハードウェア構成例でもある。
FIG. 2 is a block diagram illustrating a hardware configuration example of the conference apparatus 101, the conference server 102, and the PC 103 in FIG.
FIG. 2A is a hardware configuration example of the conference apparatus 101. FIG. 2B is a configuration example of the conference server 102 and a hardware configuration example of the PC 103.

図2(a)において、会議装置101は、CPU201、ROM202、RAM204、ストレージ205、入力デバイス206、表示デバイス207、外部インターフェース208、カメラデバイス209、マイクデバイス210を備える。これら各部は、データバス203を介して、相互にデータを送受信することができる。なお、CPUは、Central Processing Unit の略称である。RAMは、Random Access Memory の略称である。ROMは、Read Only Memory の略称である。   2A, the conference apparatus 101 includes a CPU 201, ROM 202, RAM 204, storage 205, input device 206, display device 207, external interface 208, camera device 209, and microphone device 210. These units can transmit and receive data to and from each other via the data bus 203. CPU is an abbreviation for Central Processing Unit. RAM is an abbreviation for Random Access Memory. ROM is an abbreviation for Read Only Memory.

CPU201は、会議装置全体を制御するためのコントローラである。CPU201は、不揮発メモリであるROM202に格納されているブートプログラムによりOS(Operating System)を起動する。CPU201は、OSの上で、ストレージ205に記録されているコントローラプログラムを実行する。コントローラプログラムは、会議装置全体を制御するプログラムである。CPU201は、データバス203などのバスを介して各部を制御する。
RAM204は、CPU201のメインメモリやワークエリアなどの一時記憶領域として動作する。
ストレージ205は、読み出しと書き込みが可能な不揮発メモリであり、前述のコントローラプログラムを保存する。また、会議装置101は、会議情報を会議サーバ102へ送信するまでの間、ストレージ205に会議情報を記録する。
The CPU 201 is a controller for controlling the entire conference apparatus. The CPU 201 activates an OS (Operating System) by a boot program stored in a ROM 202 which is a nonvolatile memory. The CPU 201 executes the controller program recorded in the storage 205 on the OS. The controller program is a program for controlling the entire conference apparatus. The CPU 201 controls each unit via a bus such as the data bus 203.
The RAM 204 operates as a temporary storage area such as the main memory or work area of the CPU 201.
The storage 205 is a non-volatile memory that can be read and written, and stores the aforementioned controller program. Further, the conference apparatus 101 records the conference information in the storage 205 until the conference information is transmitted to the conference server 102.

入力デバイス206は、タッチパネルやハードキー、マウスなどから構成される入力装置である。また、表示デバイス207は、LCDなどの表示装置である。入力デバイス206は、ユーザから操作の指示を受け付けると、指示をCPU201に伝達する。
表示デバイス207は、CPU201が生成した表示画像データを画面上に表示する。CPU201は、入力デバイス206から受信した指示情報と、表示デバイス207に表示されている表示画像データとに基づいて、操作を判定する。CPU201は、判定結果に応じて、会議装置101を制御するとともに、操作内容に応じて新たな表示画像データを生成し、表示デバイス207に表示させる。
The input device 206 is an input device that includes a touch panel, hard keys, a mouse, and the like. The display device 207 is a display device such as an LCD. When the input device 206 receives an operation instruction from the user, the input device 206 transmits the instruction to the CPU 201.
The display device 207 displays the display image data generated by the CPU 201 on the screen. The CPU 201 determines an operation based on the instruction information received from the input device 206 and the display image data displayed on the display device 207. The CPU 201 controls the conference apparatus 101 according to the determination result, generates new display image data according to the operation content, and causes the display device 207 to display the display image data.

外部インターフェース208は、LANや電話回線、赤外線といった近接無線などのネットワークを介して、別体の外部機器と各種データの送信あるいは受信を行う。
カメラデバイス209は、動画や画像を撮影することができる手段である。具体的には、いわゆるデジタルカメラなどがその一例である。
マイクデバイス210は、入力された音声をデジタル信号化する手段である。例えば、ユーザが発話した音声を、WAVE形式などの音声データとして取得する。
本実施例では、マイクデバイス210は周囲360°に指向性のあるマイクアレイである。マイクアレイを用いると、周囲でなされた発話の方向を特定することができる。特定される発話方向には、それぞれを識別するために、IDが付与される。発話方向を特定した結果は、IDとして取得される。
The external interface 208 transmits or receives various data to / from a separate external device via a network such as a local area network such as a LAN, a telephone line, or infrared rays.
The camera device 209 is a unit that can capture a moving image or an image. Specifically, a so-called digital camera is an example.
The microphone device 210 is means for converting the input sound into a digital signal. For example, the voice uttered by the user is acquired as voice data in the WAVE format or the like.
In this embodiment, the microphone device 210 is a microphone array having directivity around 360 °. If the microphone array is used, the direction of the utterance made around can be specified. An ID is assigned to each specified speech direction in order to identify each. The result of specifying the utterance direction is acquired as an ID.

図2(b)において、会議サーバ102は、CPU251、ROM252、RAM254、ストレージ255、入力デバイス256、表示デバイス257、外部インターフェース258を備える。各部は、データバス253を介して相互にデータを送受信することができる。   2B, the conference server 102 includes a CPU 251, a ROM 252, a RAM 254, a storage 255, an input device 256, a display device 257, and an external interface 258. Each unit can transmit / receive data to / from each other via the data bus 253.

CPU251は、会議サーバ102全体を制御するためのコントローラである。CPU251は、不揮発メモリであるROM252に格納されているブートプログラムによりOSを起動する。CPU251は、OSの上で、ストレージ255に記憶されている会議サーバプログラムを実行することより、会議サーバ102の各処理を実現する。CPU251は、データバス253などのバスを介して各部を制御する。   The CPU 251 is a controller for controlling the entire conference server 102. The CPU 251 starts up the OS by a boot program stored in the ROM 252 which is a nonvolatile memory. The CPU 251 implements each process of the conference server 102 by executing the conference server program stored in the storage 255 on the OS. The CPU 251 controls each unit via a bus such as the data bus 253.

RAM254は、CPU251のメインメモリやワークエリアなどの一時記憶領域として動作する。
ストレージ255は、読み出しと書き込みが可能な不揮発メモリであり、前述の会議サーバプログラムを保存する。
The RAM 254 operates as a temporary storage area such as the main memory or work area of the CPU 251.
The storage 255 is a non-volatile memory that can be read and written, and stores the conference server program described above.

入力デバイス256および表示デバイス257は、図2(a)で説明した入力デバイス206および表示デバイス257と同様である。
外部インターフェース258は、図2(a)で説明した外部インターフェース208と同様である。
The input device 256 and the display device 257 are the same as the input device 206 and the display device 257 described with reference to FIG.
The external interface 258 is the same as the external interface 208 described with reference to FIG.

PC103のハードウェア構成は、上述した会議サーバ102と同様である。
PC103において、ストレージ255には、資料およびそれを表示するためのアプリケーションプログラムが記録されている。
CPU251は、OSの上で、アプリケーションプログラムを実行することで、資料を解釈し、それを表示するための表示画像データを生成する。そして、表示画像データを表示デバイス257に表示させる。
The hardware configuration of the PC 103 is the same as that of the conference server 102 described above.
In the PC 103, the storage 255 stores materials and application programs for displaying them.
The CPU 251 executes an application program on the OS, thereby interpreting the material and generating display image data for displaying it. Then, the display image data is displayed on the display device 257.

次に、会議システム100が提示し、ユーザが参照・操作するユーザインターフェースについて説明する。   Next, a user interface presented by the conference system 100 and referred to / operated by the user will be described.

図3は、会議装置101の表示デバイス207の表示例を示す。
図3(a)に示す画面300は、会議開始前に表示される画面である。
FIG. 3 shows a display example of the display device 207 of the conference apparatus 101.
A screen 300 shown in FIG. 3A is a screen displayed before the start of the conference.

「開始」ボタン301は、ユーザが会議装置101に会議の開始を指示するためのものである。CPU201は、入力デバイス206を介して「開始」ボタン301への指示を受け付けると、図3(b)に示す画面310を表示デバイス207に表示させる。そして、CPU201は、会議情報の記録を開始する。   A “start” button 301 is used by the user to instruct the conference apparatus 101 to start a conference. When the CPU 201 receives an instruction to the “start” button 301 via the input device 206, the CPU 201 displays a screen 310 shown in FIG. 3B on the display device 207. Then, the CPU 201 starts recording conference information.

図3(b)に示す画面310は、会議中に表示される画面である。   A screen 310 shown in FIG. 3B is a screen displayed during the conference.

「撮影」ボタン311は、ユーザが会議装置101に撮影要求を指示するためのものである。CPU201は、入力デバイス206を介して「撮影」ボタン311への指示を受け付けると、図3(c)に示す画面320を表示デバイス207に表示させる。   The “shoot” button 311 is used by the user to instruct the conference apparatus 101 to take a shooting request. When the CPU 201 receives an instruction to the “shoot” button 311 via the input device 206, the CPU 201 displays a screen 320 shown in FIG.

「アジェンダ」ボタン312は、ユーザが会議装置101にアジェンダを変更(開始や終了)する指示をするためのものである。CPU201は、入力デバイス206を介して「アジェンダ」ボタン312への指示を受け付けると、図3(d)に示す画面330を表示デバイス207に表示させる。   The “Agenda” button 312 is for the user to instruct the conference apparatus 101 to change (start or end) the agenda. When the CPU 201 receives an instruction to the “Agenda” button 312 via the input device 206, the CPU 201 causes the display device 207 to display a screen 330 illustrated in FIG.

「終了」ボタン313は、ユーザが会議装置101に会議の終了を指示するためのものである。CPU201は、入力デバイス206を介して「終了」ボタン313への指示を受け付けると、図3(e)に示す画面340を表示デバイス207に表示させる。   The “end” button 313 is used by the user to instruct the conference apparatus 101 to end the conference. When the CPU 201 receives an instruction to the “end” button 313 via the input device 206, the CPU 201 causes the display device 207 to display a screen 340 shown in FIG.

図3(c)に示す画面320は、撮影をする際に表示される画面である。図示のように、カメラデバイス209により得られる被写体の映像を表示する。ユーザは、映像を見ながら、文字を記入したホワイトボードや紙が、会議装置101の撮影画角に収まるよう調整することができる。   A screen 320 shown in FIG. 3C is a screen displayed when shooting. As shown in the figure, an image of a subject obtained by the camera device 209 is displayed. While viewing the video, the user can adjust the whiteboard or paper on which the characters are written to be within the shooting angle of view of the conference apparatus 101.

CPU201は、入力デバイス206を介して画面310の任意箇所への指示を受け付けると、ユーザがカメラデバイス209により撮影した被写体の画像データを取得する。   When the CPU 201 receives an instruction to an arbitrary location on the screen 310 via the input device 206, the CPU 201 acquires image data of a subject photographed by the user with the camera device 209.

「OK」ボタン321は、ユーザが会議装置101に、撮影終了を指示するためのものである。CPU201は、入力デバイス206を介して「OK」ボタン321への指示を受け付けると、図3(b)に示す画面310を表示デバイス207に表示させる。   The “OK” button 321 is used by the user to instruct the conference apparatus 101 to end shooting. When the CPU 201 receives an instruction to the “OK” button 321 via the input device 206, the CPU 201 displays a screen 310 shown in FIG.

図3(d)に示す画面330は、アジェンダの変更を指示する際に表示される画面である。
テキストフィールド331は、ユーザが会議装置101にアジェンダ名を登録するためのものである。ユーザは入力デバイス206を介して、テキストフィールド331に所望のアジェンダ名を入力することができる。
A screen 330 illustrated in FIG. 3D is a screen displayed when an agenda change is instructed.
The text field 331 is for the user to register an agenda name in the conference apparatus 101. The user can enter a desired agenda name in the text field 331 via the input device 206.

「開始」ボタン332は、ユーザが会議装置101に新しいアジェンダの開始を指示するためのものである。
「終了」ボタン333は、ユーザが会議装置101に現在のアジェンダの終了を指示するためのものである。なお、終了したアジェンダの名称はテキストエリア334にリスト表示される。
「OK」ボタン335は、ユーザが会議装置101にアジェンダ変更の終了を指示するためのものである。CPU201は、入力デバイス206を介して「OK」ボタン335への指示を受け付けると、図3(b)に示す画面310を表示デバイス207に表示させる。
The “start” button 332 is used by the user to instruct the conference apparatus 101 to start a new agenda.
The “end” button 333 is used by the user to instruct the conference apparatus 101 to end the current agenda. The names of the completed agendas are displayed in a list in the text area 334.
The “OK” button 335 is used by the user to instruct the conference apparatus 101 to end the agenda change. When the CPU 201 receives an instruction to the “OK” button 335 via the input device 206, the CPU 201 displays the screen 310 shown in FIG.

図3(e)に示す画面340は、会議を終了する際に表示される画面である。   A screen 340 shown in FIG. 3E is a screen displayed when the conference is ended.

テキストフィールド341は、ユーザが会議装置101に、会議システム100が作成する議事録の送信先を指定するためのものである。ユーザは、入力デバイス206を介して、テキストフィールド341に所望の送信先を入力することができる。送信先としては、例えば、メールアドレスを入力することができる。   The text field 341 is used by the user to designate the destination of the minutes created by the conference system 100 to the conference apparatus 101. The user can input a desired destination in the text field 341 via the input device 206. For example, an e-mail address can be input as the transmission destination.

ラジオボタン342は、議事録を生成する際に、発話テキストと記入テキストを統合して得られる会議テキストを、どの区間種別で分割して要約するかを選択するためのものである。本実施例では、ユーザはいずれか一つの区間種別を選択することができる。   The radio button 342 is used to select which section type is used to divide and summarize the meeting text obtained by integrating the utterance text and the entry text when generating the minutes. In this embodiment, the user can select any one section type.

「OK」ボタン343は、ユーザが会議装置101に、会議終了の確定を指示するためのものである。CPU201は、入力デバイス206を介して「OK」ボタン343への指示を受け付けると、図3(a)に示す画面300を表示デバイス207に表示させる。
そして、会議装置101は、会議情報の記録を終了し、会議情報を会議サーバ102へ送信する。その後、会議サーバ102は、受信した会議情報を解析・加工して議事録を生成し、送信先に送信する。
The “OK” button 343 is used by the user to instruct the conference apparatus 101 to confirm the end of the conference. When the CPU 201 receives an instruction to the “OK” button 343 via the input device 206, the CPU 201 displays the screen 300 shown in FIG.
Then, the conference apparatus 101 ends the recording of the conference information and transmits the conference information to the conference server 102. Thereafter, the conference server 102 analyzes and processes the received conference information, generates a minutes, and transmits the minutes to the transmission destination.

次に、会議装置101によって記録される会議情報について説明する。
図4は、会議装置101がストレージ205に記録する会議情報の構成例を示すものである。
Next, conference information recorded by the conference apparatus 101 will be described.
FIG. 4 shows a configuration example of conference information recorded in the storage 205 by the conference apparatus 101.

図4(a)に示す音声情報テーブル400は、会議装置101が録音して取得する音声に関する情報(以下、「音声情報」と言う)を記録するデータテーブルである。会議装置101は、会議中の会話を録音し音声データを記録する。
録音開始時刻列401には、録音開始時刻(会議開始時刻)を記録する。録音終了時刻列402には、録音終了時刻(会議終了時刻)を記録する。音声データ列403には、ストレージ205に記録された音声データのファイル名を記録する。
The audio information table 400 shown in FIG. 4A is a data table that records information about audio acquired by the conference apparatus 101 (hereinafter referred to as “audio information”). The conference apparatus 101 records a conversation during the conference and records voice data.
In the recording start time column 401, the recording start time (conference start time) is recorded. The recording end time column 402 records the recording end time (conference end time). In the audio data column 403, the file name of the audio data recorded in the storage 205 is recorded.

図4(b)に示す画像情報テーブル410は、会議装置101が撮影して取得する画像に関する情報(以下、「画像情報」と言う)を記録するデータテーブルである。会議装置101は、被写体を撮影して画像データを取得し、ファイルとしてストレージ205に記録する。
撮影時刻列411には、撮影時刻を記録する。画像データ列412には、ストレージ205に記録した画像データのファイル名を記録する。
An image information table 410 illustrated in FIG. 4B is a data table that records information (hereinafter referred to as “image information”) related to an image captured and acquired by the conference apparatus 101. The conference apparatus 101 captures image data by capturing a subject and records it as a file in the storage 205.
The shooting time column 411 records the shooting time. In the image data string 412, the file name of the image data recorded in the storage 205 is recorded.

図4(c)に示すアジェンダ情報テーブル420は、会議装置101が記録するアジェンダに関する情報(以下、「アジェンダ情報」と言う)を記録するデータテーブルである。
アジェンダ開始時刻列421には、アジェンダの開始時刻を記録する。アジェンダ終了時刻列422には、アジェンダの終了時刻を記録する。アジェンダ名列423には、アジェンダ名を記録する。
The agenda information table 420 shown in FIG. 4C is a data table that records information on the agenda recorded by the conference apparatus 101 (hereinafter referred to as “agenda information”).
The agenda start time column 421 records the start time of the agenda. The agenda end time column 422 records the end time of the agenda. The agenda name is recorded in the agenda name column 423.

図4(d)に示す話者情報テーブル430は、会議装置101が記録する話者の変更に関する情報(以下、「話者情報」と言う)を記録するデータテーブルである。
発言開始時刻列431には、話者が発言を開始した時刻を記録する。発言終了時刻列432には、話者が発言を終了した時刻を記録する。話者ID列433には、発言した話者を識別するための情報を記録する。本実施例では、話者ID列433に、会議装置101のマイクデバイス210により取得される、発話方向を示すIDを記録する。
The speaker information table 430 shown in FIG. 4D is a data table that records information related to speaker changes recorded by the conference apparatus 101 (hereinafter referred to as “speaker information”).
In the speech start time column 431, the time when the speaker starts speaking is recorded. The speech end time column 432 records the time when the speaker finished speaking. In the speaker ID column 433, information for identifying the speaker who has spoken is recorded. In the present embodiment, the ID indicating the speech direction acquired by the microphone device 210 of the conference apparatus 101 is recorded in the speaker ID column 433.

図4(e)に示す資料情報テーブル440は、PC103が表示した資料(以下、「表示資料」と言う)に関する情報(以下、「資料情報」と言う)を記録するデータテーブルである。
資料開始時刻列441には、PC103が、資料を表示し始めた時刻を記録する。資料終了時刻列442には、PC103が、資料を表示し終えた時刻を記録する。資料名列453には、表示した資料名を記録する。
図4(f)に示す資料ページ情報テーブル450は、PC103が表示した資料のページに関する情報(以下、「資料ページ情報」と言う)を記録するデータテーブルである。
資料ページ開始時刻列451には、PC103が、資料のページを表示し始めた時刻を記録する。資料ページ終了時刻列452には、PC103が、資料のページを表示し終えた時刻を記録する。資料ページ番号列453には、表示している資料の資料名とページ番号とからなる情報を記録する。
A material information table 440 shown in FIG. 4E is a data table that records information (hereinafter referred to as “material information”) related to material displayed by the PC 103 (hereinafter referred to as “display material”).
In the material start time column 441, the time when the PC 103 starts displaying the material is recorded. In the material end time column 442, the time when the PC 103 has finished displaying the material is recorded. The displayed material name is recorded in the material name column 453.
A material page information table 450 shown in FIG. 4F is a data table that records information related to a material page displayed by the PC 103 (hereinafter referred to as “material page information”).
In the document page start time column 451, the time when the PC 103 starts displaying the document page is recorded. The document page end time column 452 records the time when the PC 103 has finished displaying the document page. Information including the material name and page number of the displayed material is recorded in the material page number column 453.

次に、会議装置101の会議情報を記録するための処理について説明する。
図5および図6は、会議情報記録処理を示すフローチャートである。
会議装置101の電源キー(不図示)を操作して電源をONにすると、CPU201は、ストレージ205に記録されているコントローラプログラムを読み込む。そして、コントローラプログラムをRAM204に展開して実行する。これにより、会議装置101は会議情報記録処理を実行することが可能となる。また、CPU201は、画面300の表示画像データを生成して、表示デバイス207に表示させる。
Next, a process for recording the conference information of the conference apparatus 101 will be described.
5 and 6 are flowcharts showing the conference information recording process.
When the power is turned on by operating a power key (not shown) of the conference apparatus 101, the CPU 201 reads a controller program recorded in the storage 205. Then, the controller program is expanded in the RAM 204 and executed. As a result, the conference apparatus 101 can execute the conference information recording process. Further, the CPU 201 generates display image data of the screen 300 and causes the display device 207 to display the display image data.

まず、S501において、CPU201は、会議を開始する指示がなされたか否かを判定する。
「開始」ボタン301への指示がなされていたら、YESと判定する。そして、CPU201は、S502からS515まで(図中AからBまで)の処理と、S516からS522まで(図中CからDまで)の処理とを、並列に実行する。また、このとき、CPU201は、画面310の表示画像データを生成して、表示デバイス207に表示させる。
S501で「開始」ボタン301への指示がなされていなければ、NOと判定し、S524に遷移する。
First, in step S501, the CPU 201 determines whether an instruction to start a conference has been issued.
If an instruction is given to the “start” button 301, it is determined as YES. Then, the CPU 201 executes the processes from S502 to S515 (A to B in the figure) and the processes from S516 to S522 (C to D in the figure) in parallel. At this time, the CPU 201 generates display image data of the screen 310 and causes the display device 207 to display the display image data.
If no instruction is given to the “start” button 301 in S501, the determination is NO and the process proceeds to S524.

図中Aの処理について、S502において、CPU201は、マイクデバイス210により、会話の録音を開始する。これにより、CPU201は、音声データを取得する。
そして、CPU201は、音声情報テーブル400の録音開始時刻列401に現在時刻を記録する。
また、CPU201は、音声データを、ファイルとしてストレージ205に記録し始める。CPU201は、その音声データのファイル名を、音声情報テーブル400の音声データ列403に記録する。なお、録音開始時刻401は会議を開始した時刻となる。
In step S <b> 502, the CPU 201 starts recording a conversation using the microphone device 210. Thereby, the CPU 201 acquires audio data.
Then, the CPU 201 records the current time in the recording start time column 401 of the audio information table 400.
In addition, the CPU 201 starts recording audio data as a file in the storage 205. The CPU 201 records the file name of the sound data in the sound data string 403 of the sound information table 400. The recording start time 401 is the time when the conference is started.

S503において、CPU201は、撮影を要求する指示がなされたか否かを判定する。「撮影」ボタン311への指示がなされていたら、YESと判定し、S504に遷移する。
このとき、CPU201は、画面320の表示画像データを生成して、表示デバイス207に表示させる。「撮影」ボタン311への指示がなされていなければ、NOと判定し、S507に遷移する。
In step S <b> 503, the CPU 201 determines whether an instruction for requesting shooting has been issued. If an instruction is given to the “shoot” button 311, the determination is YES, and the process proceeds to S <b> 504.
At this time, the CPU 201 generates display image data of the screen 320 and displays it on the display device 207. If no instruction is given to the “shoot” button 311, the determination is NO and the process proceeds to S 507.

S504において、CPU201は、撮影の指示がなされたか否かを判定する。画面320内の任意の箇所への指示がなされていたら、YESと判定し、S505に遷移する。画面320内への指示がなされていなければ、NOと判定し、S506に遷移する。   In step S504, the CPU 201 determines whether a shooting instruction has been issued. If an instruction is given to an arbitrary location in the screen 320, it is determined YES and the process proceeds to S505. If there is no instruction in the screen 320, it is determined as NO and the process proceeds to S506.

S505において、CPU201は、ユーザがカメラデバイス209により撮影した被写体の画像データを取得する。また、CPU201は、画像情報テーブル410に新たなレコードを追加する。そして、新たなレコードの撮影時刻列411に現在時刻を記録する。
また、CPU201は、画像データをファイルとしてストレージ205に記録する。そして、画像データのファイル名を画像情報テーブル410の画像データ列412に記録する。
In step S <b> 505, the CPU 201 acquires image data of a subject photographed by the user with the camera device 209. Further, the CPU 201 adds a new record to the image information table 410. Then, the current time is recorded in the shooting time column 411 of the new record.
Further, the CPU 201 records the image data as a file in the storage 205. Then, the file name of the image data is recorded in the image data string 412 of the image information table 410.

S506において、CPU201は、撮影を終了する指示がなされたか否かを判定する。「OK」ボタン321への指示がなされていたら、YESと判定し、S503に遷移する。
このとき、CPU201は、画面310の表示画像データを生成して、表示デバイス207に表示させる。
「OK」ボタン321への指示がなされていなければ、NOと判定し、S504に遷移する。
In step S <b> 506, the CPU 201 determines whether an instruction to end shooting has been issued. If an instruction is given to the “OK” button 321, the determination is YES, and the process proceeds to S 503.
At this time, the CPU 201 generates display image data of the screen 310 and causes the display device 207 to display the display image data.
If no instruction is given to the “OK” button 321, the determination is NO and the process proceeds to S 504.

S507において、CPU201は、アジェンダを変更する指示がなされたか否かを判定する。「アジェンダ」ボタン312への指示がなされていたら、YESと判定し、S508に遷移する。
このとき、CPU201は、画面330の表示画像データを生成して、表示デバイス207に表示させる。
「アジェンダ」ボタン312への指示がなされていなければ、NOと判定し、S513に遷移する。
In step S507, the CPU 201 determines whether an instruction to change the agenda has been issued. If an instruction is given to the “Agenda” button 312, the determination is YES and the process proceeds to S 508.
At this time, the CPU 201 generates display image data of the screen 330 and causes the display device 207 to display it.
If no instruction is given to the “Agenda” button 312, the determination is NO and the process proceeds to S 513.

S508において、CPU201は、アジェンダを開始する指示がなされたか否かを判定する。「開始」ボタン332への指示がなされていたら、YESと判定し、S509に遷移する。「開始」ボタン332への指示がなされていなければ、NOと判定し、S510に遷移する。
なお、S509で開始されて、S511で終了がなされていないアジェンダが残っている場合は、S508での判定はNOとする。
In step S <b> 508, the CPU 201 determines whether an instruction to start an agenda has been issued. If an instruction has been given to the “start” button 332, the determination is YES and the process proceeds to S 509. If no instruction is given to the “start” button 332, it is determined as NO and the process proceeds to S510.
If there is an agenda that has been started in S509 and not ended in S511, the determination in S508 is NO.

S509において、CPU201は、新しいアジェンダを開始する。
このとき、CPU201は、アジェンダ情報テーブル420に新たなレコードを追加する。そして、追加したレコードのアジェンダ開始時刻列421に現在時刻を記録する。
In step S509, the CPU 201 starts a new agenda.
At this time, the CPU 201 adds a new record to the agenda information table 420. Then, the current time is recorded in the agenda start time column 421 of the added record.

S510において、CPU201は、アジェンダを終了する指示がなされたか否かを判定する。「終了」ボタン333への指示がなされていれば、YESと判定し、S511に遷移する。「終了」ボタン333への指示がなされていなければ、NOと判定し、S512に遷移する。
なお、S509で開始されてS511で終了がなされていないアジェンダがない場合には、S510での判定はNOとする。
In step S510, the CPU 201 determines whether an instruction to end the agenda has been issued. If an instruction to the “Finish” button 333 has been given, it is determined YES and the process proceeds to S511. If no instruction is given to the “end” button 333, it is determined as NO and the process proceeds to S512.
Note that if there is no agenda started in S509 and not ended in S511, the determination in S510 is NO.

S511において、CPU201は、現在のアジェンダを終了する。
このとき、CPU201は、アジェンダ情報テーブル420にある、S509で追加したレコードのアジェンダ終了時刻列422に現在時刻を記録する。また、テキストフィールド331に入力されたアジェンダ名をアジェンダ名列423に記録する。
In step S511, the CPU 201 ends the current agenda.
At this time, the CPU 201 records the current time in the agenda end time column 422 of the record added in S509 in the agenda information table 420. Further, the agenda name input in the text field 331 is recorded in the agenda name column 423.

S512において、CPU201は、アジェンダの変更を終了する指示がなされたか否を判定する。「OK」ボタン335への指示がなされていれば、YESと判定し、S503に遷移する。
このとき、CPU201は、画面310の表示画像データを生成して、表示デバイス207に表示させる。
「OK」ボタン335への指示がなされていなければ、NOと判定し、S508に遷移する。
In step S512, the CPU 201 determines whether an instruction to end the agenda change has been given. If an instruction is given to the “OK” button 335, it is determined as YES, and the process proceeds to S503.
At this time, the CPU 201 generates display image data of the screen 310 and causes the display device 207 to display the display image data.
If no instruction is given to the “OK” button 335, it is determined as NO and the process proceeds to S508.

S513において、CPU201は、会議を終了する指示がなされたか否かを判定する。「終了」ボタン313への指示がなされていれば、YESと判定し、S514に遷移する。
このとき、CPU201は、画面340の表示画像データを生成して、表示デバイス207に表示させる。
「終了」ボタン313への指示がなされていなければ、NOと判定し、S503に遷移する。
In step S513, the CPU 201 determines whether an instruction to end the conference has been given. If an instruction is given to the “end” button 313, it is determined as YES and the process proceeds to S514.
At this time, the CPU 201 generates display image data of the screen 340 and displays it on the display device 207.
If no instruction is given to the “end” button 313, it is determined as NO, and the process proceeds to S503.

S514において、CPU201は、マイクデバイス210による会議の録音を終了する。
このとき、CPU201は、音声情報テーブル400の録音終了時刻列402に現在時刻を記録する。なお、アジェンダ情報テーブル420内に、アジェンダ終了時刻列422に終了時刻が記録されていないレコードがあれば、現在時刻をアジェンダ終了時刻列422に記録する。
In step S <b> 514, the CPU 201 ends the conference recording by the microphone device 210.
At this time, the CPU 201 records the current time in the recording end time column 402 of the audio information table 400. If there is a record in the agenda information table 420 in which the end time is not recorded in the agenda end time column 422, the current time is recorded in the agenda end time column 422.

S515において、CPU201は、会議の終了を確定する指示がなされたか否かを判定する。テキストフィールド341に送信先が入力され、かつ、「OK」ボタン343への指示がなされていれば、YESと判定し、S523に遷移する。テキストフィールド341に送信先が入力されていない、あるいは、「OK」ボタン343への指示がなされていなければ、NOと判定し、再度S515の処理を行う。
なお、テキストフィールド341に入力された送信先と、ラジオボタン342で選択された区間種別は、会議情報の一部として記録される。
In step S515, the CPU 201 determines whether an instruction to finalize the conference has been issued. If the transmission destination is input in the text field 341 and the “OK” button 343 is instructed, the determination is YES, and the process proceeds to S523. If the transmission destination is not input in the text field 341 or if an instruction to the “OK” button 343 is not made, it is determined as NO, and the process of S515 is performed again.
Note that the transmission destination input in the text field 341 and the section type selected by the radio button 342 are recorded as part of the conference information.

一方、図中Cの処理について、S516において、CPU201は、話者が変化したか否かを判定する。
このため、CPU201は、話者情報テーブル430の最新レコード、すなわち、発言開始時刻列431の値がもっとも新しいレコードの話者ID列433の値を読み出す。また、マイクデバイス210により発話方向を取得し、その発話方向に該当するIDを取得する。これらID同士を比較して、一致しなければ、YESと判定して、S517に遷移する。また、話者情報テーブル430にレコードがひとつもない場合、すなわち、最初の発話の場合も、YESと判定する。
一致すれば、NOと判定し、S518に遷移する。
On the other hand, regarding the process of C in the figure, in S516, the CPU 201 determines whether or not the speaker has changed.
For this reason, the CPU 201 reads out the latest record of the speaker information table 430, that is, the value of the speaker ID column 433 of the record having the latest value of the speech start time column 431. Also, the utterance direction is acquired by the microphone device 210, and the ID corresponding to the utterance direction is acquired. If these IDs are compared and they do not match, it is determined YES and the process proceeds to S517. Also, if there is no record in the speaker information table 430, that is, the first utterance, the determination is YES.
If they match, it is determined as NO and the process proceeds to S518.

S517において、CPU201は、話者の変更を記録する。
このとき、CPU201は、話者情報テーブル430の最新レコードの発言終了時刻列432に、前の話者の発言終了時刻として、現在時刻を記録する。
また、CPU201は、話者情報テーブル430に新たなレコードを追加する。そして、追加したレコードの発言開始時刻列431に現在時刻を記録する。
In step S517, the CPU 201 records speaker changes.
At this time, the CPU 201 records the current time as the speech end time of the previous speaker in the speech end time column 432 of the latest record in the speaker information table 430.
Further, the CPU 201 adds a new record to the speaker information table 430. Then, the current time is recorded in the comment start time column 431 of the added record.

S518において、CPU201は、PC103が表示した資料である表示資料の変更があったか否かを判定する。
外部インターフェース208を介して、PC103から、表示した資料のファイル名を受信していれば、YESと判定し、S519に遷移する。受信していなければ、NOと判定し、S520に遷移する。
In step S <b> 518, the CPU 201 determines whether there is a change in the display material that is the material displayed by the PC 103.
If the file name of the displayed material is received from the PC 103 via the external interface 208, the determination is YES and the process proceeds to S519. If it has not received, it will determine with NO and will change to S520.

S519において、CPU201は、表示資料の変更を記録する。
このとき、CPU201は、資料情報テーブル440の最新レコード、すなわち、資料開始時刻列441の値がもっとも新しいレコードの資料終了時刻列442に、前の資料の表示の終了時刻として、現在時刻を記録する。
また、CPU201は、資料情報テーブル440に新たなレコードを追加する。そして、追加したレコードの資料開始時刻列441に現在時刻を記録し、資料名列453に受信した資料のファイル名を記録する。
In S519, the CPU 201 records the change of the display material.
At this time, the CPU 201 records the current time as the display end time of the previous material in the latest record of the material information table 440, that is, the material end time column 442 of the record having the newest value in the material start time column 441. .
Further, the CPU 201 adds a new record to the material information table 440. Then, the current time is recorded in the material start time column 441 of the added record, and the file name of the received material is recorded in the material name column 453.

S520において、CPU201は、表示画像データを受信しているか否かを判定する。
外部インターフェース208を介して、PC103から、表示画像データを受信していれば、YESと判定し、S521に遷移する。受信していなければ、NOと判定し、S522に遷移する。
In step S520, the CPU 201 determines whether display image data is received.
If display image data is received from the PC 103 via the external interface 208, the determination is YES and the process proceeds to S521. If it has not received, it will determine with NO and will change to S522.

S521において、CPU201は、受信した表示画像データに基づいて、表示資料のページの変更を記録する。S521における処理の詳細は、図6を用いて説明する。   In step S <b> 521, the CPU 201 records the change of the display material page based on the received display image data. Details of the processing in S521 will be described with reference to FIG.

図6は、会議装置101が表示資料のページの変更を記録する処理を示すフローチャートである。   FIG. 6 is a flowchart illustrating a process in which the conference apparatus 101 records a change in the page of the display material.

S601において、CPU201は、表示資料の変更があったか否かを判定する。
S518でYESと判定していれば、ここでもYESと判定してS602に遷移する。S518でNOと判定していれば、ここでもNOと判定してS605に遷移する。
In step S601, the CPU 201 determines whether there has been a change in display material.
If it determines with YES by S518, it will also determine YES here and will change to S602. If it is determined NO in S518, it is also determined as NO here, and the process proceeds to S605.

S602において、CPU201は、表示資料がこの会議で初めて表示する資料であるか否かを判定する。
このとき、CPU201は、資料ページ情報テーブル450を参照し、資料ページ番号列453の値に、現在表示している資料の名称を含む情報が記録されたレコードがあるかを調べる。
該当するレコードがない場合には、YESと判定し、S603に遷移する。これは、すなわち、その表示資料がこの会議において初めて表示されたものであることを意味する。
該当するレコードがある場合には、NOと判定し、S604に遷移する。これは、すなわち、PC103のアプリケーションプログラムが、ある資料を表示した後、別の資料を表示し、その後に、以前に表示した資料を改めて表示したこと、などを意味する。
In step S <b> 602, the CPU 201 determines whether the display material is a material displayed for the first time in this meeting.
At this time, the CPU 201 refers to the material page information table 450 and checks whether there is a record in which the value of the material page number column 453 contains information including the name of the currently displayed material.
When there is no corresponding record, it determines with YES and changes to S603. This means that the displayed material is displayed for the first time in this conference.
If there is a corresponding record, it is determined as NO and the process proceeds to S604. This means that the application program of the PC 103 displays a certain material, displays another material, and then displays the previously displayed material again.

S603において、CPU201は、現在のページ番号を1として、RAM204に一時的に記憶する。   In step S <b> 603, the CPU 201 temporarily stores the current page number as 1 in the RAM 204.

S604において、CPU201は、現在のページ番号を、その表示資料を最後に表示していた際のページ番号として、RAM204に一時的に記憶する。
このとき、CPU201は、資料ページ情報テーブル450内で、資料ページ番号列453の値に現在表示している資料の名称を含むレコードを探していく。それらのレコードの中で、資料ページ開始時刻列451が最新の時刻であるレコードの資料ページ番号列453に含まれるページ番号を取得する。
In step S <b> 604, the CPU 201 temporarily stores the current page number in the RAM 204 as the page number when the display material was last displayed.
At this time, the CPU 201 searches the document page information table 450 for a record including the name of the currently displayed material in the value of the material page number column 453. Among these records, the page number included in the document page number column 453 of the record whose document page start time column 451 is the latest time is acquired.

一方、S605において、CPU201は、表示しているページに変更があったか否かを判定する。
後述するように、表示画像データは、ストレージ205に記憶されている。CPU201は、資料ページ情報テーブル450のレコードであって、資料ページ開始時刻列451が最新のレコードに該当する表示画像データを、ストレージ205から読み出す。
そして、CPU201は、外部インターフェース208を介して受信した表示画像データとの間で画像差分を計算する。差分のある画素が予め定めた閾値以上存在する場合には、YES、つまり、表示しているページに変更があったと判定して、S606に遷移する。差分のある画素が予め定めた閾値を未満である場合には、NOと判定し、図6のフローチャートの処理を終了する。
On the other hand, in step S605, the CPU 201 determines whether there is a change in the displayed page.
As will be described later, the display image data is stored in the storage 205. The CPU 201 reads from the storage 205 display image data corresponding to the record in the document page information table 450 and having the latest record page start time column 451.
Then, the CPU 201 calculates an image difference with display image data received via the external interface 208. If there is a difference pixel more than a predetermined threshold, it is determined YES, that is, the displayed page has been changed, and the process proceeds to S606. If the pixel having the difference is less than the predetermined threshold, it is determined as NO, and the process of the flowchart of FIG. 6 is terminated.

S606において、CPU201は、現在表示されているページが新しいページであるか否かを判定する。
CPU201は、資料ページ情報テーブル450内の、資料ページ番号列453の値に現在表示している資料の名称を含み、かつ、資料ページ開始時刻列451が二つ目に新しい時刻であるレコードを選択する。そして、そのレコードに該当する表示画像データを、ストレージ205から読み出す。
そして、CPU201は、外部インターフェース208を介して受信した表示画像データとの間で画像差分を計算する。差分のある画素が予め定めた閾値未満である場合には、NO、つまり、ひとつ前のページを表示したと判定し、S607に遷移する。差分のある画素が予め定めた閾値以上である場合には、YES、すなわち、次の新しいページを表示したと判定し、S608に遷移する。
In step S606, the CPU 201 determines whether the currently displayed page is a new page.
The CPU 201 selects a record that includes the name of the currently displayed material in the value of the material page number column 453 in the material page information table 450 and whose material page start time column 451 is the second newest time. To do. Then, the display image data corresponding to the record is read from the storage 205.
Then, the CPU 201 calculates an image difference with display image data received via the external interface 208. If the difference pixel is less than the predetermined threshold, it is determined NO, that is, the previous page is displayed, and the process proceeds to S607. If the difference pixel is equal to or greater than a predetermined threshold, it is determined YES, that is, the next new page is displayed, and the process proceeds to S608.

S607において、CPU201は、現在のページ番号をそのままとして、RAM204に一時的に記憶する。すなわち、S606で選択したレコードの資料ページ番号列453に含まれるページ番号を記憶する。   In step S <b> 607, the CPU 201 temporarily stores the current page number in the RAM 204 as it is. That is, the page number included in the material page number column 453 of the record selected in S606 is stored.

S608において、CPU201は、現在のページ番号を次のページ番号として、RAM204に一時的に記憶する。すなわち、S605で参照したレコードの資料ページ番号列453に含まれるページ番号に1を加算して、その値を記憶する。   In step S <b> 608, the CPU 201 temporarily stores the current page number as the next page number in the RAM 204. That is, 1 is added to the page number included in the material page number column 453 of the record referred to in S605, and the value is stored.

S609において、CPU201は、ページの変更を記録する。
このとき、CPU201は、資料ページ情報テーブル450から最新、すなわち、資料ページ開始時刻列451の時刻が最新のレコードを取得する。そして、そのレコードの資料ページ終了時刻列452に、ページの表示終了時刻として、現在時刻を記録する。
また、CPU201は、資料ページ情報テーブル450に新たなレコードを追加する。そして、追加したレコードの資料ページ開始時刻列451に現在時刻を記憶する。また、追加したレコードの資料ページ番号列453に、外部インターフェース208を介して受信した現在表示している資料のファイル名と、RAM204に一時的に記憶したページ番号とからなる情報を記憶する。
In step S609, the CPU 201 records a page change.
At this time, the CPU 201 acquires the latest record from the material page information table 450, that is, the latest record in the material page start time column 451. Then, the current time is recorded as the page display end time in the document page end time column 452 of the record.
In addition, the CPU 201 adds a new record to the material page information table 450. Then, the current time is stored in the material page start time column 451 of the added record. Further, information including the file name of the currently displayed material received via the external interface 208 and the page number temporarily stored in the RAM 204 is stored in the material page number column 453 of the added record.

S610において、CPU201は、外部インターフェース208を介して受信した表示画像データを、ストレージ205に記憶する。
このとき、S609で追加したレコードの資料ページ番号列453の値を、ストレージ205における表示画像データのファイル名とすることにより、S605やS606において、表示画像データを参照することができる。
In step S <b> 610, the CPU 201 stores display image data received via the external interface 208 in the storage 205.
At this time, the display image data can be referred to in S605 and S606 by using the value of the document page number column 453 of the record added in S609 as the file name of the display image data in the storage 205.

図5に戻り、S522において、CPU201は、会議を終了する指示がなされたか否かを判定する。これは、S513と同様の処理である。   Returning to FIG. 5, in step S <b> 522, the CPU 201 determines whether an instruction to end the conference has been issued. This is the same processing as S513.

S523において、CPU201は、以上の処理においてストレージ205に記録した会議情報を、外部インターフェース208を介して、会議サーバ102に送信する。送信した後には、会議情報をストレージ205から削除してもよい。また、CPU201は、画面300の表示画像データを生成して、表示デバイス207に表示させる。   In step S <b> 523, the CPU 201 transmits the conference information recorded in the storage 205 in the above processing to the conference server 102 via the external interface 208. After the transmission, the conference information may be deleted from the storage 205. Further, the CPU 201 generates display image data of the screen 300 and causes the display device 207 to display the display image data.

S524において、CPU201は、電源をオフする指示がなされたか否かを判定する。
例えば、会議装置101の電源キーが押下されたり、ユーザの発話における特定の文言(コマンド)が検出されたりすることなどにより、電源オフの指示がなされたと判定される。
電源オフの指示がなされていれば、YESと判定し、処理を終了する。指示がなされていなければ、NOと判定し、ステップ501に遷移する。
In step S524, the CPU 201 determines whether an instruction to turn off the power has been given.
For example, it is determined that an instruction to turn off the power is given by pressing the power key of the conference apparatus 101 or detecting a specific word (command) in the user's utterance.
If an instruction to turn off the power has been given, the determination is YES and the process is terminated. If no instruction is given, it is determined as NO, and the process proceeds to step 501.

次に、会議サーバ102が会議装置101から受信した会議情報を解析・加工して生成する議事録元情報について説明する。
図7と図8は、会議サーバ102がストレージ255に記録する議事録元情報の構成例を示すものである。
Next, the minutes source information generated by the conference server 102 analyzing and processing the conference information received from the conference device 101 will be described.
7 and 8 show configuration examples of the minutes source information recorded in the storage 255 by the conference server 102. FIG.

図7(a)に示す発話テキスト情報テーブル700は、会議情報に含まれる音声データに対する音声認識結果に関する情報(以下、「発話テキスト情報」と言う)を記録するデータテーブルである。発話テキスト情報テーブルは、音声データが解析されてユーザの発話が特定されると、発話毎にレコードとして生成される。
発話時刻列701は、発話が発生した時刻(以下、「発話時刻」と言う)を記録するものである。発話テキスト列702は、発話を音声認識することにより得られた発話テキストを記録するものである。発話や発話時刻の特定については後述する。
The utterance text information table 700 shown in FIG. 7A is a data table that records information related to the speech recognition result for the speech data included in the conference information (hereinafter referred to as “utterance text information”). The utterance text information table is generated as a record for each utterance when voice data is analyzed and a user's utterance is specified.
The utterance time column 701 records the time when the utterance occurred (hereinafter referred to as “utterance time”). The utterance text column 702 records the utterance text obtained by voice recognition of the utterance. The specification of the utterance and the utterance time will be described later.

図7(b)に示す記入テキスト情報テーブル710は、会議情報に含まれる画像データに対する文字認識結果に関する情報(以下、「記入テキスト情報」と言う)を記録するデータテーブルである。記入テキスト情報テーブル710は、画像データが解析されてユーザによる記入が特定されると、記入毎にレコードとして生成される。
記入時刻列711は、記入が発生した時刻(以下、「記入時刻」と言う)を記録するものである。記入テキスト列712は、画像データを文字認識することにより得られた記入テキストを記録するものである。記入や記入時刻の特定については後述する。
An entry text information table 710 shown in FIG. 7B is a data table for recording information about a character recognition result for image data included in the conference information (hereinafter referred to as “entry text information”). The entry text information table 710 is generated as a record for each entry when the image data is analyzed and the entry by the user is specified.
The entry time column 711 records the time at which entry occurred (hereinafter referred to as “entry time”). The entry text column 712 records entry text obtained by character recognition of image data. The specification of entry and entry time will be described later.

図7(c)に示す会議テキスト情報テーブル720は、会議において発生したテキスト(以下、「会議テキスト」と言う)に関する情報(以下、「会議テキスト情報」と言う)を記録するデータテーブルである。会議テキスト情報は、図7(a)に示した発話テキスト情報と、図7(b)に示した記入テキスト情報を、統合して生成される。
発生時刻列721は、会議テキスト情報が発生した時刻を記録するものであり、発話時刻701または記入時刻711の時刻を記録する。
会議テキスト列722は、会議テキストを記録するものであり、発話テキスト列702または記入テキスト列712のテキストを記録する。
区分列723は、そのレコードが、統合前には発話テキスト情報であったのか記入テキスト情報であったのかを記録するものである。発話テキスト情報であった場合には0を記録し、記入テキスト情報であった場合には1を記録する。
要点列724は、そのレコードの会議テキスト列722の会議テキストが要点であるか否かを記録するものである。ここで、要点とは、会議において決定した事項や、発生したアクションアイテム(会議の場で参加者に対して行う作業の依頼)など、会議における主要な内容を示すものである。要点である場合には1を記録し、そうでない場合には0を記録する。
なお、会議テキスト情報テーブル720のレコードは、発生時刻列721の値で昇順に(発生した順に)ソートする。
The conference text information table 720 shown in FIG. 7C is a data table for recording information (hereinafter referred to as “conference text information”) regarding text generated in the conference (hereinafter referred to as “conference text information”). The meeting text information is generated by integrating the utterance text information shown in FIG. 7A and the entry text information shown in FIG.
The occurrence time column 721 records the time when the meeting text information is generated, and records the time of the utterance time 701 or the entry time 711.
The conference text column 722 records the conference text, and records the text of the utterance text column 702 or the entry text column 712.
The classification column 723 records whether the record was utterance text information or entry text information before integration. If it is utterance text information, 0 is recorded, and if it is entry text information, 1 is recorded.
The point column 724 records whether or not the meeting text in the meeting text column 722 of the record is a point. Here, the main points indicate main contents in the conference such as matters determined in the conference and action items generated (requests for work performed on participants in the conference). If it is the main point, 1 is recorded, otherwise 0 is recorded.
The records in the conference text information table 720 are sorted in ascending order (in the order in which they occurred) by the value in the occurrence time column 721.

図7(d)に示す要点情報テーブル730は、要点に関する情報(以下、「要点情報」と言う)を記録するデータテーブルである。
要点開始時刻列731には、区間の開始時刻を記録する。また、要点終了時刻列732には、区間の終了時刻を記録する。
ここで、本実施例において、「区間」とは、「ある要点」が発生してから、「次の別の要点」が発生するまでの間と定義される。したがって、要点開始時刻列731とは、「ある要点」の発生時刻である。また、要点終了時刻列732とは、「次の別の要点」の発生時刻である。
なお、最初に発生した要点の要点開始時刻列731には、録音開始時刻(会議開始時刻)を記録する。要点列733には、要点の内容を記録する。
The point information table 730 shown in FIG. 7D is a data table for recording information about points (hereinafter referred to as “point information”).
The start time of the section is recorded in the main point start time column 731. Further, the end time of the section is recorded in the main point end time column 732.
Here, in this embodiment, the “section” is defined as a period from the occurrence of “a certain point” to the occurrence of “the next another point”. Therefore, the main point start time column 731 is the occurrence time of the “certain point”. Further, the main point end time column 732 is an occurrence time of the “next main point”.
Note that the recording start time (conference start time) is recorded in the main point start time column 731 of the main point that occurred first. The contents of the main points are recorded in the main point column 733.

図8に示す要約情報テーブル800は、図7(c)に示した会議テキストを要約した情報(以下、「要約情報」と言う)を記録したデータテーブルである。会議テキスト情報テーブル720の会議テキスト列722の会議テキストを、ユーザがラジオボタン342を操作して指定した種別の区間ごとに要約することにより、要約テキストが生成される。
区間名列801には、区間の名称を記録する。区間名については、後述する。
要約テキスト列802には、生成した要約テキストを記録する。
The summary information table 800 illustrated in FIG. 8 is a data table in which information (hereinafter referred to as “summary information”) that summarizes the conference text illustrated in FIG. 7C is recorded. The summary text is generated by summarizing the conference text in the conference text column 722 of the conference text information table 720 for each section of the type specified by the user operating the radio button 342.
In the section name column 801, the section name is recorded. The section name will be described later.
The generated summary text is recorded in the summary text column 802.

次に、図9のフローチャートを用いて、会議サーバ102が議事録を生成する処理について説明する。
まず、会議サーバ102が起動すると、CPU251は、ストレージ255に記録されている会議サーバプログラムを読み込む。そして、会議サーバプログラムを、RAM254に展開して、実行する。これにより、会議サーバ102は議事録生成処理を実行することが可能となる。
Next, a process of generating the minutes by the conference server 102 will be described using the flowchart of FIG.
First, when the conference server 102 is activated, the CPU 251 reads a conference server program recorded in the storage 255. Then, the conference server program is expanded in the RAM 254 and executed. Thereby, the conference server 102 can execute the minutes generation process.

そして、図9(a)のS901において、CPU251は、会議情報を受信したか否かを判定する。
外部インターフェース258を介して、会議装置101から会議情報を受信しているならば、YESと判定し、S902に遷移する。外部インターフェース258を介して、会議装置101から会議情報を受信していなければ、NOと判定し、S909に遷移する。
In step S901 in FIG. 9A, the CPU 251 determines whether conference information has been received.
If the conference information is received from the conference apparatus 101 via the external interface 258, it is determined as YES and the process proceeds to S902. If the conference information is not received from the conference apparatus 101 via the external interface 258, it is determined as NO and the process proceeds to S909.

S902において、CPU251は、受信した会議情報に含まれる音声データに対して音声認識を行い、発話テキストを取得する。
ここで、CPU251は、音声データを先頭から走査して、個々の発話区間について、音声認識を行って発話テキストを取得する。
なお、発話区間とは、音声データ中のある無音区間と次の無音区間の間の区間を指す。また、無音区間は、例えば、音声データの音圧が閾値以下の状態が一定時間継続されたことに基づいて検出される。
In step S <b> 902, the CPU 251 performs voice recognition on the voice data included in the received conference information, and acquires the utterance text.
Here, the CPU 251 scans the voice data from the head, performs voice recognition for each utterance section, and acquires the utterance text.
Note that the utterance section refers to a section between a certain silent section in the audio data and the next silent section. The silent section is detected based on, for example, a state in which the sound pressure of the audio data is below a threshold value for a certain period of time.

また、CPU251は、会議情報の音声情報テーブル400の録音開始時刻列401の録音開始時刻と、各発話区間の音声データの先頭からの経過時間とから、各発話区間の発話時刻を計算する。そして、発話テキスト情報テーブル700内に各発話区間のレコードを生成する。さらに、各発話区間の発話時刻と発話テキストとを、それぞれ、発話時刻列701と発話テキスト列702に記録する。
S902の処理により、図7(a)に示した記入テキスト情報テーブル710が作成される。
Further, the CPU 251 calculates the utterance time of each utterance section from the recording start time in the recording start time column 401 of the conference information voice information table 400 and the elapsed time from the beginning of the voice data of each utterance section. Then, a record of each utterance section is generated in the utterance text information table 700. Furthermore, the utterance time and the utterance text of each utterance section are recorded in the utterance time column 701 and the utterance text column 702, respectively.
The entry text information table 710 shown in FIG. 7A is created by the processing of S902.

S903において、CPU251は、受信した会議情報に含まれる画像データに対して文字認識を行い、記入テキストを取得する。
ここで、CPU251は、会議情報に含まれる画像情報テーブル410内のレコードを順に走査して、次の処理を行う。
まず、画像情報テーブル410のレコードは、撮影時刻列411の値で昇順に(撮影した順に)ソートしておく。CPU251は、現在参照しているレコードの画像データ列412が示す画像データと、ひとつ前のレコードの画像データ列412が示す画像データとの画像差分を求める。画像差分は、ひとつ前のレコードに該当する撮影から、現在参照しているレコードに該当する撮影までの間に、ユーザが記入した文字が含まれる部分画像とみなすことができる。そこで、部分画像に対して文字認識を行い、記入テキストを取得する。
In step S <b> 903, the CPU 251 performs character recognition on the image data included in the received conference information, and acquires entry text.
Here, the CPU 251 sequentially scans the records in the image information table 410 included in the conference information, and performs the following processing.
First, the records of the image information table 410 are sorted in ascending order (in order of shooting) by the value of the shooting time column 411. The CPU 251 obtains an image difference between the image data indicated by the image data sequence 412 of the currently referenced record and the image data indicated by the image data sequence 412 of the previous record. The image difference can be regarded as a partial image including characters entered by the user from the shooting corresponding to the previous record to the shooting corresponding to the currently referenced record. Therefore, character recognition is performed on the partial image to obtain entry text.

また、現在参照しているレコードの撮影時刻列411の撮影時刻を、画像差分が発生した時刻、すなわち、ユーザによる記入がなされた記入時刻とする。
このようにして得られた記入時刻と記入テキスト毎に、記入テキスト情報テーブル710内にレコードを生成する。また、記入時刻と記入テキストを、それぞれ、記入時刻列711と記入テキスト列712に記録する。
S903の処理により、図7(b)に示した発話テキスト情報テーブル700が作成される。
In addition, the shooting time in the shooting time column 411 of the record that is currently referred to is set as the time when the image difference occurs, that is, the entry time when the user has entered.
A record is generated in the entry text information table 710 for each entry time and entry text obtained in this way. The entry time and entry text are recorded in the entry time column 711 and entry text column 712, respectively.
By the process of S903, the utterance text information table 700 shown in FIG. 7B is created.

S904において、CPU251は、発話テキストと記入テキストを統合して、会議テキストを生成する。
すなわち、CPU251は、S902で生成した発話テキスト情報テーブル700と、S903で生成した記入テキスト情報テーブル710とを統合して、会議テキスト情報テーブル720を生成する。
In step S904, the CPU 251 integrates the utterance text and the entry text to generate a conference text.
That is, the CPU 251 integrates the utterance text information table 700 generated in S902 and the entry text information table 710 generated in S903 to generate a conference text information table 720.

ここで、CPU251は、以下の処理を行うことにより、会議テキスト情報テーブル720を生成する。
まず、CPU251は、発話テキスト情報テーブル700に含まれる各レコードに対応するレコードを会議テキスト情報テーブル720内に追加する。
このとき、CPU251は、発話時刻列701の発話時刻を、会議テキストが発生した時刻として、発生時刻列721に記録する。また、発話テキスト列702の発話テキストを、会議テキストとして、会議テキスト列722に記録する。区分列723には、元のデータが発話テキスト情報であったことを示す0を記録する。
Here, the CPU 251 generates the conference text information table 720 by performing the following processing.
First, the CPU 251 adds a record corresponding to each record included in the utterance text information table 700 to the conference text information table 720.
At this time, the CPU 251 records the utterance time in the utterance time column 701 in the occurrence time column 721 as the time when the conference text occurs. Also, the utterance text in the utterance text column 702 is recorded in the conference text column 722 as the conference text. In the division column 723, 0 indicating that the original data was utterance text information is recorded.

また、CPU251は、記入テキスト情報テーブル710に含まれる各レコードに対応するレコードを会議テキスト情報テーブル720内に追加する。
このとき、CPU251は、記入時刻列711の記入時刻を、会議テキストが発生した時刻として、発生時刻列721に記録する。また、記入テキスト列712の記入テキストを、会議テキストとして、会議テキスト列722に記録する。区分列723には、元のデータが記入テキスト情報であったことを示す1を記録する。
そして、CPU251は、以上のとおり追加したレコードを発生時刻列721の値で昇順に(発生した順に)ソートする。
In addition, the CPU 251 adds a record corresponding to each record included in the entry text information table 710 to the conference text information table 720.
At this time, the CPU 251 records the entry time in the entry time column 711 in the occurrence time column 721 as the time when the meeting text occurs. The entry text in the entry text column 712 is recorded in the conference text column 722 as the conference text. In the division column 723, 1 indicating that the original data was entry text information is recorded.
Then, the CPU 251 sorts the records added as described above in ascending order (in the order in which they occurred) by the value in the occurrence time column 721.

S905において、CPU251は、S904で生成した会議テキストから要点を抽出する。
ここで、要点抽出処理の詳細を、図9(b)を用いて説明する。
図9(b)のS921において、CPU251は、処理の対象とする会議テキスト情報テーブル720のレコードを選択する。なお、S921を最初に実行する場合には、会議テキスト情報テーブル720の先頭のレコードを選択する。2回目以降は、現在選択しているレコードの次のレコードを選択する。
In S905, the CPU 251 extracts the main points from the conference text generated in S904.
Here, the details of the point extraction process will be described with reference to FIG.
In S921 in FIG. 9B, the CPU 251 selects a record in the conference text information table 720 to be processed. When S921 is executed for the first time, the top record of the conference text information table 720 is selected. From the second time onward, the record next to the currently selected record is selected.

S922において、CPU251は、会議テキスト情報テーブル720のすべてのレコードについて要点抽出処理したか否かを判定する。
S921において次のレコードがなく、選択できなかった場合には、YESと判定し、要点抽出処理を終了する。
S921において次のレコードを選択できた場合には、NOと判定し、S923に遷移する。
In S922, the CPU 251 determines whether or not the main point extraction processing has been performed for all the records in the conference text information table 720.
If there is no next record in S921 and it cannot be selected, it is determined as YES and the point extraction process is terminated.
If the next record can be selected in S921, the determination is NO and the process proceeds to S923.

S923において、CPU251は、現在選択しているレコードの会議テキストが、要点であるか否かを判定する。
例えば、会議テキストが、予め決定した特定のキーワードを含むならば、要点であると判定する。要点である場合には、現在選択しているレコードの要点列724に1を記録する。そうでない場合は、0を記録する。
以上の処理により、図7(c)に示した会議テキスト情報テーブル720が作成される。
In S923, the CPU 251 determines whether or not the meeting text of the currently selected record is the main point.
For example, if the meeting text includes a specific keyword determined in advance, it is determined that it is the main point. If it is a point, 1 is recorded in the point column 724 of the currently selected record. Otherwise, 0 is recorded.
With the above processing, the conference text information table 720 shown in FIG. 7C is created.

S924において、CPU251は、現在選択しているレコードの会議テキストが要点であるか否かを判定する。
S923において要点であると判定した場合には、YESと判定し、S925に遷移する。S923において要点でないと判定した場合には、NOと判定し、S921に遷移する。
In S924, the CPU 251 determines whether or not the meeting text of the currently selected record is the main point.
When it determines with it being a main point in S923, it determines with YES and changes to S925. If it is determined in S923 that it is not the main point, it is determined as NO and the process proceeds to S921.

S925において、CPU251は、要点が発生したことを記憶する。
要点情報テーブル730にレコードが存在する場合、CPU251は、最新のレコード、すなわち、要点開始時刻列731の値が最新の時刻のレコードを取得する。そして、そのレコードの要点終了時刻列732のレコードの値を、要点開始時刻として取得する。
要点情報テーブル730にレコードが存在しない場合には、CPU251は、音声情報テーブル400の録音開始時刻列401の値(すなわち、会議開始時刻)を、要点開始時刻として取得する。
そして、CPU251は、要点情報テーブル730に新たなレコードを追加し、追加したレコードの要点開始時刻列731に、取得した要点開始時刻を記録する。また、要点終了時刻列732に、現在選択している会議テキスト情報テーブル720のレコードの、発生時刻列721の値を記録する。要点列733には、要点の内容として、現在選択している会議テキスト情報テーブル720のレコードの会議テキスト列722の値を記録する。
以上の処理により、図7(d)に示した要点情報テーブル730が作成される。
In S925, the CPU 251 stores that the main point has occurred.
If there is a record in the gist information table 730, the CPU 251 acquires the latest record, that is, the record with the latest value in the gist start time column 731. Then, the value of the record in the main point end time column 732 of the record is acquired as the main point start time.
When there is no record in the main point information table 730, the CPU 251 acquires the value of the recording start time column 401 of the audio information table 400 (that is, the conference start time) as the main point start time.
Then, the CPU 251 adds a new record to the point information table 730 and records the acquired point start time in the point start time column 731 of the added record. Further, the value of the occurrence time column 721 of the record of the currently selected conference text information table 720 is recorded in the main point end time column 732. In the gist column 733, the value of the conference text column 722 of the record of the currently selected conference text information table 720 is recorded as the content of the gist.
Through the above processing, the main point information table 730 shown in FIG. 7D is created.

図9(a)に戻り、S906において、CPU251は、S904で生成した会議テキストを要約する、要約処理を行う。
ここで、要約処理の詳細を、図9(c)を用いて説明する。
Returning to FIG. 9A, in S906, the CPU 251 performs a summarization process for summarizing the conference text generated in S904.
Here, the details of the summary process will be described with reference to FIG.

S941において、CPU251は、会議テキストの要約に利用する区間種別を選択する。
ここで、CPU251は、会議情報に含まれる、ユーザが選択した区間種別の情報を参照して選択する。また、これに基づいて、アジェンダ情報テーブル420、話者情報テーブル430、資料情報テーブル440、資料ページ情報テーブル450、要点情報テーブル730の中から、参照すべきテーブルを選択する。
In S941, the CPU 251 selects a section type to be used for the summary of the conference text.
Here, the CPU 251 refers to and selects the section type information selected by the user included in the conference information. Based on this, a table to be referred to is selected from the agenda information table 420, the speaker information table 430, the material information table 440, the material page information table 450, and the main point information table 730.

すなわち、ユーザが選択した区間種別が「アジェンダごと」であれば、アジェンダ情報テーブル420を選択する。ユーザが選択した区間種別が「話者ごと」であれば、話者情報テーブル430を選択する。ユーザが選択した区間種別が「資料ごと」であれば、資料情報テーブル440を選択する。ユーザが選択した区間種別が「資料ページごと」であれば、資料ページ情報テーブル450を選択する。ユーザが選択した区間種別が「要点ごと」であれば、要点情報テーブル730を選択する。   That is, if the section type selected by the user is “per agenda”, the agenda information table 420 is selected. If the section type selected by the user is “for each speaker”, the speaker information table 430 is selected. If the section type selected by the user is “for each material”, the material information table 440 is selected. If the section type selected by the user is “every document page”, the document page information table 450 is selected. If the section type selected by the user is “for each key point”, the key point information table 730 is selected.

なお、ここで、アジェンダ情報テーブル420、話者情報テーブル430、資料情報テーブル440、資料ページ情報テーブル450、要点情報テーブル730、を総称して「区間情報テーブル」と言う。
また、アジェンダ開始時刻列421、発言開始時刻列431、資料開始時刻列441、資料ページ開始時刻列451、要点開始時刻列731、を総称して「区間開始時刻列」と言う。
また、アジェンダ終了時刻列422、発言終了時刻列432、資料終了時刻列442、資料ページ終了時刻列452、要点終了時刻列732、を総称して「区間終了時刻列」と言う。
また、アジェンダ名列423、話者列433、資料名列453、資料ページ番号列453、要点列733、を総称して「区間名列」と言う。
Here, the agenda information table 420, the speaker information table 430, the material information table 440, the material page information table 450, and the main point information table 730 are collectively referred to as “section information table”.
Further, the agenda start time column 421, the speech start time column 431, the material start time column 441, the material page start time column 451, and the main point start time column 731 are collectively referred to as “section start time column”.
Further, the agenda end time column 422, the speech end time column 432, the material end time column 442, the material page end time column 452, and the main point end time column 732 are collectively referred to as “section end time column”.
Further, the agenda name column 423, the speaker column 433, the material name column 453, the material page number column 453, and the main point column 733 are collectively referred to as “section name column”.

S942において、CPU251は、処理の対象とする区間情報テーブルのレコードを選択する。
S942を最初に実行する場合には、区間情報テーブルの先頭のレコードを選択する。2回目以降は、現在選択しているレコードの次のレコードを選択する。
In S942, the CPU 251 selects a record in the section information table to be processed.
When executing S942 for the first time, the top record of the section information table is selected. From the second time onward, the record next to the currently selected record is selected.

S943において、CPU251は、区間情報テーブルのすべてのレコードを処理したか否かを判定する。
S942において、次のレコードがなく、選択できなかった場合には、YESと判定し、要約処理を終了する。S942において、次のレコードを選択できた場合には、NOと判定し、S944に遷移する。
In S943, the CPU 251 determines whether or not all the records in the section information table have been processed.
In S942, if there is no next record and the record cannot be selected, it is determined as YES, and the summary process is terminated. In S942, when the next record can be selected, it is determined as NO, and the process proceeds to S944.

S944において、CPU251は、現在選択しているレコードの区間内にある会議テキストを取得する。
ここで、CPU251は、会議テキスト情報テーブル720の中から、発生時刻列721の時刻が、現在選択しているレコードの区間開始時刻列の時刻から区間終了時刻列の時刻までの間に該当するレコードをすべて抽出する。そして、抽出したひとつ以上のレコードの会議テキスト列722の会議テキストを要約の対象とする。
In S944, the CPU 251 acquires the conference text in the section of the currently selected record.
Here, the CPU 251 records from the conference text information table 720 that the time in the occurrence time column 721 corresponds to the time from the time in the section start time column of the currently selected record to the time in the section end time column. To extract all. Then, the conference text in the conference text column 722 of one or more extracted records is set as a summary target.

S945において、CPU251は、S944で取得した会議テキストを要約する。
要約テキスト生成処理の詳細については、図12を用いて説明する。
In S945, the CPU 251 summarizes the meeting text acquired in S944.
Details of the summary text generation processing will be described with reference to FIG.

図12(a)は、要約テキスト生成処理の一例を示すフローチャートである。本フローチャートの処理は、会議テキスト情報テーブル720内の、複数のレコードに対して実行される。   FIG. 12A is a flowchart illustrating an example of the summary text generation process. The process of this flowchart is executed for a plurality of records in the conference text information table 720.

S1201において、CPU251は、会議テキスト情報テーブル720内の、入力されたすべてのレコードを参照し、会議テキスト列722の会議テキストに出現する各単語について、その重要度を算出する。
各単語の重要度は、例えば、各単語の出現頻度に基づいて算出することができる。
In step S <b> 1201, the CPU 251 refers to all input records in the conference text information table 720 and calculates the importance of each word appearing in the conference text in the conference text column 722.
The importance of each word can be calculated based on the appearance frequency of each word, for example.

S1202において、CPU251は、入力された各レコードの会議テキスト列722の各会議テキストについて、その重要度を算出する。
会議テキストの重要度は、S1201で算出した各単語の重要度を参照し、各会議テキストに含まれる単語の重要度の合計値を算出することにより、決定する。
In S1202, the CPU 251 calculates the importance of each conference text in the conference text column 722 of each input record.
The importance of the conference text is determined by referring to the importance of each word calculated in S1201 and calculating the total value of the importance of the words included in each conference text.

S1203において、CPU251は、重要度が閾値以上の会議テキストを抽出する。そして、これらの会議テキストを結合して要約テキストを生成する。
そして、要約テキストを生成したら、処理呼び出し元に戻る。
In step S1203, the CPU 251 extracts meeting text having an importance level equal to or higher than a threshold value. These meeting texts are combined to generate a summary text.
When the summary text is generated, the process returns to the process caller.

なお、会議において、ホワイトボードなどの記入媒体には、論点や重要な意見を記載する場合がある。こうして記載された内容は、議事として重要であることが多いので、記入テキストとして、要約テキストに優先的に反映するようにしてもよい。
この場合、例えば、S1203において、CPU251は、入力されたレコードの区分列723の値を確認する。そして、区分列723の値が1(元は記入情報)ならば、重要度が閾値以上か否かに関わらず、そのレコードの会議テキスト722を要約テキストの一部として抽出する。
In a meeting, a point of entry or an important opinion may be written on an entry medium such as a whiteboard. Since the contents thus described are often important as agendas, they may be preferentially reflected in the summary text as entry text.
In this case, for example, in S1203, the CPU 251 confirms the value of the classification column 723 of the input record. If the value of the classification column 723 is 1 (original information), the meeting text 722 of the record is extracted as a part of the summary text regardless of whether the importance is equal to or higher than the threshold value.

あるいは、記入テキストを要約テキストに優先的に反映するために、別の処理を実行してもよい。図12(b)は、要約テキスト生成処理の別の例を示すフローチャートである。
図12(a)のフローチャート同様、図12(b)のフローチャートの処理は会議テキスト情報テーブル720内の、複数のレコードに対して実行される。
Alternatively, another process may be executed to preferentially reflect the entry text in the summary text. FIG. 12B is a flowchart showing another example of the summary text generation process.
Similar to the flowchart of FIG. 12A, the processing of the flowchart of FIG. 12B is executed for a plurality of records in the conference text information table 720.

S1211において、CPU251は、入力されたレコードのうち、区分列723が1(元は記入情報)のレコードについて、会議テキスト列722に含まれる単語のリスト(以下、「記入単語リスト」と言う)を作成する。   In S1211, the CPU 251 obtains a list of words included in the conference text column 722 (hereinafter referred to as “entry word list”) for records whose classification column 723 is 1 (originally entry information) among the input records. create.

S1212において、CPU251は、S1201と同様の処理を行う。
S1213において、CPU251は、S1202と同様の処理を行う。
「0130」
S1214において、CPU251は、S1211で作成した記入単語リストを参照して、S1213で算出した会議テキストの重要度を更新する。
すなわち、入力された各レコードの会議テキスト722について、記入単語リストの単語を含む場合には、重要度にバイアスを加える。
In S1212, the CPU 251 performs the same process as S1201.
In S1213, the CPU 251 performs the same process as in S1202.
“0130”
In S1214, the CPU 251 updates the importance of the conference text calculated in S1213 with reference to the entry word list created in S1211.
That is, when the conference text 722 of each input record includes a word in the entry word list, a bias is added to the importance.

S1215において、CPU251は、S1203と同様の処理を行う。   In S1215, the CPU 251 performs the same process as in S1203.

あるいは、S1214において、CPU251は、対象の会議テキストが記入単語リストの単語を含む場合には、重要度の最大値を付与するようにしてもよい。この場合、S1203では、その会議テキストが要約テキストの一部として抽出される。   Alternatively, in S1214, the CPU 251 may assign the maximum importance level when the target meeting text includes a word in the entry word list. In this case, in S1203, the meeting text is extracted as a part of the summary text.

そして、CPU251は、要約情報テーブル800に新たなレコードを追加する。そして、追加したレコードの要約テキスト列802に、生成した要約テキストを記録する。また、追加したレコードの区間名列801に、現在参照している区間情報テーブルの区間名列の値を記録する。
以上の処理により、図8に示した要約情報テーブル800が作成される。
Then, the CPU 251 adds a new record to the summary information table 800. Then, the generated summary text is recorded in the summary text column 802 of the added record. In addition, the value of the section name column of the section information table currently referred to is recorded in the section name column 801 of the added record.
Through the above processing, the summary information table 800 shown in FIG. 8 is created.

図9(a)に戻り、S907において、CPU251は、以上のようにして得た議事録元情報および会議情報をもとに議事録のレイアウト処理を実行する。   Returning to FIG. 9A, in S907, the CPU 251 executes the layout process of the minutes based on the minutes source information and the meeting information obtained as described above.

ここで、図10と図11を用いて、議事録のレイアウト処理について説明する。
図10は、議事録のレイアウト処理を示すフローチャートである。
Here, the layout process of the minutes will be described with reference to FIGS. 10 and 11.
FIG. 10 is a flowchart showing the minutes layout process.

S1001において、CPU251は、処理の対象とする要約情報テーブル800のレコードを選択する。S1001を最初に実行する場合には、要約情報テーブル800の先頭のレコードを選択する。2回目以降は、現在選択しているレコードの次のレコードを選択する。   In S1001, the CPU 251 selects a record of the summary information table 800 to be processed. When S1001 is executed for the first time, the first record of the summary information table 800 is selected. From the second time onward, the record next to the currently selected record is selected.

S1002において、CPU251は、要約情報テーブル800のすべてのレコードを処理したか否かを判定する。
S1002において、次のレコードがなく、選択できなかった場合には、YESと判定し、レイアウト処理を終了する。S1002において、次のレコードを選択できた場合には、NOと判定し、S1003に遷移する。
In step S <b> 1002, the CPU 251 determines whether all the records in the summary information table 800 have been processed.
In S1002, if there is no next record and it cannot be selected, it is determined as YES and the layout processing is terminated. In S1002, when the next record can be selected, it is determined as NO, and the process proceeds to S1003.

S1003において、CPU251は、図7(d)の要点情報テーブル730から、選択したレコードの要約の生成が実行された区間における区間開始時刻731と区間終了時刻732を取得する。具体的には、S944で要約の対象となった区間の区間開始時刻と区間終了時刻を取得する。   In S1003, the CPU 251 acquires the section start time 731 and the section end time 732 in the section in which the summary generation of the selected record has been executed, from the point information table 730 in FIG. Specifically, the section start time and section end time of the section that is the subject of summarization in S944 are acquired.

S1004において、CPU251は、図4(b)の画像情報テーブル410から、撮影時間が選択したレコードの要約の生成が実行された区間内にある画像データ412を取得する。すなわち、CPU251は、画像情報テーブル410内で、撮影時刻列411が、S1003で取得した区間開始時刻から区間終了時刻までの間に該当するレコードを特定する。そして、特定したレコードの画像データ列412に含まれるファイル名を参照して画像データを取得する。   In step S1004, the CPU 251 acquires the image data 412 in the section in which the summary of the record with the shooting time selected is executed from the image information table 410 in FIG. That is, the CPU 251 specifies a record in the image information table 410 that corresponds to the shooting time string 411 between the section start time and the section end time acquired in S1003. Then, the image data is acquired with reference to the file name included in the image data string 412 of the specified record.

S1005において、CPU251は、S1001で選択したレコードの要約テキストと、S1004で取得した画像データを対応づけて、画面上にレイアウトを作成する。   In step S1005, the CPU 251 creates a layout on the screen by associating the summary text of the record selected in step S1001 with the image data acquired in step S1004.

図11は、議事録のレイアウトの一例を示す図である。
議事録1100は、テキストデータや画像データを含む複数の議事ページ1110群からなる。各議事ページ1110は、要約が実行された区間毎に取得された、要約テキストと画像データを含むレイアウト1120(1121)からなる。
各レイアウト1120(1121)には、S1001で選択したレコードの区間名列801のテキスト1130(1134)と、これに対応する要約テキスト1131(1135)と、画像データ1132(1136)が表示される。さらに、画像データのファイル名1133(1137)を表示してもよい。
図11では、要約テキスト1131(1135)の末尾に画像データ1132(1136)が表示されているが、このレイアウトはあくまで一例である。テキスト1130(1134)と、要約テキスト1131(1135)と、画像データ1132(1136)の各レイアウトは、この例に限られない。例えば要約テキストと画像データを横に並べてレイアウトしてもよい。
FIG. 11 is a diagram showing an example of the layout of minutes.
The minutes 1100 are composed of a plurality of agenda pages 1110 including text data and image data. Each agenda page 1110 includes a layout 1120 (1121) including summary text and image data acquired for each section in which the summary is executed.
In each layout 1120 (1121), the text 1130 (1134) of the section name column 801 of the record selected in S1001, the summary text 1131 (1135) corresponding thereto, and the image data 1132 (1136) are displayed. Further, the file name 1133 (1137) of the image data may be displayed.
In FIG. 11, the image data 1132 (1136) is displayed at the end of the summary text 1131 (1135), but this layout is merely an example. Each layout of the text 1130 (1134), the summary text 1131 (1135), and the image data 1132 (1136) is not limited to this example. For example, summary text and image data may be laid out side by side.

図11について、図10のフローチャートに沿って詳細に説明する。
ここでは、アジェンダ毎にレイアウトする例について説明する。以下では、要約情報テーブル800(図8)と、画像情報テーブル410(図4(b))と、アジェンダ情報テーブル420(図4(c))を用いて説明する。
FIG. 11 will be described in detail along the flowchart of FIG.
Here, an example of layout for each agenda will be described. Hereinafter, description will be made using the summary information table 800 (FIG. 8), the image information table 410 (FIG. 4B), and the agenda information table 420 (FIG. 4C).

まず、S1001において、CPU251は、要約情報テーブルからひとつのレコードを選択する。
ここでは、要約情報テーブル800内の、区間名801が「来年度予算について」のレコードを選択する。
First, in S1001, the CPU 251 selects one record from the summary information table.
Here, a record with the section name 801 “about budget for the next year” in the summary information table 800 is selected.

S1002において、CPU251は、すべての区間を処理したか否かを判定する。
ここでは、要約情報テーブル800のすべての区間をまだ処理していないため、判定はNOとなる。
In S1002, the CPU 251 determines whether or not all sections have been processed.
Here, since all the sections of the summary information table 800 have not yet been processed, the determination is no.

S1003において、CPU251は、区間の開始時刻と終了時刻を取得する。
ここでは、アジェンダ情報テーブル420内の、アジェンダ名423が「来年度予算について」のレコードのアジェンダ開始時刻421(2017/08/09 13:02:27)とアジェンダ終了時刻422(2017/08/09 13:31:55)を取得する。
In S1003, the CPU 251 acquires the start time and end time of the section.
Here, in the agenda information table 420, the agenda start time 421 (2017/08/09 13:02:27) and the agenda end time 422 (2017/08/09 13) of the record whose agenda name 423 is “about the budget for the next fiscal year”. : 31: 55).

S1004において、CPU251は、撮影時刻がアジェンダ開始時刻から終了時刻に該当する画像データを選択して、それを取得する。
ここでは、CPU251は、画像情報テーブル410内の、アジェンダ開始時刻421からアジェンダ終了時刻422の範囲内に該当する、画像データ(「image1.jpg」)を取得する。
In step S <b> 1004, the CPU 251 selects and acquires image data whose shooting time corresponds to the end time from the agenda start time.
Here, the CPU 251 acquires image data (“image1.jpg”) that falls within the range of the agenda start time 421 to the agenda end time 422 in the image information table 410.

S1005において、CPU251は、選択中のレコードの要約テキストと、取得した画像データとのレイアウトを作成する。
ここでは、CPU251は、まず、選択中のレコードにおける区間名801(「来年度予算について」)を、テキスト1130として表示する。
続いて、選択中のレコードにおける要約テキスト802(「来年度予算は、・・・)を、要約テキスト1131として表示する。
続いて、取得した画像データ412の画像とファイル名(「image1.jpg」)を、それぞれ、画像1132とファイル名1133として表示する。
出力する。
In step S1005, the CPU 251 creates a layout of the summary text of the record being selected and the acquired image data.
Here, the CPU 251 first displays the section name 801 (“about budget for next year”) in the selected record as text 1130.
Subsequently, the summary text 802 (“the budget for the next year is...)” In the selected record is displayed as the summary text 1131.
Subsequently, the image and file name (“image1.jpg”) of the acquired image data 412 are displayed as an image 1132 and a file name 1133, respectively.
Output.

なお、S1004において、該当する画像が複数ある場合は、CPU251は、続けて画像データ1132とファイル名1133を表示させる。
以上の処理により、「来年度予算について」のアジェンダについて、要約テキスト1131と画像データ1132を合わせたレイアウト1120を表示することができる。
In S1004, if there are a plurality of corresponding images, the CPU 251 displays the image data 1132 and the file name 1133 in succession.
With the above processing, the layout 1120 in which the summary text 1131 and the image data 1132 are combined can be displayed with respect to the “next budget budget” agenda.

S1001に戻り、CPU251は、要約情報テーブルから次のレコードを選択する。
ここでは、要約情報テーブル800内の、区間名801が「役割分担の相談」のレコードが選択される。
以降、同様の処理を繰り返して実行することにより、「役割分担の相談」のアジェンダについて、要約テキスト1135と画像データ1136を合わせたレイアウト1121を作成することができる。
Returning to S1001, the CPU 251 selects the next record from the summary information table.
Here, a record whose section name 801 is “consultation of role assignment” in the summary information table 800 is selected.
Thereafter, by repeatedly executing the same processing, it is possible to create a layout 1121 that combines the summary text 1135 and the image data 1136 for the “role-sharing consultation” agenda.

S1001で、要約情報テーブルから選択するレコードがなくなった場合、S1002の判定はYESとなる。そして、議事録レイアウト処理は終了し、議事録1100が生成される。   If there are no more records to be selected from the summary information table in S1001, the determination in S1002 is YES. Then, the minutes layout process ends, and the minutes 1100 are generated.

再び図9(a)に戻り、S908において、CPU251は、会議情報に含まれる送信先に議事録を送信する。送信方法として、例えば、電子メールで送信することができる。
ここでは、CPU251は、電子メールに添付ファイルとして議事録1100を添付して、電子メールを送信する。
Returning to FIG. 9A again, in S908, the CPU 251 transmits the minutes to the transmission destination included in the conference information. As a transmission method, for example, it can be transmitted by electronic mail.
Here, the CPU 251 attaches the minutes 1100 as an attached file to the e-mail and transmits the e-mail.

S909において、CPU251は、終了が指示されたか否かを判定する。
ユーザは、例えば、外部インターフェース258を介して、別体のPCから会議サーバ102の終了を指示することができる。
終了が指示されていたら、YESと判定し、処理を終了する。終了が指示されていなければ、NOと判定し、S901に遷移する。
In step S909, the CPU 251 determines whether termination has been instructed.
For example, the user can instruct the termination of the conference server 102 from a separate PC via the external interface 258.
If termination is instructed, it is determined as YES, and the process is terminated. If termination is not instructed, it is determined as NO, and the process proceeds to S901.

以上に説明したとおり、実施例1によれば、会議情報を複数の区間に分割し、区間毎に要約テキストと画像データが対応づけられて、レイアウトされた議事録を生成することができる。   As described above, according to the first embodiment, meeting information can be divided into a plurality of sections, and summary text and image data can be associated with each section to generate a laid-out minutes.

実施例1では、会議中に書き込みをしたホワイトボードや紙を、ユーザがカメラデバイス209を用いて手動で撮影した。
これに対して、実施例2では、カメラデバイス209をホワイトボードや紙に向けて設置しておくことにより、CPU201が被写体を自動的に撮影する。以下では、主に、実施例1との差分について説明する。
In the first embodiment, the user manually photographed the whiteboard or paper that was written during the meeting using the camera device 209.
On the other hand, in the second embodiment, the CPU 201 automatically captures the subject by setting the camera device 209 facing the whiteboard or paper. Below, the difference with Example 1 is mainly demonstrated.

図13(a)は、実施例2における、会議情報を記録する処理を示すフローチャートである。
実施例1との差分である、図中のEからFの処理については、図13(b)で後述する。図中のEからFの処理は、図中AからBまでの処理、図中CからDまでの処理と、並行して実行される。図中AからBまでの処理と、図中CからDまでの処理は、図5に記載した処理と同様である。
FIG. 13A is a flowchart illustrating a process for recording conference information according to the second embodiment.
The process from E to F in the figure, which is a difference from the first embodiment, will be described later with reference to FIG. The processes from E to F in the figure are executed in parallel with the processes from A to B in the figure and from C to D in the figure. The process from A to B in the figure and the process from C to D in the figure are the same as the process described in FIG.

図13(b)は、実施例2における、自動撮影処理を示すフローチャートである。
自動撮影を開始するタイミングは、ユーザがホワイトボードや紙に記入し終えた時点(映像から人や手などが消えた時点)や、アジェンダの変化など会議状態の変化点を検出した時点などである。
FIG. 13B is a flowchart illustrating automatic shooting processing according to the second embodiment.
The timing for starting automatic shooting is when the user finishes writing on the whiteboard or paper (when a person or hand disappears from the video), or when a change point in the conference state such as an agenda change is detected. .

S1301において、CPU201は、カメラデバイス209を介して取得した映像に人や手などの動体が含まれているか否かを判定する。
含まれている場合は、YESと判定し、S1302に遷移する。含まれていない場合は、NOと判定し、S1303に遷移する。
In step S <b> 1301, the CPU 201 determines whether a moving object such as a person or a hand is included in the video acquired via the camera device 209.
When it is included, it determines with YES and changes to S1302. When not included, it determines with NO and changes to S1303.

S1302において、CPU201は動体検知フラグをONにする。   In step S1302, the CPU 201 turns on the moving object detection flag.

S1303において、CPU201は、動体検知フラグがONであるか否かを判定する。
動体検知フラグがONである場合は、YESと判定し、S1304に遷移する。動体検知フラグがONでない場合は、NOと判定し、S1306に遷移する。
In S1303, the CPU 201 determines whether or not the moving object detection flag is ON.
If the moving object detection flag is ON, the determination is YES, and the process proceeds to S1304. When the moving object detection flag is not ON, it is determined as NO, and the process proceeds to S1306.

S1304において、CPU201は、カメラデバイス209を介して被写体を撮影して画像データを取得する。   In step S <b> 1304, the CPU 201 captures an image of the subject via the camera device 209 and acquires image data.

S1305において、CPU201は動体検知フラグをOFFにする。
そして、CPU201は、カメラデバイス209を介して撮影した被写体の画像データを取得する。
In step S1305, the CPU 201 turns off the moving object detection flag.
Then, the CPU 201 acquires image data of a subject photographed via the camera device 209.

S1306において、CPU201は、会議状態の変化点を検出したか否かを判定する。
ここでは、S510でアジェンダの終了を検出した場合、S516で話者の変更を検出した場合、S518で表示資料の変更を検出した場合、会議状態の変化点が発生したと判定する。
会議状態の変化点が検出された場合は、YESと判定し、S1307に遷移する。変化点が検出されていない場合は、NOと判定し、S1308に遷移する。
In step S1306, the CPU 201 determines whether a meeting state change point has been detected.
Here, when the end of the agenda is detected in S510, when the change of the speaker is detected in S516, or when the change of the display material is detected in S518, it is determined that the meeting state change point has occurred.
If a meeting state change point is detected, the determination is YES and the process proceeds to S1307. When the change point is not detected, it determines with NO and changes to S1308.

S1307において、CPU251は、カメラデバイス209を介して被写体を撮影して、被写体の画像データを取得する。   In step S <b> 1307, the CPU 251 captures a subject via the camera device 209 and acquires subject image data.

S1308において、CPU201は、電源をオフする指示がなされたか否かを判定する。
会議装置101の電源キーへの指示がなされていれば、YESと判定し、処理を終了する。会議装置101の電源キーへの指示がなされていなければ、NOと判定し、S1301に遷移する。
In step S1308, the CPU 201 determines whether an instruction to turn off the power has been issued.
If an instruction is given to the power key of the conference apparatus 101, the determination is YES, and the process ends. If no instruction is given to the power key of the conference apparatus 101, it is determined as NO and the process proceeds to S1301.

以上に説明したとおり、実施例2によれば、会議中にユーザが書き込みをしたホワイトボードや紙を自動撮影することができるため、ユーザによる撮影し忘れがなくなり、より正確に画像データを記録して議事録に残すことができる。   As described above, according to the second embodiment, it is possible to automatically shoot a whiteboard or paper written by the user during the meeting, so that the user does not forget to shoot and records image data more accurately. Can be left in the minutes.

会議中に行われるホワイトボードへの書き込みは、会議の議論の進行に合わせて適宜追記される。そのため、カメラデバイス209で撮影された画像には、前回撮影された画像に含まれる書き込みと、今回新たに追記された書き込みが含まれる場合が多い。
そこで、実施例3では、新たに追記された書き込みのみを差分画像として生成し、議事録にレイアウトする。以下では、主に、実施例1との差分について説明する。
Writing on the whiteboard during the meeting is added as appropriate as the discussion proceeds. For this reason, the image captured by the camera device 209 often includes writing included in the previously captured image and writing newly added this time.
Therefore, in the third embodiment, only newly added writing is generated as a difference image and laid out in the minutes. Below, the difference with Example 1 is mainly demonstrated.

図14は、実施例3における、議事録レイアウト処理を示すフローチャートである。
S1401において、CPU251は、S1004で取得した画像データの一つ前に撮影された画像データとの差分画像を生成する。差分画像の生成方法については、図15を用いて説明する。
FIG. 14 is a flowchart illustrating the minutes layout process according to the third embodiment.
In step S1401, the CPU 251 generates a difference image from the image data captured immediately before the image data acquired in step S1004. A method for generating the difference image will be described with reference to FIG.

図15の例において、(a)はS1004で取得した画像データであり、(b)は取得した画像データの一つ前に撮影された画像データである。
まず、それぞれの画像をピクセル単位で走査していき、画素値の差が閾値以上となるピクセルを特定する。そして、図15(a)の画像データのうち、特定されたピクセルをすべて含むような外接矩形を求めることにより、図15(c)のような差分画像が得られる。
S1402において、CPU251は、要約テキストと、画像データとしてS1401で生成した差分画像とを、対応づけてレイアウトさせる。
In the example of FIG. 15, (a) is the image data acquired in S1004, and (b) is the image data photographed immediately before the acquired image data.
First, each image is scanned in units of pixels, and pixels whose pixel value difference is equal to or greater than a threshold value are specified. Then, by obtaining a circumscribed rectangle that includes all the specified pixels in the image data of FIG. 15A, a differential image as shown in FIG. 15C is obtained.
In S1402, the CPU 251 causes the summary text and the difference image generated in S1401 as image data to be laid out in association with each other.

以上に説明したとおり、実施例3によれば、新たに追記された書き込みのみを差分画像として生成し、議事録を生成するため、議事録の内容が重複することを低減できる。   As described above, according to the third embodiment, since only newly added writing is generated as a difference image and the minutes are generated, it is possible to reduce the overlap of the contents of the minutes.

実施例1では、要約を作成する対象となる区間の開始時刻から終了時刻までの間に該当する画像データを、要約テキストと共にレイアウトして、議事録を生成した。そのため、ユーザが撮影をし忘れる等、要約対象となった区間内で撮影が実行されないと、画像データが要約テキストと共に表示されない。
そこで、実施例4では、要約対象となった区間の終了時に、ユーザに対して撮影を促すメッセージが通知される。以下では、主に、実施例1との差分について説明する。
In the first embodiment, the corresponding image data between the start time and the end time of the section for which the summary is to be created is laid out together with the summary text, and the minutes are generated. Therefore, the image data is not displayed together with the summary text unless shooting is performed within the section to be summarized, such as when the user forgets to shoot.
Therefore, in the fourth embodiment, a message prompting the user to shoot is notified at the end of the section to be summarized. Below, the difference with Example 1 is mainly demonstrated.

図16(a)は、実施例4における、会議情報を記録するための処理を示すフローチャートである。
実施例1との差分である、図中のGからHの処理については、図16(b)で後述する。図中のGからHの処理は、図中AからBまでの処理、図中CからDまでの処理と、並行して実行される。図中AからBまでの処理と、図中CからDまでの処理は、図5に記載の処理と同様である。
FIG. 16A is a flowchart illustrating a process for recording conference information according to the fourth embodiment.
The process from G to H in the figure, which is a difference from the first embodiment, will be described later with reference to FIG. The processes from G to H in the figure are executed in parallel with the processes from A to B in the figure and from C to D in the figure. The processes from A to B in the figure and the processes from C to D in the figure are the same as the processes described in FIG.

図16(b)のフローチャートでは、ユーザに対して撮影を要求する通知がなされる。
まず、S1601において、CPU201は、会議状態の変化点を検出したか否かを判定する。
ここでは、S510でアジェンダの終了を検出した場合、S516で話者の変更を検出した場合、S518で表示資料の変更を検出した場合、会議状態の変化点が発生したと判定する。
会議状態の変化点が検出された場合は、YESと判定し、S1602に遷移する。変化点が検出されていない場合は、NOと判定し、S1603に遷移する。
In the flowchart of FIG. 16B, the user is notified of a request for shooting.
First, in step S1601, the CPU 201 determines whether a meeting state change point has been detected.
Here, when the end of the agenda is detected at S510, when the change of the speaker is detected at S516, or when the change of the display material is detected at S518, it is determined that the meeting state change point has occurred.
If a meeting state change point is detected, the determination is YES and the process proceeds to S1602. When the change point is not detected, it determines with NO and changes to S1603.

S1602において、CPU201は、ユーザに対して撮影を促すためのメッセージを通知する
図17は、会議装置101の表示デバイス207にユーザに対して撮影を促すメッセージの表示例である。
ここでは、会議中に表示している画面310(図3(b))の上部に、「終了したアジェンダの撮影を実行してください」といったメッセージ通知1700が表示される。
In step S1602, the CPU 201 notifies a message for prompting the user to shoot. FIG. 17 is a display example of a message prompting the user to shoot on the display device 207 of the conference apparatus 101.
In this case, a message notification 1700 such as “Please execute shooting of the completed agenda” is displayed at the top of the screen 310 (FIG. 3B) displayed during the conference.

S1603において、CPU201は、会議装置101の表示デバイス207に撮影を促す通知を表示しているか否かを判定する。
通知中の場合、YESと判定し、S1604に遷移する。通知中でない場合は、NOと判定し、S1609に遷移する。
In step S <b> 1603, the CPU 201 determines whether a notification that prompts shooting is displayed on the display device 207 of the conference apparatus 101.
If the notification is being made, the determination is YES, and the process proceeds to S1604. When not informing, it judges with NO and changes to S1609.

S1604において、CPU201は、表示デバイス207に表示されたメッセージ通知1700をユーザが選択したか否かを判定する。すなわち、既に終了した区間に対する撮影をユーザが実行したいか否かを確認する。
ユーザがメッセージ通知1700を選択した場合、YESと判定し、S1605に遷移する。このとき、CPU201は、画面320の表示画像データを生成して、表示デバイス207に表示させる。ユーザがメッセージ通知1700を選択しない場合は、NOと判定し、S1609に遷移する。
In step S <b> 1604, the CPU 201 determines whether the user has selected the message notification 1700 displayed on the display device 207. That is, it is confirmed whether or not the user wants to perform shooting for the already completed section.
If the user selects the message notification 1700, the determination is YES, and the process proceeds to S1605. At this time, the CPU 201 generates display image data of the screen 320 and displays it on the display device 207. When the user does not select the message notification 1700, it is determined as NO, and the process proceeds to S1609.

S1605において、CPU201は、撮影を指示されたか否かを判定する。
画面320上の任意箇所への指示がなされていたら、YESと判定し、S1606に遷移する。画面320上で指示がなされていなければ、NOと判定し、S1609に遷移する。
In step S1605, the CPU 201 determines whether shooting is instructed.
If an instruction has been given to an arbitrary location on the screen 320, it is determined YES and the process proceeds to S1606. If no instruction is given on the screen 320, it is determined as NO and the process proceeds to S1609.

S1606において、CPU201は、カメラデバイス209を介して被写体を撮影して、画像データを取得し、ストレージ205に記録する。
図18は、本実施例における、会議装置101がストレージ205に記録する画像情報テーブル1800の構成例を示すものである。実施例1の画像情報テーブル(図4(b))との差分として、画像データを区間に対応づけるために、関連する区間名列1801に、S1601で検出した区間名称を記録する。
In step S <b> 1606, the CPU 201 captures an image of the subject via the camera device 209, acquires image data, and records the image data in the storage 205.
FIG. 18 shows a configuration example of the image information table 1800 that the conference apparatus 101 records in the storage 205 in this embodiment. As a difference from the image information table of the first embodiment (FIG. 4B), the section name detected in S1601 is recorded in the related section name column 1801 in order to associate the image data with the section.

S1607において、CPU201は、撮影を終了する指示がなされたか否かを判定する。
「OK」ボタン321への指示がなされていたら、YESと判定し、S1608に遷移する。このとき、CPU201は、画面310の表示画像データを生成して、表示デバイス207に表示させる。「OK」ボタン321への指示がなされていなければ、NOと判定し、S1605に遷移する。
In step S <b> 1607, the CPU 201 determines whether an instruction to end shooting has been issued.
If an instruction is given to the “OK” button 321, the determination is YES, and the process proceeds to S 1608. At this time, the CPU 201 generates display image data of the screen 310 and causes the display device 207 to display the display image data. If no instruction is given to the “OK” button 321, the determination is NO and the process proceeds to S 1605.

S1608において、CPU201は、画面310に表示した通知メッセージ1700を非表示とする。   In step S <b> 1608, the CPU 201 hides the notification message 1700 displayed on the screen 310.

S1609において、CPU201は、電源をオフする指示がなされたか否かを判定する。
会議装置101の電源キーへの指示がなされていれば、YESと判定し、処理を終了する。会議装置101の電源キーへの指示がなされていなければ、NOと判定し、S1601に遷移する。
In step S1609, the CPU 201 determines whether an instruction to turn off the power has been given.
If an instruction is given to the power key of the conference apparatus 101, the determination is YES, and the process ends. If no instruction is given to the power key of the conference apparatus 101, it is determined as NO and the process proceeds to S1601.

次に、会議サーバ102が議事録を生成する処理について説明する。
図19は、実施例4における、議事録のレイアウト処理を示すフローチャートである。
Next, a process in which the conference server 102 generates the minutes will be described.
FIG. 19 is a flowchart illustrating a minutes layout process according to the fourth embodiment.

実施例1では、アジェンダなどの要約対象となった区間の開始時刻から終了時刻までの間に、撮影時刻が該当する画像データを抽出した。しかし、例えば、アジェンダが終了して次のアジェンダに移行した後、ユーザが前のアジェンダに対する撮影をした場合、時刻情報だけでは撮影した画像データをアジェンダに対応して抽出することができない。
そのため、図19に示すフローチャートでは、時刻情報だけでなく、画像情報テーブル1800の関連する区間名列1801を参照して、画像データを取得する。
In the first embodiment, image data corresponding to the shooting time is extracted from the start time to the end time of the section to be summarized such as an agenda. However, for example, after the agenda is finished and the user moves to the next agenda, when the user takes a picture of the previous agenda, the photographed image data cannot be extracted corresponding to the agenda only with the time information.
Therefore, in the flowchart shown in FIG. 19, image data is acquired with reference to not only time information but also a related section name string 1801 in the image information table 1800.

S1901において、CPU251は、画像情報テーブル1800内の、関連する区間名列1801を参照して、S1001で選択されたレコードの区間名と一致するレコードを特定し、その画像データを取得する。   In S1901, the CPU 251 refers to the related section name column 1801 in the image information table 1800, specifies a record that matches the section name of the record selected in S1001, and acquires the image data.

ここで、実施例4において、図11に示した議事録を生成するための処理を、図19のフローチャートに沿って説明する。
ここでは、実施例1と同様、アジェンダ毎にレイアウトする例について説明する。以下では、要約情報テーブル800、画像情報テーブル1800、アジェンダ情報テーブル420を用いて、説明する。
Here, in the fourth embodiment, the process for generating the minutes shown in FIG. 11 will be described with reference to the flowchart of FIG.
Here, as in the first embodiment, an example of layout for each agenda will be described. Hereinafter, the summary information table 800, the image information table 1800, and the agenda information table 420 will be described.

まず、S1001において、CPU251は、要約情報テーブルからレコードを選択する。
ここでは、CPU251は、要約情報テーブル800内の区間名801が「来年度予算について」のレコードを選択する。
First, in S1001, the CPU 251 selects a record from the summary information table.
Here, the CPU 251 selects a record whose section name 801 in the summary information table 800 is “about budget for the next year”.

S1002において、CPU251は、すべての区間を処理したか否かを判定する。
ここでは、要約情報テーブル800のすべてのレコードをまだ処理していないため、判定はNOとなる。
In S1002, the CPU 251 determines whether or not all sections have been processed.
Here, since all the records of the summary information table 800 have not been processed yet, the determination is NO.

S1003において、CPU251は、区間の開始時刻と終了時刻を取得する。
ここでは、アジェンダ情報テーブル420内の、アジェンダ名423が「来年度予算について」のレコードのアジェンダ開始時刻421(2017/08/09 13:02:27)とアジェンダ終了時刻(2017/08/09 13:31:55)を取得する。
In S1003, the CPU 251 acquires the start time and end time of the section.
Here, in the agenda information table 420, the agenda start time 421 (2017/08/09 13:02:27) and the agenda end time (2017/08/09 13: 31:55).

S1004において、CPU251は、撮影時刻がアジェンダ開始時刻から終了時刻に該当する画像データを取得する。
ここでは、画像情報テーブル1800の撮像時刻列411を参照すると、撮影時刻がアジェンダ開始時刻から終了時刻の間に該当するレコードはないため、CPU251は、画像データを取得しない。
In step S1004, the CPU 251 acquires image data whose shooting time corresponds to the end time from the agenda start time.
Here, referring to the imaging time column 411 of the image information table 1800, since there is no record in which the imaging time is between the agenda start time and end time, the CPU 251 does not acquire image data.

S1901において、CPU251は、参照中のレコードの区間名と一致する画像データを取得する。
ここでは、CPU251は、画像情報テーブル1800の関連する区間名列1801のうち、選択中のレコードの区間名「来年度予算について」と一致するレコードの画像データ「image1.jpg」を取得する。
以降、実施例1と同様の処理を実行することで、議事録1100が生成される。
In step S1901, the CPU 251 acquires image data that matches the section name of the record being referred to.
Here, the CPU 251 acquires the image data “image1.jpg” of the record that matches the section name “about the budget for the next year” of the record being selected from the related section name column 1801 of the image information table 1800.
Thereafter, by executing the same processing as in the first embodiment, the minutes 1100 are generated.

以上に説明したとおり、実施例4によれば、ユーザは既に終了した区間に対する撮影も行うことができる。このため、適時に撮影をし忘れた場合においても、対応する画像がレイアウトされないことを低減することができる。   As described above, according to the fourth embodiment, the user can also perform shooting for a section that has already been completed. For this reason, it is possible to reduce the fact that the corresponding image is not laid out even if the user forgets to take a picture in a timely manner.

(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。
本発明は上述の実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。すなわち、上述の各実施例及びその変形例を組み合わせた構成もすべて本発明に含まれる。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device.
The present invention is not limited to the above-described embodiments, and various modifications (including organic combinations of the embodiments) are possible based on the spirit of the present invention, and these are excluded from the scope of the present invention. It is not a thing. That is, the present invention includes all configurations in which the above-described embodiments and modifications thereof are combined.

Claims (15)

会議において発生した会議情報の中の音声データから生成されたテキストと、前記音声データが発生した第1の時刻と、を取得する第1の取得手段と、
前記会議情報の中の画像データと、前記画像データが発生した第2の時刻と、を取得する第2の取得手段と、
前記テキストと、前記第1の時刻と、を記録する第1の記録手段と、
前記画像データと、前記第2の時刻と、を記録する第2の記録手段と、
前記会議を複数の区間に分割する分割手段と、
前記区間の開始時刻から終了時刻までに発生したテキストを、前記第1の記録手段に記録された前記テキストの中から、選択する第1の選択手段と、
前記区間の開始時刻から終了時刻までに発生した画像データを、前記第2の記録手段に記録された前記画像データの中から、選択する第2の選択手段と、
前記第1の選択手段が選択した前記テキストと、前記第2の選択手段が選択した前記画像データとを、対応づけてレイアウトを作成する作成手段と、を有することを特徴とする議事録生成装置。
First acquisition means for acquiring text generated from audio data in the conference information generated in the conference, and a first time when the audio data is generated;
Second acquisition means for acquiring image data in the meeting information and a second time when the image data is generated;
First recording means for recording the text and the first time;
Second recording means for recording the image data and the second time;
Dividing means for dividing the conference into a plurality of sections;
First selection means for selecting, from the text recorded in the first recording means, text generated from the start time to the end time of the section;
Second selection means for selecting image data generated from the start time to the end time of the section from the image data recorded in the second recording means;
A minutes generation apparatus comprising: a creation unit that creates a layout by associating the text selected by the first selection unit with the image data selected by the second selection unit .
前記テキストは、前記音声データから生成された発話テキストを要約した要約テキストであることを特徴とする請求項1に記載の議事録生成装置。   2. The minutes generation apparatus according to claim 1, wherein the text is a summary text obtained by summarizing the utterance text generated from the voice data. 前記会議情報の中の画像データから生成された記入テキストと、前記画像データが発生した第3の時刻と、を取得する第3の取得手段を有し、
第1の記録手段は、前記第1の取得手段が取得した前記テキストと、前記記入テキストとを統合し、また、前記第1の時刻と前記第3の時刻とを統合して、記録することを特徴とする請求項1または2に記載の議事録生成装置。
A third acquisition means for acquiring entry text generated from the image data in the meeting information and a third time when the image data is generated;
The first recording means integrates the text acquired by the first acquisition means and the entry text, and integrates and records the first time and the third time. The minutes generating device according to claim 1 or 2 characterized by things.
前記第1の選択手段は、さらに、前記区間の開始時刻から終了時刻までに発生した記入テキストを、前記第1の記録手段に記録された前記記入テキストの中から、選択することを特徴とする請求項3に記載の議事録生成装置。   The first selecting means further selects an entry text generated from a start time to an end time of the section from the entry text recorded in the first recording means. The minutes generating device according to claim 3. 前記分割手段は、前記会議を会議状態に基づいて複数の区間に分割することを特徴とする請求項1から4のいずれか1項に記載の議事録生成装置。   5. The minutes generation apparatus according to claim 1, wherein the dividing unit divides the meeting into a plurality of sections based on a meeting state. 前記会議状態には複数の種別が定義されていることを特徴とする請求項5に記載の議事録生成装置。   6. The minutes generating apparatus according to claim 5, wherein a plurality of types are defined in the meeting state. 前記複数の種別の中からユーザによる1の種別の選択を受け付ける入力手段を有することを特徴とする請求項6に記載の議事録生成装置。   7. The minutes generation apparatus according to claim 6, further comprising an input unit that accepts selection of one type by the user from among the plurality of types. 会議状態の変化点を検出する検出手段を有し、前記分割手段は、前記会議状態の変化点に基づいて、前記会議を複数の区間に分割することを特徴とする請求項1から7のいずれか1項に記載の議事録生成装置。   8. The apparatus according to claim 1, further comprising a detecting unit configured to detect a change point of the conference state, wherein the dividing unit divides the conference into a plurality of sections based on the change point of the conference state. The minutes generating device according to item 1. 撮影手段が、前記画像データを取得することを特徴とする請求項1から8のいずれか1項に記載の議事録生成装置。   The minutes generating device according to any one of claims 1 to 8, wherein the photographing unit acquires the image data. 前記撮影手段が、前記画像データを自動的に取得することを特徴とする請求項9に記載の議事録生成装置。   10. The minutes generation apparatus according to claim 9, wherein the photographing unit automatically acquires the image data. 前記第3の取得手段が取得する前記記入テキストは、前記会議情報の中から取得した第1の画像データと、前記第1の画像データを取得する前に前記会議情報の中から取得した第2の画像データとの差分から生成されることを特徴とする請求項3から10のいずれか1項に記載の議事録生成装置。   The entry text acquired by the third acquisition means includes first image data acquired from the conference information, and second acquired from the conference information before acquiring the first image data. The minutes generation apparatus according to any one of claims 3 to 10, wherein the minutes are generated from a difference from the image data. 前記第2の記録手段は、記録された前記画像データに対応づけられる区間を識別するための情報を記録し、
前記第2の選択手段は、前記区間に対応づけられた画像データを、前記第2の記録手段に記録された前記画像データの中から、選択することを特徴とする請求項1から11のいずれか1項に記載の議事録生成装置。
The second recording means records information for identifying a section associated with the recorded image data,
The said 2nd selection means selects the image data matched with the said area from the said image data recorded on the said 2nd recording means, Any one of Claim 1 to 11 characterized by the above-mentioned. The minutes generating device according to item 1.
前記検出手段が前記会議状態の変化点を検出すると、ユーザに対してメッセージを表示する表示手段をさらに有することを特徴とする請求項8から12のいずれか1項に記載の議事録生成装置。   13. The minutes generation apparatus according to claim 8, further comprising display means for displaying a message to a user when the detection means detects a change point of the conference state. 会議において発生した会議情報の中の音声データから生成されたテキストと、前記音声データが発生した第1の時刻と、を取得する第1の取得工程と、
前記会議情報の中の画像データと、前記画像データが発生した第2の時刻と、を取得する第2の取得工程と、
前記テキストと、前記第1の時刻と、を記録する第1の記録工程と、
前記画像データと、前記第2の時刻と、を記録する第2の記録工程と、
前記会議を複数の区間に分割する分割工程と、
前記区間の開始時刻から終了時刻までに発生したテキストを、前記第1の記録工程において記録された前記テキストの中から、選択する第1の選択工程と、
前記区間の開始時刻から終了時刻までに発生した画像データを、前記第2の記録工程において記録された前記画像データの中から、選択する第2の選択工程と、
前記第1の選択工程において選択された前記テキストと、前記第2の選択工程において選択された前記画像データとを、対応づけてレイアウトを作成する作成工程と、を有することを特徴とする議事録生成方法。
A first acquisition step of acquiring text generated from audio data in conference information generated in the conference, and a first time when the audio data is generated;
A second acquisition step of acquiring image data in the conference information and a second time when the image data is generated;
A first recording step for recording the text and the first time;
A second recording step for recording the image data and the second time;
A division step of dividing the conference into a plurality of sections;
A first selection step of selecting, from the text recorded in the first recording step, text generated from the start time to the end time of the section;
A second selection step of selecting image data generated from the start time to the end time of the section from the image data recorded in the second recording step;
A minutes comprising: a creation step of creating a layout by associating the text selected in the first selection step with the image data selected in the second selection step Generation method.
請求項14の議事録生成方法をコンピュータにより実行させるためのプログラム。   A program for causing a computer to execute the minutes generation method according to claim 14.
JP2018034435A 2018-02-28 2018-02-28 Minute creating apparatus, minute creating method, and program Pending JP2019149083A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018034435A JP2019149083A (en) 2018-02-28 2018-02-28 Minute creating apparatus, minute creating method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018034435A JP2019149083A (en) 2018-02-28 2018-02-28 Minute creating apparatus, minute creating method, and program

Publications (1)

Publication Number Publication Date
JP2019149083A true JP2019149083A (en) 2019-09-05

Family

ID=67850580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018034435A Pending JP2019149083A (en) 2018-02-28 2018-02-28 Minute creating apparatus, minute creating method, and program

Country Status (1)

Country Link
JP (1) JP2019149083A (en)

Similar Documents

Publication Publication Date Title
US7831598B2 (en) Data recording and reproducing apparatus and method of generating metadata
TWI616868B (en) Meeting minutes device and method thereof for automatically creating meeting minutes
US8941847B2 (en) Mobile scan setup and context capture prior to scanning
US11281707B2 (en) System, summarization apparatus, summarization system, and method of controlling summarization apparatus, for acquiring summary information
JP2005341015A (en) Video conference system with minute creation support function
TWI619115B (en) Meeting minutes device and method thereof for automatically creating meeting minutes
JP7427408B2 (en) Information processing device, information processing method, and information processing program
JP2019139572A (en) Conference system, summarization device, method of controlling conference system, method of controlling summarization device, and program
CN117897930A (en) Streaming data processing for hybrid online conferencing
JP2008048204A (en) Information processing apparatus, information processing system, and information processing program
JP2019105740A (en) Conference system, summary device, control method of conference system, control method of summary device, and program
KR20220009318A (en) Apparatus and method for video conferencing service
JP2017021672A (en) Search device
JP2019152758A (en) Conference system, conference system control method, and program
JP2019149083A (en) Minute creating apparatus, minute creating method, and program
JP2011086123A (en) Information processing apparatus, conference system, information processing method, and computer program
JP2019139571A (en) Conference system, summarization device, method of controlling conference system, method of controlling summarization device, and program
JP2020009011A (en) Photobook creation system and server device
JP2020052511A (en) Summary generation apparatus, summary generation method, and program
KR20190029999A (en) System for generating documents of minutes by using multi-connection and the method thereof
JP2019138988A (en) Information processing system, method for processing information, and program
JP2020027351A (en) Minutes distribution system, minutes distribution method, and program
JP2019135609A (en) Character input support system, character input support control device, and character input support program
JP2020154847A (en) Distribution system, method for controlling distribution system, and program
JP2020009012A (en) Photobook creation system and server device