JP2018092365A - Information processing system, information processing device, information processing method, and program - Google Patents

Information processing system, information processing device, information processing method, and program Download PDF

Info

Publication number
JP2018092365A
JP2018092365A JP2016235104A JP2016235104A JP2018092365A JP 2018092365 A JP2018092365 A JP 2018092365A JP 2016235104 A JP2016235104 A JP 2016235104A JP 2016235104 A JP2016235104 A JP 2016235104A JP 2018092365 A JP2018092365 A JP 2018092365A
Authority
JP
Japan
Prior art keywords
minutes
information
display area
conference
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016235104A
Other languages
Japanese (ja)
Other versions
JP6840379B2 (en
Inventor
和子 山寺
Kazuko Yamadera
和子 山寺
隆夫 佐野
Takao Sano
隆夫 佐野
可 沈
Ke Shen
可 沈
克己 立松
Kazumi Tatematsu
克己 立松
章 藤枝
Akira Fujieda
章 藤枝
山本 直人
Naoto Yamamoto
直人 山本
貴元 木下
Takamoto Kinoshita
貴元 木下
大樹 端野
Daiki Hatano
大樹 端野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced Media Inc
Original Assignee
Advanced Media Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced Media Inc filed Critical Advanced Media Inc
Priority to JP2016235104A priority Critical patent/JP6840379B2/en
Publication of JP2018092365A publication Critical patent/JP2018092365A/en
Application granted granted Critical
Publication of JP6840379B2 publication Critical patent/JP6840379B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To more appropriately support creation of a minute book by a simpler system.SOLUTION: In a minute book creation support system 1, a mobile terminal 10 transmits, to an integration server, statement information which is obtained by converting a statement made by a conference participant into text data. The integration server 30 integrates the conference participant's statement information transmitted from the mobile terminal 10 in time sequence. At an editor terminal 40, a UI display control unit 312 displays a display screen including a first display region where the statement information integrated in time sequence by the integration server 30 is displayed and a second display region which is a movement destination for an operation of moving the statement information displayed in the first display region and which is associated with processing of adding statement information to a minute book. When the operation of moving the statement information displayed in the first display region to the second display region is performed, a UI input control unit 313 executes the processing of adding the statement information to data of the minute book.SELECTED DRAWING: Figure 6

Description

本発明は、情報処理システム、情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing system, an information processing apparatus, an information processing method, and a program.

従来、会議の議事録を作成する労力を軽減するため、会議の議事録の作成を支援するシステムが提案されている。
このようなシステムでは、音声認識を用いることにより、会議における参加者の発言を全てテキスト化して記録したり、会議における重要な発言を選択して記録したりする手法が取られている。
例えば、特許文献1には、会議の参加者同士の会話が成立している状態を検知し、検知結果に基づいて、会議の参加者が発話した音声の記録から特定の音声を抽出して議事録を作成する議事録作成支援システムが記載されている。
Conventionally, in order to reduce the labor for creating the minutes of a meeting, a system that supports the creation of the minutes of a meeting has been proposed.
In such a system, by using voice recognition, a method is adopted in which all the comments of participants in the meeting are converted into text and recorded, or important comments in the meeting are selected and recorded.
For example, in Patent Document 1, a state in which a conversation between conference participants is established is detected, and based on the detection result, specific speech is extracted from a recording of speech uttered by a conference participant, and the agenda A minutes creation support system for creating minutes is described.

特開2013−105374号公報JP 2013-105374 A

しかしながら、特許文献1に記載の技術を含め、会議の議事録の作成を支援する従来の技術においては、参加者の発言を区別して入力するためのマイクシステム等、専用の大掛かりな設備を要することがある。また、システムのアルゴリズムによっては会議内容を要約する処理の精度が必ずしも高いものではなく、不適切な内容の議事録が作成される可能性がある。特に、会議と並行して会議内容を要約した議事録を作成する場合、リアルタイムに適切な発言内容を選択して議事録に反映させる必要があり、適切な内容の議事録を作成することがより困難となる。
このように、従来の技術においては、簡単なシステムで議事録の作成を適切に支援することが困難であった。
However, in the conventional technology that supports the creation of the minutes of the conference, including the technology described in Patent Document 1, a dedicated large-scale facility such as a microphone system for distinguishing and inputting participants' comments is required. There is. In addition, depending on the algorithm of the system, the accuracy of the process of summarizing the contents of the meeting is not necessarily high, and there is a possibility that the minutes of inappropriate contents are created. In particular, when creating a minutes that summarizes the contents of a meeting in parallel with the meeting, it is necessary to select the appropriate remarks in real time and reflect them in the minutes. It becomes difficult.
As described above, in the conventional technology, it is difficult to appropriately support the creation of the minutes by a simple system.

本発明は、より簡単なシステムで議事録の作成をより適切に支援することを目的とする。   An object of the present invention is to more appropriately support the creation of minutes by a simpler system.

上記目的を達成するため、本発明の一態様の情報処理システムは、
会議の参加者によって使用される端末装置と、前記会議の参加者による発言を統合する統合サーバと、前記会議の議事録を作成する情報処理装置とを含み、
前記端末装置は、前記会議の参加者の発言がテキストデータとされた発言情報を前記統合サーバに送信し、
前記統合サーバは、前記端末装置から送信された会議の参加者の前記発言情報を時系列に統合し、
前記情報処理装置は、
前記統合サーバによって時系列に統合された前記発言情報を表示する第1表示領域と、前記第1表示領域に表示された前記発言情報を移動させる操作の移動先となる領域であって、前記発言情報を議事録に含める処理と対応付けられた第2表示領域と、を含む表示画面を表示させる表示制御手段と、
前記第1表示領域に表示された前記発言情報を前記第2表示領域に移動させる操作が行われた場合に、当該発言情報を議事録のデータに追加する処理を実行する処理手段と、
を備えることを特徴とする。
In order to achieve the above object, an information processing system according to one embodiment of the present invention includes:
A terminal device used by a conference participant, an integrated server that integrates statements made by the conference participant, and an information processing device that creates minutes of the conference,
The terminal device transmits the speech information in which the speech of the participant of the conference is text data to the integrated server,
The integration server integrates the speech information of the conference participants transmitted from the terminal device in time series,
The information processing apparatus includes:
A first display area for displaying the message information integrated in time series by the integration server; and an area to which the operation for moving the message information displayed in the first display area is performed. Display control means for displaying a display screen including a second display area associated with the process of including information in the minutes;
Processing means for executing processing for adding the comment information to the minutes data when an operation of moving the comment information displayed in the first display area to the second display area is performed;
It is characterized by providing.

本発明によれば、より簡単なシステムで議事録の作成をより適切に支援することができる。   According to the present invention, creation of minutes can be more appropriately supported with a simpler system.

本発明に係る議事録作成支援システムのシステム構成を示す図である。It is a figure which shows the system configuration | structure of the minutes creation assistance system which concerns on this invention. 携帯端末、音声認識サーバ、統合サーバ及び編集者端末を構成する情報処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the information processing apparatus which comprises a portable terminal, a speech recognition server, an integrated server, and an editor terminal. 携帯端末の機能構成を示すブロック図である。It is a block diagram which shows the function structure of a portable terminal. 統合サーバの機能構成を示すブロック図である。It is a block diagram which shows the function structure of an integrated server. 編集者端末の機能構成を示すブロック図である。It is a block diagram which shows the function structure of an editor terminal. 議事録編集画面の一例を示す模式図である。It is a schematic diagram which shows an example of a minutes edit screen. 議事録作成支援システムの携帯端末が実行する会議参加処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the meeting participation process which the portable terminal of a minutes creation assistance system performs. 議事録作成支援システムの統合サーバが実行する統合処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the integration process which the integrated server of a minutes creation assistance system performs. 議事録作成支援システムの編集者端末が実行する議事録編集処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the minutes edit process which the editor terminal of the minutes creation assistance system performs. 議事録編集画面の他の例を示す模式図である。It is a schematic diagram which shows the other example of a minutes edit screen. 議事録編集画面の他の例を示す模式図である。It is a schematic diagram which shows the other example of a minutes edit screen.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[構成]
[システム構成]
図1は、本発明に係る議事録作成支援システム1のシステム構成を示す図である。
議事録作成支援システム1は、本発明に係る情報処理システムの一実施形態として構成されるものであり、会議の内容を要約した議事録の作成を、簡単な構成のシステムで、より適切に支援するシステムである。
[Constitution]
[System configuration]
FIG. 1 is a diagram showing a system configuration of a minutes creation support system 1 according to the present invention.
The minutes creation support system 1 is configured as an embodiment of an information processing system according to the present invention, and more appropriately supports the creation of minutes by summarizing the contents of a meeting with a simple configuration system. System.

図1に示すように、議事録作成支援システム1は、複数の携帯端末10と、音声認識サーバ20と、統合サーバ30と、編集者端末40とを含んで構成され、これらはネットワーク50を介して、互いに通信可能に構成されている。
携帯端末10は、会議の参加者によって使用され、後述する会議参加処理を実行することにより、議事録作成の対象となる会議に対する参加者の発言(音声の入力)を受け付ける。また、携帯端末10は、参加者の発言の音声を音声認識サーバ20に送信し、その音声認識結果のテキストデータを受信する。そして、携帯端末10は、音声認識の対象となった発言の音声及びその音声認識結果を統合サーバ30に送信する。
As shown in FIG. 1, the minutes creation support system 1 includes a plurality of mobile terminals 10, a voice recognition server 20, an integration server 30, and an editor terminal 40, which are connected via a network 50. Thus, they can be communicated with each other.
The portable terminal 10 is used by a conference participant, and accepts a participant's remarks (speech input) for the conference for which the minutes are to be created by executing a conference participation process described later. Moreover, the portable terminal 10 transmits the voice of the participant's speech to the voice recognition server 20 and receives text data of the voice recognition result. Then, the mobile terminal 10 transmits the speech of the speech that is the target of speech recognition and the speech recognition result to the integrated server 30.

音声認識サーバ20は、携帯端末10によって受け付けられた発言の音声を音声認識し、音声認識結果のテキストデータを当該携帯端末10に逐次送信する。なお、音声認識サーバ20としては、音声認識機能を有する既存のサーバを利用することや、議事録作成支援システム1のために専用に音声認識サーバ20を用意することのいずれも可能である。   The voice recognition server 20 recognizes the voice of the speech accepted by the mobile terminal 10 and sequentially transmits text data of the voice recognition result to the mobile terminal 10. As the voice recognition server 20, it is possible to use an existing server having a voice recognition function or to prepare the voice recognition server 20 exclusively for the minutes creation support system 1.

統合サーバ30は、後述する統合処理を実行することにより、複数の携帯端末10から送信された発言の音声の音声認識結果を時系列に並べることによって統合し、編集者端末40に逐次送信する。また、統合サーバ30は、編集者端末40から送信された議事録のデータを、複数の携帯端末10から送信された一連の参加者の音声及びその音声認識結果と共にデータベースに記憶する。   The integration server 30 integrates the voice recognition results of the utterances transmitted from the plurality of mobile terminals 10 by arranging them in time series by executing an integration process described later, and sequentially transmits them to the editor terminal 40. Further, the integrated server 30 stores the minutes data transmitted from the editor terminal 40 in a database together with a series of participants' voices transmitted from the plurality of portable terminals 10 and the voice recognition results thereof.

編集者端末40は、後述する議事録編集処理を実行することにより、統合サーバ30によって統合された発言の音声認識結果(テキストデータ)を表示すると共に、その編集を可能とするユーザインターフェース(以下、適宜「議事録編集画面」と称する。)を表示する。編集者端末40は、議事録編集画面において、統合サーバ30から逐次送信される各参加者の発言の音声認識結果をタイムライン表示し、タイムライン表示された発言のテキストデータに対する操作を受け付ける。   The editor terminal 40 displays a speech recognition result (text data) of the speech integrated by the integration server 30 by executing a minutes editing process described later, and a user interface (hereinafter, referred to as “editing”). This will be referred to as a “minutes edit screen” as appropriate. On the minutes editing screen, the editor terminal 40 displays the speech recognition result of each participant's utterance transmitted sequentially from the integrated server 30 on a timeline, and accepts an operation on the text data of the utterance displayed on the timeline.

具体的には、編集者端末40は、議事録編集画面において、発言のテキストデータを議事録に残すためにドラッグアンドドロップする領域(以下、「議事録領域」と称する。)を表示し、タイムライン表示された発言のテキストデータが議事録領域にドラッグアンドドロップされると、その発言のテキストデータを議事録のデータに反映させる。また、編集者端末40は、議事録編集画面において、タイムライン表示された発言のテキストデータに、編集者が重要な発言であると判断したことを示す重要マークを付加する操作を受け付ける。重要マークを付加しておくことで、後に、重要と判断された発言を簡単に抽出することができる。また、重要マークを付加しておくことで、会議内容を要約する一助とすることができる。さらに、編集者端末40は、議事録領域にドラッグアンドドロップした発言のテキストデータの一覧を、議事録のデータとして統合サーバ30に送信する。   Specifically, the editor terminal 40 displays an area to be dragged and dropped (hereinafter referred to as “minutes area”) in order to leave the text data of the statement in the minutes on the minutes edit screen, and the time. When the text data of a message displayed in a line is dragged and dropped into the minutes area, the text data of the message is reflected in the data of the minutes. In addition, the editor terminal 40 accepts an operation for adding an important mark indicating that the editor has determined that the message is important to the text data of the message displayed on the timeline on the minutes editing screen. By adding an important mark, it is possible to easily extract an utterance judged to be important later. In addition, adding an important mark can help to summarize the contents of the meeting. Further, the editor terminal 40 transmits a list of text data of the remarks dragged and dropped to the minutes area to the integrated server 30 as minutes data.

また、本実施形態において、議事録編集画面には、議事録領域以外にも、発言内容の属性に対応した所定領域(以下、「属性別領域」と称する。)が表示され、編集者によって発言内容が特定の属性であると判断された発言のテキストデータは、適宜、その発言内容の属性に対応した属性別領域にドラッグアンドドロップされる。発言内容の属性としては、例えば、会議によって参加者に課されることとなった課題や、会議によって決定された予定等、会議における各種決定事項が設定される。属性別領域に発言のテキストデータがドラッグアンドドロップされると、その発言内容の属性に対応した処理が自動的に行われる。例えば、参加者に課されることとなった課題が、議事録に記録されると共に、グループウェアシステムにおける課題を課された参加者の個人ページにToDoリストとして登録される。   In the present embodiment, in addition to the minutes area, a predetermined area corresponding to the attribute of the statement content (hereinafter referred to as “attribute-specific area”) is displayed on the minutes edit screen. The text data of an utterance whose content is determined to be a specific attribute is appropriately dragged and dropped into an attribute-specific area corresponding to the attribute of the utterance content. As the attribute of the content of remarks, for example, various matters to be determined in the conference such as a task imposed on the participant by the conference and a schedule determined by the conference are set. When the text data of an utterance is dragged and dropped in the attribute-specific area, processing corresponding to the attribute of the utterance content is automatically performed. For example, the assignment to be imposed on the participant is recorded in the minutes, and is registered as a ToDo list on the personal page of the participant who has been assigned the assignment in the groupware system.

[ハードウェア構成]
次に、議事録作成支援システム1の携帯端末10、音声認識サーバ20、統合サーバ30及び編集者端末40のハードウェア構成について説明する。
携帯端末10、音声認識サーバ20、統合サーバ30及び編集者端末40は、情報処理装置によって構成され、例えば携帯端末10はスマートフォン、音声認識サーバ20及び統合サーバ30はサーバコンピュータ、編集者端末40はPC(Personal Computer)によって構成することができる。
図2は、携帯端末10、音声認識サーバ20、統合サーバ30及び編集者端末40を構成する情報処理装置800のハードウェア構成を示す図である。
図2に示すように、情報処理装置800は、CPU(Central Processing Unit)811と、ROM(Read Only Memory)812と、RAM(Random Access Memory)813と、バス814と、入力部815と、出力部816と、記憶部817と、通信部818と、ドライブ819と、を備えている。
[Hardware configuration]
Next, the hardware configuration of the mobile terminal 10, the speech recognition server 20, the integrated server 30, and the editor terminal 40 of the minutes creation support system 1 will be described.
The mobile terminal 10, the voice recognition server 20, the integration server 30, and the editor terminal 40 are configured by an information processing device. For example, the mobile terminal 10 is a smartphone, the voice recognition server 20 and the integration server 30 are server computers, and the editor terminal 40 is an editor terminal 40. It can be configured by a PC (Personal Computer).
FIG. 2 is a diagram illustrating a hardware configuration of the information processing apparatus 800 that constitutes the mobile terminal 10, the voice recognition server 20, the integration server 30, and the editor terminal 40.
As illustrated in FIG. 2, the information processing apparatus 800 includes a CPU (Central Processing Unit) 811, a ROM (Read Only Memory) 812, a RAM (Random Access Memory) 813, a bus 814, an input unit 815, and an output A unit 816, a storage unit 817, a communication unit 818, and a drive 819.

CPU811は、ROM812に記録されているプログラム、または、記憶部817からRAM813にロードされたプログラムに従って各種の処理を実行する。
RAM813には、CPU811が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 811 executes various processes according to a program recorded in the ROM 812 or a program loaded from the storage unit 817 to the RAM 813.
The RAM 813 appropriately stores data necessary for the CPU 811 to execute various processes.

CPU811、ROM812及びRAM813は、バス814を介して相互に接続されている。バス814には、入力部815、出力部816、記憶部817、通信部818及びドライブ819が接続されている。   The CPU 811, ROM 812, and RAM 813 are connected to each other via a bus 814. An input unit 815, an output unit 816, a storage unit 817, a communication unit 818, and a drive 819 are connected to the bus 814.

入力部815は、各種釦等で構成され、指示操作に応じて各種情報を入力する。また、入力部815は、音声入力のためのマイクを備え、入力された音声を電気信号に変換する。
出力部816は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部817は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、各サーバで管理される各種データを記憶する。
通信部818は、ネットワークを介して他の装置との間で行う通信を制御する。
The input unit 815 is configured with various buttons and the like, and inputs various information according to an instruction operation. The input unit 815 includes a microphone for voice input, and converts the input voice into an electrical signal.
The output unit 816 includes a display, a speaker, and the like, and outputs an image and sound.
The storage unit 817 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various data managed by each server.
The communication unit 818 controls communication performed with other devices via a network.

ドライブ819には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア821が適宜装着される。ドライブ819によってリムーバブルメディア821から読み出されたプログラムは、必要に応じて記憶部817にインストールされる。
なお、このような情報処理装置800の基本的構成に対し、各装置を具体的に構成する場合には、適宜、付加的なハードウェアを備えることができる。例えば、携帯端末10を構成する場合、デジタル画像を撮像する撮像部を備えること等が可能である。また、携帯端末10を構成する場合、入力部815としてタッチセンサを備え、出力部816のディスプレイと重ねて配置することにより、タッチパネルを構成すること等が可能である。
A removable medium 821 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 819. The program read from the removable medium 821 by the drive 819 is installed in the storage unit 817 as necessary.
In addition, when each apparatus is specifically configured with respect to such a basic configuration of the information processing apparatus 800, additional hardware can be appropriately provided. For example, when the mobile terminal 10 is configured, an imaging unit that captures a digital image can be provided. When the mobile terminal 10 is configured, a touch sensor can be provided as the input unit 815, and a touch panel can be configured by overlapping the display of the output unit 816.

[機能的構成]
次に、携帯端末10、統合サーバ30及び編集者端末40の機能構成について説明する。なお、本実施形態において、音声認識サーバ20は、音声認識を行い、音声認識結果をテキストデータとして出力する機能(音声認識機能)を備えている。
[Functional configuration]
Next, functional configurations of the mobile terminal 10, the integrated server 30, and the editor terminal 40 will be described. In the present embodiment, the voice recognition server 20 has a function of performing voice recognition and outputting a voice recognition result as text data (voice recognition function).

図3は、携帯端末10の機能構成を示すブロック図である。
図3に示すように、携帯端末10のCPU811が会議参加処理を実行することにより、CPU811において、ログイン処理部111と、登録処理部112と、発話制御部113と、表示制御部114と、音声出力制御部115とが機能する。
ログイン処理部111は、議事録作成支援システム1において携帯端末10のユーザ(会議の参加者)を認証するためのログイン処理を実行する。例えば、ログイン処理部111は、携帯端末10のユーザのユーザ名及びパスワードの入力を受け付け、統合サーバ30に送信することにより、携帯端末10のユーザの認証を取得する。
FIG. 3 is a block diagram illustrating a functional configuration of the mobile terminal 10.
As illustrated in FIG. 3, when the CPU 811 of the mobile terminal 10 executes the conference participation process, in the CPU 811, the login processing unit 111, the registration processing unit 112, the speech control unit 113, the display control unit 114, and the voice The output control unit 115 functions.
The login processing unit 111 executes a login process for authenticating the user (conference participant) of the mobile terminal 10 in the minutes creation support system 1. For example, the login processing unit 111 receives input of the user name and password of the user of the mobile terminal 10 and transmits the input to the integrated server 30 to acquire authentication of the user of the mobile terminal 10.

登録処理部112は、議事録作成支援システム1において開催されている会議の中から、携帯端末10のユーザが参加する会議の選択を受け付けると共に、携帯端末10のユーザがその会議への参加を許可されている場合、統合サーバ30に対して参加者としての登録を行う。
発話制御部113は、会議に参加しているユーザ(参加者)の発話(発言の音声)の入力を逐次受け付け、入力された音声を音声認識サーバ20に送信する。そして、発話制御部113は、送信した音声の音声認識結果を音声認識サーバ20から受信し、音声及びその音声認識結果を統合サーバ30に送信する。
The registration processing unit 112 accepts selection of a conference in which the user of the mobile terminal 10 participates from conferences held in the minutes creation support system 1 and permits the user of the mobile terminal 10 to participate in the conference. If so, registration as a participant with the integrated server 30 is performed.
The utterance control unit 113 sequentially receives input of utterances (speech voices) of users (participants) participating in the conference, and transmits the input voices to the voice recognition server 20. Then, the utterance control unit 113 receives the voice recognition result of the transmitted voice from the voice recognition server 20, and transmits the voice and the voice recognition result to the integration server 30.

表示制御部114は、会議中であることを示す表示画面を表示し、その表示画面において、発話制御部113が音声認識サーバ20から受信した音声認識結果を表示する。これにより、当該携帯端末10のユーザの発言が逐次表示される。なお、表示制御部114が、統合サーバ30から各参加者の発言の音声認識結果(テキストデータ)を統合した時系列のデータを受信して、タイムライン表示することとしてもよい。
音声出力制御部115は、会議に参加している各参加者の発言の音声を逐次受信し、音声として出力する。なお、同一の場所で複数の参加者が会議に参加する場合等のために、ユーザの操作により、音声の出力をON/OFFする機能を備えることとしてもよい。
The display control unit 114 displays a display screen indicating that the conference is in progress, and the speech recognition result received from the speech recognition server 20 by the utterance control unit 113 is displayed on the display screen. Thereby, the speech of the user of the portable terminal 10 is sequentially displayed. Note that the display control unit 114 may receive time-series data obtained by integrating the speech recognition results (text data) of the speech of each participant from the integration server 30 and display the timeline data.
The voice output control unit 115 sequentially receives the voice of each participant participating in the conference and outputs it as voice. In addition, for the case where a plurality of participants participate in a conference at the same place, a function of turning on / off the sound output by a user operation may be provided.

次に、統合サーバ30の機能構成について説明する。
図4は、統合サーバ30の機能構成を示すブロック図である。
図4に示すように、統合サーバ30のCPU811が統合処理を実行することにより、CPU811において、会議管理部211と、音声認識結果取得部212と、ユーザインターフェース生成部(UI生成部)213と、議事録データ取得部214と、連携処理部215とが機能する。また、統合サーバ30の記憶部817には、発言音声データベース(発言音声DB)221と、音声認識結果データベース(音声認識結果DB)222と、議事録データベース(議事録DB)223とが形成される。
Next, the functional configuration of the integrated server 30 will be described.
FIG. 4 is a block diagram illustrating a functional configuration of the integrated server 30.
As shown in FIG. 4, when the CPU 811 of the integration server 30 executes the integration process, in the CPU 811, the conference management unit 211, the voice recognition result acquisition unit 212, the user interface generation unit (UI generation unit) 213, The minutes data acquisition unit 214 and the cooperation processing unit 215 function. Further, a speech voice database (speech speech DB) 221, a speech recognition result database (speech recognition result DB) 222, and a minutes database (minutes DB) 223 are formed in the storage unit 817 of the integrated server 30. .

発言音声DB221には、会議に参加している各参加者の発言の音声が時系列に記憶される。なお、本実施形態において、発言音声DB221に記憶される音声の順序は、音声が統合サーバ30に受信された順であるものとする。
音声認識結果DB222には、会議に参加している各参加者の発言の音声の音声認識結果が時系列に記憶される。なお、本実施形態において、音声認識結果DBに記憶される音声認識結果の順序は、発言の音声と同様に、音声認識結果が統合サーバ30に受信された順であるものとする。発言の音声と音声認識結果とは、携帯端末10から一体として送信されるため、これらの記憶順序は発言音声DB221及び音声認識結果DB222において対応したものとなる。
The speech voice DB 221 stores speech speech of each participant participating in the conference in time series. In the present embodiment, the order of voices stored in the speech voice DB 221 is the order in which voices are received by the integrated server 30.
The speech recognition result DB 222 stores speech recognition results of speech of each participant participating in the conference in time series. In the present embodiment, the order of the speech recognition results stored in the speech recognition result DB is the order in which the speech recognition results are received by the integrated server 30 as in the case of the speech. The voice of speech and the voice recognition result are transmitted as a unit from the portable terminal 10, and the storage order thereof corresponds to the voice of speech DB 221 and the voice recognition result DB 222.

議事録DB223には、編集者端末40から送信された議事録のデータが記憶される。
なお、各会議における発言の音声、音声認識結果及び議事録のデータは、互いに対応付けられて、発言音声DB221、音声認識結果DB222及び議事録DB223にそれぞれ記憶される。
The minutes DB 223 stores the minutes data transmitted from the editor terminal 40.
Note that the voice of speech, the speech recognition result, and the minutes data in each conference are stored in the speech voice DB 221, the speech recognition result DB 222, and the minutes DB 223 in association with each other.

会議管理部211は、編集者端末40から会議の開催要求を受け付け、会議に関する情報を登録するための登録画面のデータを編集者端末40に送信する。会議に関する情報としては、会議名、開始日時、参加者の氏名等が含まれ、会議管理部211は、これらの情報を登録するための登録画面のデータを生成して編集者端末40に送信する。なお、本実施形態においては、参加者が携帯端末10を用いて会議に参加することから、特定の場所に集合する必要はないものの、その会議が、参加者の集合を要求するものである場合、会議に関する情報には、会議の開催場所も含められる。   The meeting management unit 211 receives a meeting holding request from the editor terminal 40 and transmits data of a registration screen for registering information regarding the meeting to the editor terminal 40. The conference information includes the conference name, start date and time, names of participants, and the like. The conference management unit 211 generates registration screen data for registering these pieces of information and transmits them to the editor terminal 40. . In the present embodiment, since the participant participates in the conference using the mobile terminal 10, it is not necessary to gather at a specific place, but the conference requests a set of participants. The information regarding the conference includes the location of the conference.

また、会議管理部211は、編集者端末40から会議に関する情報が送信されると、会議の参加者として指定されているユーザの携帯端末10からの参加の登録を受け付ける。なお、このとき、会議管理部211が、会議の参加者として指定されているユーザの携帯端末10に会議への参加を促すメッセージを送信することとしてもよい。
また、会議管理部211は、編集者端末40から会議の開始が要求されることに対応して、各参加者の携帯端末10に会議が開始することを示すメッセージを送信する。同様に、会議管理部211は、編集者端末40から会議の終了が要求されることに対応して、各参加者の携帯端末10に会議が終了することを示すメッセージを送信する。
音声認識結果取得部212は、各参加者の携帯端末10から送信される各参加者の発言の音声及びその音声認識結果を逐次受信し、受信した順に、発言の音声を発言音声DB221に記憶すると共に、発言の音声の音声認識結果を音声認識結果DB222に記憶する。
In addition, when information related to the conference is transmitted from the editor terminal 40, the conference management unit 211 accepts registration of participation from the mobile terminal 10 of the user designated as a conference participant. At this time, the conference management unit 211 may transmit a message prompting the user to join the conference to the mobile terminal 10 of the user designated as the conference participant.
Further, in response to the start of the conference being requested from the editor terminal 40, the conference management unit 211 transmits a message indicating that the conference is started to the mobile terminal 10 of each participant. Similarly, in response to a request for termination of the conference from the editor terminal 40, the conference management unit 211 transmits a message indicating that the conference is terminated to the mobile terminal 10 of each participant.
The speech recognition result acquisition unit 212 sequentially receives the speech of each participant and the speech recognition result transmitted from the mobile terminal 10 of each participant, and stores the speech of the speech in the speech voice DB 221 in the order received. At the same time, the speech recognition result of the speech is stored in the speech recognition result DB 222.

UI生成部213は、編集者端末40において議事録を編集するための表示画面(議事録編集画面)のデータを生成し、編集者端末40に送信する。この議事録編集画面には、各参加者の発言の音声認識結果をタイムライン表示する領域が含まれ、UI生成部213は、各参加者からの発言の音声及びその音声認識結果を受信する毎に、逐次、タイムライン表示を更新した議事録編集画面のデータを編集者端末40に送信する。
議事録データ取得部214は、編集者端末40から議事録のデータが送信されると、会議における発言の音声及びその音声認識結果と対応付けて、議事録のデータを議事録DB223に記憶する。
The UI generation unit 213 generates data of a display screen (minutes editing screen) for editing the minutes in the editor terminal 40 and transmits the data to the editor terminal 40. The minutes editing screen includes an area for displaying the speech recognition result of each participant's speech on a timeline, and the UI generation unit 213 receives speech speech and the speech recognition result from each participant. In addition, the data of the minutes edit screen with the updated timeline display is sequentially transmitted to the editor terminal 40.
When the minutes data is transmitted from the editor terminal 40, the minutes data acquisition unit 214 stores the minutes data in the minutes DB 223 in association with the voice of the speech in the meeting and the voice recognition result.

連携処理部215は、議事録のデータに基づいて、会議における決定事項に関連する各種処理を実行する。例えば、連携処理部215は、参加者に課されることとなった課題を、グループウェアシステムにおける当該参加者の個人ページにToDoリストとして登録したり、次回の会議に関する設備の予約(会議室や機器等の予約)を行ったりする。   The cooperation processing unit 215 executes various processes related to the matters determined in the conference based on the minutes data. For example, the cooperation processing unit 215 registers a task to be imposed on a participant as a ToDo list on the participant's personal page in the groupware system, or reserves a facility (conference room or Make reservations for equipment, etc.).

次に、編集者端末40の機能構成について説明する。
図5は、編集者端末40の機能構成を示すブロック図である。
図5に示すように、編集者端末40のCPU811が議事録編集処理を実行することにより、CPU811において、会議開催処理部311と、ユーザインターフェース表示制御部(UI表示制御部)312と、ユーザインターフェース入力制御部(UI入力制御部)313とが機能する。また、編集者端末40の記憶部817には、議事録記憶部321が形成される。
議事録記憶部321には、編集者端末40において、議事録編集画面を介して編集者が作成した議事録のデータが記憶される。
Next, the functional configuration of the editor terminal 40 will be described.
FIG. 5 is a block diagram showing a functional configuration of the editor terminal 40.
As shown in FIG. 5, when the CPU 811 of the editor terminal 40 executes the minutes editing process, in the CPU 811, the conference holding processing unit 311, the user interface display control unit (UI display control unit) 312, the user interface The input control unit (UI input control unit) 313 functions. In addition, a minutes storage unit 321 is formed in the storage unit 817 of the editor terminal 40.
The minutes storage unit 321 stores the data of the minutes created by the editor via the minutes editing screen in the editor terminal 40.

会議開催処理部311は、統合サーバ30に会議の開催を要求し、会議に関する情報を登録するための登録画面のデータを統合サーバ30から受信すると共に、登録画面を表示して、会議に関する情報の入力を受け付ける。そして、会議開催処理部311は、入力された会議に関する情報を統合サーバ30に送信する。さらに、会議開催処理部311は、会議の開始あるいは会議の終了を指示する操作が行われた場合に、会議の開始あるいは会議の終了を統合サーバ30に要求する。
UI表示制御部312は、統合サーバ30から議事録編集画面のデータを受信して、議事録編集画面を表示する。また、UI表示制御部312は、統合サーバ30からタイムライン表示を更新した議事録編集画面のデータを受信すると、更新後の議事録編集画面を逐次表示する。
The conference holding processing unit 311 requests the integration server 30 to hold a conference, receives registration screen data for registering information related to the conference from the integrated server 30, displays a registration screen, and displays information related to the conference. Accept input. Then, the conference holding processing unit 311 transmits information regarding the input conference to the integrated server 30. Further, the conference holding processing unit 311 requests the integration server 30 to start or end the conference when an operation for instructing the start or end of the conference is performed.
The UI display control unit 312 receives the data on the minutes edit screen from the integrated server 30 and displays the minutes edit screen. In addition, when the UI display control unit 312 receives the data of the minutes edit screen updated from the integrated server 30, the UI display control unit 312 sequentially displays the updated minutes edit screen.

図6は、議事録編集画面の一例を示す模式図である。
図6に示すように、UI表示制御部312が表示する議事録編集画面には、会議情報領域Z1と、タイムライン表示領域Z2と、議事録領域Z3と、属性別領域Z4とが含まれている。
会議情報領域Z1には、会議名、会議の開催日時、参加者の氏名及び配布された資料等、会議を特定する情報及び会議で参照された情報等の会議に関連する情報が表示される。
タイムライン表示領域Z2には、参加者の発言の音声認識結果が時系列に表示される。図6に示す例では、タイムライン表示領域Z2には、重要発言であるか否かを示す重要発言マーク、発言時刻、発言者及び発言内容を示すテキストデータが1行に表示されている。このタイムライン表示領域Z2の表示内容は、上述のように、各参加者からの発言が行われる毎に統合サーバ30によって逐次更新される。
また、タイムライン表示領域Z2において、各発言のテキストデータには、発言の音声を出力するための発音ボタンが表示される。
さらに、タイムライン表示領域Z2において、キーワードあるいは発言者によって発言のテキストデータを検索するための検索窓が表示される。
FIG. 6 is a schematic diagram showing an example of the minutes editing screen.
As shown in FIG. 6, the minutes edit screen displayed by the UI display control unit 312 includes a meeting information area Z1, a timeline display area Z2, a minutes area Z3, and an attribute-specific area Z4. Yes.
In the conference information area Z1, information related to the conference such as the conference name, the date and time of the conference, the names of the participants, the distributed materials, and the like are displayed.
In the timeline display area Z2, the speech recognition results of the participant's speech are displayed in time series. In the example shown in FIG. 6, in the timeline display area Z <b> 2, the important utterance mark indicating whether or not the utterance is important, the utterance time, the speaker, and the text data indicating the utterance content are displayed in one line. As described above, the display content of the timeline display area Z2 is sequentially updated by the integrated server 30 every time a speech is made from each participant.
In the timeline display area Z2, the text data of each utterance displays a pronunciation button for outputting the voice of the utterance.
Further, in the timeline display area Z2, a search window for searching for text data of a speech by a keyword or a speaker is displayed.

議事録領域Z3は、タイムライン表示領域Z2に表示されている発言のテキストデータのドラッグアンドドロップ操作を受け付ける領域であり、ドラッグアンドドロップ操作された発言のテキストデータは、UI入力制御部313によって議事録のデータにコピーして追加される。なお、このようにドラッグアンドドロップされた発言のテキストデータは、議事録領域Z3に時系列に表示される。   The minutes area Z3 is an area for accepting a drag-and-drop operation of the text data of the message displayed in the timeline display area Z2. The text data of the message subjected to the drag-and-drop operation is processed by the UI input control unit 313. It is copied and added to the recording data. Note that the text data of the message dragged and dropped in this way is displayed in time series in the minutes area Z3.

属性別領域Z4は、参加者の発言内容の属性に対応した各領域によって構成され、タイムライン表示領域Z2に表示されている発言のテキストデータのドラッグアンドドロップ操作を受け付ける。図6に示す例では、属性別領域Z4として、参加者に課されることとなった課題の属性に対応する課題領域Z41と、会議によって決定された予定の属性に対応する予定領域Z42とが設定されている。   The attribute-specific area Z4 is composed of areas corresponding to the attributes of the participant's speech content, and accepts a drag-and-drop operation of the text data of the speech displayed in the timeline display region Z2. In the example shown in FIG. 6, as the attribute-specific area Z4, there are a task area Z41 corresponding to the attribute of the task that has been imposed on the participant, and a scheduled area Z42 corresponding to the scheduled attribute determined by the meeting. Is set.

課題領域Z41に、タイムライン表示領域Z2に表示されている発言のテキストデータがドラッグアンドドロップされると、その発言のテキストデータが表す参加者に課されることとなった課題が、UI入力制御部313によって議事録に記録される。なお、図6に示す例では、課題領域Z41内に、各参加者を表す領域がさらに設定され、いずれかの参加者に対応する領域に発言のテキストデータがドラッグアンドドロップされると、その領域に対応する参加者に対する課題として、その発言のテキストデータが表す課題を記録することができる。
また、予定領域Z42に、タイムライン表示領域Z2に表示されている発言のテキストデータがドラッグアンドドロップされると、その発言のテキストデータが表す予定(スケジュール)が、UI入力制御部313によって議事録に記録される。なお、予定領域Z42においても、課題領域Z41と同様に、各参加者に対応する領域を設定することとしてもよい。
When the text data of the utterance displayed in the timeline display area Z2 is dragged and dropped into the assignment area Z41, the assignment that is imposed on the participant represented by the text data of the utterance is UI input control. Recorded in minutes by part 313. In the example shown in FIG. 6, when an area representing each participant is further set in the task area Z41, and the text data of the message is dragged and dropped into an area corresponding to any participant, that area As an assignment for the participant corresponding to the above, the assignment represented by the text data of the statement can be recorded.
When the text data of the message displayed in the timeline display area Z2 is dragged and dropped onto the schedule area Z42, the schedule (schedule) represented by the text data of the message is recorded by the UI input control unit 313. To be recorded. In the planned area Z42, similarly to the task area Z41, an area corresponding to each participant may be set.

図5に戻り、UI入力制御部313は、議事録編集画面における編集者の操作に対して、入力する処理内容を制御する。例えば、UI入力制御部313は、議事録編集画面において、タイムライン表示された発言のテキストデータが議事録領域(図6の議事録領域Z3参照)にドラックアンドドロップされると、その発言のテキストデータを議事録のデータにコピーして追加する。なお、このとき、発言のテキストデータの文体を議事録用に変換(「です・ます」調から「である」調への変換等)してもよい。   Returning to FIG. 5, the UI input control unit 313 controls the processing content to be input in response to the editor's operation on the minutes edit screen. For example, when the text data of the utterance displayed on the timeline is dragged and dropped in the minutes area (see the minutes area Z3 in FIG. 6) on the minutes editing screen, the UI input control unit 313 displays the text of the statement. Copy and add data to the minutes data. At this time, the style of the text data of the utterance may be converted for the minutes (conversion from “is / mas” to “is”, etc.).

また、UI入力制御部313は、議事録編集画面において、タイムライン表示された発言のテキストデータに、編集者が重要な発言であると判断したことを示す重要マークを付加する操作が行われると、その発言のテキストデータに重要発言であることを示すタグを付加する。さらに、UI入力制御部313は、議事録編集画面において、タイムライン表示された発言のテキストデータが発言内容の属性に対応した属性別領域(図6の属性別領域Z4参照)にドラッグアンドドロップされると、その発言内容の属性に対応する決定事項を議事録のデータに追加する。例えば、参加者に課されることとなった課題が議事録のデータに追加される。   In addition, when the UI input control unit 313 performs an operation of adding an important mark indicating that the editor has determined that the message is important to the text data of the message displayed on the timeline on the minutes editing screen. Then, a tag indicating an important utterance is added to the text data of the utterance. Further, the UI input control unit 313 drags and drops the text data of the utterance displayed on the timeline to the attribute-specific area (see attribute-specific area Z4 in FIG. 6) corresponding to the attribute of the utterance content on the minutes editing screen. Then, a decision item corresponding to the attribute of the statement content is added to the minutes data. For example, the task that is imposed on the participant is added to the minutes data.

また、UI入力制御部313は、議事録編集画面において、会議の終了を指示する操作が行われると、議事録編集画面によって作成された議事録のデータを統合サーバ30に送信する。なお、編集者が議事録の編集を引き続き行う場合には、編集者による議事録の編集の完了を確認した後に、UI入力制御部313が、議事録のデータを統合サーバ30に送信することとしてもよい。   In addition, when an operation for instructing the end of the meeting is performed on the minutes editing screen, the UI input control unit 313 transmits the data of the minutes created on the minutes editing screen to the integrated server 30. When the editor continues to edit the minutes, the UI input control unit 313 transmits the minutes data to the integrated server 30 after confirming the completion of the editing of the minutes by the editor. Also good.

また、議事録編集画面において、タイムライン表示領域には、編集者が「写真」タブをクリックすること等により、会議において提示された写真あるいは図面等の画像データを表示可能であり、議事録領域に画像データがドラッグアンドドロップされると、UI入力制御部313は、その画像データを発言のテキストデータと対応付けて議事録に追加する。また、議事録編集画面においては、会議に関連する配布資料、図面や現場・製品等の写真、さらに、会議中の板書の写真あるいはスキャンされた板書の画像等のデータを、ドラッグアンドドロップあるいはダイアログ画面を介して選択すること等により、議事録の任意の位置に追加することができる。そのため、議事録作成支援システム1においては、会議に関連する資料や、会議中に作成された板書等、参加者の発言以外の各種情報についても、議事録と対応付けて、統合的に管理することが可能となる。   In the minutes edit screen, the timeline display area can display image data such as photos or drawings presented at the meeting by the editor clicking the “Photos” tab, etc. When the image data is dragged and dropped, the UI input control unit 313 adds the image data to the minutes in association with the text data of the message. Also, on the minutes editing screen, you can drag and drop or dialog data such as handouts related to the meeting, photos of drawings, sites and products, etc. It can be added at any position in the minutes by selecting via the screen. Therefore, in the minutes creation support system 1, various information other than the participant's remarks such as materials related to the meeting and the board written during the meeting are also managed in association with the minutes. It becomes possible.

さらに、UI入力制御部313は、議事録領域に表示された内容に対して、任意に文字を入力したり、順序を入れ替えたりする等の編集を受け付ける。これにより、編集者は、話題を表す見出しを付加したり、写真等の説明を記入したり、話題が前後した場合の発言の順序の整理を行ったりすることができる。
なお、UI入力制御部313は、タイムライン表示されている発言のテキストデータに対する編集(音声認識における誤認識の修正等)を逐次受け付ける。この編集結果は、UI入力制御部313によって統合サーバ30に送信され、音声認識結果DB222に反映される。
Furthermore, the UI input control unit 313 accepts editing such as arbitrarily inputting characters or changing the order of the contents displayed in the minutes area. Thus, the editor can add a headline representing a topic, enter a description of a photograph or the like, and rearrange the order of statements when the topic changes.
Note that the UI input control unit 313 sequentially receives edits (such as correction of misrecognition in speech recognition) on the text data of the message displayed on the timeline. This editing result is transmitted to the integrated server 30 by the UI input control unit 313 and reflected in the voice recognition result DB 222.

[動作]
次に、議事録作成支援システム1の動作を説明する。
[会議参加処理]
図7は、議事録作成支援システム1の携帯端末10が実行する会議参加処理の流れを示すフローチャートである。
会議参加処理は、携帯端末10において、会議参加処理の実行を指示する操作が行われることに対応して開始される。
[Operation]
Next, the operation of the minutes creation support system 1 will be described.
[Meeting process]
FIG. 7 is a flowchart showing a flow of conference participation processing executed by the mobile terminal 10 of the minutes creation support system 1.
The conference participation process is started in response to an operation instructing execution of the conference participation process in the mobile terminal 10.

ステップS1において、ログイン処理部111は、議事録作成支援システム1において携帯端末10のユーザ(会議の参加者)を認証するためのログイン処理を実行する。
ステップS2において、登録処理部112は、携帯端末10のユーザが参加する会議の選択を受け付ける。
ステップS3において、表示制御部114は、統合サーバ30によって携帯端末10のユーザの会議への参加が受け付けられることに対応して、会議中であることと示す表示画面を表示する。
In step S <b> 1, the login processing unit 111 executes login processing for authenticating the user (participant of the conference) of the mobile terminal 10 in the minutes creation support system 1.
In step S <b> 2, the registration processing unit 112 accepts selection of a conference in which the user of the mobile terminal 10 participates.
In step S <b> 3, the display control unit 114 displays a display screen indicating that a meeting is being performed in response to the integration server 30 accepting the participation of the user of the mobile terminal 10 in the meeting.

ステップS4において、発話制御部113は、会議に参加しているユーザ(参加者)の発話の入力を逐次受け付ける。
ステップS5において、発話制御部113は、入力された音声を音声認識サーバ20に送信する。
ステップS6において、表示制御部114は、音声認識サーバ20から受信した音声認識結果を表示する。
ステップS7において、発話制御部113は、入力された音声及びその音声認識結果を統合サーバ30に送信する。
In step S4, the utterance control unit 113 sequentially receives input of utterances of users (participants) participating in the conference.
In step S <b> 5, the utterance control unit 113 transmits the input voice to the voice recognition server 20.
In step S <b> 6, the display control unit 114 displays the speech recognition result received from the speech recognition server 20.
In step S <b> 7, the utterance control unit 113 transmits the input voice and the voice recognition result to the integrated server 30.

ステップS8において、登録処理部112は、統合サーバ30から会議が終了することを示すメッセージを受信したか否かの判定を行う。
統合サーバ30から会議が終了することを示すメッセージを受信していない場合、ステップS8においてNOと判定されて、処理はステップS4に移行する。
統合サーバ30から会議が終了することを示すメッセージを受信した場合、ステップS8においてYESと判定されて、会議参加処理は終了となる。
なお、会議参加処理の実行中に、携帯端末10のユーザが会議からの退出を統合サーバ30に通知することにより、携帯端末10において、任意に会議参加処理を終了することとしてもよい。
In step S <b> 8, the registration processing unit 112 determines whether or not a message indicating that the conference is ended is received from the integrated server 30.
If a message indicating that the conference is over has not been received from the integrated server 30, it is determined as NO in Step S8, and the process proceeds to Step S4.
When the message indicating that the conference is ended is received from the integrated server 30, it is determined as YES in Step S8, and the conference participation process is ended.
Note that, during the execution of the conference participation process, the mobile terminal 10 may arbitrarily terminate the conference participation process by notifying the integration server 30 of the exit from the conference.

[統合処理]
次に、統合サーバ30が実行する統合処理について説明する。
図8は、議事録作成支援システム1の統合サーバ30が実行する統合処理の流れを示すフローチャートである。
統合処理は、統合サーバ30において、統合処理の実行を指示する操作が行われることに対応して開始される。
[Integration processing]
Next, the integration process executed by the integration server 30 will be described.
FIG. 8 is a flowchart showing the flow of integration processing executed by the integration server 30 of the minutes creation support system 1.
The integration process is started in response to an operation instructing execution of the integration process in the integration server 30.

ステップS21において、会議管理部211は、編集者端末40から会議の開催要求を受け付ける。
ステップS22において、会議管理部211は、会議に関する情報を登録するための登録画面のデータを編集者端末40に送信する。
ステップS23において、会議管理部211は、編集者端末40から会議に関する情報を受信する。
In step S <b> 21, the conference management unit 211 receives a conference holding request from the editor terminal 40.
In step S <b> 22, the conference management unit 211 transmits registration screen data for registering information related to the conference to the editor terminal 40.
In step S <b> 23, the conference management unit 211 receives information related to the conference from the editor terminal 40.

ステップS24において、会議管理部211は、会議の参加者として指定されているユーザの携帯端末10からの参加の登録を受け付ける。
ステップS25において、UI生成部213は、議事録編集画面のデータを生成し、編集者端末40に送信する。
ステップS26において、会議管理部211は、編集者端末40から会議の開始が要求されることに対応して、各参加者の携帯端末10に会議が開始することを示すメッセージを送信する。
In step S <b> 24, the conference management unit 211 accepts registration of participation from the mobile terminal 10 of the user designated as a conference participant.
In step S <b> 25, the UI generation unit 213 generates the minutes edit screen data and transmits the data to the editor terminal 40.
In step S <b> 26, the conference management unit 211 transmits a message indicating that the conference starts to the mobile terminal 10 of each participant in response to the request for starting the conference from the editor terminal 40.

ステップS27において、音声認識結果取得部212は、各参加者の携帯端末10から送信される各参加者の発言の音声及びその音声認識結果を逐次受信する。
ステップS28において、音声認識結果取得部212は、受信した順に、発言の音声を発言音声DB221に記憶すると共に、発言の音声の音声認識結果を音声認識結果DB222に記憶する。
ステップS29において、UI生成部213は、各参加者の発言の音声及びその音声認識結果に基づいて、タイムライン表示を更新した議事録編集画面のデータを編集者端末40に送信する。
In step S <b> 27, the speech recognition result acquisition unit 212 sequentially receives the speech of each participant and the speech recognition result transmitted from each participant's mobile terminal 10.
In step S <b> 28, the speech recognition result acquisition unit 212 stores the speech speech in the speech speech DB 221 in the order received, and stores the speech recognition result of the speech speech in the speech recognition result DB 222.
In step S <b> 29, the UI generation unit 213 transmits the minutes editing screen data with the updated timeline display to the editor terminal 40 based on the speech of each participant and the voice recognition result.

ステップS30において、会議管理部211は、編集者端末40から会議の終了が要求されたか否かの判定を行う。
編集者端末40から会議の終了が要求されていない場合、ステップS30においてNOと判定されて、処理はステップS27に移行する。
一方、編集者端末40から会議の終了が要求された場合、ステップS30においてYESと判定されて、処理はステップS31に移行する。
In step S <b> 30, the conference management unit 211 determines whether or not the editor terminal 40 has requested termination of the conference.
If the end of the conference is not requested from the editor terminal 40, NO is determined in step S30, and the process proceeds to step S27.
On the other hand, when the end of the conference is requested from the editor terminal 40, YES is determined in step S30, and the process proceeds to step S31.

ステップS31において、議事録データ取得部214は、編集者端末40から議事録のデータを受信する。
ステップS32において、議事録データ取得部214は、会議における発言の音声及びその音声認識結果と対応付けて、議事録のデータを議事録DB223に記憶する。
ステップS32の後、統合処理は終了となる。
In step S <b> 31, the minutes data acquisition unit 214 receives the minutes data from the editor terminal 40.
In step S32, the minutes data acquisition unit 214 stores the minutes data in the minutes DB 223 in association with the voice of the speech in the meeting and the voice recognition result thereof.
After step S32, the integration process ends.

[議事録編集処理]
次に、編集者端末40が実行する議事録編集処理について説明する。
図9は、議事録作成支援システム1の編集者端末40が実行する議事録編集処理の流れを示すフローチャートである。
議事録編集処理は、編集者端末40において、議事録編集処理の実行を指示する操作が行われることに対応して開始される。
[The minutes editing process]
Next, the minutes editing process executed by the editor terminal 40 will be described.
FIG. 9 is a flowchart showing the minutes editing process executed by the editor terminal 40 of the minutes creation support system 1.
The minutes editing process is started in response to an operation instructing execution of the minutes editing process at the editor terminal 40.

ステップS41において、会議開催処理部311は、統合サーバ30に会議の開催を要求する。
ステップS42において、会議開催処理部311は、会議に関する情報を登録するための登録画面のデータを統合サーバ30から受信して、登録画面を表示する。
ステップS43において、会議開催処理部311は、会議に関する情報の入力を受け付け、入力された会議に関する情報を統合サーバ30に送信する。
In step S <b> 41, the conference holding processing unit 311 requests the integrated server 30 to hold a conference.
In step S42, the conference holding processing unit 311 receives registration screen data for registering information related to the conference from the integrated server 30, and displays the registration screen.
In step S <b> 43, the conference holding processing unit 311 receives input of information regarding the conference, and transmits the input information regarding the conference to the integrated server 30.

ステップS44において、UI表示制御部312は、統合サーバ30から議事録編集画面のデータを受信して、議事録編集画面を表示する。
ステップS45において、UI入力制御部313は、議事録編集画面における会議の開始を指示する操作(「会議開始ボタン」のクリック操作等)を受け付ける。
ステップS46において、会議開催処理部311は、会議の開始を統合サーバ30に要求する。
ステップS47において、UI表示制御部312は、統合サーバ30からタイムライン表示を更新した議事録編集画面のデータを受信する。
ステップS48において、UI表示制御部312は、更新後の議事録編集画面を逐次表示する。
In step S44, the UI display control unit 312 receives the data on the minutes edit screen from the integrated server 30, and displays the minutes edit screen.
In step S <b> 45, the UI input control unit 313 accepts an operation (such as a click operation of the “conference start button”) that instructs the start of the conference on the minutes edit screen.
In step S46, the conference holding processing unit 311 requests the integrated server 30 to start the conference.
In step S <b> 47, the UI display control unit 312 receives the data of the minutes edit screen with the updated timeline display from the integrated server 30.
In step S48, the UI display control unit 312 sequentially displays the updated minutes editing screen.

ステップS49において、UI入力制御部313は、タイムライン表示された発言のテキストデータに、編集者が重要な発言であると判断したことを示す重要マークを付加する操作が行われたか否かの判定を行う。
タイムライン表示された発言のテキストデータに、編集者が重要な発言であると判断したことを示す重要マークを付加する操作が行われた場合、ステップS49においてYESと判定されて、処理はステップS50に移行する。
一方、タイムライン表示された発言のテキストデータに、編集者が重要な発言であると判断したことを示す重要マークを付加する操作が行われていない場合、ステップS49においてNOと判定されて、処理はステップS51に移行する。
In step S49, the UI input control unit 313 determines whether or not an operation for adding an important mark indicating that the editor has determined that the message is an important message is performed on the text data of the message displayed on the timeline. I do.
When an operation for adding an important mark indicating that the editor has determined that the message is important is performed on the text data of the message displayed on the timeline, YES is determined in step S49, and the process is performed in step S50. Migrate to
On the other hand, when an operation for adding an important mark indicating that the editor has determined that the message is an important message is not performed on the text data of the message displayed on the timeline, it is determined as NO in step S49, and the process is performed. Proceeds to step S51.

ステップS50において、UI入力制御部313は、操作が行われた発言のテキストデータに重要マークを付加(重要発言であることを示すタグを付加)する。
ステップS51において、UI入力制御部313は、タイムライン表示された発言のテキストデータに対する編集が行われたか否かの判定を行う。
タイムライン表示された発言のテキストデータに対する編集が行われた場合、ステップS51においてYESと判定されて、処理はステップS52に移行する。
一方、タイムライン表示された発言のテキストデータに対する編集が行われていない場合、ステップS51においてNOと判定されて、処理はステップS53に移行する。
In step S50, the UI input control unit 313 adds an important mark (adds a tag indicating an important message) to the text data of the message that has been operated.
In step S51, the UI input control unit 313 determines whether editing has been performed on the text data of the message displayed on the timeline.
When the text data of the message displayed on the timeline is edited, YES is determined in step S51, and the process proceeds to step S52.
On the other hand, if the text data of the message displayed on the timeline has not been edited, NO is determined in step S51, and the process proceeds to step S53.

ステップS52において、UI入力制御部313は、タイムライン表示された発言のテキストデータに対する編集の内容を統合サーバ30に送信する。
ステップS53において、UI入力制御部313は、タイムライン表示された発言のテキストデータが議事録領域にドラックアンドドロップされたか否かの判定を行う。
タイムライン表示された発言のテキストデータが議事録領域にドラックアンドドロップされた場合、ステップS53においてYESと判定されて、処理はステップS54に移行する。
一方、タイムライン表示された発言のテキストデータが議事録領域にドラックアンドドロップされていない場合、ステップS53においてNOと判定されて、処理はステップS55に移行する。
In step S <b> 52, the UI input control unit 313 transmits the content of the edit on the text data of the message displayed on the timeline to the integration server 30.
In step S53, the UI input control unit 313 determines whether or not the text data of the message displayed on the timeline has been dragged and dropped in the minutes area.
When the text data of the message displayed on the timeline is dragged and dropped in the minutes area, YES is determined in step S53, and the process proceeds to step S54.
On the other hand, when the text data of the message displayed on the timeline is not dragged and dropped in the minutes area, it is determined as NO in Step S53, and the process proceeds to Step S55.

ステップS54において、UI入力制御部313は、議事録領域にドラックアンドドロップされたテキストデータを議事録のデータにコピーして追加する。
ステップS55において、UI入力制御部313は、タイムライン表示された発言のテキストデータが属性別領域にドラックアンドドロップされたか否かの判定を行う。
タイムライン表示された発言のテキストデータが属性別領域にドラックアンドドロップされた場合、ステップS55においてYESと判定されて、処理はステップS56に移行する。
一方、タイムライン表示された発言のテキストデータが属性別領域にドラックアンドドロップされていない場合、ステップS55においてNOと判定されて、処理はステップS57に移行する。
In step S54, the UI input control unit 313 copies and adds the text data dragged and dropped to the minutes area to the minutes data.
In step S55, the UI input control unit 313 determines whether or not the text data of the message displayed on the timeline has been dragged and dropped in the attribute-specific area.
When the text data of the message displayed on the timeline is dragged and dropped to the attribute-specific area, YES is determined in step S55, and the process proceeds to step S56.
On the other hand, when the text data of the message displayed on the timeline is not dragged and dropped in the attribute-specific area, NO is determined in step S55, and the process proceeds to step S57.

ステップS56において、UI入力制御部313は、発言内容の属性に対応する決定事項(予定あるいは課題等)を議事録のデータに追加する。
ステップS57において、会議開催処理部311は、議事録編集画面における会議の終了を指示する操作(「会議終了ボタン」のクリック操作等)が行われたか否かの判定を行う。
会議開催処理部311は、議事録編集画面における会議の終了を指示する操作が行われていない場合、ステップS57においてNOと判定されて、処理はステップS47に移行する。
一方、会議開催処理部311は、議事録編集画面における会議の終了を指示する操作が行われた場合、ステップS57においてYESと判定されて、処理はステップS58に移行する。
In step S56, the UI input control unit 313 adds a decision item (schedule or assignment) corresponding to the attribute of the statement content to the minutes data.
In step S <b> 57, the conference holding processing unit 311 determines whether or not an operation for instructing the end of the conference on the minutes editing screen (such as a click operation of the “conference end button”) has been performed.
When the operation for instructing the end of the conference on the minutes editing screen is not performed, the conference holding processing unit 311 determines NO in step S57, and the process proceeds to step S47.
On the other hand, when the operation for instructing the end of the conference on the minutes editing screen is performed, the conference holding processing unit 311 determines YES in step S57, and the process proceeds to step S58.

ステップS58において、UI入力制御部313は、議事録編集画面によって編集された議事録のデータを統合サーバ30に送信する。なお、編集者が議事録の編集を引き続き行う場合、編集者による議事録の編集の完了を確認した後に、UI入力制御部313が、議事録のデータを統合サーバ30に送信することとしてもよい。
ステップS58の後、議事録編集処理は終了となる。
In step S <b> 58, the UI input control unit 313 transmits the minutes data edited on the minutes editing screen to the integrated server 30. When the editor continues to edit the minutes, the UI input control unit 313 may transmit the minutes data to the integrated server 30 after confirming the completion of the editing of the minutes by the editor. .
After step S58, the minutes editing process ends.

このような処理により、議事録作成支援システム1においては、携帯端末10を介して入力された会議の参加者の発言が、音声認識サーバ20によって音声認識され、発言の音声及びその音声認識結果が統合サーバ30に送信される。統合サーバ30では、参加者の発言を時系列に統合したタイムライン表示を行うための議事録編集画面のデータを編集者端末40に送信し、参加者の発言が行われる毎に、編集者端末40において表示される議事録編集画面のデータを逐次更新する。編集者端末40では、参加者の発言が時系列に表示されるタイムライン表示領域が逐次更新されながら表示されると共に、編集者は、タイムライン表示領域における発言のテキストデータに対して、議事録の作成に関連する各種の操作を行う。具体的には、編集者は、タイムライン表示領域に表示されたテキストデータを、議事録領域にドラッグアンドドロップすることにより、議事録のデータに追加したり、属性別領域にドラッグアンドドロップすることにより、参加者に課されることになった課題を議事録に追加したり、発言のテキストデータが表す予定を議事録に追加したりする。   By such processing, in the minutes creation support system 1, the speech of the conference participant input via the mobile terminal 10 is recognized by the speech recognition server 20, and the speech and the speech recognition result thereof are obtained. It is transmitted to the integrated server 30. In the integrated server 30, the minutes editing screen data for performing timeline display in which the participant's remarks are integrated in time series is transmitted to the editor terminal 40, and each time the participant remarks, the editor terminal The data on the minutes edit screen displayed at 40 is sequentially updated. In the editor terminal 40, the timeline display area in which the participant's utterances are displayed in time series is displayed while being sequentially updated, and the editor can record the minutes for the utterance text data in the timeline display area. Perform various operations related to creation of. Specifically, the editor can add text data displayed in the timeline display area to the minutes data area by dragging and dropping it, or drag and drop it to the attribute-specific area. In this way, the task to be imposed on the participant is added to the minutes, or the schedule represented by the text data of the remark is added to the minutes.

そのため、議事録作成支援システム1によれば、編集者は、簡単な処理によって、リアルタイムに適切な発言内容を選択して議事録に反映させることが可能となり、会議の進捗と並行して、会議内容を要約した適切な議事録を作成することが可能となる。
したがって、議事録作成支援システム1によれば、より簡単なシステムで議事録の作成をより適切に支援することが可能となる。
Therefore, according to the minutes creation support system 1, the editor can select appropriate remarks in real time and reflect them in the minutes by a simple process. It is possible to prepare an appropriate minutes summarizing the contents.
Therefore, according to the minutes creation support system 1, it is possible to more appropriately support the creation of minutes with a simpler system.

[変形例1]
上述の実施形態において、議事録編集画面は、図6に示す例の他、種々の形態とすることが可能である。
図10は、議事録編集画面の他の例を示す模式図である。
図10に示す例では、タイムライン表示領域Z2及び議事録領域Z3が、図6に示す例よりも拡大されている。
これにより、タイムライン表示領域Z2の視認性が高くなり、編集者が会議の流れを把握し易くなる。また、編集者は、議事録領域Z3に発言のテキストデータをドラッグアンドドロップする操作をより容易に行うことができる。さらに、議事録領域Z3の表示内容を編集者が把握し易くなると共に、議事録領域Z3において編集者が議事録を編集する操作をより容易に行うことができる。
[Modification 1]
In the above-described embodiment, the minutes editing screen can take various forms in addition to the example shown in FIG.
FIG. 10 is a schematic diagram showing another example of the minutes editing screen.
In the example shown in FIG. 10, the timeline display area Z2 and the minutes area Z3 are enlarged as compared with the example shown in FIG.
Thereby, the visibility of the timeline display area Z2 is increased, and the editor can easily understand the flow of the conference. In addition, the editor can more easily perform an operation of dragging and dropping the text data of the message to the minutes area Z3. Furthermore, the editor can easily understand the display contents of the minutes area Z3, and the editor can more easily perform the operation of editing the minutes in the minutes area Z3.

また、図11は、議事録編集画面の他の例を示す模式図である。
図11に示す例では、会議情報領域Z1が簡略化された表示内容となっていると共に、属性別領域Z4は編集者が非表示の設定としたことにより表示されていない。一方、議事録表示画面の上部には、議事録の編集に有用な各種メニューのボタンが表示されている。
また、図11に示す例では、議事録領域Z3が編集者によって編集され、会議の配布資料のデータが掲載されていると共に、議論の内容を表す見出し「オンプレミスについて」が追記されている。また、見出しに続いて、参加者の発言がドラッグアンドドロップされることにより、発言者の名前と共に議事録に追加されている。なお、発言の内容は、議事録に掲載するために文体が変換されている。さらに、発言に続いて、会議で用いられた写真の画像データが議事録に追加されている。
このように、議事録編集画面の形態は、種々の形態とすることが可能であり、表示される項目も編集者の設定によって種々変更することが可能である。また、図6、図10及び図11に示すような議事録編集画面の複数の形態を用意しておき、編集者が自身の使い易い形態の議事録編集画面を選択することとしてもよい。
FIG. 11 is a schematic diagram showing another example of the minutes editing screen.
In the example shown in FIG. 11, the conference information area Z1 has a simplified display content, and the attribute-specific area Z4 is not displayed because the editor has set it to non-display. On the other hand, various menu buttons useful for editing the minutes are displayed at the top of the minutes display screen.
In the example shown in FIG. 11, the minutes area Z3 is edited by the editor, the data of the distribution material of the meeting is posted, and the heading “about on-premises” indicating the content of the discussion is additionally written. In addition, following the headline, the participant's remarks are added to the minutes together with the names of the remarkers by dragging and dropping them. Note that the content of the remarks has been converted for writing in the minutes. Furthermore, following the remarks, the image data of the photos used in the meeting is added to the minutes.
As described above, the form of the minutes editing screen can be in various forms, and the displayed items can be variously changed according to the settings of the editor. Further, a plurality of forms of the minutes editing screen as shown in FIGS. 6, 10, and 11 may be prepared, and the editor may select the minutes editing screen in an easy-to-use form.

なお、上述の実施形態において、議事録作成支援システム1に、議事録編集機能は備えることなく、議事録編集画面を表示するためのPCを含むこととしてもよい。このPCを介して会議に参加することにより、オブザーバとして会議に参加する等の参加形態が可能となる。   In the above-described embodiment, the minutes creation support system 1 may include a PC for displaying the minutes edit screen without providing the minutes edit function. By participating in the conference via the PC, a participation form such as participating in the conference as an observer becomes possible.

また、上述の実施形態において、携帯端末10によって撮影された写真を参加者の発言としてアップロードすることとしてもよい。また、このとき、他の参加者の携帯端末10に、アップロードされた写真を送信することとしてもよい。これにより、写真を用いた会議での発言を容易に行うことができると共に、会議の参加者及び編集者にとって、参加者の発言内容をより容易に理解することが可能となる。   Moreover, in the above-mentioned embodiment, it is good also as uploading the photograph image | photographed with the portable terminal 10 as a participant's comment. At this time, the uploaded photo may be transmitted to the mobile terminal 10 of another participant. Accordingly, it is possible to easily make a speech at a conference using a photograph, and it is possible for the participant and the editor of the conference to more easily understand the content of the participant's speech.

また、上述の実施形態において、議事録編集画面で編集者が重要マークを付した発言を自動的に議事録に含めることとしてもよい。この場合、編集者は、タイムライン表示領域において、発言のテキストデータに重要マークを適宜付すことで、会議の終了と共に、重要発言を集約した議事録を作成することができる。   Further, in the above-described embodiment, it is also possible to automatically include in the minutes the statement that the editor has attached an important mark on the minutes edit screen. In this case, in the timeline display area, the editor can appropriately add an important mark to the text data of the speech, and can create a minutes in which the important speech is gathered together with the end of the conference.

また、上述の実施形態において、統合サーバ30または編集者端末40から参加者に対して、作成された議事録のデータを電子メールによって配布したり、議事録のデータの保存先を示すリンクを通知したりすることにより、議事録のデータを提供することとしてもよい。これにより、各参加者の課題や予定等、議事録における決定事項を速やかに参加者に知らせることができる。   In the above-described embodiment, the integrated server 30 or the editor terminal 40 distributes the created minutes data to the participants by e-mail or notifies the link indicating the storage location of the minutes data. It is good also as providing the data of the minutes by doing. As a result, it is possible to promptly inform the participants of the decisions made in the minutes, such as the tasks and schedules of each participant.

また、上述の実施形態において、発言のテキストデータを自然言語処理することよって、決定事項や課題を自動的に判断し、議事録に追加することとしてもよい。
また、上述の実施形態において、会議中に作成された議事録を仮の議事録のデータ等として保存しておき、会議終了後に、編集者が、その議事録のデータを再度編集することとしてもよい。
Further, in the above-described embodiment, the decision text and the problem may be automatically determined and added to the minutes by subjecting the text data of the speech to natural language processing.
Also, in the above-described embodiment, the minutes created during the meeting may be saved as temporary minutes data, etc., and the editor may edit the minutes data again after the meeting. Good.

また、上述の実施形態において、発言のテキストデータを時系列に統合する際の時間の基準は、発言の音声認識結果が統合サーバ30に受信された順であるものとしたが、音声認識サーバ20において音声認識が開始された順とする等、他の時間を基準としてもよい。
また、上述の実施形態において、参加者の発言の音声を音声認識する処理は、携帯端末10あるいは統合サーバ30等、音声認識サーバ20以外によって行うこととしてもよい。
In the above-described embodiment, the time reference when integrating the text data of the speech in time series is the order in which the speech recognition results of the speech are received by the integration server 30, but the speech recognition server 20 Other times may be used as a reference, for example, in the order in which voice recognition is started.
In the above-described embodiment, the process for recognizing the speech of the participant's speech may be performed by a device other than the speech recognition server 20 such as the mobile terminal 10 or the integrated server 30.

また、上述の実施形態において、会議中に板書が行われるホワイトボードの画像を撮影するカメラや、ホワイトボードの板面をスキャンするスキャナから、統合サーバ30あるいは編集者端末40が、ネットワーク50等を介して、所定のタイミング(例えば、一定時間毎あるいは編集者が指示したタイミング等)で板書の写真あるいはスキャンされた画像のデータを取得することとしてもよい。
この場合、編集者端末40において、取得された板書の写真あるいはスキャンされた画像のデータを、自動的に逐次議事録に追加したり、編集者が適宜選択して議事録に追加したりすることができる。
これにより、会議の記録として重要な意味を有する板書の情報を適切に議事録に追加することができる。
In the above-described embodiment, the integrated server 30 or the editor terminal 40 connects the network 50 or the like from the camera that captures the image of the whiteboard on which the board is written during the meeting or the scanner that scans the board surface of the whiteboard. Thus, it is also possible to acquire a picture of a postcard or a scanned image at a predetermined timing (for example, at regular time intervals or timings instructed by an editor).
In this case, the editor terminal 40 automatically adds the acquired board photo or scanned image data to the minutes automatically, or the editor appropriately selects and adds them to the minutes. Can do.
As a result, it is possible to appropriately add information on the board written with an important meaning as a record of the meeting to the minutes.

以上のように構成される議事録作成支援システム1は、携帯端末10と、統合サーバ30と、編集者端末40とを備える。また、編集者端末40は、UI表示制御部312と、UI入力制御部313とを備える。
携帯端末10は、会議の参加者の発言がテキストデータとされた発言情報を統合サーバに送信する。
統合サーバ30は、携帯端末10から送信された会議の参加者の発言情報を時系列に統合する。
UI表示制御部312は、統合サーバ30によって時系列に統合された発言情報を表示する第1表示領域(タイムライン表示領域)と、第1表示領域に表示された発言情報を移動させる操作の移動先となる領域であって、発言情報を議事録に含める処理と対応付けられた第2表示領域(議事録領域)と、を含む表示画面を表示させる。
UI入力制御部313は、第1表示領域に表示された発言情報を第2表示領域に移動させる操作が行われた場合に、当該発言情報を議事録のデータに追加する処理を実行する。
これにより、編集者端末40において、携帯端末10を介して入力された会議の参加者の発言がテキストデータとされた発言情報が時系列に統合されて第1表示領域に表示される。そして、第1表示領域における発言情報に対して、第2表示領域に移動させる操作が行われることにより、その発言情報が議事録のデータに追加される。
そのため、編集者は、簡単な処理によって、リアルタイムに適切な発言内容を選択して議事録に反映させることが可能となり、会議の進捗と並行して、会議内容を要約した適切な議事録を作成することが可能となる。
したがって、議事録作成支援システム1によれば、より簡単なシステムで議事録の作成をより適切に支援することが可能となる。
The minutes creation support system 1 configured as described above includes the mobile terminal 10, the integrated server 30, and the editor terminal 40. The editor terminal 40 includes a UI display control unit 312 and a UI input control unit 313.
The mobile terminal 10 transmits speech information in which the speech of the conference participant is text data to the integrated server.
The integration server 30 integrates the speech information of the conference participants transmitted from the mobile terminal 10 in time series.
The UI display control unit 312 moves a first display area (timeline display area) for displaying the utterance information integrated in time series by the integration server 30 and an operation for moving the utterance information displayed in the first display area. A display screen including a second display area (minutes area) associated with the process of including the statement information in the minutes is displayed.
The UI input control unit 313 executes processing for adding the comment information to the minutes data when an operation for moving the comment information displayed in the first display area to the second display area is performed.
Thereby, in the editor terminal 40, the utterance information in which the utterance of the conference participant input via the mobile terminal 10 is converted into text data is integrated in a time series and displayed in the first display area. Then, by performing an operation for moving the comment information in the first display area to the second display area, the comment information is added to the minutes data.
Therefore, it is possible for the editor to select appropriate remarks in real time and reflect them in the minutes by simple processing. In parallel with the progress of the meeting, the editor creates an appropriate minutes that summarizes the contents of the meeting. It becomes possible to do.
Therefore, according to the minutes creation support system 1, it is possible to more appropriately support the creation of minutes with a simpler system.

発言情報は、参加者の発言が音声認識されることによって生成される。
これにより、参加者の発言を速やかにテキストデータ化して、議事録作成のための処理に用いることができる。
The speech information is generated by speech recognition of the participant's speech.
Thereby, the participant's remarks can be promptly converted into text data and used for the processing for creating the minutes.

UI入力制御部313は、第1表示領域に表示された発言情報に、識別情報(例えば、重要マーク)を付加する操作を受け付け、当該識別情報が付加された発言情報を議事録のデータに追加する処理を実行する。
これにより、会議の終了と共に、識別情報が付された発言情報を集約した議事録を作成することが可能となる。
The UI input control unit 313 accepts an operation for adding identification information (for example, an important mark) to the utterance information displayed in the first display area, and adds the utterance information with the identification information added to the minutes data. Execute the process.
As a result, it is possible to create a minutes in which statement information with identification information is gathered together with the end of the conference.

UI表示制御部312は、第1表示領域に表示された発言情報を移動させる操作の移動先となる領域であって、特定の属性と対応付けられた第3表示領域(属性別領域)を表示画面にさらに表示させる。
UI入力制御部313は、第1表示領域に表示された発言情報を第3表示領域に移動させる操作が行われた場合に、当該発言情報及び第3表示領域の属性に応じた処理を実行する。
これにより、会議において話題とされた事項について、議事録の作成を行う過程で、その属性に応じた処理(グループウェアシステムへの予定や課題の設定等)を自動的に実行することができる。
The UI display control unit 312 displays a third display area (attribute-specific area) associated with a specific attribute, which is an area to which an operation for moving the remark information displayed in the first display area is moved. Display further on the screen.
The UI input control unit 313 performs processing according to the comment information and the attributes of the third display area when an operation for moving the comment information displayed in the first display area to the third display area is performed. .
As a result, in the process of creating the minutes of matters that have been discussed as topics in the conference, it is possible to automatically execute processing (schedules for the groupware system, setting of issues, etc.) according to the attributes.

UI表示制御部312は、各参加者に対応した第3表示領域を表示させる。
これにより、参加者毎に、会議において話題とされた事項について、議事録の作成を行う過程で、その属性に応じた処理を自動的に実行することができる。
The UI display control unit 312 displays a third display area corresponding to each participant.
Thereby, the process according to the attribute can be automatically executed in the process of creating the minutes for the topic that has been discussed in the conference for each participant.

UI入力制御部313は、第1表示領域に表示された発言情報を第2表示領域に移動させる操作が行われた場合に、文体の変換を行って当該発言情報を議事録のデータに追加する処理を実行する。
これにより、参加者の発言を議事録に適した表現に自動的に変換して記録することができる。
The UI input control unit 313 converts the style and adds the speech information to the minutes data when an operation to move the speech information displayed in the first display region to the second display region is performed. Execute the process.
Thereby, the participant's remarks can be automatically converted into an expression suitable for the minutes and recorded.

UI入力制御部313は、第2表示領域に表示された情報を編集する操作を受け付ける。
これにより、第1表示領域から移動された発言情報を編集して議事録に記録することが可能となる。
The UI input control unit 313 accepts an operation for editing information displayed in the second display area.
Thereby, it is possible to edit the remark information moved from the first display area and record it in the minutes.

UI入力制御部313は、第2表示領域に画像データを追加する操作を受け付ける。
これにより、議事録に画像データを含めて記録することができる。
The UI input control unit 313 accepts an operation for adding image data to the second display area.
Thereby, it is possible to record the minutes including the image data.

UI入力制御部313は、第2表示領域に、会議に関連する資料のデータあるいは会議中の板書のデータを追加する操作を受け付ける。
これにより、会議に関連する資料や、会議中に作成された板書等、参加者の発言以外の各種情報についても、議事録と対応付けて、統合的に管理することが可能となる。
The UI input control unit 313 accepts an operation of adding material data related to the conference or data of a board written during the conference to the second display area.
As a result, various information other than the participant's remarks, such as materials related to the conference and a board written during the conference, can be integrated and managed in association with the minutes.

UI入力制御部313は、生成された議事録のデータを会議の参加者に提供する処理を実行する。
これにより、会議の参加者に速やかに議事録のデータを提供することが可能となる。
The UI input control unit 313 executes processing for providing the generated minutes data to the conference participants.
Thereby, it is possible to promptly provide the minutes data to the conference participants.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3〜5の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が議事録作成支援システム1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIGS. 3 to 5 is merely an example, and is not particularly limited. That is, it is sufficient if the minutes creation support system 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is particularly shown in the example of FIG. It is not limited.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図2のリムーバブルメディア821により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア821は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM812や、図2の記憶部817に含まれるDRAM等で構成される。   The recording medium including such a program is not only configured by the removable medium 821 shown in FIG. 2 distributed separately from the apparatus main body in order to provide the user with the program, but is also incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in. The removable medium 821 is configured by, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being incorporated in advance in the apparatus main body is configured by, for example, the ROM 812 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

1 議事録作成支援システム、10 携帯端末、20 音声認識サーバ、30 統合サーバ、40 編集者端末、50 ネットワーク、800 情報処理装置、811 CPU、812 ROM、813 RAM、814 バス、815 入力部、816 出力部、817 記憶部、818 通信部、819 ドライブ、821 リムーバブルメディア、111 ログイン処理部、112 登録処理部、113 発話制御部、114 表示制御部、115 音声出力制御部、211 会議管理部、212 音声認識結果取得部、213 ユーザインターフェース生成部(UI生成部)、214 議事録データ取得部、215 連携処理部、221 発言音声データベース(発言音声DB)、222 音声認識結果データベース(音声認識結果DB)、223 議事録データベース(議事録DB)、311 会議開催処理部、312 ユーザインターフェース表示制御部(UI表示制御部)、313 ユーザインターフェース入力制御部(UI入力制御部)、321 議事録記憶部   DESCRIPTION OF SYMBOLS 1 Minutes creation support system, 10 portable terminal, 20 voice recognition server, 30 integrated server, 40 editor terminal, 50 network, 800 information processing apparatus, 811 CPU, 812 ROM, 813 RAM, 814 bus, 815 input unit, 816 Output unit, 817 storage unit, 818 communication unit, 819 drive, 821 removable media, 111 login processing unit, 112 registration processing unit, 113 speech control unit, 114 display control unit, 115 audio output control unit, 211 conference management unit, 212 Voice recognition result acquisition unit, 213 User interface generation unit (UI generation unit), 214 Minutes data acquisition unit, 215 Cooperation processing unit, 221 Speech voice database (speech voice DB), 222 Voice recognition result database (voice recognition result DB) 223 proceedings Database (Minutes DB), 311 conference unit, 312 user interface display control unit (UI display control unit), 313 user interface input control unit (UI input control unit), 321 minutes storage unit

Claims (13)

会議の参加者によって使用される端末装置と、前記会議の参加者による発言を統合する統合サーバと、前記会議の議事録を作成する情報処理装置とを含み、
前記端末装置は、前記会議の参加者の発言がテキストデータとされた発言情報を前記統合サーバに送信し、
前記統合サーバは、前記端末装置から送信された会議の参加者の前記発言情報を時系列に統合し、
前記情報処理装置は、
前記統合サーバによって時系列に統合された前記発言情報を表示する第1表示領域と、前記第1表示領域に表示された前記発言情報を移動させる操作の移動先となる領域であって、前記発言情報を議事録に含める処理と対応付けられた第2表示領域と、を含む表示画面を表示させる表示制御手段と、
前記第1表示領域に表示された前記発言情報を前記第2表示領域に移動させる操作が行われた場合に、当該発言情報を議事録のデータに追加する処理を実行する処理手段と、
を備えることを特徴とする情報処理システム。
A terminal device used by a conference participant, an integrated server that integrates statements made by the conference participant, and an information processing device that creates minutes of the conference,
The terminal device transmits the speech information in which the speech of the participant of the conference is text data to the integrated server,
The integration server integrates the speech information of the conference participants transmitted from the terminal device in time series,
The information processing apparatus includes:
A first display area for displaying the message information integrated in time series by the integration server; and an area to which the operation for moving the message information displayed in the first display area is performed. Display control means for displaying a display screen including a second display area associated with the process of including information in the minutes;
Processing means for executing processing for adding the comment information to the minutes data when an operation of moving the comment information displayed in the first display area to the second display area is performed;
An information processing system comprising:
前記発言情報は、前記参加者の発言が音声認識されることによって生成されることを特徴とする請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the speech information is generated by speech recognition of the participant's speech. 前記処理手段は、前記第1表示領域に表示された前記発言情報に、識別情報を付加する操作を受け付け、当該識別情報が付加された前記発言情報を議事録のデータに追加する処理を実行することを特徴とする請求項1または2に記載の情報処理システム。   The processing means receives an operation of adding identification information to the comment information displayed in the first display area, and executes a process of adding the comment information to which the identification information is added to minutes data. The information processing system according to claim 1 or 2. 前記表示制御手段は、前記第1表示領域に表示された前記発言情報を移動させる操作の移動先となる領域であって、特定の属性と対応付けられた第3表示領域を前記表示画面にさらに表示させ、
前記処理手段は、前記第1表示領域に表示された前記発言情報を前記第3表示領域に移動させる操作が行われた場合に、当該発言情報及び前記第3表示領域の属性に応じた処理を実行することを特徴とする請求項1から3のいずれか1項に記載の情報処理システム。
The display control means is an area that is a destination of an operation for moving the message information displayed in the first display area, and further displays a third display area associated with a specific attribute on the display screen. Display
The processing means performs processing according to the comment information and the attributes of the third display area when an operation of moving the comment information displayed in the first display area to the third display area is performed. The information processing system according to any one of claims 1 to 3, wherein the information processing system is executed.
前記表示制御手段は、各参加者に対応した前記第3表示領域を表示させることを特徴とする請求項4に記載の情報処理システム。   The information processing system according to claim 4, wherein the display control unit displays the third display area corresponding to each participant. 前記処理手段は、前記第1表示領域に表示された前記発言情報を前記第2表示領域に移動させる操作が行われた場合に、文体の変換を行って当該発言情報を議事録のデータに追加する処理を実行することを特徴とする請求項1から5のいずれか1項に記載の情報処理システム。   The processing means, when an operation for moving the utterance information displayed in the first display area to the second display area is performed, converts the style and adds the utterance information to the minutes data. 6. The information processing system according to claim 1, wherein the information processing system executes a process to perform the processing. 前記処理手段は、前記第2表示領域に表示された情報を編集する操作を受け付けることを特徴とする請求項1から6のいずれか1項に記載の情報処理システム。   The information processing system according to claim 1, wherein the processing unit receives an operation for editing the information displayed in the second display area. 前記処理手段は、前記第2表示領域に画像データを追加する操作を受け付けることを特徴とする請求項1から7のいずれか1項に記載の情報処理システム。   The information processing system according to claim 1, wherein the processing unit receives an operation of adding image data to the second display area. 前記処理手段は、前記第2表示領域に、前記会議に関連する資料のデータあるいは前記会議中の板書のデータを追加する操作を受け付けることを特徴とする請求項1から8のいずれか1項に記載の情報処理システム。   9. The apparatus according to claim 1, wherein the processing unit receives an operation of adding data of a material related to the conference or data of a blackboard during the conference to the second display area. The information processing system described. 前記処理手段は、生成された前記議事録のデータを前記会議の参加者に提供する処理を実行することを特徴とする請求項1から8のいずれか1項に記載の情報処理システム。   The information processing system according to any one of claims 1 to 8, wherein the processing unit executes a process of providing the generated minutes data to a participant of the conference. 会議の参加者の発言がテキストデータとされた発言情報を時系列に表示する第1表示領域と、
前記第1表示領域に表示された前記発言情報を移動させる操作の移動先となる領域であって、前記発言情報を議事録に含める処理と対応付けられた第2表示領域と、
を含む表示画面を表示させる表示制御手段と、
前記第1表示領域に表示された前記発言情報を前記第2表示領域に移動させる操作が行われた場合に、当該発言情報を議事録のデータに追加する処理を実行する処理手段と、
を備えることを特徴とする情報処理装置。
A first display area for displaying utterance information in which utterances of participants in the meeting are text data in time series;
A second display area that is a movement destination of an operation for moving the comment information displayed in the first display area and is associated with a process of including the comment information in the minutes;
Display control means for displaying a display screen including:
Processing means for executing processing for adding the comment information to the minutes data when an operation of moving the comment information displayed in the first display area to the second display area is performed;
An information processing apparatus comprising:
会議の参加者の発言がテキストデータとされた発言情報を時系列に表示する第1表示領域と、
前記第1表示領域に表示された前記発言情報を移動させる操作の移動先となる領域であって、前記発言情報を議事録に含める処理と対応付けられた第2表示領域と、
を含む表示画面を表示させる表示制御ステップと、
前記第1表示領域に表示された前記発言情報を前記第2表示領域に移動させる操作が行われた場合に、当該発言情報を議事録のデータに追加する処理を実行する処理ステップと、
を含むことを特徴とする情報処理方法。
A first display area for displaying utterance information in which utterances of participants in the meeting are text data in time series;
A second display area that is a movement destination of an operation for moving the comment information displayed in the first display area and is associated with a process of including the comment information in the minutes;
A display control step for displaying a display screen including
A processing step of executing a process of adding the comment information to the minutes data when an operation of moving the comment information displayed in the first display area to the second display area is performed;
An information processing method comprising:
コンピュータに、
会議の参加者の発言がテキストデータとされた発言情報を時系列に表示する第1表示領域と、
前記第1表示領域に表示された前記発言情報を移動させる操作の移動先となる領域であって、前記発言情報を議事録に含める処理と対応付けられた第2表示領域と、
を含む表示画面を表示させる表示制御機能と、
前記第1表示領域に表示された前記発言情報を前記第2表示領域に移動させる操作が行われた場合に、当該発言情報を議事録のデータに追加する処理を実行する処理機能と、
を実現させることを特徴とするプログラム。
On the computer,
A first display area for displaying utterance information in which utterances of participants in the meeting are text data in time series;
A second display area that is a movement destination of an operation for moving the comment information displayed in the first display area and is associated with a process of including the comment information in the minutes;
A display control function for displaying a display screen including
A processing function for executing processing to add the speech information to the minutes data when an operation to move the speech information displayed in the first display region to the second display region is performed;
A program characterized by realizing.
JP2016235104A 2016-12-02 2016-12-02 Information processing system, information processing device, information processing method and program Active JP6840379B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016235104A JP6840379B2 (en) 2016-12-02 2016-12-02 Information processing system, information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016235104A JP6840379B2 (en) 2016-12-02 2016-12-02 Information processing system, information processing device, information processing method and program

Publications (2)

Publication Number Publication Date
JP2018092365A true JP2018092365A (en) 2018-06-14
JP6840379B2 JP6840379B2 (en) 2021-03-10

Family

ID=62566229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016235104A Active JP6840379B2 (en) 2016-12-02 2016-12-02 Information processing system, information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP6840379B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110362606A (en) * 2019-06-10 2019-10-22 河海大学 A kind of elongated die body method for digging of time series
JP2020030468A (en) * 2018-08-20 2020-02-27 アイホン株式会社 Nursing service support system
CN111258521A (en) * 2020-01-13 2020-06-09 Oppo广东移动通信有限公司 Conference interface display method, device, system, storage medium and electronic equipment
JP2020187394A (en) * 2019-05-10 2020-11-19 株式会社リコー Display terminal, sharing system, display control method and program
JP2020201909A (en) * 2019-06-13 2020-12-17 株式会社リコー Display terminal, sharing system, display control method, and program
JP2021067830A (en) * 2019-10-24 2021-04-30 日本金銭機械株式会社 Minutes creation system
JP2021093618A (en) * 2019-12-10 2021-06-17 株式会社リチカ Information processing device and program
JP7215770B1 (en) 2021-09-30 2023-01-31 エピックベース株式会社 Information processing system, program and information processing method
JP7489232B2 (en) 2020-05-20 2024-05-23 シャープ株式会社 Information processing system, information processing method, and information processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014206896A (en) * 2013-04-15 2014-10-30 Yamagata Intech株式会社 Information processing apparatus, and program
JP2015091077A (en) * 2013-11-07 2015-05-11 日本電信電話株式会社 Information display device, method and program
JP2016062196A (en) * 2014-09-16 2016-04-25 株式会社東芝 Conference information accumulation device, method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014206896A (en) * 2013-04-15 2014-10-30 Yamagata Intech株式会社 Information processing apparatus, and program
JP2015091077A (en) * 2013-11-07 2015-05-11 日本電信電話株式会社 Information display device, method and program
JP2016062196A (en) * 2014-09-16 2016-04-25 株式会社東芝 Conference information accumulation device, method and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020030468A (en) * 2018-08-20 2020-02-27 アイホン株式会社 Nursing service support system
JP7302270B2 (en) 2019-05-10 2023-07-04 株式会社リコー Display terminal, shared system, display control method and program
JP2020187394A (en) * 2019-05-10 2020-11-19 株式会社リコー Display terminal, sharing system, display control method and program
CN110362606A (en) * 2019-06-10 2019-10-22 河海大学 A kind of elongated die body method for digging of time series
JP7314635B2 (en) 2019-06-13 2023-07-26 株式会社リコー Display terminal, shared system, display control method and program
JP2020201909A (en) * 2019-06-13 2020-12-17 株式会社リコー Display terminal, sharing system, display control method, and program
JP2021067830A (en) * 2019-10-24 2021-04-30 日本金銭機械株式会社 Minutes creation system
JP2021093618A (en) * 2019-12-10 2021-06-17 株式会社リチカ Information processing device and program
CN111258521A (en) * 2020-01-13 2020-06-09 Oppo广东移动通信有限公司 Conference interface display method, device, system, storage medium and electronic equipment
CN111258521B (en) * 2020-01-13 2023-08-18 Oppo广东移动通信有限公司 Conference interface display method, device and system, storage medium and electronic equipment
JP7489232B2 (en) 2020-05-20 2024-05-23 シャープ株式会社 Information processing system, information processing method, and information processing program
WO2023053940A1 (en) * 2021-09-30 2023-04-06 エピックベース株式会社 Information processing system, program, and information processing method
JP2023051656A (en) * 2021-09-30 2023-04-11 エピックベース株式会社 Information processing system, program, and information processing method
JP7215770B1 (en) 2021-09-30 2023-01-31 エピックベース株式会社 Information processing system, program and information processing method

Also Published As

Publication number Publication date
JP6840379B2 (en) 2021-03-10

Similar Documents

Publication Publication Date Title
JP6840379B2 (en) Information processing system, information processing device, information processing method and program
US11689379B2 (en) Generating customized meeting insights based on user interactions and meeting media
JP6961994B2 (en) Systems and methods for message management and document generation on devices, message management programs, mobile devices
US20190273767A1 (en) Conducting electronic meetings over computer networks using interactive whiteboard appliances and mobile devices
EP3467821A1 (en) Selection of transcription and translation services and generation combined results
EP3467822A1 (en) Speech-to-text conversion for interactive whiteboard appliances in multi-language electronic meetings
JP6961993B2 (en) Systems and methods for message management and document generation on devices, message management programs, mobile devices
US10565246B2 (en) Information processing apparatus, information processing method, and information processing system
US11715386B1 (en) Queuing for a video conference session
CN106134149A (en) Communications event
KR20140115320A (en) Notebook driven accumulation of meeting documentation and notations
JP2004287201A (en) Device and method for preparing conference minutes, and computer program
JP2005341015A (en) Video conference system with minute creation support function
JP2009188809A (en) Electronic conference system
JP2001092838A (en) Multimedia information collecting and managing device and storing medium storing program
JP2018032330A (en) Information processing system, information processing device, server, information processing method, and program
US11792468B1 (en) Sign language interpreter view within a communication session
JP6091690B1 (en) Assembly management support system and assembly management support method
Birdsall et al. Feminist avenues for listening in: amplifying silenced histories of media and communication
US20230353613A1 (en) Active speaker proxy presentation for sign language interpreters
JP7340552B2 (en) Information processing system, information processing device, and program
JP6962849B2 (en) Conference support device, conference support control method and program
JP2021177321A (en) Program, displaying method and terminal
US11816640B2 (en) Electronic event facilitating systems and methods
JP7342918B2 (en) Information processing device, text data editing method, communication system, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210202

R150 Certificate of patent or registration of utility model

Ref document number: 6840379

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250