JP2021177321A - Program, displaying method and terminal - Google Patents

Program, displaying method and terminal Download PDF

Info

Publication number
JP2021177321A
JP2021177321A JP2020082496A JP2020082496A JP2021177321A JP 2021177321 A JP2021177321 A JP 2021177321A JP 2020082496 A JP2020082496 A JP 2020082496A JP 2020082496 A JP2020082496 A JP 2020082496A JP 2021177321 A JP2021177321 A JP 2021177321A
Authority
JP
Japan
Prior art keywords
terminal
user
information
data
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020082496A
Other languages
Japanese (ja)
Inventor
亮介 濱窄
Ryosuke Hamasaku
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Z Intermediate Global Corp
Original Assignee
Line Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line Corp filed Critical Line Corp
Priority to JP2020082496A priority Critical patent/JP2021177321A/en
Priority to PCT/JP2021/016957 priority patent/WO2021225104A1/en
Publication of JP2021177321A publication Critical patent/JP2021177321A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

To facilitate an input of alphabetic information on the basis of sound information into a chat room.SOLUTION: A program that is executed by a user terminal which displays a chat room involving a user and a user of a first terminal different from the user causes the terminal to execute: obtaining sound information by an obtaining unit of the terminal; and causing alphabetic information on the basis of the sound information obtained by the obtaining unit to be input into a selected chat room, and causing the chat room containing the alphabetic information to be displayed on a display unit of the terminal.SELECTED DRAWING: Figure 1-1

Description

本開示は、プログラム、表示方法、端末に関する。 The present disclosure relates to programs, display methods, and terminals.

音認識(例えば音声認識)に関する情報処理システムが知られている(例えば特許文献1。)。 An information processing system related to sound recognition (for example, voice recognition) is known (for example, Patent Document 1).

特開2014−206961号公報Japanese Unexamined Patent Publication No. 2014-206961

本発明の第1の態様によると、ユーザと、ユーザとは異なる第1端末のユーザとを含むチャットルームを表示するユーザの端末によって実行されるプログラムは、音情報を端末の取得部によって取得することと、取得部によって取得された音情報に基づく文字情報が、選択されたチャットルームに入力され、文字情報を含むチャットルームを端末の表示部に表示することとが端末によって実行される。
本発明の第2の態様によると、ユーザと、ユーザとは異なる第1端末のユーザとを含むチャットルームを表示するユーザの端末の表示方法は、音情報を端末の取得部によって取得することと、取得部によって取得された音情報に基づく文字情報が、選択されたチャットルームに入力され、文字情報を含むチャットルームを端末の表示部に表示することとを含む。
本発明の第3の態様によると、ユーザと、ユーザとは異なる第1端末のユーザとを含むチャットルームを表示するユーザの端末は、音情報を取得する取得部と、取得部によって取得された音情報に基づく文字情報が、選択されたチャットルームに入力され、文字情報を含むチャットルームを表示する表示部とを備える。
According to the first aspect of the present invention, a program executed by a user's terminal displaying a chat room including a user and a user of a first terminal different from the user acquires sound information by a terminal acquisition unit. That is, the character information based on the sound information acquired by the acquisition unit is input to the selected chat room, and the chat room including the character information is displayed on the display unit of the terminal, which is executed by the terminal.
According to the second aspect of the present invention, the display method of the terminal of the user who displays the chat room including the user and the user of the first terminal different from the user is that the sound information is acquired by the acquisition unit of the terminal. , Character information based on the sound information acquired by the acquisition unit is input to the selected chat room, and the chat room including the character information is displayed on the display unit of the terminal.
According to the third aspect of the present invention, the terminal of the user who displays the chat room including the user and the user of the first terminal different from the user is acquired by the acquisition unit for acquiring the sound information and the acquisition unit. Character information based on sound information is input to the selected chat room, and a display unit for displaying the chat room including the character information is provided.

実施形態に係る通信システムの構成の一例を示す図。The figure which shows an example of the structure of the communication system which concerns on embodiment. 第1実施例に係る各装置が実行する処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the process executed by each apparatus which concerns on 1st Embodiment. 第2実施例に係るサーバの記憶部に記憶される情報の一例を示す図。The figure which shows an example of the information stored in the storage part of the server which concerns on 2nd Example. 第2実施例に係るメッセージングアプリケーションユーザ登録データの一例を示す図。The figure which shows an example of the messaging application user registration data which concerns on 2nd Example. 第2実施例に係るグループ管理データベースの一例を示す図。The figure which shows an example of the group management database which concerns on 2nd Example. 第2実施例に係るカレンダー情報管理データベースの一例を示す図。The figure which shows an example of the calendar information management database which concerns on 2nd Example. 第2実施例に係る端末の記憶部に記憶される情報の一例を示す図。The figure which shows an example of the information stored in the storage part of the terminal which concerns on 2nd Example. 第2実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 2nd Example. 第2実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 2nd Example. 第2実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 2nd Example. 第2実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 2nd Example. 第2実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 2nd Example. 第2実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 2nd Example. 第2実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 2nd Example. 第2実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 2nd Example. 第2実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 2nd Example. 第2実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 2nd Example. 第2実施例に係る各装置が実行する処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the process executed by each apparatus which concerns on 2nd Example. 第3実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 3rd Example. 第3実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 3rd Example. 第3実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 3rd Example. 第3実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 3rd Example. 第3実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 3rd Example. 第3実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 3rd Example. 第3実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 3rd Example. 第3実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 3rd Example. 第3実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 3rd Example. 第3実施例に係る各装置が実行する処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the process executed by each apparatus which concerns on 3rd Example. 第4実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 4th Embodiment. 第4実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 4th Embodiment. 第4実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 4th Embodiment. 第4実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 4th Embodiment. 第4実施例に係る各装置が実行する処理の流れの一例を示すフローチャート。FIG. 5 is a flowchart showing an example of a flow of processing executed by each device according to the fourth embodiment. 第5実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 5th Embodiment. 第6実施例に係る表示形式テーブルの一例を示す図。The figure which shows an example of the display format table which concerns on 6th Example. 第7実施例に係るカレンダー情報管理データベースの一例を示す図。The figure which shows an example of the calendar information management database which concerns on 7th Example. 第7実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 7th Embodiment. 第7実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 7th Embodiment. 第7実施例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 7th Embodiment. 第4実施例に係る各装置が実行する処理の流れの一例を示すフローチャート。FIG. 5 is a flowchart showing an example of a flow of processing executed by each device according to the fourth embodiment. 第7変形例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 7th modification. 第7変形例に係る端末の表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the terminal which concerns on 7th modification. 第7変形例に係る各装置が実行する処理の流れの一例を示すフローチャート。FIG. 5 is a flowchart showing an example of a flow of processing executed by each device according to the seventh modification.

<法的事項の遵守>
本明細書に記載の開示は、通信の秘密など、本開示の実施に必要な実施国の法的事項遵守を前提とすることに留意されたい。
<Compliance with legal matters>
It should be noted that the disclosures described herein are premised on compliance with the legal matters of the implementing country necessary for the implementation of this disclosure, such as secrecy of communications.

本開示に係るプログラム等を実施するための実施形態について、図面を参照して説明する。 An embodiment for implementing the program or the like according to the present disclosure will be described with reference to the drawings.

本明細書では、適宜「通信I/Fによって」という表現を使用する。これは、装置が、限定ではなく例として、制御部(プロセッサー等)の制御に基づいて、通信I/Fを介して(通信部を介して)、各種の情報やデータを送受信することを示す。 In the present specification, the expression "by communication I / F" is used as appropriate. This indicates that the device transmits and receives various information and data via the communication I / F (via the communication unit) based on the control of the control unit (processor or the like), for example, without limitation. ..

<システム構成>
図1−1は、本実施例における通信システム1のシステム構成の一例を示す図である。
通信システム1では、限定ではなく例として、ネットワーク30を介して、サーバ10と、複数の端末20(端末20A,端末20B,端末20C,・・・)とが接続される。
<System configuration>
FIG. 1-1 is a diagram showing an example of the system configuration of the communication system 1 in this embodiment.
In the communication system 1, the server 10 and a plurality of terminals 20 (terminals 20A, terminals 20B, terminals 20C, ...) Are connected to each other via a network 30 as an example, not limited to the above.

サーバ10は、ネットワーク30を介して、ユーザが所有する端末20にメッセージングサービスを提供する機能を有する。サーバ10は、メッセージングサーバやメッセージングサービスサーバ等のように表現することもできる。 The server 10 has a function of providing a messaging service to a terminal 20 owned by a user via a network 30. The server 10 can also be expressed as a messaging server, a messaging service server, or the like.

端末20(端末20A,端末20B,端末20C、・・・)は、各実施例において記載する機能を実現できる情報処理端末であればどのような端末であってもよい。端末20は、限定ではなく例として、スマートフォン、携帯電話(フィーチャーフォン)、コンピュータ(限定でなく例として、デスクトップ、ラップトップ、タブレットなど)、メディアコンピュータプラットホーム(限定でなく例として、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(限定でなく例として、PDA・(personal digital assistant)、電子メールクライアントなど)、ウェアラブル端末(メガネ型デバイス、時計型デバイスなど)、VR(Virtual Reality)端末、スマートスピーカ(音声認識用デバイス)、または他種のコンピュータ、またはコミュニケーションプラットホームを含む。また、端末20は情報処理端末と表現されてもよい。 The terminal 20 (terminal 20A, terminal 20B, terminal 20C, ...) Can be any terminal as long as it is an information processing terminal capable of realizing the functions described in each embodiment. The terminal 20 is not limited but, for example, a smartphone, a mobile phone (feature phone), a computer (not limited, for example, a desktop, a laptop, a tablet, etc.), a media computer platform (not limited, for example, a cable, a satellite set). Top boxes, digital video recorders), handheld computer devices (not limited to personal digital assistants, e-mail clients, etc.), wearable terminals (glasses-type devices, clock-type devices, etc.), VR (Virtual Reality) Includes terminals, smart speakers (devices for voice recognition), or other types of computers, or communication platforms. Further, the terminal 20 may be expressed as an information processing terminal.

端末20A、端末20Bおよび端末20Cの構成は基本的には同一である。また、必要に応じて、ユーザXが利用する端末を端末20Xと表現し、ユーザXまたは端末20Xに対応づけられた、所定のサービスにおけるユーザ情報をユーザ情報Xと表現してもよい。
なお、ユーザ情報とは、所定のサービスにおいてユーザが利用するアカウントに対応付けられたユーザの情報である。ユーザ情報は、限定でなく例として、ユーザにより入力される、または、所定のサービスにより付与される、ユーザの名前、ユーザのアイコン画像、ユーザの年齢、ユーザの性別、ユーザの住所、ユーザの趣味趣向、ユーザの識別子などのユーザに対応づけられた情報を含み、これらのいずれか一つまたは、組み合わせであってもよいし、そうでなくてもよい。
The configurations of the terminal 20A, the terminal 20B and the terminal 20C are basically the same. Further, if necessary, the terminal used by the user X may be expressed as the terminal 20X, and the user information in the predetermined service associated with the user X or the terminal 20X may be expressed as the user information X.
The user information is user information associated with an account used by the user in a predetermined service. User information is not limited, but as an example, input by the user or given by a predetermined service, the user's name, the user's icon image, the user's age, the user's gender, the user's address, and the user's hobbies. It includes information associated with the user, such as preference, user's identifier, and may or may not be any one or combination of these.

ネットワーク30は、1以上の端末20と、1以上のサーバ10とを接続する役割を担う。すなわち、ネットワーク30は、上記の各種の装置が接続した後、データを送受信することができるように接続経路を提供する通信網を意味する。
なお、ネットワーク30に接続されるサーバ10の数や端末20の数は限定されない。
The network 30 plays a role of connecting one or more terminals 20 and one or more servers 10. That is, the network 30 means a communication network that provides a connection route so that data can be transmitted and received after the above-mentioned various devices are connected.
The number of servers 10 and the number of terminals 20 connected to the network 30 are not limited.

ネットワーク30のうちの1つまたは複数の部分は、有線ネットワークや無線ネットワークであってもよいし、そうでなくてもよい。ネットワーク30は、限定ではなく例として、アドホック・ネットワーク(ad hoc network)、イントラネット、エクストラネット、仮想プライベート・ネットワーク(virtual private network:VPN)、ローカル・エリア・ネットワーク(local area network:LAN)、ワイヤレスLAN(wireless LAN:WLAN)、広域ネットワーク(wide area network:WAN)、ワイヤレスWAN(wireless WAN:WWAN)、大都市圏ネットワーク(metropolitan area network:MAN)、インターネットの一部、公衆交換電話網(Public Switched Telephone Network:PSTN)の一部、携帯電話網、ISDN(integrated service digital networks)、無線LAN、LTE(long term evolution)、CDMA(code division multiple access)、ブルートゥース(Bluetooth(登録商標))、衛星通信など、または、これらの2つ以上の組合せを含むことができる。ネットワーク30は、1つまたは複数のネットワーク30を含むことができる。 One or more parts of the network 30 may or may not be a wired or wireless network. The network 30 is not limited, but by example, an ad hoc network, an intranet, an extranet, a virtual private network (VPN), a local area network (LAN), and a wireless network. LAN (wireless LAN: WLAN), wide area network (WAN), wireless WAN (wireless WAN: WWAN), metropolitan area network (MAN), part of the Internet, public exchange telephone network (Public) Switched Telephone Network: Part of PSTN, mobile network, ISDN (integrated service digital networks), wireless LAN, LTE (long term evolution), CDMA (code division multiple access), Bluetooth (Bluetooth (registered trademark)), satellite It can include communications, etc., or a combination of two or more of these. The network 30 may include one or more networks 30.

サーバ10(限定ではなく、サーバ、情報処理装置、情報管理装置の一例)は、端末20に対して、所定のサービス(本実施例ではメッセージングサービス)を提供する機能を備える。サーバ10は、各実施形態において記載する機能を実現できる情報処理装置であればどのような装置であってもよい。サーバ10は、限定ではなく例として、サーバ装置、コンピュータ(限定ではなく例として、デスクトップ、ラップトップ、タブレットなど)、メディアコンピュータプラットホーム(限定ではなく例として、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(限定ではなく例として、PDA、電子メールクライアントなど)、あるいは他種のコンピュータ、またはコミュニケーションプラットホームを含む。また、サーバ10は情報処理装置と表現されてもよい。サーバ10と端末20とを区別する必要がない場合は、サーバ10と端末20とは、それぞれ情報処理装置と表現されてもよいし、されなくてもよい。 The server 10 (not limited to an example of a server, an information processing device, and an information management device) has a function of providing a predetermined service (messaging service in this embodiment) to the terminal 20. The server 10 may be any device as long as it is an information processing device capable of realizing the functions described in each embodiment. The server 10 is not limited, but by example, a server device, a computer (not limited, by example, a desktop, a laptop, a tablet, etc.), a media computer platform (not limited, by example, a cable, a satellite set-top box, a digital video recorder). ), Handheld computer devices (for example, but not limited to, PDA, e-mail client, etc.), or other types of computers, or communication platforms. Further, the server 10 may be expressed as an information processing device. When it is not necessary to distinguish between the server 10 and the terminal 20, the server 10 and the terminal 20 may or may not be expressed as information processing devices, respectively.

[各装置のハードウェア(HW)構成]
通信システム1に含まれる各装置のHW構成について説明する。
[Hardware (HW) configuration of each device]
The HW configuration of each device included in the communication system 1 will be described.

(1)端末のHW構成
図1−1には、端末20のHW構成の一例を示している。
端末20は、制御部21(CPU:central processing unit(中央処理装置))、記憶部28、通信I/F22(インタフェース)、入出力部23、時計部29A、位置算出用情報検出部29Bを備える。端末20のHWの各構成要素は、限定ではなく例として、バスBを介して相互に接続される。なお、端末20のHW構成として、すべての構成要素を含むことは必須ではない。限定ではなく例として、端末20は、個々の構成要素、または複数の構成要素を取り外すような構成であってもよいし、そうでなくてもよい。
(1) HW configuration of the terminal FIG. 1-1 shows an example of the HW configuration of the terminal 20.
The terminal 20 includes a control unit 21 (CPU: central processing unit), a storage unit 28, a communication I / F 22 (interface), an input / output unit 23, a clock unit 29A, and a position calculation information detection unit 29B. .. Each component of the HW of the terminal 20 is connected to each other via bus B as an example, but not a limitation. It is not essential that the HW configuration of the terminal 20 includes all the components. As an example, but not a limitation, the terminal 20 may or may not have a configuration in which individual components or a plurality of components are removed.

通信I/F22は、ネットワーク30を介して各種データの送受信を行う。通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F22は、ネットワーク30を介して、サーバ10等の各種装置との通信を実行する機能を有する。通信I/F22は、各種データを制御部21からの指示に従って、サーバ10等の各種装置に送信する。また、通信I/F22は、サーバ10等の各種装置から送信された各種データを受信し、制御部21に伝達する。また、通信I/F22を単に通信部と表現する場合もある。また、通信I/F22が物理的に構造化された回路で構成される場合には、通信回路と表現する場合もある。 The communication I / F 22 transmits and receives various data via the network 30. Communication may be executed by wire or wirelessly, and any communication protocol may be used as long as mutual communication can be executed. The communication I / F 22 has a function of executing communication with various devices such as a server 10 via the network 30. The communication I / F 22 transmits various data to various devices such as the server 10 according to an instruction from the control unit 21. Further, the communication I / F 22 receives various data transmitted from various devices such as the server 10 and transmits the various data to the control unit 21. Further, the communication I / F 22 may be simply expressed as a communication unit. Further, when the communication I / F 22 is composed of a physically structured circuit, it may be expressed as a communication circuit.

入出力部23は、端末20に対する各種操作を入力する装置、および、端末20で処理された処理結果を出力する装置を含む。入出力部23は、入力部と出力部が一体化していてもよいし、入力部と出力部に分離していてもよいし、そうでなくてもよい。 The input / output unit 23 includes a device for inputting various operations to the terminal 20 and a device for outputting the processing result processed by the terminal 20. The input / output unit 23 may or may not be integrated with the input unit and the output unit, or may be separated into the input unit and the output unit.

入力部は、ユーザからの入力を受け付けて、入力に係る情報を制御部21に伝達できる全ての種類の装置のいずれかまたはその組み合わせにより実現される。入力部は、限定ではなく例として、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(動画像を介した操作入力)、マイク(音声による操作入力)を含む。 The input unit is realized by any or a combination of all kinds of devices capable of receiving input from the user and transmitting information related to the input to the control unit 21. The input unit includes, but is not limited to, hardware keys such as a touch panel, a touch display, and a keyboard, a pointing device such as a mouse, a camera (operation input via a moving image), and a microphone (operation input by voice).

出力部は、制御部21で処理された処理結果を出力することができる全ての種類の装置のいずれかまたはその組み合わせにより実現される。出力部は、限定ではなく例として、 タッチパネル、タッチディスプレイ、スピーカ(音声出力)、レンズ(限定ではなく例として3D(three dimensions)出力や、ホログラム出力)、プリンターなどを含む。 The output unit is realized by any one or a combination of all kinds of devices capable of outputting the processing result processed by the control unit 21. The output unit is not limited and includes, as an example, a touch panel, a touch display, a speaker (audio output), a lens (not limited, as an example, 3D (three dimensions) output or hologram output), a printer, and the like.

一実施形態として、入出力部23は、限定ではなく例として、表示部24、音入力部25、音出力部26、撮像部27を備える。 As one embodiment, the input / output unit 23 includes, but is not limited to, a display unit 24, a sound input unit 25, a sound output unit 26, and an imaging unit 27 as an example.

表示部24は、フレームバッファに書き込まれた表示データに従って、表示することができる全ての種類の装置のいずれかまたはその組み合わせにより実現される。表示部24は、限定ではなく例として、タッチパネル、タッチディスプレイ、モニタ(限定ではなく例として、液晶ディスプレイやOELD(organic electroluminescence display))、ヘッドマウントディスプレイ(HDM:Head Mounted Display)、プロジェクションマッピング、ホログラム、空気中など(真空であってもよいし、そうでなくてもよい)に画像やテキスト情報等を表示可能な装置を含む。なお、これらの表示部24は、3Dで表示データを表示可能であってもよいし、そうでなくてもよい。 The display unit 24 is realized by any or a combination of all kinds of devices capable of displaying according to the display data written in the frame buffer. The display unit 24 is not limited but is an example of a touch panel, a touch display, a monitor (not limited but an example, a liquid crystal display or an Electroluminescence display (OELD)), a head mounted display (HDM), a projection mapping, and a hologram. , Includes a device capable of displaying images, text information, etc. in air (which may or may not be vacuum). It should be noted that these display units 24 may or may not be able to display display data in 3D.

音入力部25は、音データ(音声データを含む。以下同様。)の入力に利用される。音入力部25は、マイクなどを含む。
音出力部26は、音データの出力に利用される。音出力部26は、スピーカなどを含む。
撮像部27は、動画像データの取得に利用される。撮像部27は、カメラなどを含む。
The sound input unit 25 is used for inputting sound data (including voice data; the same applies hereinafter). The sound input unit 25 includes a microphone and the like.
The sound output unit 26 is used for outputting sound data. The sound output unit 26 includes a speaker and the like.
The imaging unit 27 is used to acquire moving image data. The imaging unit 27 includes a camera and the like.

入出力部23がタッチパネルの場合、入出力部23と表示部24とは、略同一の大きさおよび形状で対向して配置されていてもよい。 When the input / output unit 23 is a touch panel, the input / output unit 23 and the display unit 24 may be arranged so as to face each other with substantially the same size and shape.

時計部29Aは、端末20の内蔵時計であり、時刻情報(計時情報)を出力する。時計部29Aは、限定ではなく例として、水晶発振器を利用したクロック等を有して構成される。時計部29Aは、限定ではなく例として、計時部や時刻情報検出部と表現することもできる。 The clock unit 29A is a built-in clock of the terminal 20 and outputs time information (timekeeping information). The clock unit 29A is configured to include, for example, a clock using a crystal oscillator, and the like, without limitation. The clock unit 29A can be expressed as a time measuring unit or a time information detecting unit as an example without limitation.

なお、時計部29Aは、NITZ(Network Identity and Time Zone)規格等を適用したクロックを有していてもよいし、有していなくてもよい。 The clock unit 29A may or may not have a clock to which the NITZ (Network Identity and Time Zone) standard or the like is applied.

位置算出用情報検出部29Bは、制御部21が自己の端末20の位置を算出(測定)するために必要な情報(以下、「位置算出用情報」と称する。)を検出(計測)する機能部である。位置算出用情報検出部29Bは、限定ではなく例として、位置算出用センサ部と表現することもできる。 The position calculation information detection unit 29B has a function of detecting (measuring) information necessary for the control unit 21 to calculate (measure) the position of its own terminal 20 (hereinafter, referred to as "position calculation information"). It is a department. The position calculation information detection unit 29B can be expressed as a position calculation sensor unit as an example without limitation.

位置算出用情報検出部29Bは、限定ではなく例として、GPS(Global Positioning System)等の衛星測位システムを利用して端末20の位置を算出するためのセンサやユニットである衛星測位センサ(衛星測位ユニット)や、慣性航法システムを利用して端末20の位置を算出するためのセンサやユニットである慣性計測センサ(慣性計測ユニット(IMU(Inertial Measurement Unit)))、UWB(超広帯域無線:Ultra Wide Band)を利用して端末20の位置を算出するためのセンサやユニットであるUWB測位センサ(UWB測位ユニット)等を含む。 The position calculation information detection unit 29B is not limited, but as an example, a satellite positioning sensor (satellite positioning) which is a sensor or unit for calculating the position of the terminal 20 using a satellite positioning system such as GPS (Global Positioning System). Unit), a sensor for calculating the position of the terminal 20 using an inertial navigation system, an inertial measurement unit (IMU (Inertial Measurement Unit)), and a UWB (Ultra Wide). A UWB positioning sensor (UWB positioning unit), which is a sensor and a unit for calculating the position of the terminal 20 using the Band), and the like are included.

衛星測位ユニットは、限定ではなく例として、不図示のアンテナで受信される測位用衛星から発信されている測位用衛星信号を含むRF(Radio Frequency)信号をデジタル信号に変換するRF受信回路や、RF受信回路から出力されるデジタル信号に対して相関演算処理等を行って測位用衛星信号を捕捉し、測位用衛星信号から取り出した衛星軌道データや時刻データ等の情報を、位置算出用情報として出力するベースバンド処理回路等を有する。 The satellite positioning unit is not limited to, for example, an RF receiving circuit that converts an RF (Radio Frequency) signal including a positioning satellite signal transmitted from a positioning satellite received by an antenna (not shown) into a digital signal. Correlation calculation processing is performed on the digital signal output from the RF reception circuit to capture the positioning satellite signal, and information such as satellite orbit data and time data extracted from the positioning satellite signal is used as position calculation information. It has a baseband processing circuit to output.

慣性計測ユニットは、慣性航法演算によって端末20の位置を算出するために必要な情報を検出するセンサである慣性センサを有する。慣性センサには、限定ではなく例として、3軸の加速度センサや3軸のジャイロセンサが含まれ、加速度センサによって検出された加速度と、ジャイロセンサによって検出された角速度とを、位置算出用情報として出力する。 The inertial measurement unit has an inertial sensor which is a sensor that detects information necessary for calculating the position of the terminal 20 by inertial navigation calculation. The inertial sensor includes, for example, a three-axis acceleration sensor and a three-axis gyro sensor, and the acceleration detected by the acceleration sensor and the angular velocity detected by the gyro sensor are used as position calculation information. Output.

UWB測位ユニットは、限定ではなく例として、不図示のアンテナで受信される測位用ビーコンから発信されている測位用超広帯域パルス信号を含む超広帯域RF(Radio Frequency)信号をデジタル信号に変換する超広帯域RF受信回路や、超広帯域RF受信回路から出力されるデジタル信号に基づいて端末20と測位用ビーコンとの相対位置を算出する相対位置算出処理回路等を有する。
なお、限定ではなく例として、UWB測位ユニットは、不図示のアンテナから測位用超広帯域パルス信号を含む超広帯域RF信号を送信することで、端末20を測位用ビーコンとして機能させてもよいし、そうしなくてもよい。
The UWB positioning unit is not limited, but as an example, is an ultra-wideband RF (Radio Frequency) signal that converts an ultra-wideband RF (Radio Frequency) signal including a positioning ultra-wideband pulse signal transmitted from a positioning beacon received by an antenna (not shown) into a digital signal. It has a wideband RF receiving circuit, a relative position calculation processing circuit that calculates the relative position between the terminal 20 and the positioning beacon based on a digital signal output from the ultra-wideband RF receiving circuit, and the like.
As an example, the UWB positioning unit may function as a positioning beacon by transmitting an ultra-wideband RF signal including a positioning ultra-wideband pulse signal from an antenna (not shown). You don't have to.

制御部21は、限定ではなく例として、位置算出用情報検出部29Bによって検出された位置算出用情報に基づいて、定期的なタイミングや特定のタイミングで、自己の端末20の位置を算出する。端末の位置を「端末位置」と称し、算出された端末位置を「算出端末位置」と称する。そして、制御部21は、算出端末位置を、その算出端末位置を算出した日時と関連付けて、算出端末位置履歴データとして記憶部28に記憶させる。 The control unit 21 calculates the position of its own terminal 20 at a periodic timing or a specific timing based on the position calculation information detected by the position calculation information detection unit 29B, as an example but not a limitation. The position of the terminal is referred to as "terminal position", and the calculated terminal position is referred to as "calculated terminal position". Then, the control unit 21 associates the calculated terminal position with the calculated date and time and stores the calculated terminal position in the storage unit 28 as the calculated terminal position history data.

制御部21は、プログラム内に含まれたコードまたは命令によって実現する機能を実行するために物理的に構造化された回路を有し、限定ではなく例として、ハードウェアに内蔵されたデータ処理装置により実現される。そのため、制御部21は、制御回路と表現されてもよいし、されなくてもよい。 The control unit 21 has a physically structured circuit for executing a function realized by a code or an instruction contained in the program, and is not limited, but as an example, a data processing device built in hardware. Is realized by. Therefore, the control unit 21 may or may not be expressed as a control circuit.

制御部21は、限定ではなく例として、中央処理装置(CPU)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(application-specific integrated circuit)、FPGA(field programmable gate array)を含む。 The control unit 21 is not limited, but as an example, a central processing unit (CPU), a microprocessor (microprocessor), a processor core (processor core), a multiprocessor (multiprocessor), an ASIC (application-specific integrated circuit), and an FPGA (field programmable). gate array) is included.

記憶部28は、端末20が動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。記憶部28は、限定ではなく例として、HDD(hard disk drive)、SSD(solid state drive)、フラッシュメモリ、RAM(random access memory)、ROM(read only memory)など各種の記憶媒体を含む。また、記憶部28は、メモリ(memory)と表現されてもよいし、されなくてもよい。 The storage unit 28 has a function of storing various programs and various data required for the terminal 20 to operate. The storage unit 28 includes various storage media such as an HDD (hard disk drive), an SSD (solid state drive), a flash memory, a RAM (random access memory), and a ROM (read only memory). Further, the storage unit 28 may or may not be expressed as a memory.

端末20は、プログラムPを記憶部28に記憶し、このプログラムPを実行することで、制御部21が、制御部21に含まれる各部としての処理を実行する。つまり、記憶部28に記憶されるプログラムPは、端末20に、制御部21が実行する各機能を実現させる。また、このプログラムPは、プログラムモジュールと表現されてもよいし、されなくてもよい。 The terminal 20 stores the program P in the storage unit 28, and by executing the program P, the control unit 21 executes the processing as each unit included in the control unit 21. That is, the program P stored in the storage unit 28 causes the terminal 20 to realize each function executed by the control unit 21. Further, this program P may or may not be expressed as a program module.

(2)サーバのHW構成
図1−1には、サーバ10のHW構成の一例を示している。
サーバ10は、制御部11(CPU)、記憶部15、通信I/F14(インタフェース)、入出力部12、時計部19を備える。サーバ10のHWの各構成要素は、限定ではなく例として、バスBを介して相互に接続される。なお、サーバ10のHWは、サーバ10のHWの構成として、全ての構成要素を含むことは必須ではない。限定ではなく例として、サーバ10のHWは、個々の構成要素、または複数の構成要素を取り外すような構成であってもよいし、そうでなくてもよい。
(2) HW configuration of the server FIG. 1-1 shows an example of the HW configuration of the server 10.
The server 10 includes a control unit 11 (CPU), a storage unit 15, a communication I / F 14 (interface), an input / output unit 12, and a clock unit 19. Each component of the HW of the server 10 is connected to each other via the bus B as an example, but not a limitation. It is not essential that the HW of the server 10 includes all the components as the configuration of the HW of the server 10. As an example, but not a limitation, the HW of the server 10 may or may not be configured to remove individual components or a plurality of components.

制御部11は、プログラム内に含まれたコードまたは命令によって実現する機能を実行するために物理的に構造化された回路を有し、限定ではなく例として、ハードウェアに内蔵されたデータ処理装置により実現される。 The control unit 11 has a physically structured circuit for executing a function realized by a code or an instruction contained in the program, and is not limited, but as an example, a data processing device built in hardware. Is realized by.

制御部11は、代表的には中央処理装置(CPU)、であり、その他にマイクロプロセッサ、プロセッサコア、マルチプロセッサ、ASIC、FPGAであってもよいし、そうでなくてもよい。本開示において、制御部11は、これらに限定されない。 The control unit 11 is typically a central processing unit (CPU), and may or may not be a microprocessor, processor core, multiprocessor, ASIC, FPGA, or the like. In the present disclosure, the control unit 11 is not limited to these.

記憶部15は、サーバ10が動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。記憶部15は、HDD、SSD、フラッシュメモリなど各種の記憶媒体により実現される。ただし、本開示において、記憶部15は、これらに限定されない。また、記憶部15は、メモリ(memory)と表現されてもよいし、されなくてもよい。 The storage unit 15 has a function of storing various programs and various data required for the server 10 to operate. The storage unit 15 is realized by various storage media such as HDD, SSD, and flash memory. However, in the present disclosure, the storage unit 15 is not limited to these. Further, the storage unit 15 may or may not be expressed as a memory.

通信I/F14は、ネットワーク30を介して各種データの送受信を行う。通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F14は、ネットワーク30を介して、端末20等の各種装置との通信を実行する機能を有する。通信I/F14は、各種データを制御部11からの指示に従って、端末20等の各種装置に送信する。また、通信I/F14は、端末20等の各種装置から送信された各種データを受信し、制御部11に伝達する。また、通信I/F14を単に通信部と表現する場合もある。また、通信I/F14が物理的に構造化された回路で構成される場合には、通信回路と表現する場合もある。 The communication I / F 14 transmits / receives various data via the network 30. Communication may be executed by wire or wirelessly, and any communication protocol may be used as long as mutual communication can be executed. The communication I / F 14 has a function of executing communication with various devices such as a terminal 20 via the network 30. The communication I / F 14 transmits various data to various devices such as a terminal 20 according to an instruction from the control unit 11. Further, the communication I / F 14 receives various data transmitted from various devices such as the terminal 20 and transmits the various data to the control unit 11. Further, the communication I / F 14 may be simply expressed as a communication unit. Further, when the communication I / F 14 is composed of a physically structured circuit, it may be expressed as a communication circuit.

入出力部12は、サーバ10に対する各種操作を入力する装置により実現される。
入力部は、ユーザからの入力を受け付けて、入力に係る情報を制御部11に伝達できる全ての種類の装置のいずれかまたはその組み合わせにより実現される。入力部は、代表的にはキーボード等に代表されるハードウェアキーや、マウス等のポインティングデバイスで実現される。なお、入力部は、限定ではなく例として、タッチパネルやカメラ(動画像を介した操作入力)、マイク(音声による操作入力)を含んでいてもよいし、そうでなくてもよい。
The input / output unit 12 is realized by a device that inputs various operations to the server 10.
The input unit is realized by any one or a combination of all kinds of devices capable of receiving an input from a user and transmitting information related to the input to the control unit 11. The input unit is typically realized by a hardware key typified by a keyboard or the like, or a pointing device such as a mouse. The input unit may or may not include a touch panel, a camera (operation input via a moving image), and a microphone (operation input by voice) as an example without limitation.

出力部は、制御部11で処理された処理結果を出力することができる全ての種類の装置のいずれかまたはその組み合わせにより実現される。出力部は、限定ではなく例として、 タッチパネル、タッチディスプレイ、スピーカ(音声出力)、レンズ(限定ではなく例として3D(three dimensions)出力や、ホログラム出力)、プリンターなどを含む。 The output unit is realized by any one or a combination of all kinds of devices capable of outputting the processing result processed by the control unit 11. The output unit is not limited and includes, as an example, a touch panel, a touch display, a speaker (audio output), a lens (not limited, as an example, 3D (three dimensions) output or hologram output), a printer, and the like.

一次実施形態として、入出力部12は、表示部13を備える。 As a primary embodiment, the input / output unit 12 includes a display unit 13.

表示部13は、代表的にはモニタ(限定ではなく例として、液晶ディスプレイやOELD(organic electroluminescence display))で実現される。なお、表示部13は、ヘッドマウントディスプレイ(HDM)などであってもよいし、そうでなくてもよい。なお、これらの表示部13は、3Dで表示データを表示可能であってもよいし、そうでなくてもよい。本開示において、表示部13は、これらに限定されない。 The display unit 13 is typically realized by a monitor (not limited, but as an example, a liquid crystal display or an OELD (organic electroluminescence display)). The display unit 13 may or may not be a head-mounted display (HDM) or the like. It should be noted that these display units 13 may or may not be able to display display data in 3D. In the present disclosure, the display unit 13 is not limited to these.

時計部19は、サーバ10の内蔵時計であり、時刻情報(計時情報)を出力する。時計部19は、限定ではなく例として、ハードウェアクロックとしてのRTC(Real Time Clock)やシステムクロック等を有して構成される。時計部19は、限定ではなく例として、計時部や時刻情報検出部と表現することもできる。 The clock unit 19 is a built-in clock of the server 10 and outputs time information (timekeeping information). The clock unit 19 is configured to include an RTC (Real Time Clock) as a hardware clock, a system clock, or the like as an example, not limited to the clock unit 19. The clock unit 19 is not limited, but may be expressed as a time measuring unit or a time information detecting unit as an example.

(3)その他
サーバ10は、プログラムPを記憶部15に記憶し、このプログラムPを実行することで、制御部11が、制御部11に含まれる各部としての処理を実行する。つまり、記憶部15に記憶されるプログラムPは、サーバ10に、制御部11が実行する各機能を実現させる。このプログラムPは、プログラムモジュールと表現されてもよいし、されなくてもよい。
他の装置についても同様である。
(3) Others The server 10 stores the program P in the storage unit 15, and by executing the program P, the control unit 11 executes the processing as each unit included in the control unit 11. That is, the program P stored in the storage unit 15 causes the server 10 to realize each function executed by the control unit 11. This program P may or may not be expressed as a program module.
The same applies to other devices.

本開示の各実施形態においては、端末20および/またはサーバ10のCPUがプログラムPを実行することにより、実現するものとして説明する。
他の装置についても同様である。
In each embodiment of the present disclosure, it will be described as realized by executing the program P by the CPU of the terminal 20 and / or the server 10.
The same applies to other devices.

なお、端末20の制御部21、および/または、サーバ10の制御部11は、制御回路を有するCPUだけでなく、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各処理を実現してもよいし、そうでなくてもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよいし、そうでなくてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。そのため、制御部21は、制御回路と表現されてもよいし、されなくてもよい。
他の装置についても同様である。
The control unit 21 of the terminal 20 and / or the control unit 11 of the server 10 is formed not only in a CPU having a control circuit but also in an integrated circuit (IC (Integrated Circuit) chip, LSI (Large Scale Integration)) and the like. Each process may or may not be realized by a logic circuit (hardware) or a dedicated circuit. Further, these circuits may be realized by one or a plurality of integrated circuits, and the plurality of processes shown in each embodiment may or may not be realized by one integrated circuit. Further, the LSI may be referred to as a VLSI, a super LSI, an ultra LSI, or the like depending on the degree of integration. Therefore, the control unit 21 may or may not be expressed as a control circuit.
The same applies to other devices.

また、本開示の各実施形態のプログラムP(限定ではなく例として、ソフトウェアプログラム、コンピュータプログラム、またはプログラムモジュール)は、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよいし、されなくてもよい。 記憶媒体は、「一時的でない有形の媒体」に、プログラムPを記憶可能である。また、プログラムPは、本開示の各実施形態の機能の一部を実現するためのものであってもよいし、そうでなくてもよい。さらに、本開示の各実施形態の機能を記憶媒体にすでに記録されているプログラムPとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよいし、そうでなくてもよい。 Further, the program P (for example, a software program, a computer program, or a program module) of each embodiment of the present disclosure may be provided in a state of being stored in a computer-readable storage medium. It does not have to be done. The storage medium can store the program P in a "non-temporary tangible medium". Further, the program P may or may not be for realizing a part of the functions of each embodiment of the present disclosure. Further, it may or may not be a so-called difference file (difference program) that can realize the functions of each embodiment of the present disclosure in combination with the program P already recorded on the storage medium.

記憶媒体は、1つまたは複数の半導体ベースの、または他の集積回路(IC)(限定ではなく例として、フィールド・プログラマブル・ゲート・アレイ(FPGA)または特定用途向けIC(ASIC)など)、ハード・ディスク・ドライブ(HDD)、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピィ・ディスケット、フロッピィ・ディスク・ドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カード、またはドライブ、任意の他の適切な記憶媒体、またはこれらの2つ以上の適切な組合せを含むことができる。記憶媒体は、適切な場合、揮発性、不揮発性、または揮発性と不揮発性の組合せでよい。なお、記憶媒体はこれらの例に限られず、プログラムPを記憶可能であれば、どのようなデバイスまたは媒体であってもよい。また、記憶媒体をメモリ(memory)と表現されてもよいし、されなくてもよい。 The storage medium is one or more semiconductor-based or other integrated circuits (ICs) (such as, but not limited to, field programmable gate arrays (FPGAs) or application-specific ICs (ASICs)), hard disks. Disk drive (HDD), hybrid hard drive (HHD), optical disk, optical disk drive (ODD), optical magnetic disk, optical magnetic drive, floppy diskette, floppy disk drive (FDD), magnetic tape, solid It can include a drive (SSD), a RAM drive, a secure digital card, or drive, any other suitable storage medium, or any suitable combination of two or more of these. The storage medium may be volatile, non-volatile, or a combination of volatile and non-volatile, where appropriate. The storage medium is not limited to these examples, and any device or medium may be used as long as the program P can be stored. Further, the storage medium may or may not be expressed as a memory.

サーバ10および/または端末20は、記憶媒体に記憶されたプログラムPを読み出し、読み出したプログラムPを実行することによって、各実施形態に示す複数の機能部の機能を実現することができる。
他の装置についても同様である。
The server 10 and / or the terminal 20 can read the program P stored in the storage medium and execute the read program P to realize the functions of the plurality of functional units shown in each embodiment.
The same applies to other devices.

また、本開示のプログラムPは、プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して、サーバ10および/または端末20に提供されてもよいし、されなくてもよい。サーバ10および/または端末20は、限定ではなく例として、インターネット等を介してダウンロードしたプログラムPを実行することにより、各実施形態に示す複数の機能部の機能を実現する。
他の装置についても同様である。
Further, the program P of the present disclosure may or may not be provided to the server 10 and / or the terminal 20 via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. .. The server 10 and / or the terminal 20 realizes the functions of the plurality of functional units shown in each embodiment by executing the program P downloaded via the Internet or the like, as an example without limitation.
The same applies to other devices.

また、本開示の各実施形態は、プログラムPが電子的な伝送によって具現化されたデータ信号の形態でも実現され得る。
サーバ10および/または端末20における処理の少なくとも一部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよいし、そうでなくてもよい。
端末20における処理の少なくとも一部を、サーバ10により行う構成としてもよいし、そうでなくてもよい。この場合、端末20の制御部21の各機能部の処理のうち少なくとも一部の処理を、サーバ10で行う構成としてもよいし、そうでなくてもよい。
サーバ10における処理の少なくとも一部を、端末20により行う構成としてもよいし、そうでなくてもよい。この場合、サーバ10の制御部11の各機能部の処理のうち少なくとも一部の処理を、端末20で行う構成としてもよいし、そうでなくてもよい。
明示的な言及のない限り、本開示の実施形態における判定の構成は必須でなく、判定条件を満たした場合に所定の処理が動作されたり、判定条件を満たさない場合に所定の処理がされたりしてもよいし、そうでなくてもよい。
In addition, each embodiment of the present disclosure can also be realized in the form of a data signal in which the program P is embodied by electronic transmission.
At least part of the processing in the server 10 and / or the terminal 20 may or may not be realized by cloud computing composed of one or more computers.
At least a part of the processing in the terminal 20 may or may not be performed by the server 10. In this case, at least a part of the processing of each functional unit of the control unit 21 of the terminal 20 may or may not be performed by the server 10.
At least a part of the processing in the server 10 may or may not be performed by the terminal 20. In this case, at least a part of the processing of each functional unit of the control unit 11 of the server 10 may or may not be performed by the terminal 20.
Unless explicitly stated, the configuration of the determination in the embodiment of the present disclosure is not essential, and a predetermined process is operated when the determination condition is satisfied, or a predetermined process is performed when the determination condition is not satisfied. It may or may not be.

なお、本開示のプログラムは、限定ではなく例として、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective-C、Java(登録商標)などのコンパイラ言語、HTML5などのマークアップ言語などを用いて実装される。 The program disclosed in this disclosure is not limited to using script languages such as ActionScript and JavaScript (registered trademark), compiler languages such as Objective-C and Java (registered trademark), and markup languages such as HTML5. Will be implemented.

<実施例>
限定ではなく例として、同じ部門に属する仲間同士といったグループの複数のユーザが、限定ではなく例として、現実世界(オフライン)で集まって会議や会合を行い、その会議や会合で議論される内容をオンラインで共有したい場合がある。
この場合、限定ではなく例として、現実世界での会議や会合における音声データに基づいて音声認識を実行し、文章等の閲覧・検索が容易なデータに変換したうえで、他のユーザとその文章等のデータを共有するシステムが望まれる。
以下、これを実現するための実施例について説明する。
<Example>
As an example, not limited, multiple users of a group, such as peers belonging to the same department, gather in the real world (offline) to hold a meeting or meeting, and what is discussed at that meeting or meeting. You may want to share online.
In this case, as an example, not limited, voice recognition is performed based on voice data at a conference or meeting in the real world, and after converting the text into data that can be easily viewed and searched, other users and their texts are used. A system for sharing such data is desired.
Hereinafter, examples for realizing this will be described.

本明細書では、インスタントメッセージングサービス(IMS)を含むメッセージングサービス(MS:Messaging Service)を実現するためのメッセージングアプリケーションを利用して、限定ではなく例として、会議や会合の音声データを文章化したデータ(以下、「議事録データ」と称する。)を共有する例を示す。以下では、メッセージングサービスを介して議事録データをやりとりするサービスを、「議事録サービス」と呼称する。 In this specification, using a messaging application for realizing a messaging service (MS) including an instant messaging service (IMS), data in which voice data of a meeting or a meeting is documented as an example, not limited to the present. (Hereinafter referred to as "minutes data"), an example of sharing is shown. In the following, a service for exchanging minutes data via a messaging service will be referred to as a "minutes service".

また、以下では、メッセージングサービス事業者によって、サーバ10が運用・管理されることとして説明する。また、以下では、メッセージングアプリケーションの名称を、適宜「Messaging App」と称して図示・説明する。 Further, in the following, it will be described that the server 10 is operated and managed by the messaging service provider. Further, in the following, the name of the messaging application will be illustrated and described as appropriate as "Messageing App".

本明細書において、「コンテンツ」とは、メッセージングサービスにおいて複数の端末20間で送受信される単純なテキストや絵文字等を含むメッセージの他、限定ではなく例として、画像情報(静止画像、動画像等を含む。)、操作用情報(ボタン、アイコン等を含む。)、通信用情報・リンク情報(URI、URL等を含む。)など、端末20間で送受信可能な各種の情報を含む。 In the present specification, the "content" is a message including simple texts, pictograms, etc. transmitted and received between a plurality of terminals 20 in a messaging service, and is not limited to, but as an example, image information (still image, moving image, etc.). ), Operation information (including buttons, icons, etc.), communication information / link information (including URI, URL, etc.), and various other information that can be transmitted and received between the terminals 20.

「チャットルーム」とは、コンピュータネットワーク上のデータ通信回線を用いて端末20の1以上のユーザがコミュニケーションを行うための仮想的な部屋である。
限定ではなく例として、チャットルームにおいてメッセージングサービスを利用してコンテンツをやり取りする場合、チャットルームは「トークルーム」であるとも言える。
The "chat room" is a virtual room for one or more users of the terminal 20 to communicate using a data communication line on a computer network.
As an example, but not a limitation, a chat room can be said to be a "talk room" when content is exchanged using a messaging service in a chat room.

トークルームには、限定ではなく例として、一対一でユーザがトークを行うためのトークルームの他、メッセージングサービスにおいて形成された複数のユーザを含むグループでトークを行うためのグループトークルームが含まれる。 The talk room includes, as an example, not limited to, a talk room for users to talk one-on-one, and a group talk room for talking with a group including a plurality of users formed in a messaging service. ..

また、メッセージングサービスには、端末20間での簡単なメッセージ等のコンテンツの送受信を可能とするインスタントメッセージングサービス(IMS:Instant Messaging Service)を含めてもよいし、含めなくてもよい。 Further, the messaging service may or may not include an instant messaging service (IMS: Instant Messaging Service) that enables transmission and reception of contents such as simple messages between terminals 20.

なお、メッセージングサービス:MS(IMSを含む。)は、ソーシャルネットワーキングサービス:SNSの1つの形態(一形態)と考えることもできる。
このため、MSとSNSとは区別してもよいし、区別しなくてもよい。
The messaging service: MS (including IMS) can also be considered as one form (one form) of the social networking service: SNS.
Therefore, MS and SNS may or may not be distinguished.

また、以下では、端末20Aのユーザを「ユーザA.A」、端末20Bのユーザを「ユーザB.B」、端末20Cのユーザを「ユーザC.C」、・・・、として説明する。 Further, in the following, the user of the terminal 20A will be referred to as "user A.A", the user of the terminal 20B will be referred to as "user BB", the user of the terminal 20C will be referred to as "user CC", and so on.

また、メッセージングアプリケーションは、いわゆるスケジュール管理サービスの機能を有さない単体のアプリケーションとしてサーバ10によって提供されるようにしてもよいし、スケジュール管理サービスの機能を有する複合的なアプリケーションとしてサーバ10によって提供されるようにしてもよい。 Further, the messaging application may be provided by the server 10 as a single application having no so-called schedule management service function, or may be provided by the server 10 as a complex application having a schedule management service function. You may do so.

また、以下説明する実施例では、本開示における文字情報として、議事録に含まれる文字の情報(文字のデータ)を例示する。
ただし、本開示における文字情報は、文字の情報に限定されるわけではなく、この他にも、限定ではなく例として、記号、コンテンツ、画像の情報など、一般的にチャットルームに表示させることが可能な情報も、本開示における文字情報に含めることができる。
Further, in the examples described below, character information (character data) included in the minutes will be illustrated as character information in the present disclosure.
However, the character information in the present disclosure is not limited to the character information, and other than this, the information such as symbols, contents, and images may be generally displayed in the chat room without limitation. Possible information may also be included in the textual information in this disclosure.

議事録サービスを実現するために議事録データを作成・共有する手法としては、大きく分けて、以下の2つの手法が考えられる。以下の実施例では、それぞれの手法について説明する。
(1)サーバ10で音声認識を実行し、議事録データを作成する手法
(2)端末20で音声認識を実行し、議事録データを作成する手法
The following two methods can be broadly considered as methods for creating and sharing minutes data in order to realize the minutes service. In the following examples, each method will be described.
(1) Method of executing voice recognition on the server 10 and creating minutes data (2) Method of executing voice recognition on the terminal 20 and creating minutes data

また、議事録データを作成・共有するタイミングとしては、大きく分けて、以下の3つの手法が考えられる。
(A)会議・会合が終わった後で議事録データを作成・共有
(B)会議・会合が始まる前に議事録データを作成・共有する設定を行い、会議・会合中にリアルタイムで議事録データを作成・共有
(C)会議・会合が始まる前に議事録データを作成・共有する設定を行い、会議・会合が終わった後で議事録データを作成・共有
In addition, the timing of creating and sharing the minutes data can be roughly divided into the following three methods.
(A) Create and share minutes data after the meeting / meeting (B) Create / share the minutes data before the meeting / meeting starts, and set the minutes data in real time during the meeting / meeting. Create / share (C) Create / share minutes data before the meeting / meeting starts, and create / share the minutes data after the meeting / meeting ends.

<第1実施例>
第1実施例は、上記の(2)の手法による実施例である。
第1実施例は、議事録サービスにおいて、限定ではなく例として、メッセージングアプリケーションが動作する端末20において音データ(限定ではなく例として、音声データ。以下同様。)を取得し、その音データに基づいて、文字データを含む議事録データを作成する。そして、作成された議事録データをメッセージングアプリケーションのチャットルーム(限定ではなく例として、トークルーム)に表示する。
第1実施例に記載の内容は、他の各実施例や他の各変形例のいずれにも適用可能である。
<First Example>
The first embodiment is an example according to the method (2) above.
In the first embodiment, in the minutes service, as an example, not limited, sound data (voice data as an example, not limited; the same shall apply hereinafter) is acquired in the terminal 20 on which the messaging application operates, and is based on the sound data. And create minutes data including character data. Then, the created minutes data is displayed in the chat room (not limited, but as an example, the talk room) of the messaging application.
The contents described in the first embodiment can be applied to any of the other embodiments and the other modifications.

本実施例では、チャットルームには、限定ではなく例として、端末20AのユーザA.Aと、端末20A以外の端末20のユーザ、限定ではなく例として、端末20BのユーザB.Bとが、少なくとも参加していることとする。 In this embodiment, the chat room is not limited to the user A. of the terminal 20A as an example. A and the user of the terminal 20 other than the terminal 20A, not limited to, as an example, the user B. of the terminal 20B. It is assumed that B is at least participating.

<処理>
図1−2は、本実施例において端末20の制御部21が実行する処理の流れの一例を示すフローチャートである。
このフローチャートは、端末20Aの制御部21が実行する処理の一例である。
<Processing>
FIG. 1-2 is a flowchart showing an example of the flow of processing executed by the control unit 21 of the terminal 20 in this embodiment.
This flowchart is an example of the processing executed by the control unit 21 of the terminal 20A.

以下説明する処理は、あくまでも本開示の手法を実現するための処理の一例に過ぎず、これらの処理に限定されるものではない。
以下説明する処理に、別のステップを追加してもよいし、一部のステップを省略(削除)してもよい。
これは、以下説明する各フローチャート(処理)について同様である。
The processes described below are merely examples of processes for realizing the method of the present disclosure, and are not limited to these processes.
Another step may be added to the process described below, or some steps may be omitted (deleted).
This is the same for each flowchart (process) described below.

まず、端末20Aの制御部21は、音入力部25に対する入力を受け付け、限定ではなく例として、ユーザの対話内容を含む音声データを取得する(A100)。 First, the control unit 21 of the terminal 20A accepts the input to the sound input unit 25, and acquires voice data including the dialogue content of the user as an example, not limited to (A100).

なお、音声データには、ユーザの対話内容である音声以外にも、限定ではなく例として、ベルが「リンリン」という音をたてて鳴る音や、犬が「ワンワン」と鳴く音等のデータを含めてもよいし、含めなくてもよい。つまり、人間の音声以外の音のデータを音声データに含めてもよいし、含めなくてもよい。
また、人間の音声のデータと、それ以外の音のデータとを区別してもよいし、区別しなくてもよい。
In addition to the voice that is the content of the user's dialogue, the voice data is not limited to data such as the sound of a bell making a "ringing" sound and the sound of a dog making a "one-one" sound. May or may not be included. That is, sound data other than human voice may or may not be included in the voice data.
Further, the human voice data and the other sound data may or may not be distinguished.

次に、端末20Aの制御部21は、取得した音声データに対して、限定ではなく例として、音声認識処理を実行する。そして、端末20Aの制御部21は、音声認識処理の結果に基づいて、音声データを文字(文章)データである議事録データに変換する(A120)。この処理は、音情報から文字情報である議事録データを生成する処理といえる。 Next, the control unit 21 of the terminal 20A executes the voice recognition process as an example, not limited to, on the acquired voice data. Then, the control unit 21 of the terminal 20A converts the voice data into the minutes data which is the character (text) data based on the result of the voice recognition process (A120). It can be said that this process is a process of generating minutes data which is character information from sound information.

なお、音声認識処理は、発話内容を文字列に変換することに限定されない。限定ではなく例として、ベルが鳴る音を「リンリン」という文字に、犬が鳴く音を「ワンワン」という文字に変換する擬音語(擬声語)変換処理を音声認識処理に含めてもよいし、含めなくてもよい。 The voice recognition process is not limited to converting the utterance content into a character string. As an example, not a limitation, the voice recognition process may include an onomatopoeia conversion process that converts the ringing sound of a bell into the character "Rinrin" and the sound of a dog ringing into the character "Wanwan". It does not have to be.

また、議事録データ変換処理において、音声データに対して話者認識処理を行い、話者認識結果に基づいて、文字データと話者データとが紐付けられた議事録データを生成するようにしてもよいし、そうしなくてもよい。 In addition, in the minutes data conversion process, speaker recognition processing is performed on the voice data, and based on the speaker recognition result, the minutes data in which the character data and the speaker data are linked is generated. It may or may not be.

すると、端末20Aの制御部21は、変換(生成)された議事録データを、メッセージングアプリケーションの、限定ではなく例として、ユーザA.AとユーザB.Bとを含むチャットルーム(トークルーム)に追加して入力する(A160)。すなわち、議事録データに含まれる文字データが、複数のユーザ間において、メッセージングアプリケーションのチャットルームによって共有される。 Then, the control unit 21 of the terminal 20A uses the converted (generated) minutes data as an example of the messaging application, not limited to the user A. A and user B. Input in addition to the chat room (talk room) including B (A160). That is, the character data included in the minutes data is shared among a plurality of users by the chat room of the messaging application.

最後に、端末20Aの制御部21は、チャットルームに入力された議事録データを表示部24に表示させる(A180)。そして、端末20Aの制御部21は、処理を終了する。 Finally, the control unit 21 of the terminal 20A causes the display unit 24 to display the minutes data input to the chat room (A180). Then, the control unit 21 of the terminal 20A ends the process.

<第1実施例の効果>
第1実施例は、ユーザA.A(限定ではなく、端末のユーザの一例)と、ユーザB.B(限定ではなく、端末のユーザとは異なる第1端末のユーザの一例)とを含むチャットルームを表示する端末20A(限定ではなく、端末の一例)が、音声データ、音声に関する情報(限定ではなく、音情報の一例)を音入力部25(限定ではなく、端末の取得部の一例)によって取得する。そして、取得された音声データに基づく議事録データ(限定ではなく、文字情報の一例)が、選択されたユーザA.AとユーザB.Bとを含むチャットルーム(限定ではなく、選択さされたチャットルームの一例)に入力され、議事録データを含むチャットルームを端末20Aの表示部24(限定ではなく、端末の表示部の一例)に表示する構成を示している。
このような構成により得られる実施例の効果の一例として、端末のユーザと、第1端末のユーザとは、チャットルームに表示する音情報に基づく文字情報を共有することができる。その結果、複数のユーザが音情報に基づく文字情報を参照することが可能となり、ユーザの利便性を向上させることができる。
また、端末のユーザと、第1端末のユーザとは、音情報より一覧性に優れる文字情報を閲覧することができる。その結果、端末のユーザは必要な情報を的確に得ることが可能となり、ユーザの利便性を向上させることができる。
<Effect of the first embodiment>
In the first embodiment, the user A. A (not limited, but an example of a terminal user) and user B. Terminal 20A (an example of a terminal, not a limitation) that displays a chat room including B (an example of a user of a first terminal different from the user of the terminal, not a limitation) has voice data and information related to voice (an example of a terminal, not a limitation). (An example of sound information) is acquired by the sound input unit 25 (not limited, but an example of a terminal acquisition unit). Then, the minutes data (not limited, but an example of character information) based on the acquired voice data is used by the selected user A. A and user B. The chat room that is input to the chat room including B (an example of the selected chat room, not limited) and contains the minutes data is displayed on the display unit 24 of the terminal 20A (an example of the display unit of the terminal, not limited). Shows the configuration to be displayed in.
As an example of the effect of the embodiment obtained by such a configuration, the user of the terminal and the user of the first terminal can share character information based on the sound information displayed in the chat room. As a result, a plurality of users can refer to the character information based on the sound information, and the convenience of the user can be improved.
Further, the user of the terminal and the user of the first terminal can browse the character information which is more excellent in the list than the sound information. As a result, the user of the terminal can accurately obtain the necessary information, and the convenience of the user can be improved.

<第1変形例(1)>
第1実施例では、上記の(2)の手法を適用し、音声データに基づいて、端末20で議事録データ変換処理を実行し、議事録データを作成することとしたが、これに限定されない。
限定ではなく例として、上記の(1)の手法を適用するようにすることもできる。
<First modification (1)>
In the first embodiment, the method (2) above is applied, and the minutes data conversion process is executed on the terminal 20 based on the voice data to create the minutes data, but the present invention is not limited to this. ..
As an example, not a limitation, the method (1) above may be applied.

この場合、限定ではなく例として、端末20の制御部21は、図1−2のA100のステップを実行すると、取得した音声データを通信I/F22によってサーバ10へ送信する。
すると、サーバ10の制御部11は、受信した音声データに基づいて、議事録データ変換処理を実行する。そして、サーバ10の制御部11は、生成された議事録データを通信I/F14によって端末20に送信する。
In this case, as an example, not limited to, when the control unit 21 of the terminal 20 executes the step A100 of FIG. 1-2, the acquired voice data is transmitted to the server 10 by the communication I / F 22.
Then, the control unit 11 of the server 10 executes the minutes data conversion process based on the received voice data. Then, the control unit 11 of the server 10 transmits the generated minutes data to the terminal 20 by the communication I / F14.

このような構成により得られる変形例の効果の一例として、計算コストが大きい音声認識処理等を含む議事録データ変換処理を、端末の制御部に比べて熱設計電力等の制約が小さいサーバの制御部で実行させることができる。これにより、処理の高速化を実現することができる。また、端末におけるバッテリーの消耗を防ぐことができる。 As an example of the effect of the modified example obtained by such a configuration, the minutes data conversion process including the voice recognition process, which has a high calculation cost, is controlled by the server, which has less restrictions such as thermal design power than the control unit of the terminal. It can be executed in the department. As a result, the processing speed can be increased. In addition, it is possible to prevent the battery in the terminal from being consumed.

<第1変形例(2)>
第1実施例では、議事録データをチャットルームに追加(入力)することが端末20によって実行されていたが、これに限定されない。限定ではなく例として、サーバ10でチャットルームに追加してもよいし、そうしなくてもよい。
<First modification (2)>
In the first embodiment, adding (inputting) the minutes data to the chat room is executed by the terminal 20, but the present invention is not limited to this. As an example, but not a limitation, the server 10 may or may not be added to the chat room.

この場合、限定ではなく例として、端末20の制御部21は、図1−2のA120のステップを実行すると、議事録データを通信I/F22によってサーバ10に送信する。また、端末20の制御部21は、限定ではなく例として、ユーザの入出力部23に対する入力に基づいて、議事録データを追加するチャットルームを指定するための議事録投稿先選択情報を取得する。そして、端末20の制御部21は、議事録投稿先選択情報を通信I/F22によってサーバ10へ送信する。 In this case, as an example, not limited to, when the control unit 21 of the terminal 20 executes the step A120 of FIG. 1-2, the minutes data is transmitted to the server 10 by the communication I / F22. Further, the control unit 21 of the terminal 20 acquires the minutes posting destination selection information for designating the chat room to which the minutes data is added based on the input to the input / output unit 23 of the user, as an example, not limited to. .. Then, the control unit 21 of the terminal 20 transmits the minutes posting destination selection information to the server 10 by the communication I / F 22.

すると、サーバ10の制御部11は、受信した議事録データと議事録投稿先選択情報とに基づいて、議事録データをチャットルームに追加(入力)する。そして、サーバ10の制御部11は、議事録データが入力されたチャットルームのコンテンツを通信I/F14によって端末20に送信する。その後、端末20は、図1−2のA180のステップを実行する。 Then, the control unit 11 of the server 10 adds (inputs) the minutes data to the chat room based on the received minutes data and the minutes posting destination selection information. Then, the control unit 11 of the server 10 transmits the contents of the chat room in which the minutes data is input to the terminal 20 by the communication I / F14. After that, the terminal 20 executes the step A180 of FIG. 1-2.

なお、第1変形例(1)で説明したようにサーバ10で議事録データを生成する場合、端末20はサーバ10に議事録投稿先選択情報のみを送信すればよい。 When the minutes data is generated by the server 10 as described in the first modification (1), the terminal 20 need only transmit the minutes posting destination selection information to the server 10.

本変形例は、チャットルームは、端末のユーザによる入力(議事録投稿先選択情報)に基づいて選択される構成を示している。
このような構成により得られる変形例の効果の一例として、ユーザが任意のチャットルームを文字情報の入力先として指定できる。これにより、ユーザの利便性を向上させることができる。
In this modification, the chat room is selected based on the input (minutes posting destination selection information) by the user of the terminal.
As an example of the effect of the modified example obtained by such a configuration, the user can specify an arbitrary chat room as an input destination of character information. Thereby, the convenience of the user can be improved.

<第2実施例>
第2実施例は、上記の(A)のタイミングに関する(1)の手法による実施例である。
第2実施例では、議事録サービスにおいて、端末20の制御部21は、端末20の記憶部28に記憶された音声データをサーバ10に送信する。サーバ10の制御部11は、受信した音声データに基づいて議事録データを作成すると、議事録データを端末20に送信する。
以下では、第2実施例による方法を「バッチ追加モード」と呼称する。
第2実施例に記載の内容は、他の各実施例や他の各変形例のいずれにも適用可能である。
<Second Example>
The second embodiment is an example according to the method (1) relating to the timing of (A) above.
In the second embodiment, in the minutes service, the control unit 21 of the terminal 20 transmits the voice data stored in the storage unit 28 of the terminal 20 to the server 10. When the control unit 11 of the server 10 creates the minutes data based on the received voice data, the control unit 11 transmits the minutes data to the terminal 20.
Hereinafter, the method according to the second embodiment will be referred to as a "batch addition mode".
The contents described in the second embodiment can be applied to any of the other embodiments and the other modifications.

<データ構成>
(1)サーバ
図2−1は、本実施例においてサーバ10の記憶部15に記憶される情報の一例を示す図である。
記憶部15には、限定ではなく例として、制御部11によって読み出され、メッセージングアプリケーション管理処理として実行されるMS管理処理プログラム151と、制御部11によって読み出され、音声データ認識処理として実行される音声認識プログラム153と、MSユーザ登録データ155と、グループ管理データベース157と、カレンダー情報管理データベース159とが記憶される。
<Data structure>
(1) Server FIG. 2-1 is a diagram showing an example of information stored in the storage unit 15 of the server 10 in this embodiment.
The storage unit 15 is not limited, but as an example, the MS management processing program 151 which is read by the control unit 11 and executed as the messaging application management process, and is read by the control unit 11 and executed as the voice data recognition process. The voice recognition program 153, the MS user registration data 155, the group management database 157, and the calendar information management database 159 are stored.

MSユーザ登録データ155は、メッセージングアプリケーションを利用する端末20、またはその端末20のユーザに関する登録データであり、そのデータ構成の一例を図2−2に示す。
MSユーザ登録データ155には、限定ではなく例として、ユーザ名と、MSアプリケーションIDと、端末電話番号と、その他登録情報とが関連付けて記憶される。
The MS user registration data 155 is registration data relating to the terminal 20 that uses the messaging application or the user of the terminal 20, and an example of the data structure is shown in FIG. 2-2.
In the MS user registration data 155, as an example, the user name, the MS application ID, the terminal telephone number, and other registration information are stored in association with each other.

ユーザ名は、メッセージングアプリケーションを利用する端末20のユーザの名称であり、限定ではなく例として、端末20のユーザがメッセージングアプリケーションを利用する際に登録する名称が記憶される。 The user name is the name of the user of the terminal 20 who uses the messaging application, and the name registered when the user of the terminal 20 uses the messaging application is stored as an example without limitation.

MSアプリケーションIDは、メッセージングアプリケーションのアカウントを識別するために用いられる情報、またはアカウントそのものである。このMSアプリケーションIDは、好ましくはアカウントごとに一意な値であり、限定ではなく例として、サーバ10によってアカウントごとに一意な値(固有の値)が設定されて記憶される。MSアプリケーションIDは、端末20、またはその端末20のユーザに関連付けられた情報であり、端末に関する情報、または端末のユーザに関する情報の一例である。 The MS application ID is the information used to identify the account of the messaging application, or the account itself. This MS application ID is preferably a unique value for each account, and is not limited, but as an example, a unique value (unique value) for each account is set and stored by the server 10. The MS application ID is information associated with the terminal 20 or the user of the terminal 20, and is an example of information about the terminal or information about the user of the terminal.

端末電話番号は、このユーザ名のユーザの端末20の電話番号であり、限定ではなく例として、端末20のユーザがメッセージングアプリケーションを利用する際に登録する端末20の電話番号が記憶される。 The terminal telephone number is the telephone number of the terminal 20 of the user with this user name, and the telephone number of the terminal 20 registered when the user of the terminal 20 uses the messaging application is stored as an example without limitation.

その他登録情報には、限定ではなく例として、端末20のID:端末ID(限定ではなく例として、IMEI(International Mobile Equipment Identity))、このユーザ名のユーザの端末20のメールアドレス(端末メールアドレス)、メッセージングアプリケーションにおける各種の認証に利用されるパスワード(ログインパスワード、認証パスワードを)等の認証情報等の情報を含めるようにすることができる。 Other registration information includes, as an example, not a limitation, the ID of the terminal 20: the terminal ID (IMEI (International Mobile Equipment Identity), as an example, not the limitation), and the email address (terminal email address) of the terminal 20 of the user with this user name. ), Information such as authentication information such as passwords (login password, authentication password) used for various authentications in messaging applications can be included.

なお、端末20を識別するための識別情報は、限定ではなく例として、端末IDとすることができる。
また、端末20のユーザを識別するための識別情報は、限定ではなく例として、MSアプリケーションIDとすることができる。なお、これを「ユーザID」としてもよいし、しなくてもよい。
The identification information for identifying the terminal 20 is not limited, but may be a terminal ID as an example.
Further, the identification information for identifying the user of the terminal 20 is not limited, but may be an MS application ID as an example. It should be noted that this may or may not be a "user ID".

また、1つの端末20につき1つのアカウントしか登録することのできないアプリケーションであれば、限定ではなく例として、「端末20を識別するための識別情報=端末20のユーザを識別するための識別情報=MSアプリケーションID」とすることができる。 Further, in the case of an application in which only one account can be registered for one terminal 20, the application is not limited, and as an example, "identification information for identifying the terminal 20 = identification information for identifying the user of the terminal 20 =" It can be "MS application ID".

なお、限定ではなく例として、1つのユーザIDに、複数の端末IDを割り当てることを可能としてもよいし、そのようにしなくてもよい。 As an example, not limited to this, it may or may not be possible to assign a plurality of terminal IDs to one user ID.

グループ管理データベース157は、メッセージングサービスにおいて、ユーザによって作成されるグループに関する情報を管理するためのデータを蓄積的に記憶したデータベースであり、そのデータ構成の一例を図2−3に示す。 The group management database 157 is a database that stores data for managing information about a group created by a user in a messaging service, and an example of the data structure is shown in FIG. 2-3.

グループ管理データベース157には、グループごとの管理データとして、グループ管理データが記憶される。
各々のグループ管理データには、限定ではなく例として、グループIDと、グループ名と、グループメンバーデータとが記憶される。
Group management data is stored in the group management database 157 as management data for each group.
The group ID, the group name, and the group member data are stored in each group management data as an example without limitation.

グループIDは、グループを識別するための識別情報として機能するIDである。このグループIDは、限定ではなく例として、サーバ10によってグループごとに固有のIDが設定されて記憶される。 The group ID is an ID that functions as identification information for identifying the group. This group ID is not limited, but as an example, a unique ID is set and stored for each group by the server 10.

グループ名は、そのグループIDによって識別されるグループの名称である。 The group name is the name of the group identified by the group ID.

グループメンバーデータは、そのグループに属するメンバー(ユーザ)に関するデータであり、限定ではなく例として、そのグループに属するメンバーの情報であるMSアプリケーションIDとユーザ名とが関連付けて記憶される。 The group member data is data related to a member (user) belonging to the group, and is not limited but is stored as an example in which the MS application ID, which is the information of the member belonging to the group, and the user name are associated with each other.

カレンダー情報管理データベース159は、メッセージングアプリケーションと連携して機能するスケジュール管理アプリケーションに関する情報の管理用のデータベースである。本実施例において、スケジュール管理アプリケーションサービスは、限定ではなく例として、メッセージングアプリケーションのサーバ10と同じサーバで提供されることとして説明する。 The calendar information management database 159 is a database for managing information about a schedule management application that functions in cooperation with the messaging application. In the present embodiment, the schedule management application service will be described as being provided on the same server as the server 10 of the messaging application as an example without limitation.

なお、スケジュール管理アプリケーションサービスは、サーバ10とは異なるサーバで提供されることとしてもよいし、そうしなくてもよい。
また、メッセージングアプリケーションにおける機能の一つとしてスケジュール管理機能を有することとしてもよい。
なお、カレンダー情報管理データベース159を、本実施例の構成から除外してもよい。
The schedule management application service may or may not be provided by a server different from the server 10.
Further, it may have a schedule management function as one of the functions in the messaging application.
The calendar information management database 159 may be excluded from the configuration of this embodiment.

本実施例におけるカレンダー情報管理データベース159の一例であるカレンダー情報管理データベース159Aのデータ構成例を図2−4に示す。
カレンダー情報管理データベース159Aには、スケジュール管理アプリケーションのカレンダーに登録されるイベントごとの管理データとして、カレンダー情報管理データが記憶される。
Figure 2-4 shows an example of the data configuration of the calendar information management database 159A, which is an example of the calendar information management database 159 in this embodiment.
The calendar information management database 159A stores calendar information management data as management data for each event registered in the calendar of the schedule management application.

各々のカレンダー情報管理データには、限定ではなく例として、イベントIDと、MSアプリケーションIDと、イベント名と、イベント開始日時と、イベント終了日時と、イベント開催場所と、関連URIと、招待者データとが記憶される。 Each calendar information management data is not limited, but as an example, event ID, MS application ID, event name, event start date and time, event end date and time, event venue, related URI, and invitee data. Is remembered.

イベントIDは、イベントを識別するための識別情報として機能するIDである。このイベントIDは、限定ではなく例として、サーバ10によってイベントごとに固有のIDが設定されて記憶される。 The event ID is an ID that functions as identification information for identifying an event. This event ID is not limited, but as an example, a unique ID is set and stored for each event by the server 10.

MSアプリケーションIDは、そのイベントの登録者を識別するための識別情報として機能するIDである。このMSアプリケーションIDには、限定ではなく例として、メッセージングアプリケーションの識別情報が用いられる。 The MS application ID is an ID that functions as identification information for identifying the registrant of the event. The MS application ID is not limited to, but as an example, the identification information of the messaging application is used.

イベント名は、そのイベントIDによって識別されるイベントの名称である。 The event name is the name of the event identified by the event ID.

イベント開始日時は、そのイベントIDによって識別されるイベントが開始される予定の日時である。 The event start date and time is the date and time when the event identified by the event ID is scheduled to start.

イベント終了日時は、そのイベントIDによって識別されるイベントが終了する予定の日時である。 The event end date and time is the date and time when the event identified by the event ID is scheduled to end.

イベント開催場所は、そのイベントIDによって識別されるイベントが執り行われる予定の開催場所の名称である。
なお、イベント開催場所は、開催場所の名称とともに、限定ではなく例として、緯度と経度とで識別可能な位置情報を付加して記憶されるようにしてもよいし、そうしなくてもよい。
The event venue is the name of the venue where the event identified by the event ID will be held.
The event venue may or may not be stored by adding location information that can be identified by latitude and longitude as an example, not limited to the name of the venue.

関連URI(Uniform Resource Identifier)は、そのイベントIDによって識別されるイベントに関する資料などの情報が保存されている、限定ではなく例として、インターネット経由でアクセス可能なリソース(ファイル)を識別するための情報である。 A related URI (Uniform Resource Identifier) is information for identifying a resource (file) accessible via the Internet, as an example, not limited, in which information such as materials related to the event identified by the event ID is stored. Is.

招待者データには、そのイベントIDによって識別されるイベントに招待されるユーザの情報として、限定ではなく例として、MSアプリケーションIDと、ユーザ名とが関連付けて記憶される。限定ではなく例として、イベント登録者のスケジュール管理アプリケーションに対する操作入力に基づいて、招待者データには、そのイベントに招待されるユーザ情報(MSアプリケーションID・ユーザ名)が追加され記憶される。すると、招待者データに登録されたユーザに対して、このカレンダー情報管理データが共有される。 In the invitee data, as information of the user invited to the event identified by the event ID, the MS application ID and the user name are stored in association with each other as an example, not limited to the information. As an example, not limited to, user information (MS application ID / user name) invited to the event is added and stored in the invitee data based on the operation input to the schedule management application of the event registrant. Then, this calendar information management data is shared with the users registered in the invitee data.

なお、そのイベントにあるグループに属するメンバーが一括して招待される場合、招待者データには、グループIDとグループ名とを関連付けて記憶されるようにしてもよいし、そうしなくてもよい。 When all the members belonging to the group in the event are invited in a batch, the group ID and the group name may or may not be stored in the invitee data in association with each other. ..

(2)端末
図2−5は、本実施例において端末20の記憶部28に記憶される情報の一例を示す図である。
記憶部28には、限定ではなく例として、制御部21によって読み出され、メッセージングアプリケーション処理として実行されるMS処理プログラム281と、MSアプリケーションID283と、音声データベース285とが記憶される。
(2) Terminal FIG. 2-5 is a diagram showing an example of information stored in the storage unit 28 of the terminal 20 in this embodiment.
The storage unit 28 stores, as an example, not limited to, an MS processing program 281 read by the control unit 21 and executed as a messaging application process, an MS application ID 283, and a voice database 285.

MSアプリケーションID283は、自己の端末20または自己の端末20のユーザに関連付けられたMSアプリケーションIDである。 The MS application ID 283 is an MS application ID associated with the user of the own terminal 20 or the own terminal 20.

音声データベース285は、限定ではなく例として、端末20の音入力部25によって取得される音声データを保存するデータベースである。 The voice database 285 is, but not limited to, a database that stores voice data acquired by the sound input unit 25 of the terminal 20 as an example.

なお、音声データベース285に保存されるデータに、限定ではなく例として、端末20の撮像部27で撮像される映像データを含めるようにしてもよいし、含めなくてもよい。 The data stored in the audio database 285 may or may not include the video data captured by the imaging unit 27 of the terminal 20 as an example without limitation.

また、音声データベース285に保存されるデータは、端末20で取得されるものに限定されない。限定ではなく例として、端末20とは異なる端末もしくは電子装置(限定ではなく例として、テレビ会議装置)で取得された音声(映像)データを、端末20で受信したデータであってもよいし、そうしなくてもよい。 Further, the data stored in the voice database 285 is not limited to the data acquired by the terminal 20. As an example, not limited, audio (video) data acquired by a terminal or an electronic device (not limited, as an example, a video conference device) different from the terminal 20 may be data received by the terminal 20. You don't have to.

<表示画面>
以下では、限定ではなく例として、端末20が、縦長のディスプレイの表示部24を備えるスマートフォンである場合を例示する。
<Display screen>
In the following, the case where the terminal 20 is a smartphone including the display unit 24 of a vertically long display will be illustrated as an example, not a limitation.

スマートフォンには、限定ではなく例として、入力部として機能するタッチパネルが、そのディスプレイと対向して配置され、これによってタッチスクリーンが構成される。アイコン、ボタン、アイテムまたは入力領域などの要素がディスプレイに表示された場合において、タッチパネルの一部の領域であって、その要素が表示された領域と対向する領域がユーザによって操作された場合、その要素と関連付けられたプログラムまたはそのプログラムのサブルーチンが実行される。 As an example, not limited to a smartphone, a touch panel that functions as an input unit is arranged to face the display, thereby forming a touch screen. When an element such as an icon, button, item, or input area is displayed on the display, when the user operates a part of the touch panel area facing the area where the element is displayed, the area is the same. The program associated with the element or the subroutine of that program is executed.

以下では、ユーザによる操作を、限定ではなく例として、タップ(タップ操作)として説明する。
タップ(タップ操作)とは、限定ではなく例として、ユーザが、タッチパネルが一体的に構成された表示部24(タッチスクリーン)を指やペン先などで軽く叩くように触れる動作、触れてから離す動作である。
In the following, the operation by the user will be described as a tap (tap operation) as an example without limitation.
Tap (tap operation) is not limited to, but as an example, the user touches the display unit 24 (touch screen), which is integrally composed of a touch panel, with a finger or a pen tip, and then releases the touch panel. It is an operation.

なお、以下説明する表示画面の遷移は、本開示の手法を実現するための表示画面の遷移の一例に過ぎない。以下に例示する表示画面の遷移について、一部の表示画面の表示を省略してもよいし、別の表示画面を追加してもよい。 The transition of the display screen described below is only an example of the transition of the display screen for realizing the method of the present disclosure. Regarding the transition of the display screens illustrated below, the display of some display screens may be omitted, or another display screen may be added.

図2−6は、本実施例において端末20の表示部24に表示されるメッセージングアプリケーションのホーム画面の一例を示す図である。この表示画面は、ユーザA.Aの端末20である端末20Aの表示部24に表示される画面の一例である。
画面最上部中央には、メッセージングアプリケーションの名称として「Messaging App」の文字が表示されている。また、画面最上部右には、この端末20のユーザのメッセージングアプリケーションにおけるアイコン画像およびユーザ名(この例ではユーザA.A)が表示されている。
FIG. 2-6 is a diagram showing an example of a home screen of a messaging application displayed on the display unit 24 of the terminal 20 in this embodiment. This display screen is displayed by the user A. This is an example of a screen displayed on the display unit 24 of the terminal 20A, which is the terminal 20 of the A.
In the center of the top of the screen, the characters "Messageing App" are displayed as the name of the messaging application. Further, on the upper right side of the screen, an icon image and a user name (user AA in this example) of the user of the terminal 20 in the messaging application are displayed.

また、その下には、メッセージングアプリケーションにおける現在位置を示す現在位置表示領域が構成されており、この例では、現在位置がメッセージングアプリケーションのホームであることを示す「ホーム」の文字が、現在位置表示領域内に表示されている。 Below that, a current position display area indicating the current position in the messaging application is configured. In this example, the character "home" indicating that the current position is the home of the messaging application displays the current position. It is displayed in the area.

現在位置表示領域の下には、メッセージングアプリケーション内の任意の機能を検索するための入力領域であるメッセージングアプリケーション機能検索領域が構成されており、この例では、検索キーワードを入力することを促す「検索」の文字が、メッセージングアプリケーション機能検索領域内に表示されている。 Below the current position display area, a messaging application function search area, which is an input area for searching for any function in the messaging application, is configured. In this example, a "search" prompting the user to enter a search keyword is configured. Is displayed in the messaging application function search area.

メッセージングアプリケーション機能検索領域の下には、この端末20のユーザのメッセージングアプリケーションにおけるアイコン画像およびユーザ名が表示され、その下に、メッセージングアプリケーションの各種の機能に対応する複数の機能アイコンが表示されている。機能アイコンには、限定ではなく例として、「友だち」、「事業者」、「サービス」といった、複数の機能の各々に対応するアイコンが含まれる。 Below the messaging application function search area, icon images and user names of the user of the terminal 20 in the messaging application are displayed, and below that, a plurality of function icons corresponding to various functions of the messaging application are displayed. .. Function icons include, but are not limited to, icons corresponding to each of a plurality of functions, such as "friend", "business operator", and "service".

「友だち」とは、メッセージングアプリケーションの機能の1つであり、一の端末20のユーザ(一のアカウント)が、自己の端末20から、他の端末20のユーザ(他のアカウント)を友だちとして追加するための処理を行い、サーバ10によって友だちを追加・登録する処理(友だち追加処理、友だち登録処理)が実行されることで、サーバ10を介して、友だち登録された端末20間でメッセージの送受信等を行うことが可能となる。個人のユーザが所有するメッセージングアプリケーションのアカウントのことを「一般アカウント」と称する。一般アカウントを所有するユーザの端末20間で送受信されたメッセージの履歴は、端末20の表示部24にトークルーム等として表示される。 "Friend" is one of the functions of the messaging application, and a user of one terminal 20 (one account) adds a user of another terminal 20 (another account) as a friend from his / her own terminal 20. By executing the process for adding / registering friends (friend addition process, friend registration process) by the server 10, messages are sent and received between the terminals registered as friends via the server 10. Etc. can be performed. An account of a messaging application owned by an individual user is called a "general account". The history of messages sent and received between the terminals 20 of the user who owns the general account is displayed as a talk room or the like on the display unit 24 of the terminal 20.

「事業者」とは、限定ではなく例として、上記の友だちの機能の一種であり、一般アカウントではなく、事業者のユーザが所有するメッセージングアプリケーションのアカウント(以下、「公式アカウント」と称する。)を友だちとして登録することで、公式アカウントを所有する事業者から発信されるメッセージを、サーバ10を介して端末20で受信して表示することが可能となる。 The "business operator" is not a limitation but an example, which is a kind of the above-mentioned friend's function, and is not a general account but an account of a messaging application owned by a user of the business operator (hereinafter referred to as "official account"). By registering as a friend, it is possible to receive and display a message sent from a business operator having an official account on the terminal 20 via the server 10.

なお、公式アカウントを所有する事業者の装置や端末も、一般アカウントを所有する個人のユーザの端末20と同様に、サーバ10を介して、他の装置との間でメッセージの送受信を行うことを可能とすることができる。限定ではなく例として、一の端末20から他の端末20にメッセージが送信される場合と同様に、一般アカウントを所有するユーザの端末20から公式アカウントを所有する事業者の装置や端末宛に送信されたメッセージも、サーバ10を介して、事業者の装置や端末に届けられる。そして、そのメッセージの履歴が、事業者の装置や端末の表示部(不図示)にトークルーム等として表示されるようにすることができる。 It should be noted that the devices and terminals of the business operator who owns the official account can also send and receive messages to and from other devices via the server 10 in the same manner as the terminals 20 of the individual users who own the general account. It can be possible. As an example, not a limitation, a message is sent from the terminal 20 of a user who owns a general account to the device or terminal of a business operator who owns an official account, as in the case where a message is sent from one terminal 20 to another terminal 20. The message is also delivered to the device or terminal of the business operator via the server 10. Then, the history of the message can be displayed as a talk room or the like on the display unit (not shown) of the device or terminal of the business operator.

図2−6では、複数の機能アイコンのうち、「サービス」の機能アイコンがタップされた状態が示されている。そして、機能アイコンの表示領域の下には、おすすめのサービスを示すアイコンが表示されており、この中には、議事録サービスを利用するためのアイコンが含まれる。この議事録サービスを利用するためのアイコンがタップされると、限定ではなく例として、表示中のホーム画面に、限定ではなく例として、図2−7に示す議事録データの作成に用いられる音声データベース285に保存されているデータの一覧を表示するための音声データ一覧情報表示領域WR1が表示される。音声データ一覧情報表示領域WR1に表示されているデータは、チャットルーム(限定ではなく例として、トークルーム)が選択される前に、会議や会合にあわせて、限定ではなく例として、音入力部25によって予め取得(録音)されたデータである。 FIG. 2-6 shows a state in which the function icon of "service" is tapped among the plurality of function icons. Then, an icon indicating a recommended service is displayed below the display area of the function icon, and the icon for using the minutes service is included in this icon. When the icon for using this minutes service is tapped, the audio used to create the minutes data shown in FIG. 2-7 is displayed on the displayed home screen as an example, not as a limitation. The audio data list information display area WR1 for displaying the list of data stored in the database 285 is displayed. The data displayed in the voice data list information display area WR1 is the sound input unit as an example, not a limitation, according to a meeting or a meeting before the chat room (a talk room as an example, not a limitation) is selected. It is the data acquired (recorded) in advance by 25.

この例では、音声データ一覧情報表示領域WR1には、音声データを識別するためのファイル名(限定ではなく例として「voice20200214」)と、音声データが作成された日時(限定ではなく例として「2020.02.14 10:54」)と、音声データの長さを表す時間(限定ではなく例として「1:07:35」)とが、行ごとにまとまって表示されている。また、この行の右端には、ユーザによってタップされることで記録されている音声データを音出力部26によって出力し記録内容を確認するための、スピーカーマークで表される音声データ確認機能アイコンが表示されている。 In this example, in the voice data list information display area WR1, a file name for identifying the voice data (not limited but as an example "voice2020214") and a date and time when the voice data was created (not limited but as an example "2020"). .02.14 10:54 ") and the time indicating the length of the voice data (" 1:07:35 "as an example, not a limitation) are displayed together for each line. In addition, at the right end of this line, there is a voice data confirmation function icon represented by a speaker mark for outputting the voice data recorded by being tapped by the user by the sound output unit 26 and checking the recorded contents. It is displayed.

なお、音声データベース285に保存されるデータは、音声データに限定されない。限定ではなく例として、音声データを含む映像データが保存されるようにしてもよいし、しなくてもよい。
この場合、限定ではなく例として、音声データ確認機能アイコンは、映像を表示部24に出力しプレビューするための、限定ではなく例として、右三角のマーク等で表される映像データ確認機能アイコンとすることができる。
The data stored in the voice database 285 is not limited to voice data. As an example, not limited to, video data including audio data may or may not be stored.
In this case, as an example, not limited, the audio data confirmation function icon is a video data confirmation function icon represented by a right triangle mark or the like, as an example, not limited, for outputting and previewing the video to the display unit 24. can do.

ユーザによって議事録サービスで議事録データを作成する音声データ(この例では、2行目の「voice20200228」)を示す行がタップされると、限定ではなく例として、図2−8に示すように、この音声データから生成する議事録データを識別するための名称の入力を促す、議事録タイトル入力領域WR2が表示される。 When the user taps the line indicating the audio data (in this example, the second line "voice20200228") that creates the minutes data in the minutes service, it is not limited, but as an example, as shown in FIG. 2-8. , The minutes title input area WR2 is displayed, which prompts the input of a name for identifying the minutes data generated from this audio data.

なお、限定ではなく例として、図2−7において、音声データ一覧情報表示領域WR1の複数の音声データを示す行がユーザによって選択され(限定ではなく例としてタップされ)、続いて不図示の音声データ選択決定ボタンがタップされるなどすることで、複数の音声データから1つの議事録データを作成するようにしてもよいし、そうしなくてもよい。 As an example, not a limitation, in FIG. 2-7, a line indicating a plurality of voice data in the voice data list information display area WR1 is selected by the user (tapped as an example, not a limitation), followed by a voice (not shown). One minute data may or may not be created from a plurality of voice data by tapping the data selection decision button or the like.

図2−8の例では、ユーザ操作に基づいて、限定ではなく例として、議事録タイトル入力領域WR2に、議事録タイトル「プロジェクトX2月会議」の文字が入力されている。
ユーザによって議事録タイトル入力領域WR2の入力内容に関して議事録データの作成を開始するための機能ボタンである「保存」の文字の機能ボタンがタップされる。すると、端末20の制御部21は、図2−7において選択された音声データ(この例では、ファイル名「voice20200228」のデータ)を、通信I/F22によってサーバ10に送信する。
In the example of FIG. 2-8, the characters of the minutes title "project X February meeting" are input to the minutes title input area WR2 as an example, not limited to, based on the user operation.
The user taps the function button of the character "save", which is a function button for starting the creation of the minutes data regarding the input contents of the minutes title input area WR2. Then, the control unit 21 of the terminal 20 transmits the voice data selected in FIG. 2-7 (data of the file name “voice20200228” in this example) to the server 10 by the communication I / F 22.

通信I/F14によって端末20から音声データを受信すると、サーバ10の制御部11は、受信した音声データを議事録データに変換する議事録データ変換処理を実行する。そして、議事録データ変換処理の処理結果に基づいて、後述する議事録投稿候補選出処理を実行する。 When the voice data is received from the terminal 20 by the communication I / F 14, the control unit 11 of the server 10 executes the minutes data conversion process of converting the received voice data into the minutes data. Then, based on the processing result of the minutes data conversion process, the minutes submission candidate selection process described later is executed.

図2−9は、サーバ10の制御部11が議事録投稿候補選出処理を実行した後、端末20の表示部24に表示される議事録データの投稿先(共有対象)を選択する画面の一例を示す図である。図2−9では、限定ではなく例として、表示中のホーム画面に、限定ではなく例として、投稿先トークルーム選択領域WR3が表示されている。 FIG. 2-9 is an example of a screen for selecting the posting destination (sharing target) of the minutes data displayed on the display unit 24 of the terminal 20 after the control unit 11 of the server 10 executes the minutes posting candidate selection process. It is a figure which shows. In FIG. 2-9, the posting destination talk room selection area WR3 is displayed as an example, not the limitation, on the displayed home screen as an example, not the limitation.

投稿先トークルーム選択領域WR3には、議事録データの投稿先の選択をユーザに促すための、限定ではなく例として「投稿するトークルームを選択してください」という文字が表示されている。 In the posting destination talk room selection area WR3, the characters "Please select the talking room to post" are displayed as an example, not as a limitation, in order to prompt the user to select the posting destination of the minutes data.

その下には、端末20Aのユーザ(この場合、ユーザA.A)がメンバーとして属するグループ、または、端末20Aのユーザの友だちのうち、議事録投稿候補選出処理によって選出された議事録データの投稿先候補を表示する投稿先候補表示領域が表示されている。この例では、投稿先候補表示領域には、投稿先候補の数が「2」であり、その下に、投稿先候補として、グループ名「第2開発室」のグループと、グループ名「プロジェクトX」のグループとが選出されたことが表示されている。また、各グループ名の右側の括弧内には、そのグループに属するメンバーの人数が表示されている。この例では、限定ではなく例として、グループ「第2開発室」を構成するメンバーの人数は「8人」であり、グループ「プロジェクトX」を構成するメンバーの人数は「5人」である。 Below that, the posting of the minutes data selected by the minutes posting candidate selection process among the group to which the user of the terminal 20A (in this case, the user AA) belongs as a member, or the friends of the user of the terminal 20A. Displaying destination candidates The posting destination candidate display area is displayed. In this example, the number of posting destination candidates is "2" in the posting destination candidate display area, and below that, the group with the group name "Second Development Office" and the group name "Project X" are listed as posting destination candidates. It is displayed that the group of "" has been selected. In addition, the number of members belonging to the group is displayed in parentheses on the right side of each group name. In this example, as an example, not limited, the number of members constituting the group "Second Development Office" is "8", and the number of members constituting the group "Project X" is "5".

投稿先トークルーム選択領域WR3において、投稿先候補表示領域の下には、端末20Aのユーザがメンバーとして属するグループを表示する投稿先グループ表示領域が表示されている。そして、投稿先グループ表示領域の下には、端末20Aのユーザの友だちを表示する投稿先友だち表示領域が表示されている。
投稿先グループ表示領域と、投稿先友だち表示領域との表示内容については、限定ではなく例として、投稿先候補表示領域と同様であるため説明を省略する。
In the posting destination talk room selection area WR3, a posting destination group display area for displaying the group to which the user of the terminal 20A belongs as a member is displayed below the posting destination candidate display area. Then, below the posting destination group display area, a posting destination friend display area for displaying the friends of the user of the terminal 20A is displayed.
The display contents of the posting destination group display area and the posting destination friend display area are not limited, but are the same as the posting destination candidate display area, and thus the description thereof will be omitted.

なお、上記の投稿先トークルーム選択領域WR3に、投稿先候補表示領域のみを表示するようにしてもよいし、そうしなくてもよい。
また、上記の投稿先トークルーム選択領域WR3に、投稿先グループ表示領域と、投稿先友だち表示領域とを表示し、投稿先候補表示領域を表示しないようにしてもよい。また、この場合、議事録投稿候補選出処理を実行しなくてもよい。
It should be noted that the posting destination talk room selection area WR3 may or may not display only the posting destination candidate display area.
Further, the posting destination group display area and the posting destination friend display area may be displayed in the posting destination talk room selection area WR3, and the posting destination candidate display area may not be displayed. Further, in this case, it is not necessary to execute the minutes submission candidate selection process.

投稿先トークルーム選択領域WR3において、ユーザによってグループまたは友達がタップされると、そのグループまたは友だちが議事録データの投稿先(共有対象)として選択される。この例では、グループ「プロジェクトX」がユーザによって選択された状態が示されている。 When a group or friend is tapped by the user in the posting destination talk room selection area WR3, the group or friend is selected as the posting destination (sharing target) of the minutes data. In this example, the state in which the group "Project X" is selected by the user is shown.

なお、投稿先トークルーム選択領域WR3に対するユーザ操作ではなく、議事録投稿候補選出処理によって得られる最も尤もらしい投稿候補(第1議事録投稿候補)が自動的に議事録データの投稿先として選択されるようにしてもよいし、そうしなくてもよい。この場合、投稿先トークルーム選択領域WR3は表示しなくてもよい。 The most plausible posting candidate (first minutes posting candidate) obtained by the minutes posting candidate selection process is automatically selected as the posting destination of the minutes data, not the user operation for the posting destination talk room selection area WR3. It may or may not be. In this case, the posting destination talk room selection area WR3 does not have to be displayed.

その後、議事録データ変換処理によって変換(生成)された議事録データの内容を確認するための、図2−10に示すような議事録内容確認表示領域WR4が表示部24に表示される。 After that, the minutes content confirmation display area WR4 as shown in FIG. 2-10 for confirming the contents of the minutes data converted (generated) by the minutes data conversion process is displayed on the display unit 24.

議事録内容確認表示領域WR4には、限定ではなく例として、音声データに基づいて、音声データ中の会話内容を文字に変換したコンテンツ(議事録データ)が時系列に沿って表示される。 In the minutes content confirmation display area WR4, as an example, not limited to, content (minutes data) obtained by converting the conversation content in the voice data into characters is displayed in chronological order based on the voice data.

議事録内容確認表示領域WR4では、限定ではなく例として、メッセージングアプリケーションのトークルームにおけるコンテンツ表示様式に従い、右側に自端末である端末20AのユーザA.Aの発言が、左側にそれ以外のユーザの発言が、それぞれコンテンツとして吹き出しで表示される。
なお、音声データ中で発話したユーザの識別は、限定ではなく例として、議事録データ変換処理において実行されるようにすることができる。
In the minutes content confirmation display area WR4, as an example, not limited to the user A. of the terminal 20A which is the own terminal, according to the content display format in the talk room of the messaging application. The remarks of A and the remarks of other users are displayed as contents in balloons on the left side.
It should be noted that the identification of the user who has spoken in the voice data is not limited, but can be executed in the minutes data conversion process as an example.

具体的には、図2−10において、議事録内容確認表示領域WR4の上部には、議事録タイトル入力領域WR2に入力された議事録タイトルである「プロジェクトX2月会議」の文字が、議事録タイトル表示コンテンツTTL1に表示されている。議事録タイトル表示コンテンツTTL1は、音声データ中の発話内容ではないため、限定ではなく例として、議事録内容確認表示領域WR4に中央揃えで表示されている。 Specifically, in FIG. 2-10, in the upper part of the minutes content confirmation display area WR4, the characters "Project X February meeting", which is the minutes title input to the minutes title input area WR2, are displayed on the minutes. It is displayed in the title display content TTL1. Since the minutes title display content TTL1 is not the utterance content in the voice data, it is not limited but is displayed in the minutes content confirmation display area WR4 in a centered manner as an example.

議事録タイトル表示コンテンツTTL1の下には、音声データの初めでユーザA.Aが「それでは2020年2月の会議を始めます」と発話したことに基づくテキストコンテンツCT1が表示されている。テキストコンテンツCT1の左側には、このコンテンツ内容の音声をユーザA.Aが発話した音声データの先頭からの時間を示す「00:00:00」の文字が表示されている。 Under the minutes title display content TTL1, at the beginning of the audio data, the user A. The text content CT1 based on A's utterance "Then we will start the meeting in February 2020" is displayed. On the left side of the text content CT1, the voice of this content content is displayed by the user A. The characters "00:00:00" indicating the time from the beginning of the voice data spoken by A are displayed.

なお、本明細書では「テキストコンテンツ」と称して説明するが、これを、メッセージングアプリケーションにおける「メッセージ(メッセージ情報)」と称してもよい。 In this specification, the description will be referred to as "text content", but this may be referred to as "message (message information)" in the messaging application.

テキストコンテンツCT2の下には、音声データの先頭から「00:00:06」経ってユーザA.Aが「外が騒がしいですが聞こえますか」と発話したことに基づくテキストコンテンツCT2が表示されている。
なお、限定ではなく例として、テキストコンテンツCT2の文末には、発話された一文が疑問形と識別されたことを示す「?」の記号が付加されている。
Under the text content CT2, the user A. The text content CT2 based on A saying "Is it noisy outside, can you hear me?" Is displayed.
As an example, not a limitation, a "?" Symbol indicating that the spoken sentence has been identified as an interrogative form is added to the end of the sentence of the text content CT2.

テキストコンテンツCT3の下には、音声データの先頭から「00:00:16」経ってユーザB.Bが「製品リリースはいつでしたっけ」と発話したことに基づくテキストコンテンツCT3が表示されている。テキストコンテンツCT3文末の「?」の記号は、テキストコンテンツCT2と同様に、この文が疑問形であることを示す。
以下同様に、音声データ中の発話内容に基づいて、テキストコンテンツが表示されている。
Under the text content CT3, the user B. The text content CT3 based on B's utterance "When was the product released?" Is displayed. The "?" Symbol at the end of the text content CT3 sentence indicates that this sentence is questionable, as in the text content CT2.
Similarly, the text content is displayed based on the utterance content in the voice data.

テキストコンテンツCT4は、ユーザB.Bが「コンテンツ企画室に念のため確認しておきます」と発話したことに基づくテキストコンテンツである。テキストコンテンツCT4では、限定ではなく例として、端末20Aのユーザがメンバーとして属するグループ「コンテンツ企画室」に対して、「コンテンツ企画部」という発話に基づいて自動的にメッセージングアプリケーションにおけるメンション機能が働くことを示す「@コンテンツ企画部」という下線で強調される表記がなされている。 The text content CT4 is the user B. This is text content based on B saying, "I'll check with the content planning office just in case." In the text content CT4, as an example, not limited, the mention function in the messaging application automatically works for the group "content planning room" to which the user of the terminal 20A belongs as a member based on the utterance "content planning department". The underlined notation "@Content Planning Department" is used to indicate.

ここで、メンション機能とは、指定したユーザに対してメッセージ(コンテンツ)を送信するためのメッセージングアプリケーションの一機能である。
なお、メンション機能によってメッセージを受信するユーザの端末では、メッセージを受信したことを強調して示す通知が表示されるようにしてもよいし、そうしなくてもよい。
Here, the mention function is a function of a messaging application for sending a message (content) to a specified user.
Note that the terminal of the user who receives the message by the mention function may or may not display a notification emphasizing that the message has been received.

限定ではなく例として、テキストコンテンツCT4におけるメンション機能が働くと、グループ「コンテンツ企画部」に属するメンバーに対して、ユーザB.Bを送信元とする「コンテンツ企画部に念のため確認しておきます」という内容のメッセージが送信される。すなわち、コンテンツ企画部のメンバーは、ユーザB.Bから重要なメッセージを受け取ったことが容易に判別できる。 As an example, not a limitation, when the mention function in the text content CT4 is activated, the user B. A message is sent with B as the sender, saying "I will check with the Content Planning Department just in case." That is, the members of the content planning department are user B. It can be easily determined that an important message has been received from B.

テキストコンテンツCT5は、ユーザE.Eが「D.Dさんはどう思いますか」と発話したことに基づくテキストコンテンツである。テキストコンテンツCT5では、限定ではなく例として、議事録データを投稿するグループに属するメンバーであるユーザD.Dに対して、「D.D」という発話に基づいて自動的にメンション機能が働くことを示す「@D.D」という下線で強調される表記がなされている。 The text content CT5 is the user E.I. This is text content based on E's utterance, "What do you think of Mr. DD?" In the text content CT5, as an example, not limited to, the user D. who is a member belonging to the group for posting the minutes data. For D, the underlined notation "@ DD" indicates that the mention function automatically operates based on the utterance "DD".

このように、ユーザ名やグループ名が音声データ中で発話される場合、議事録データ変換処理において、発話される名称に応じて自動的にメンション機能が働くようにすることができる。 In this way, when the user name or group name is spoken in the voice data, the mention function can be automatically activated according to the spoken name in the minutes data conversion process.

ただし、メンション機能は必須ではなく、メンション機能が働かないようにしてもよい。
また、限定ではなく例として、端末20に対するユーザ操作に基づいて、音声データを取得した会議や会合に出席していないユーザやグループのみにメンション機能が働くようにしてもよいし、そうしなくてもよい。もしくは、音声データを取得した会議や会合に出席したユーザやグループのみにメンション機能が働くようにしてもよいし、そうしなくてもよい。もしくは、ユーザによって設定される特定のユーザやグループのみにメンション機能が働くようにしてもよいし、そうしなくてもよい。
However, the mention function is not essential, and the mention function may not work.
Further, as an example, not limited to, the mention function may or may not be activated only for users or groups who have not attended the conference or meeting for which voice data has been acquired, based on the user operation on the terminal 20. May be good. Alternatively, the mention function may or may not be activated only for the users or groups who attended the conference or the meeting from which the voice data was acquired. Alternatively, the mention function may or may not work only for specific users or groups set by the user.

また、メンション機能が働く対象は、ユーザ名やグループ名に限定されない。限定ではなく例として、予め規定されるキーワードが発話されると、そのキーワードに対してメンション機能が働くようにしてもよいし、そうしなくてもよい。 In addition, the target for which the mention function works is not limited to the user name and the group name. As an example, not a limitation, when a predetermined keyword is uttered, the mention function may or may not work for the keyword.

議事録内容確認表示領域WR4の最下部には、議事録内容確認表示領域WR4に表示されている内容で議事録データを確定し、投稿先として選択されたトークルームに投稿するための「投稿する」という文字を含む議事録投稿ボタンSBT1が表示されている。 At the bottom of the minutes content confirmation display area WR4, the minutes data is confirmed with the contents displayed in the minutes content confirmation display area WR4, and "Post" for posting to the talk room selected as the posting destination. The minutes posting button SBT1 including the characters "" is displayed.

図2−11は、図2−10で示した議事録内容確認表示領域WR4に表示されている議事録データを修正するための画面の一例である。
図2−11において、限定ではなく例として、ユーザによってテキストコンテンツCT2がタップされると、テキストコンテンツCT2が反転表示され、テキストコンテンツCT2の上に、テキストコンテンツCT2に関する内容を修正するためのコンテンツ編集選択メニューMBT1が表示される。
FIG. 2-11 is an example of a screen for correcting the minutes data displayed in the minutes content confirmation display area WR4 shown in FIG. 2-10.
In FIG. 2-11, as an example, not limited to, when the text content CT2 is tapped by the user, the text content CT2 is highlighted, and the content edit for correcting the content related to the text content CT2 on the text content CT2. The selection menu MBT1 is displayed.

この例において、コンテンツ編集選択メニューMBT1では、限定ではなく例として、「削除」、「行間追加」、「コメント」の3種類の編集操作が可能に構成されている。 In this example, the content edit selection menu MBT1 is configured to enable three types of editing operations, "delete", "add line spacing", and "comment", as an example, not limited.

「削除」とは、限定ではなく例として、選択されているテキストコンテンツCT2を削除する編集操作である。
「行間追加」とは、限定ではなく例として、選択されているテキストコンテンツCT2の下にテキストコンテンツ等を挿入し表示させる編集操作である。
「コメント」とは、限定ではなく例として、選択されているテキストコンテンツCT2に対してコメントを付加させる編集操作である。
The “deletion” is an editing operation for deleting the selected text content CT2 as an example, not a limitation.
The "line spacing addition" is not a limitation, but is, as an example, an editing operation of inserting and displaying a text content or the like under the selected text content CT2.
The "comment" is not a limitation but an editing operation for adding a comment to the selected text content CT2 as an example.

なお、コンテンツ編集選択メニューMBT1で選択可能な編集操作は上記の3種類に限定されない。限定ではなく例として、コメントの削除を行う編集操作や、テキストコンテンツの内容に応じた内容を参照可能なURI(Uniform Resource Identifier)を付加する編集操作等を選択可能にしてもよいし、そうしなくてもよい。 The editing operations that can be selected in the content editing selection menu MBT1 are not limited to the above three types. As an example, not limited to, it may be possible to select an editing operation for deleting a comment, an editing operation for adding a URI (Uniform Resource Identifier) that can refer to the content according to the content of the text content, and so on. It does not have to be.

図2−11では、限定ではなく例として、ユーザ操作に基づいて、テキストコンテンツCT2を削除する編集操作である「削除」ボタンがタップされた状態が示されている。 In FIG. 2-11, a state in which the "Delete" button, which is an editing operation for deleting the text content CT2, is tapped based on a user operation is shown as an example, not a limitation.

図2−12は、図2−11において、コンテンツ編集選択メニューMBT1に対して「削除」と「行間追加」の編集操作が行われた結果を示す画面の一例である。
図2−12では、テキストコンテンツCT2の代わりに、テキストコンテンツCT2の内容を削除したことが取り消し線によって示される編集済みテキストコンテンツMCT1が表示されている。また、編集済みテキストコンテンツMCT1の下には、「行間追加」操作で挿入されたテキストである「リリース予定日について話しています」の文字が編集済みテキストコンテンツMCT2に表示されている。
編集済みテキストコンテンツMCT2は、音声データ中の発話内容ではないため、限定ではなく例として、議事録内容確認表示領域WR4に中央揃えで表示されている。
FIG. 2-12 is an example of a screen showing the result of performing the editing operations of “delete” and “add line spacing” on the content edit selection menu MBT1 in FIG. 2-11.
In FIG. 2-12, instead of the text content CT2, the edited text content MCT1 indicating that the content of the text content CT2 has been deleted is displayed by a strikethrough. Further, under the edited text content MCT1, the text "Talking about the scheduled release date", which is the text inserted by the "add line spacing" operation, is displayed in the edited text content MCT2.
Since the edited text content MCT2 is not the utterance content in the voice data, it is displayed in the minutes content confirmation display area WR4 in the center as an example, not as a limitation.

なお、「行間追加」操作において、編集済みテキストコンテンツがユーザ情報を付加してテキスト入力されることでユーザの発話内容と同様の態様で表示されるようにしてもよいし、そのようにしなくてもよい。 In the "add line spacing" operation, the edited text content may or may not be displayed in the same manner as the user's utterance content by adding user information and inputting the text. May be good.

図2−12において、限定ではなく例として、ユーザによって議事録投稿ボタンSBT1がタップされると、タップされる時点で議事録内容確認表示領域WR4に表示されている議事録データが、投稿先として選択されたトークルーム(この例では、グループ「プロジェクトX」のトークルーム)に投稿される。 In FIG. 2-12, as an example, not limited to, when the minutes posting button SBT1 is tapped by the user, the minutes data displayed in the minutes content confirmation display area WR4 at the time of tapping is used as the posting destination. It will be posted to the selected talk room (in this example, the talk room of the group "Project X").

図2−13は、ユーザA.Aが議事録投稿ボタンSBT1をタップし、グループ「プロジェクトX」に議事録データを投稿した後、ユーザB.Bの端末20である端末20Bの表示部24に表示されるメッセージングアプリケーションのトークルームの画面の一例を示す図である。 FIG. 2-13 shows User A. After A taps the minutes posting button SBT1 and posts the minutes data to the group "Project X", the user B. It is a figure which shows an example of the screen of the talk room of the messaging application displayed on the display part 24 of the terminal 20B which is the terminal 20 of B.

メッセージングアプリケーションにおける現在位置を示す現在位置表示領域には、現在位置がグループ「プロジェクトX」のトークルームであることを示す文字が表示されている。
現在位置表示領域の下には、このトークルームに送信(投稿)されるコンテンツ(メッセージ)を表示するためのコンテンツ表示領域TR1が表示されている。
また、コンテンツ表示領域TR1の下には、このトークルームに送信するコンテンツを入力・選択するためのコンテンツ入力領域が表示されている。
In the current position display area indicating the current position in the messaging application, characters indicating that the current position is the talk room of the group "Project X" are displayed.
Below the current position display area, the content display area TR1 for displaying the content (message) transmitted (posted) to the talk room is displayed.
Further, below the content display area TR1, a content input area for inputting / selecting the content to be transmitted to the talk room is displayed.

図2−13では、コンテンツ表示領域TR1には、限定ではなく例として、ユーザA.Aが送信した「先ほどの会議の議事録です」という文字のテキストコンテンツの下に、図2−12の操作で投稿された議事録データに基づいて、議事録データ概要コンテンツPRC1が表示されている。すなわち、図2−6〜図2−12で示す各操作は、ユーザA.Aがグループ「プロジェクトX」のトークルームに「先ほどの会議の議事録です」という文字のテキストコンテンツを送信した後に実行されたことを表している。 In FIG. 2-13, the content display area TR1 is not limited to the user A. Under the text content of the characters "The minutes of the previous meeting" sent by A, the minutes data summary content PRC1 is displayed based on the minutes data posted by the operation of Fig. 2-12. .. That is, each operation shown in FIGS. 2-6 to 2-12 is performed by the user A. It shows that A was executed after sending the text content of the words "The minutes of the previous meeting" to the talk room of the group "Project X".

議事録データ概要コンテンツPRC1には、限定ではなく例として、議事録タイトル入力領域WR2に入力された議事録タイトルである「プロジェクトX2月会議」の文字と、議事録データが最後に修正された日時を示す「最終修正 2020/02/28/16:30」の文字とが表示されている。また、議事録データ概要コンテンツPRC1の右下には、議事録データがこのトークルームに送信(投稿)された時刻が表示されている。 Minutes data summary content PRC1 is not limited, but as an example, the characters of the minutes title "Project X February meeting" entered in the minutes title input area WR2 and the date and time when the minutes data was last modified. The characters "Final correction 2020/02/28/16: 30" are displayed. In addition, the time when the minutes data was transmitted (posted) to this talk room is displayed at the lower right of the minutes data summary content PRC1.

議事録データ概要コンテンツPRC1の下には、限定ではなく例として、ユーザE.Eが送信した「訂正があったので直しておきます」という文字のテキストコンテンツが表示されている。また、その下には、ユーザB.Bが送信した「議事録ありがとう。確認しておきます。」という文字のテキストコンテンツが表示されている。
なお、コンテンツ表示領域TR1において、各テキストコンテンツの側方には、そのメッセージがこのトークルームに送信された時刻が表示されている。
Minutes Data Summary Under Content PRC1, as an example, not a limitation, User E.I. The text content of the characters "There was a correction, so I'll fix it" sent by E is displayed. Below that, user B. The text content of the characters "Thank you for the minutes. I will confirm it." Sent by B is displayed.
In the content display area TR1, the time when the message is transmitted to this talk room is displayed on the side of each text content.

コンテンツ表示領域TR1において、限定ではなく例として、ユーザによって議事録データ概要コンテンツPRC1がタップされる。すると、議事録データ概要コンテンツPRC1は、限定ではなく例として、下方に伸長され、議事録内容確認表示領域WR4の表示様態に従い、議事録データの内容が表示される。このような構成としているのは、トークルーム表示が議事録データで埋まり、トークルームの閲覧性が下がることを防ぐためである。 In the content display area TR1, the minutes data summary content PRC1 is tapped by the user as an example, not limited to. Then, the minutes data summary content PRC1 is not limited, but is extended downward as an example, and the contents of the minutes data are displayed according to the display mode of the minutes content confirmation display area WR4. This configuration is to prevent the talk room display from being filled with minutes data and reducing the readability of the talk room.

図2−14は、ユーザB.Bによって議事録データ概要コンテンツPRC1がタップされた後の表示画面の一例である。
図2−14において、コンテンツ表示領域TR1には、限定ではなく例として、議事録データ概要コンテンツPRC1の位置から下方に伸長された議事録データ表示領域PRW1がコンテンツ入力領域との間に表示されている。
FIG. 2-14 shows User B. This is an example of a display screen after the minutes data summary content PRC1 is tapped by B.
In FIG. 2-14, in the content display area TR1, the minutes data display area PRW1 extending downward from the position of the minutes data summary content PRC1 is displayed between the content display area TR1 and the content input area as an example. There is.

なお、これとは異なり、トークルームに議事録データが送信されると、議事録データ概要コンテンツPRC1の代わりに議事録データ表示領域PRW1が始めから表示されるようにしてもよいし、そうしなくてもよい。 Unlike this, when the minutes data is transmitted to the talk room, the minutes data display area PRW1 may be displayed from the beginning instead of the minutes data summary content PRC1 or not. You may.

議事録データ表示領域PRW1の最上部には、議事録データ概要コンテンツPRC1と同様の議事録タイトルと、議事録データが最後に修正された日時とが表示されている。議事録データ表示領域PRW1の上右側には、この議事録データを編集するための編集機能ボタンBT1が表示されている。 At the top of the minutes data display area PRW1, the minutes title similar to the minutes data summary content PRC1 and the date and time when the minutes data was last modified are displayed. On the upper right side of the minutes data display area PRW1, an editing function button BT1 for editing the minutes data is displayed.

限定ではなく例として、ユーザによって編集機能ボタンBT1がタップされると、図2−11で示したような編集操作が可能となる。編集機能ボタンBT1がタップされない場合、限定ではなく例として、テキストコンテンツをタップしてもコンテンツ編集選択メニューは表示されない。これにより、ユーザが閲覧中に誤って議事録データを編集してしまうことを防いでいる。 As an example, not a limitation, when the editing function button BT1 is tapped by the user, the editing operation as shown in FIG. 2-11 becomes possible. When the edit function button BT1 is not tapped, the content edit selection menu is not displayed even if the text content is tapped, not as a limitation. This prevents the user from accidentally editing the minutes data while browsing.

議事録データ表示領域PRW1の右下部には、議事録データ表示領域PRW1を委縮させ(表示を折り畳み)議事録データ概要コンテンツPRC1を表示させるための折り畳み機能ボタンBT2と、議事録データ表示領域PRW1に表示されるコンテンツを、限定ではなく例として、発話者やキーワードで絞り込むためのフィルタ機能ボタンBT3とが表示されている。
折り畳み機能ボタンBT2と、フィルタ機能ボタンBT3とは、限定ではなく例として、フローティング表示されており、議事録データ表示領域PRW1に対するスクロール操作によらず表示位置は一定である。
At the lower right of the minutes data display area PRW1, the minutes data display area PRW1 is contracted (the display is folded), and the minutes data summary content PRC1 is displayed on the fold function button BT2 and the minutes data display area PRW1. The filter function button BT3 for narrowing down the displayed contents by the speaker or the keyword is displayed as an example, not limited.
The folding function button BT2 and the filter function button BT3 are not limited but are displayed in a floating manner as an example, and the display position is constant regardless of the scroll operation with respect to the minutes data display area PRW1.

図2−14の議事録データ表示領域PRW1には、議事録内容確認表示領域WR4で確認・修正されたコンテンツが、表示する端末20、または表示する端末20のユーザに応じて表示される。
限定ではなく例として、テキストコンテンツCT1は、ユーザA.Aの発話内容に基づくコンテンツのため、ユーザB.Bの端末20Bでは左側からの吹き出しで表示されている。テキストコンテンツCT3は、ユーザB.Bの発話内容に基づくコンテンツのため、端末20Bでは右側からの吹き出しで表示されている。
In the minutes data display area PRW1 of FIG. 2-14, the contents confirmed / corrected in the minutes content confirmation display area WR4 are displayed according to the display terminal 20 or the user of the display terminal 20.
As an example, not a limitation, the text content CT1 may be described by User A.M. Since the content is based on the utterance content of A, the user B. In the terminal 20B of B, it is displayed by a balloon from the left side. The text content CT3 is the user B. Since the content is based on the utterance content of B, it is displayed in a balloon from the right side on the terminal 20B.

図2−14の議事録データ表示領域PRW1では、限定ではなく例として、投稿前に削除編集操作が行われた編集済みテキストコンテンツMCT2には、元の内容が確認できないが削除編集操作が行われたことを示す「発言が削除されました」の文字が表示されている。 In the minutes data display area PRW1 of FIG. 2-14, as an example, not limited to, the deleted / edited operation is performed on the edited text content MCT2 in which the deleted / edited operation is performed before posting, although the original content cannot be confirmed. The text "The statement has been deleted" is displayed to indicate that.

また、図2−14の議事録データ表示領域PRW1では、テキストコンテンツCT3に対してトークルームへの投稿後に編集操作が行われたことを示す編集済みテキストコンテンツMCT3が表示されている。編集済みテキストコンテンツMCT3では、限定ではなく例として、「京都」の文字から「神戸」の文字へ修正(編集)されたことが修正履歴として表示されている。また、編集済みテキストコンテンツMCT3に対する編集者のコメントである編集履歴コンテンツMRF1が、編集済みテキストコンテンツMCT3の下に挿入され表示されている。 Further, in the minutes data display area PRW1 of FIG. 2-14, the edited text content MCT3 indicating that the editing operation was performed after posting to the talk room for the text content CT3 is displayed. In the edited text content MCT3, as an example, not limited, the correction (editing) from the character "Kyoto" to the character "Kobe" is displayed as the correction history. Further, the edit history content MRF1 which is an editor's comment on the edited text content MCT3 is inserted and displayed under the edited text content MCT3.

編集履歴コンテンツMRF1には、限定ではなく例として、編集を行ったユーザ(この場合ユーザE.E)のアイコンが関連付けて表示されている。また、編集履歴コンテンツMRF1には、ユーザE.Eによって入力された「場所を間違えました」の文字と、ユーザE.Eによって入力された神戸のワークショップに関するURIとが表示されている。URIの下には、限定ではなく例として、URIのリンク先に関するサムネイルが自動的に生成され表示されている。限定ではなく例として、このサムネイルがユーザによってタップされると、端末20はウェブブラウザを起動しこのURIの情報を表示する。 The edit history content MRF1 is displayed in association with the icon of the user who performed the editing (in this case, the user EE) as an example, not limited to the editing history content MRF1. In addition, the edit history content MRF1 includes the user E.I. The characters "wrong location" entered by E and user E.I. The URI about the Kobe workshop entered by E is displayed. Under the URI, thumbnails related to the link destination of the URI are automatically generated and displayed as an example, not a limitation. As an example, but not a limitation, when the thumbnail is tapped by the user, the terminal 20 launches a web browser to display this URI information.

なお、投稿前に行われた編集操作に対しても、限定ではなく例として、編集者や編集内容が分かるように履歴を残して表示させてもよいし、そうしなくてもよい。また、投稿後に行われた編集操作に対して、編集者やそのコメントを表示させなくてもよい。編集操作に対しては、追記や注釈のような形で表示を行ってもよいし、そうしなくてもよい。 It should be noted that the editing operation performed before posting may or may not be displayed by leaving a history so that the editor and the edited content can be understood, as an example, not limited. In addition, it is not necessary to display the editor or its comment for the editing operation performed after posting. Editing operations may or may not be displayed in the form of additions or annotations.

議事録データ表示領域PRW1に対して、限定ではなく例として、ユーザが上下にドラッグ操作すると、議事録データ表示領域PRW1内のコンテンツは上下にスクロールして表示される。
ここで、ドラッグ操作(ドラッグ)とは、限定ではなく例として、ユーザが、タッチパネルが一体的に構成された表示部24(タッチスクリーン)を指やペン先などで触れた状態でそのまま指やペン先などを動かす動作である。
As an example, not limited to the minutes data display area PRW1, when the user drags up and down, the contents in the minutes data display area PRW1 are scrolled up and down and displayed.
Here, the drag operation (drag) is not limited, but as an example, the user touches the display unit 24 (touch screen) in which the touch panel is integrally configured with a finger or a pen tip, and the finger or the pen is used as it is. It is an action to move the tip.

議事録データ表示領域PRW1の右側には、議事録データのうち、議事録データ表示領域PRW1に表示されているコンテンツの位置領域を表すナビゲーションバーが表示されている。限定ではなく例として、議事録データ表示領域PRW1に下スクロール操作を行うと、ナビゲーションバーも下方に移動する。 On the right side of the minutes data display area PRW1, a navigation bar indicating the position area of the content displayed in the minutes data display area PRW1 among the minutes data is displayed. As an example, not a limitation, when the minutes data display area PRW1 is scrolled down, the navigation bar also moves downward.

図2−15は、図2−14において、ユーザによってフィルタ機能ボタンBT3がタップされた場合の表示画面の一例である。
図2−15において、議事録データ表示領域PRW1の下部には、限定ではなく例として、ユーザによってフィルタ機能ボタンBT3がタップされたことに伴い、限定ではなく例として、フィルタ機能ボタンBT3が左方に伸長され、フィルタ選択領域FLW1が表示されている。
FIG. 2-15 is an example of a display screen when the filter function button BT3 is tapped by the user in FIG. 2-14.
In FIG. 2-15, at the lower part of the minutes data display area PRW1, the filter function button BT3 is not limited but as an example, and the filter function button BT3 is on the left side as an example when the user taps the filter function button BT3. The filter selection area FLW1 is displayed.

フィルタ選択領域FLW1には、限定ではなく例として、議事録データ表示領域PRW1に表示させる発言者(ユーザ)を絞り込むための、ユーザのアイコンが並んで表示されている。これらのユーザのアイコンをタップすると、アイコン右上のチェックマークが反転表示され、ユーザごとの発言(投稿内容)を議事録データ表示領域PRW1に表示させるか否かの選択が行われる。 In the filter selection area FLW1, as an example, not limited to, user icons for narrowing down the speakers (users) to be displayed in the minutes data display area PRW1 are displayed side by side. When these user icons are tapped, the check mark on the upper right of the icon is highlighted, and it is selected whether or not to display the remarks (posted contents) for each user in the minutes data display area PRW1.

限定ではなく例として、図2−15では、ユーザC.CとユーザE.Eとのアイコンのチェックマークが反転表示され、表示対象として絞りこまれていることを表している。
このとき、議事録データ表示領域PRW1には、限定ではなく例として、ユーザC.CとユーザE.Eとの発言に関するコンテンツ以外は表示されない。限定ではなく例として、図2−14において編集履歴コンテンツMRF1の下に表示されていたユーザB.Bの発言を表す「ワークショップは3か月後なので難しいです」というテキストコンテンツや、テキストコンテンツCT4は、図2−15における議事録データ表示領域PRW1では表示されず、テキストコンテンツCT5が間を詰めて表示されている。
As an example, but not a limitation, in FIG. 2-15, user C.I. C and user E. The check mark of the icon with E is highlighted, indicating that the display target has been narrowed down.
At this time, the minutes data display area PRW1 is not limited to the user C.I. C and user E. Only the content related to the statement with E is displayed. As an example, not a limitation, the user B. The text content "Workshop is difficult because it is three months later" and the text content CT4, which expresses B's remark, are not displayed in the minutes data display area PRW1 in FIG. 2-15, and the text content CT5 closes the gap. Is displayed.

なお、発話者がいないタイトルやコメントは、フィルタ内容に関わらず表示されるようにしてもよいし、そのようにしなくてもよい。
また、フィルタ選択領域でのフィルタ対象は、発言者に限定されない。限定ではなく例として、議事録データ内で頻出する単語を自動的に抽出、あるいはユーザによって指定されるキーワードを含むテキストコンテンツをフィルタ対象として抽出するようにしてもよいし、そうしなくてもよい。
また、フィルタ対象として、限定ではなく例として、タグで紐付けられた議事録データ中の特定の区間(段落)を抽出できるようにしてもよいし、そうしなくてもよい。
Titles and comments without a speaker may or may not be displayed regardless of the filter content.
Further, the filter target in the filter selection area is not limited to the speaker. As an example, not a limitation, words that frequently appear in the minutes data may or may not be automatically extracted, or text content containing a keyword specified by the user may or may not be extracted as a filter target. ..
Further, as a filter target, a specific section (paragraph) in the minutes data associated with the tag may or may not be extracted as an example rather than a limitation.

図2−15において、ユーザC.Cが「アジェンダの5ページをご覧ください」と発話したことに基づくテキストコンテンツCT6の下には、限定ではなく例として、リンク先確認領域LK1が表示されている。リンク先確認領域LK1は、限定ではなく例として、テキストコンテンツCT6における「アジェンダ」という発話内容に基づいて、限定ではなく例として、カレンダー情報管理データベース159Aに基づいて、この音声データの取得日時と紐付けられたカレンダー情報管理データの関連URIに保存されるアジェンダデータが読み出される。そして、「5ページ」という発話内容に基づいて、アジェンダデータの5ページに相当するリンク先(URI)が自動的に生成され表示されている。限定ではなく例として、このリンクがユーザによってタップされると、端末20はウェブブラウザを起動しこのURIの情報を表示する。 In FIG. 2-15, the user C.I. Below the text content CT6 based on C's utterance "Please see page 5 of the agenda", the link destination confirmation area LK1 is displayed as an example, not a limitation. The link destination confirmation area LK1 is not limited but is based on the content of the utterance "Agenda" in the text content CT6, and is not limited but based on the calendar information management database 159A. The agenda data stored in the related URI of the attached calendar information management data is read out. Then, a link destination (URI) corresponding to page 5 of the agenda data is automatically generated and displayed based on the utterance content of "page 5". As an example, but not a limitation, when this link is tapped by the user, the terminal 20 launches a web browser to display this URI information.

なお、アジェンダデータは、ユーザによって事前に手打ちあるいは音声入力されたデータであってもよいし、そうでなくてもよい。 The agenda data may or may not be data manually or voice-input by the user.

編集履歴コンテンツMRF1では、URIがユーザによって入力されそのサムネイルが表示されていたが、リンク先確認領域LK1では、URIが発話内容に基づいて自動生成されることが異なる。 In the edit history content MRF1, the URI is input by the user and the thumbnail is displayed, but in the link destination confirmation area LK1, the URI is automatically generated based on the utterance content.

<処理>
図2−16は、本実施例において各装置が実行する処理の流れの一例を示すフローチャートである。
左から順に、端末20Aの制御部21が実行する処理、サーバ10の制御部11が実行する処理の一例をそれぞれ示している。
<Processing>
FIG. 2-16 is a flowchart showing an example of the flow of processing executed by each device in this embodiment.
From left to right, examples of processing executed by the control unit 21 of the terminal 20A and processing executed by the control unit 11 of the server 10 are shown.

まず、端末20Aの制御部21は、限定ではなく例として、音声データベース285に保存される音声データから、議事録データを作成するために用いる音声データを、限定ではなく例として、ユーザ操作に基づいて選択する(A110)。 First, the control unit 21 of the terminal 20A uses the voice data used to create the minutes data from the voice data stored in the voice database 285 as an example, not limited, based on the user operation. (A110).

そして、端末20Aの制御部21は、選択された音声データを、通信I/F22によってサーバ10に送信する(A130)。 Then, the control unit 21 of the terminal 20A transmits the selected voice data to the server 10 by the communication I / F 22 (A130).

サーバ10の制御部11は、通信I/F14によって音声データを受信すると、音声データを文字(文章)データである議事録データに変換する議事録データ変換処理を実行する(S120)。議事録データ変換処理については、図1−2のA120のステップと同様の処理で実現可能である。 When the control unit 11 of the server 10 receives the voice data by the communication I / F 14, the control unit 11 executes the minutes data conversion process of converting the voice data into the minutes data which is the character (text) data (S120). The minutes data conversion process can be realized by the same process as the step A120 in FIG. 1-2.

なお、議事録データ変換処理において、音声認識処理と話者認識処理とに加えて、文字に変換された発話内容に応じたコンテンツを付加するコンテンツ付加処理を実行してもよいし、そうしなくてもよい。 In the minutes data conversion process, in addition to the voice recognition process and the speaker recognition process, a content addition process for adding content according to the utterance content converted into characters may or may not be executed. You may.

コンテンツ付加処理には、限定ではなく例として、名前やキーワードが発話されることに対するメンション機能付加処理や、発話内容に関する画像を付加する画像付加処理、所定ワード(限定ではなく例として、「アジェンダ」)が発話される事に関してその所定ワードに関連するURI(限定ではなく例として、カレンダー情報管理データベース159Aの関連URI)を付加するURI付加処理等の処理を含めることができる。 The content addition process is not limited, but as an example, a mention function addition process for uttering a name or keyword, an image addition process for adding an image related to the utterance content, and a predetermined word (as an example, not a limitation, "Agenda"". ) Can be included, such as a URI addition process for adding a URI (not a limitation, for example, a related URI of the calendar information management database 159A) related to the predetermined word.

すると、サーバ10の制御部11は、生成された議事録データに基づいて、この議事録の投稿先候補を選出する議事録投稿候補選出処理を実行する(S130)。 Then, the control unit 11 of the server 10 executes the minutes posting candidate selection process for selecting the posting destination candidate of the minutes based on the generated minutes data (S130).

議事録投稿候補選出処理において、サーバ10の制御部11は、限定ではなく例として、話者認識処理結果に基づいて、議事録データで発話している発話ユーザ群を特定する。そして、グループ管理データベース157に記憶されているグループ管理データのうち、限定ではなく例として、発話ユーザ群とグループメンバーデータに登録されているメンバーとの相関が高いグループを議事録投稿候補として選出する。もしくは、発話ユーザ群が2人の場合には、そのユーザを含むトークルームを議事録投稿候補として選出する。
なお、議事録投稿候補は最上位1つでもよいし、上位から複数選んでもよい。
In the minutes posting candidate selection process, the control unit 11 of the server 10 identifies, as an example, not a limitation, a group of utterance users who are speaking in the minutes data based on the speaker recognition processing result. Then, among the group management data stored in the group management database 157, a group having a high correlation between the utterance user group and the member registered in the group member data is selected as a candidate for posting minutes, as an example, not limited. .. Alternatively, if there are two speaking users, the talk room including that user is selected as a candidate for posting minutes.
The minutes submission candidate may be one at the top, or a plurality of candidates may be selected from the top.

また、議事録投稿候補の選出方法は、音声データから得られる発話ユーザ群を用いることに限定されない。限定ではなく例として、会議(会合)の会場に設置されるビーコン装置(近接ビーコン装置)等の電子装置から発信されるビーコン信号の受信圏内に存在する端末20のユーザを発話ユーザ群としてもよいし、そうしなくてもよい。 Further, the method of selecting the minutes submission candidate is not limited to using the utterance user group obtained from the voice data. As an example, not limited to, the user of the terminal 20 existing in the reception range of the beacon signal transmitted from the electronic device such as the beacon device (proximity beacon device) installed at the venue of the conference (meeting) may be the utterance user group. And you don't have to.

また、この場合、限定ではなく例として、端末20Bからビーコン信号を発信し、そのビーコン信号の受信圏内に端末20Aが存在する場合、ユーザB.Bを発話ユーザ群の1ユーザとしてもよいし、そうしなくてもよい。すなわち、限定ではなく例として、相互に端末20からビーコン信号を発信し、そのビーコン信号の受信圏内に存在する端末20のユーザを発話ユーザ群としてもよいし、そうしなくてもよい。より具体的には、端末20Aの位置算出用情報検出部29Bにおいて、UWB測位ユニットを用いて近くに存在する端末群を把握し、その端末群のユーザを発話ユーザ群とすればよい。 Further, in this case, as an example, not limited to the case where the beacon signal is transmitted from the terminal 20B and the terminal 20A exists within the reception range of the beacon signal, the user B. B may or may not be one user in the speaking user group. That is, as an example, not limited to each other, the users of the terminals 20 who mutually transmit the beacon signals and exist in the reception range of the beacon signals may or may not be the uttering user group. More specifically, in the position calculation information detection unit 29B of the terminal 20A, a UWB positioning unit may be used to grasp a group of terminals existing nearby, and a user of the terminal group may be a speaking user group.

発話ユーザ群を特定する手法としては、この他にも、限定ではなく例として、端末20Aの撮像部27において各ユーザが含まれる顔画像を取得し、顔画像に映っているユーザ群を人物認識することで特定してもよいし、そうしなくてもよい。 In addition to this, as a method for identifying the utterance user group, as an example, the imaging unit 27 of the terminal 20A acquires a face image including each user, and recognizes the user group reflected in the face image as a person. It may or may not be specified by doing so.

また、限定ではなく例として、音声データのタイムスタンプから会議(会合)が行われた日時を取得し、カレンダー情報管理データベース159Aに基づいて、ユーザA.Aのカレンダー情報のうち、会議が行われた日時と適合するカレンダー情報管理データの招待者データから発話ユーザ群を特定してもよいし、そうしなくてもよい。 Further, as an example, not limited to, the date and time when the meeting (meeting) was held is acquired from the time stamp of the voice data, and based on the calendar information management database 159A, the user A. Of the calendar information of A, the speaking user group may or may not be specified from the invitee data of the calendar information management data that matches the date and time when the meeting was held.

なお、上記の発話ユーザ群の特定方法を組み合わせることで発話ユーザ群を推定してもよいし、そうしなくてもよい。 The utterance user group may or may not be estimated by combining the above-mentioned methods for specifying the utterance user group.

その後、サーバ10の制御部11は、得られた議事録投稿候補を、通信I/F14によって端末20Aに送信する。 After that, the control unit 11 of the server 10 transmits the obtained minutes posting candidate to the terminal 20A by the communication I / F14.

なお、議事録投稿候補選出処理は、サーバ10ではなく、端末20Aが実行するようにすることもできる。 It should be noted that the minutes submission candidate selection process may be executed by the terminal 20A instead of the server 10.

端末20Aの制御部21は、通信I/F22によってサーバ10から議事録投稿候補を受信すると、限定ではなく例として、ユーザ操作による選択に基づいて、議事録投稿候補から議事録データを追加(入力)するためのチャットルームである議事録投稿先を選択する。そして、端末20Aの制御部21は、通信I/F22によって議事録投稿先をサーバ10に送信する(A150)。 When the control unit 21 of the terminal 20A receives the minutes posting candidate from the server 10 by the communication I / F 22, the minutes data is added (input) from the minutes posting candidate based on the selection by the user operation as an example, not limited. ) Select the minutes posting destination, which is the chat room for. Then, the control unit 21 of the terminal 20A transmits the minutes posting destination to the server 10 by the communication I / F 22 (A150).

なお、議事録投稿候補以外のチャットルームが議事録投稿先として選択されてもよいし、そうしなくてもよい。
また、議事録投稿候補が1つの場合には、その議事録投稿候補を自動的に議事録投稿先として、このステップを省略してもよいし、そうしなくてもよい。
Chat rooms other than the minutes posting candidates may or may not be selected as the minutes posting destination.
If there is only one candidate for posting minutes, this step may or may not be omitted by automatically setting the candidate for posting minutes as the destination for posting minutes.

サーバ10の制御部11は、通信I/F14によって議事録投稿先を受信する。すると、サーバ10の制御部11は、S120のステップで生成された議事録データを議事録の草案を示す議事録草案データとして通信I/F14によって端末20Aに送信する(S140)。 The control unit 11 of the server 10 receives the minutes posting destination by the communication I / F14. Then, the control unit 11 of the server 10 transmits the minutes data generated in the step of S120 to the terminal 20A by the communication I / F14 as the minutes draft data indicating the draft of the minutes (S140).

端末20Aの制御部21は、通信I/F22によってサーバ10から議事録草案データを受信すると、それを表示部24に表示させる。そして、端末20Aの制御部21は、ユーザの入出力部23に対する操作入力に基づいて、議事録草案データを修正する操作を受け付ける(A170)。 When the control unit 21 of the terminal 20A receives the minutes draft data from the server 10 by the communication I / F 22, the control unit 21 displays the minutes draft data on the display unit 24. Then, the control unit 21 of the terminal 20A accepts an operation of modifying the minutes draft data based on the operation input to the input / output unit 23 of the user (A170).

この議事録草案データの修正処理には、限定ではなく例として、前述したコンテンツ編集選択メニューに対する「削除」や「行間追加」、「コメント」等の編集操作を含めることができる。 The process of modifying the draft minutes data can include, as an example, not limited to, editing operations such as "delete", "add line spacing", and "comment" for the content edit selection menu described above.

そして、端末20Aの制御部21は、編集操作が行われた内容である議事録草案データ修正情報を通信I/F22によってサーバ10に送信する。 Then, the control unit 21 of the terminal 20A transmits the minutes draft data correction information, which is the content of the editing operation, to the server 10 by the communication I / F 22.

サーバ10の制御部11は、通信I/F14によって議事録草案データ修正情報を受信すると、議事録草案データ修正情報に基づいて議事録データを更新させる議事録草案データ修正処理を実行する(S150)。 When the control unit 11 of the server 10 receives the minutes draft data correction information by the communication I / F 14, the control unit 11 executes the minutes draft data correction process for updating the minutes data based on the minutes draft data correction information (S150). ..

そして、サーバ10の制御部11は、修正された議事録データを、議事録投稿先として指定されたチャットルームに追加(入力)する(S160)。 Then, the control unit 11 of the server 10 adds (inputs) the modified minutes data to the chat room designated as the minutes posting destination (S160).

その後、サーバ10の制御部11は、チャットルームに追加(入力)された議事録データを、通信I/F14によって端末20Aを含むチャットルームに属するユーザの端末20に送信する(S170)。そして、サーバ10の制御部11は、処理を終了する。 After that, the control unit 11 of the server 10 transmits the minutes data added (input) to the chat room to the terminal 20 of the user belonging to the chat room including the terminal 20A by the communication I / F 14 (S170). Then, the control unit 11 of the server 10 ends the process.

通信I/F22によって議事録データを受信すると、端末20Aの制御部21は、表示部24に議事録データを表示させる(A180)。そして、端末20Aの制御部21は、処理を終了する。 When the minutes data is received by the communication I / F 22, the control unit 21 of the terminal 20A causes the display unit 24 to display the minutes data (A180). Then, the control unit 21 of the terminal 20A ends the process.

なお、議事録データがチャットルームに追加されてから修正を行う場合には、議事録データが送信された端末20において、その議事録データを議事録草案データとみなし、A170〜A180とS150〜S170とのステップを実行すればよい。 If the minutes data is added to the chat room and then corrected, the minutes data is regarded as the minutes draft data on the terminal 20 to which the minutes data is transmitted, and the minutes data are regarded as the minutes draft data, A170 to A180 and S150 to S170. Just follow the steps with.

また、S160のステップをサーバ10で実行せず、端末20の制御部21が、議事録データを受信した後に議事録データをチャットルームに追加(入力)するようにしてもよいし、そのようにしなくてもよい。 Further, instead of executing the step S160 on the server 10, the control unit 21 of the terminal 20 may add (input) the minutes data to the chat room after receiving the minutes data, or do so. It does not have to be.

<第2実施例の効果>
第2実施例は、トークルーム(限定ではなく、チャットルームの一例)は、端末20AのユーザA.A(限定ではなく、端末のユーザの一例)による入力に基づいて、議事録投稿候補から選択される構成を示している。
このような構成により得られる実施例の効果の一例として、チャットルームが議事録投稿候補から選択可能となるため、ユーザはより適切かつ容易にチャットルームを選択可能となる。
<Effect of the second embodiment>
In the second embodiment, the talk room (not limited, but an example of a chat room) is the user A. of the terminal 20A. The configuration selected from the minutes submission candidates based on the input by A (not limited, but an example of the terminal user) is shown.
As an example of the effect of the embodiment obtained by such a configuration, the chat room can be selected from the minutes submission candidates, so that the user can select the chat room more appropriately and easily.

また、第2実施例は、トークルームは、端末20Aによって取得された情報(限定ではなく、第1情報の一例)に基づいて選択される構成を示している。
このような構成により得られる実施例の効果の一例として、第1情報に基づいて候補となるチャットルームを選択することができる。そのため、チャットルームの選択をより適切に実行することができる。
In addition, the second embodiment shows a configuration in which the talk room is selected based on the information acquired by the terminal 20A (not limited, but an example of the first information).
As an example of the effect of the embodiment obtained by such a configuration, a candidate chat room can be selected based on the first information. Therefore, the selection of the chat room can be performed more appropriately.

この場合、第1情報は、端末20の音入力部25(限定ではなく、第1取得部の一例)によって取得される音声データ(限定ではなく、音情報の一例)を含むようにすることができる。
このような構成により得られる実施例の効果の一例として、文字情報の元となる音情報をチャットルームの選択基準として用いることができ、より適切なチャットルームの選択を可能とすることができる。
In this case, the first information may include voice data (an example of sound information, not a limitation) acquired by the sound input unit 25 (not a limitation, an example of the first acquisition unit) of the terminal 20. can.
As an example of the effect of the embodiment obtained by such a configuration, the sound information which is the source of the character information can be used as a chat room selection criterion, and a more appropriate chat room can be selected.

また、この場合、第1情報は、電子装置から発信される情報を含むようにすることができる。
このような構成により得られる実施例の効果の一例として、音情報から発話ユーザの特定が困難な場合においても、適切に入力先のチャットルームを選択することができる。
Further, in this case, the first information may include information transmitted from the electronic device.
As an example of the effect of the embodiment obtained by such a configuration, even when it is difficult to identify the speaking user from the sound information, it is possible to appropriately select the input destination chat room.

また、この場合、電子装置は、ビーコン信号を発信するビーコン装置とすることができる。
このような構成により得られる実施例の効果の一例として、事前に設置された電子装置から発信される情報に基づいて、簡易かつ適切にチャットルームを選択することができる。
Further, in this case, the electronic device can be a beacon device that transmits a beacon signal.
As an example of the effect of the embodiment obtained by such a configuration, a chat room can be easily and appropriately selected based on the information transmitted from the electronic device installed in advance.

また、この場合、電子装置は、端末20A以外の端末20、限定ではなく例として端末20B(限定ではなく、第1端末の一例)とすることができる。
このような構成により得られる実施例の効果の一例として、事前に電子装置を設置せずとも、第1情報を取得することが可能となる。その結果、ユーザの利便性が向上する。
Further, in this case, the electronic device may be a terminal 20 other than the terminal 20A, and not a limitation but a terminal 20B (not a limitation but an example of the first terminal).
As an example of the effect of the embodiment obtained by such a configuration, it is possible to acquire the first information without installing an electronic device in advance. As a result, user convenience is improved.

また、この場合、第1情報は、端末20の撮像部27によって撮像された撮像画像の画像情報(限定ではなく例として、顔画像)を含むようにすることができる。
このような構成により得られる実施例の効果の一例として、音情報から発話ユーザの特定が困難な場合においても、画像情報を用いることで入力先のチャットルームを選択することができる。
Further, in this case, the first information may include image information (not limited, but as an example, a face image) of the captured image captured by the imaging unit 27 of the terminal 20.
As an example of the effect of the embodiment obtained by such a configuration, even when it is difficult to identify the uttering user from the sound information, the chat room of the input destination can be selected by using the image information.

また、第1情報は、ユーザA.Aのカレンダー情報(限定ではなく、端末のユーザのスケジュール情報の一例)を含むようにすることができる。
このような構成により得られる実施例の効果の一例として、スケジュール情報を用いて投稿先として適切なチャットルームを選ぶことが可能となり、音情報から発話ユーザの特定が困難な場合においても、より正確に入力先のチャットルームを選択することができる。
In addition, the first information is the user A. The calendar information of A (not limited, but an example of the schedule information of the user of the terminal) can be included.
As an example of the effect of the embodiment obtained by such a configuration, it is possible to select an appropriate chat room as a posting destination by using the schedule information, and even when it is difficult to identify the speaking user from the sound information, it is more accurate. You can select the chat room to enter in.

また、第2実施例は、音入力部25によって取得された第1音情報(限定ではなく例として、「それでは2020年2月の会議を始めます」という発話)に基づく第1文字情報(限定ではなく例として、テキストコンテンツCT1)が、選択されたチャットルーム(限定ではなく例として、グループ「プロジェクトX」のトークルーム)にユーザA.Aと関連付けて入力され、音入力部25によって取得された第2音情報(限定ではなく例として、「製品リリースはいつでしたっけ」という発話)に基づく第2文字情報(限定ではなく例として、テキストコンテンツCT3)が、チャットルームにユーザB.Bと関連付けて入力され、第1文字情報と第2文字情報とを含むチャットルームを表示部(限定ではなく例として、表示部24)に表示する構成を示している。
このような構成により得られる実施例の効果の一例として、第1音情報に基づく第1文字情報と、第2音情報に基づく第2文字情報とが、それぞれ別のユーザに関連付いていることをユーザが容易に識別可能となる。結果として、ユーザの利便性が向上する。
Further, in the second embodiment, the first character information (limited) based on the first sound information acquired by the sound input unit 25 (not limited, but as an example, the utterance "Then, the meeting in February 2020 will be started"). Instead, as an example, the text content CT1) is placed in the selected chat room (not limited, but as an example, the talk room of the group "Project X"). Second character information (as an example, not as a limitation) based on the second sound information (not limited, but as an example, the utterance "When was the product released?") That was input in association with A and acquired by the sound input unit 25. , Text content CT3) is in the chat room. A configuration is shown in which a chat room, which is input in association with B and includes first character information and second character information, is displayed on a display unit (not limited to the display unit 24 as an example).
As an example of the effect of the embodiment obtained by such a configuration, the first character information based on the first sound information and the second character information based on the second sound information are associated with different users. Can be easily identified by the user. As a result, user convenience is improved.

また、第2実施例は、音声データ(音情報)は、チャットルームが選択される前に、音入力部25によって取得され、議事録データ(文字情報)は、チャットルームが選択されたことに基づいて、チャットルームに入力される構成を示している。
このような構成により得られる実施例の効果の一例として、チャットルームを選択する以前の音情報に基づく文字情報をチャットルームに後から入力することができる。すなわち、音情報を取得する時にはチャットルームを選択する必要がないため、繁雑な操作なしで素早く音情報を取得することができる。よって、ユーザはチャットルームの存在を意識せずに気楽に音情報を取得する判断が可能となり、ユーザの利便性を向上させることができる。
Further, in the second embodiment, the voice data (sound information) is acquired by the sound input unit 25 before the chat room is selected, and the minutes data (text information) is that the chat room is selected. Based on this, the configuration to be entered in the chat room is shown.
As an example of the effect of the embodiment obtained by such a configuration, character information based on the sound information before selecting the chat room can be input to the chat room later. That is, since it is not necessary to select a chat room when acquiring sound information, it is possible to quickly acquire sound information without complicated operations. Therefore, the user can easily determine to acquire the sound information without being aware of the existence of the chat room, and the convenience of the user can be improved.

また、第2実施例は、議事録データ(文字情報)は、ユーザA.A(限定ではなく、端末のユーザの一例)と、ユーザB.B(限定ではなく、第1端末のユーザの一例)と、ユーザC.C(限定ではなく、第2端末のユーザの一例)とを含む第1チャットルーム(限定ではなく例として、グループ「プロジェクトXのトークルーム」)に入力され、少なくとも端末20C(限定ではなく、第2端末の一例)に対して送信される構成を示している。
このような構成により得られる効果の一例として、文字情報が、端末のユーザと、第1端末のユーザと、第2端末のユーザとを含むチャットルームに入力された上で、少なくとも第2端末に送信されることで、少なくとも第2端末のユーザが閲覧できるようにすることができる。
Further, in the second embodiment, the minutes data (character information) is obtained by the user A. A (not limited, but an example of a terminal user) and user B. B (not limited, but an example of a user of the first terminal) and user C.I. It is input to the first chat room including C (an example of a user of the second terminal, not the limitation) (as an example, not the limitation, the group "Talk Room of Project X"), and at least the terminal 20C (not the limitation, the first, not the limitation). The configuration to be transmitted to (an example of two terminals) is shown.
As an example of the effect obtained by such a configuration, character information is input to a chat room including a terminal user, a first terminal user, and a second terminal user, and then at least in the second terminal. By being transmitted, it can be made available to at least the user of the second terminal.

<第2変形例(1)>
第2実施例では、音声データに基づいて、サーバ10で議事録データ変換処理を実行し、議事録データを作成することとしたが、これに限定されない。限定ではなく例として、上記の(2)の手法により処理を実現してもよいし、そうしなくてもよい。
<Second modification (1)>
In the second embodiment, the minutes data conversion process is executed on the server 10 based on the voice data to create the minutes data, but the present invention is not limited to this. As an example, not limited to the above, the process may or may not be realized by the method (2) above.

この場合、限定ではなく例として、端末20の制御部21は、図2−16のA110のステップを実行すると、議事録データ変換処理を実行する。各処理については、図2−16のS120のステップと同様に実行することが可能なため、詳細については説明を省略する。そして、端末20の制御部21は、議事録データ変換処理で生成された議事録データを、通信I/F22によってサーバ10に送信する。
サーバ10の制御部11は、通信I/F14によって議事録データを受信すると、図2−16のS130以下のステップを実行する。
In this case, as an example, not limited to, the control unit 21 of the terminal 20 executes the minutes data conversion process when the step A110 of FIG. 2-16 is executed. Since each process can be executed in the same manner as the step of S120 of FIG. 2-16, the description thereof will be omitted in detail. Then, the control unit 21 of the terminal 20 transmits the minutes data generated by the minutes data conversion process to the server 10 by the communication I / F 22.
When the control unit 11 of the server 10 receives the minutes data by the communication I / F 14, the control unit 11 of the server 10 executes the steps of S130 and the following in FIG. 2-16.

このような構成により得られる変形例の効果の一例として、音情報のデータ容量が大きい場合、端末側で音情報をより情報量の圧縮が容易な文字情報へと変換してからサーバへ送信することが可能となり、通信量を削減することができる。 As an example of the effect of the modified example obtained by such a configuration, when the data capacity of the sound information is large, the terminal side converts the sound information into character information whose amount of information can be more easily compressed and then transmits the sound information to the server. This makes it possible to reduce the amount of communication.

なお、図2−16のS130のステップについても、端末20で行ってもよいし、そうしなくてもよい。この場合、第1情報が端末によって生成されると言える。 The step S130 in FIG. 2-16 may or may not be performed at the terminal 20. In this case, it can be said that the first information is generated by the terminal.

また、議事録データ変換処理は端末20で実行し、議事録データをチャットルームに追加することはサーバ10で実行するようにしてもよいし、そのようにしなくてもよい。 Further, the minutes data conversion process may be executed by the terminal 20, and the minutes data may or may not be added to the chat room by the server 10.

<第3実施例>
第3実施例は、上記の(B)のタイミングに関する(1)の手法による実施例である。
第3実施例では、議事録サービスにおいて、端末20の制御部21は、音入力部25によって会議や会合における一部分の音声データを取得すると、サーバ10に送信する。サーバ10の制御部11は、受信した音声データに基づいて部分的な議事録データを作成すると、この部分的な議事録データを端末20に送信する。以上の処理を、会議(会合)の終了まで繰り返す。
以下では、第3実施例による方法を「リアルタイムモード」と称する。
第3実施例に記載の内容は、他の各実施例や他の各変形例のいずれにも適用可能である。
<Third Example>
The third embodiment is an example according to the method (1) regarding the timing of (B) above.
In the third embodiment, in the minutes service, when the control unit 21 of the terminal 20 acquires a part of the voice data in the meeting or the meeting by the sound input unit 25, it transmits it to the server 10. When the control unit 11 of the server 10 creates partial minutes data based on the received voice data, the control unit 11 transmits the partial minutes data to the terminal 20. The above process is repeated until the end of the meeting (meeting).
Hereinafter, the method according to the third embodiment will be referred to as "real-time mode".
The contents described in the third embodiment can be applied to any of the other embodiments and the other modifications.

<表示画面>
以下では、議事録データを追加(入力)するチャットルームとして、限定ではなく例として、ユーザ入力に基づいて、グループ「プロジェクトX」のトークルームが選ばれた場合における表示画面の一例を示す。
<Display screen>
In the following, as a chat room for adding (inputting) minutes data, an example of a display screen when a talk room of the group "Project X" is selected based on user input is shown as an example, not limited.

図3−1は、図2−6において、ユーザによって「友だち」がタップ(選択)され、その後、「友だち」として登録されているユーザアカウントまたはグループから、グループ「プロジェクトX」がタップ(選択)された場合における、グループ「プロジェクトX」のトークルームの表示画面の一例である。 In FIG. 3-1 in FIG. 2-6, "friend" is tapped (selected) by the user, and then the group "project X" is tapped (selected) from the user account or group registered as "friend". This is an example of the display screen of the talk room of the group "Project X" in the case where.

図3−1では、現在位置表示領域に、現在位置がグループ「プロジェクトX」のトークルームであることを示す文字が表示されている。また、コンテンツ表示領域TR1には、ユーザA.Aによって入力(送信)された「時間ですので会議を始めます」という文字のテキストコンテンツと、ユーザD.Dによって入力(送信)された「電車遅延のため少し遅れます」という文字のテキストコンテンツとが表示されている。 In FIG. 3-1 in the current position display area, characters indicating that the current position is the talk room of the group “project X” are displayed. Further, in the content display area TR1, the user A. The text content of the characters "It's time to start the meeting" entered (sent) by A and the user D. The text content of the characters "I will be a little late due to the train delay" entered (transmitted) by D is displayed.

コンテンツ入力領域において、限定ではなく例として、ユーザが「+」の文字で示されるトークルーム機能呼び出しアイコンをタップすると、このトークルームと関連するメッセージングアプリケーションの各種の機能を呼び出すトークルーム機能選択領域WR5が表示される。
トークルーム機能選択領域WR5には、このトークルームと関連するメッセージングアプリケーションの各種の機能に対応する複数の機能アイコンが表示されている。機能アイコンには、限定ではなく例として、「ファイル」、「連絡先」、「位置情報」といった、複数の機能の各々に対応するアイコンが含まれる。
In the content input area, as an example, not limited to, when the user taps the talk room function call icon indicated by the character "+", the talk room function selection area WR5 that calls various functions of the messaging application related to this talk room. Is displayed.
In the talk room function selection area WR5, a plurality of function icons corresponding to various functions of the messaging application related to the talk room are displayed. Function icons include, but are not limited to, icons corresponding to each of a plurality of functions, such as "file", "contact", and "location information".

この例では、複数の機能アイコンのうち、「議事録」の機能アイコンがタップされた状態が示されている。すると、このトークルームに、音入力部25によって取得される音声データに基づいて、リアルタイムで議事録データが追加されていく。すなわち、「議事録」の機能アイコンがタップされるタイミングは、会議や会合が開始される前となる。 In this example, among the plurality of function icons, the state in which the function icon of "minutes" is tapped is shown. Then, the minutes data is added to the talk room in real time based on the voice data acquired by the sound input unit 25. That is, the timing at which the function icon of "minutes" is tapped is before the start of the meeting or meeting.

なお、「議事録」の機能アイコンがタップされる場合、不図示のユーザ選択画面に対するユーザ操作に基づいて、このトークルームに属するメンバーのうち、特定のユーザのみの発言を、以降、議事録データとして記録するようにしてもよいし、そのようにしなくてもよい。 When the "minutes" function icon is tapped, only a specific user among the members belonging to this talk room will make a statement based on the user operation on the user selection screen (not shown), and thereafter, the minutes data. It may or may not be recorded as.

図3−2は、図3−1において「議事録」の機能アイコンがタップされた場合のトークルーム画面の一例である。
図3−2では、コンテンツ表示領域TR1の上部に、メッセージングアプリケーションの議事録機能に基づいて、限定ではなく例として、音入力部25によって音声データを取得中であることを示す音声データ取得状況確認領域STW1が表示されている。
FIG. 3-2 is an example of a talk room screen when the function icon of “minutes” is tapped in FIG. 3-1.
In FIG. 3-2, the voice data acquisition status confirmation indicating that the voice data is being acquired by the sound input unit 25 as an example, not limited, based on the minutes function of the messaging application on the upper part of the content display area TR1. The area STW1 is displayed.

音声データ取得状況確認領域STW1には、限定ではなく例として、端末20Aが議事録データを生成するための音声データを取得している状態であることを表す「議事録 記録中」の文字が表示されている。その右側には、音声データを取得し始めてからの経過時間(この例では「00:03」)が示されている。 In the voice data acquisition status confirmation area STW1, as an example, the characters "minutes are being recorded" indicating that the terminal 20A is acquiring voice data for generating the minutes data are displayed. Has been done. On the right side, the elapsed time (“00:03” in this example) since the start of acquiring the voice data is shown.

経過時間の右側には、音声データの取得を中止し、このトークルームへの議事録データの追加を終了するための記録終了ボタンBT4と、撮像部27を用いて画像を取得し、このトークルームに追加するための撮像ボタンBT5と、前述した編集機能ボタンBT1とが横に並んで表示されている。 On the right side of the elapsed time, the recording end button BT4 for stopping the acquisition of the audio data and ending the addition of the minutes data to the talk room and the image pickup unit 27 are used to acquire the image, and this talk room is used. The image pickup button BT5 for adding to the above and the above-mentioned editing function button BT1 are displayed side by side.

また、コンテンツ表示領域TR1の右下部には、フィルタ機能ボタンBT3と、吹き出しアイコンで示されるコンテンツ強調機能ボタンBT6と、シャープの文字アイコンで示されるタグ機能ボタンBT7とが縦に並んで表示されている。
フィルタ機能ボタンBT3と、コンテンツ強調機能ボタンBT6と、タグ機能ボタンBT7とは、限定ではなく例として、フローティング表示されており、コンテンツ表示領域TR1に対するスクロール操作によらず表示位置は一定である。
Further, in the lower right portion of the content display area TR1, the filter function button BT3, the content emphasis function button BT6 indicated by the balloon icon, and the tag function button BT7 indicated by the sharp character icon are displayed vertically side by side. There is.
The filter function button BT3, the content emphasis function button BT6, and the tag function button BT7 are not limited but are displayed in a floating manner as an example, and the display position is constant regardless of the scroll operation with respect to the content display area TR1.

限定ではなく例として、ユーザによってタグ機能ボタンBT7がタップされると、タグ機能ボタンBT7が左方に伸長され、図3−2で示すように、タグの入力領域と、入力されたタグを反映させるための「設定」という文字で示されるタグ反映機能ボタンとが表示される。限定ではなく例として、図3−2の例では、タグの入力領域には、「アジェンダ1」という文字が入力されている。 As an example, not a limitation, when the tag function button BT7 is tapped by the user, the tag function button BT7 is extended to the left to reflect the tag input area and the input tag as shown in FIG. 3-2. A tag reflection function button indicated by the characters "setting" is displayed. As an example, not a limitation, in the example of FIG. 3-2, the characters "Agenda 1" are input in the tag input area.

ユーザによってタグ反映機能ボタンがタップされると、それ以降の音声データから変換される議事録データには、限定ではなく例として、「アジェンダ1」のタグが付加される。 When the tag reflection function button is tapped by the user, the tag of "Agenda 1" is added to the minutes data converted from the audio data after that, as an example, not limited.

このタグに基づいて、限定ではなく例として、フィルタ機能ボタンBT3によって任意のタグが付加された議事録データの一部分を素早く抽出して表示することが可能となる。 Based on this tag, as an example, not a limitation, it is possible to quickly extract and display a part of the minutes data to which an arbitrary tag is added by the filter function button BT3.

なお、この例において、限定ではなく例として、ユーザによる「これからアジェンダ1について」といった発話内容に応じて、自動的にタグが付加されるようにしてもよいし、そうしなくてもよい。 In this example, the tag may or may not be automatically added according to the content of the utterance such as "From now on Agenda 1" by the user, as an example rather than a limitation.

また、コンテンツ表示領域TR1には、限定ではなく例として、テキストコンテンツCT1が、限定ではなく例として、発話の区切りで区切られる部分音声データから生成され、トークルームにリアルタイム入力されて表示されている。本実施例では、コンテンツ(メッセージ)の脇には、音声データを取得し始めてからの相対時間ではなく、限定ではなく例として、そのコンテンツが生成され、トークルームに追加された時点の時刻が表示されている。
限定ではなく例として、テキストコンテンツCT1は、「13:42」の時刻に追加されたことを表している。
Further, in the content display area TR1, the text content CT1 is generated from the partial voice data separated by the utterance delimiter as an example, not the limitation, and is input to the talk room in real time and displayed. .. In this embodiment, the time when the content is generated and added to the talk room is displayed next to the content (message), not as a relative time from the start of acquiring the audio data, but as an example rather than as a limitation. Has been done.
As an example, not a limitation, the text content CT1 indicates that it was added at the time of "13:42".

なお、音声データを取得し始めてからの相対時間を時刻の代わりに表示させるようにしてもよいし、そのようにしなくてもよい。 It should be noted that the relative time from the start of acquiring the voice data may or may not be displayed instead of the time.

図3−3は、図3−2においてタグ反映機能ボタンがタップされた後、音声データの取得が続いている場合の表示画面の一例である。 FIG. 3-3 is an example of a display screen in the case where the acquisition of voice data continues after the tag reflection function button is tapped in FIG. 3-2.

図3−3では、タグが入力されたことに伴い、テキストコンテンツCT1の下に入力されたタグの内容を表す「アジェンダ1 について」の文字が表示されたタグコンテンツTG1が表示されている。
タグコンテンツTG1の内容は音声データ中の発話内容ではないため、限定ではなく例として、コンテンツ表示領域TR1に中央揃えで表示されている。
In FIG. 3-3, as the tag is input, the tag content TG1 in which the characters “About Agenda 1” indicating the content of the input tag is displayed under the text content CT1 is displayed.
Since the content of the tag content TG1 is not the utterance content in the voice data, it is not limited but is displayed in the content display area TR1 centered as an example.

タグコンテンツTG1の両端に塗られた帯の色は、限定ではなく例として、以降に追加されるコンテンツに対して、コンテンツ表示領域TR1の左端に紐付けられて表示される帯の色と対応している。 The color of the band painted on both ends of the tag content TG1 is not limited, but as an example, corresponds to the color of the band displayed in association with the left end of the content display area TR1 for the content added later. ing.

限定ではなく例として、テキストコンテンツCT3の左側には、タグ「アジェンダ1」と紐付けられた帯が表示されている。 As an example, not a limitation, a band associated with the tag "Agenda 1" is displayed on the left side of the text content CT3.

また、ユーザE.Eが「京都のワークショップには間に合いませんか?」と発話したことに基づくテキストコンテンツの下には、発話内容に基づいて、限定ではなく例として、画像検索を行った結果得られる画像を表示するための画像コンテンツPC1が自動的に付加・添付(入力)されている。図3−3では、画像コンテンツPC1には、限定ではなく例として、発話内容の「京都」という地名に基づく画像検索の結果の一例として、寺院の画像が付加されて表示されている。 In addition, user E. Under the text content based on E's utterance "Can't you make it in time for the workshop in Kyoto?" The image content PC1 for display is automatically added / attached (input). In FIG. 3-3, an image of a temple is added and displayed on the image content PC 1 as an example of the result of an image search based on the place name "Kyoto" of the utterance content, not as a limitation.

なお、付加・添付する画像は、地名に基づく画像に限定されない。
この他にも、限定ではなく例として、「A.Aさん」という発話内容に基づいて、ユーザA.Aの社員証画像等の画像が付加されるようにしてもよいし、そうしなくてもよい。その他、会話の内容に関わることであれば、任意の画像を付加してもよいし、そうしなくてもよい。
The images to be added / attached are not limited to images based on place names.
In addition to this, as an example, not limited to, the user A.A. An image such as an employee ID image of A may or may not be added. In addition, any image may or may not be added as long as it is related to the content of the conversation.

図3−4は、図3−3に引き続き、音声データの取得が続いている場合の表示画面の一例である。 FIG. 3-4 is an example of a display screen in the case where the acquisition of voice data is continued following FIG. 3-3.

図3−4では、限定ではなく例として、テキストコンテンツCT5がトークルームに追加されると、テキストコンテンツCT5のメンション機能に反応して、ユーザD.Dがトークルームに「移動中なので後で内容を確認します」という文字のメッセージMSG1を送信する。すると、限定ではなく例として、端末20Aの表示部24に、メッセージをユーザD.Dから受信したことを表すメッセージ着信通知領域NTW1が表示される。 In FIG. 3-4, as an example, not a limitation, when the text content CT5 is added to the talk room, the user D.C. D sends a message MSG1 to the talk room with the words "I'm moving, so I'll check the contents later." Then, as an example, not limited to, a message is sent to the display unit 24 of the terminal 20A by the user D. The message incoming notification area NTW1 indicating that the message has been received from D is displayed.

メッセージMSG1は、音声データに基づく議事録データではないため、限定ではなく例として、コンテンツ表示領域TR1において、メッセージMSG1の左側には、タグと紐付けられた帯は表示されない。 Since the message MSG1 is not the minutes data based on the voice data, the band associated with the tag is not displayed on the left side of the message MSG1 in the content display area TR1 as an example without limitation.

なお、ユーザによって送信(入力)されるメッセージにおいても、タグを紐付けその左側に帯を表示するようにしてもよいし、そのようにしなくてもよい。 In addition, even in the message transmitted (input) by the user, the tag may be linked and the band may be displayed on the left side thereof, or it may not be so.

また、コンテンツ表示領域TR1において、テキストコンテンツCT6の下には、限定ではなく例として、リンク先確認領域LK2が表示されている。リンク先確認領域LK2の下部に表示される内容はリンク先確認領域LK1と同様であるため、説明を省略する。リンク先確認領域LK2の上部には、限定ではなく例として、そのURIのリンク先に関するサムネイルが自動的に生成され表示されている。
これにより、リンク先を手動でたどらずとも、会議中に必要と思われる内容を容易に参照可能となる。
Further, in the content display area TR1, the link destination confirmation area LK2 is displayed under the text content CT6 as an example, not a limitation. Since the content displayed at the bottom of the link destination confirmation area LK2 is the same as that of the link destination confirmation area LK1, the description thereof will be omitted. At the upper part of the link destination confirmation area LK2, as an example, not limited to, thumbnails related to the link destination of the URI are automatically generated and displayed.
This makes it easy to refer to what you think you will need during the meeting without having to manually follow the link.

図3−5は、図3−4から時間をおき、音声データの取得が続いている場合の表示画面の一例である。 FIG. 3-5 is an example of a display screen when the acquisition of audio data continues after a lapse of time from FIG. 3-4.

限定ではなく例として、ユーザによって撮像ボタンBT5がタップされると、端末20Aの制御部21は、メッセージングアプリケーションの撮影機能を実行し、撮像部27によって画像を取得する。撮影された画像は、撮像時点における議事録データに埋め込まれ、コンテンツ表示領域TR1に表示される。 As an example, but not limited to, when the image pickup button BT5 is tapped by the user, the control unit 21 of the terminal 20A executes the photographing function of the messaging application, and the image pickup unit 27 acquires an image. The captured image is embedded in the minutes data at the time of imaging and displayed in the content display area TR1.

図3−5では、限定ではなく例として、画像コンテンツPC2に、撮像ボタンBT5がタップされたことにより取得されたホワイトボードの画像が議事録データに埋め込まれ表示されている。 In FIG. 3-5, as an example, not limited to, the image of the whiteboard acquired by tapping the image pickup button BT5 is embedded in the minutes data and displayed on the image content PC2.

なお、この場合において、限定ではなく例として、撮像後に画像コンテンツPC2のサイズに合わせてトリミングを実行するなどして、画像コンテンツPC2に表示させてもよいし、そうしなくてもよい。 In this case, as an example, the image content PC 2 may or may not be displayed by trimming according to the size of the image content PC 2 after imaging.

また、撮像ボタンBT5がタップされた場合、撮像部27によって動画像を取得するようにしてもよいし、そのようにしなくてもよい。この場合、画像コンテンツPC2には動画像が埋め込まれ、限定ではなく例として、画像コンテンツPC2がコンテンツ表示領域TR1に表示されている間、動画像の時系列が進んで表示される。そして、限定ではなく例として、画像コンテンツPC2がスクロールによって表示されなくなった場合、再度スクロールによりコンテンツ表示領域TR1に表示されると、画像コンテンツPC2には動画像が頭から再生される。 Further, when the image pickup button BT5 is tapped, the image pickup unit 27 may or may not acquire a moving image. In this case, the moving image is embedded in the image content PC2, and the moving image is displayed in time series while the image content PC2 is displayed in the content display area TR1 as an example, not limited to the image content PC2. Then, as an example, not limited to, when the image content PC2 is no longer displayed by scrolling and is displayed in the content display area TR1 by scrolling again, the moving image is reproduced from the head on the image content PC2.

また、画像コンテンツPC2が表示されるタイミングは、撮像ボタンBT5がタップされることによらない。この他にも、撮像部27によって動画像を取得し続け、限定ではなく例として、フレーム間の差分がある程度大きい場合(フレーム間の差分が閾値以上や閾値超となった場合)に、そのフレーム画像を自動的に画像コンテンツPC2として表示させるようにしてもよいし、そのようにしなくてもよい。 Further, the timing at which the image content PC2 is displayed does not depend on the tapping of the image pickup button BT5. In addition to this, when the moving image is continuously acquired by the imaging unit 27 and the difference between frames is large to some extent (when the difference between frames becomes equal to or greater than the threshold value or exceeds the threshold value), the frame is not limited. The image may or may not be automatically displayed as the image content PC2.

図3−6は、図3−5に引き続き、音声データの取得が続いている場合の表示画面の一例である。 FIG. 3-6 is an example of a display screen in the case where the acquisition of voice data is continued following FIG. 3-5.

限定ではなく例として、ユーザE.Eが「時間が押しているので次の議題に移りましょう」と発話したことに基づくテキストコンテンツCT7が、画像コンテンツPC2の下に表示されている。 As an example, not a limitation, User E.I. The text content CT7 based on E's utterance "Because time is pushing, let's move on to the next agenda" is displayed under the image content PC2.

このとき、ユーザE.Eの発話内容に応じて、端末20Aのユーザによってタグ機能ボタンBT7がタップされると、タグ機能ボタンBT7が左方に伸長され、タグの入力領域と、タグ反映機能ボタンとが表示される。限定ではなく例として、図3−6では、タグの入力領域には、「アジェンダ2」という文字が入力されている。 At this time, the user E.I. When the tag function button BT7 is tapped by the user of the terminal 20A according to the utterance content of E, the tag function button BT7 is extended to the left, and the tag input area and the tag reflection function button are displayed. As an example, not a limitation, in FIG. 3-6, the characters "Agenda 2" are input in the tag input area.

ユーザによってタグ反映機能ボタンがタップされると、それ以降の音声データから変換される議事録データには、限定ではなく例として、「アジェンダ2」のタグが付加される。 When the tag reflection function button is tapped by the user, the tag of "Agenda 2" is added to the minutes data converted from the subsequent audio data as an example, not a limitation.

図3−7は、図3−6においてタグ反映機能ボタンがタップされた後、音声データの取得が続いている場合の表示画面の一例である。 FIG. 3-7 is an example of a display screen in the case where the acquisition of voice data continues after the tag reflection function button is tapped in FIG. 3-6.

図3−7では、タグが入力されたことに伴い、テキストコンテンツCT7の下に入力されたタグの内容を表す「アジェンダ2 について」の文字が表示されたタグコンテンツTG2が表示されている。タグコンテンツTG2の両端に塗られた帯についてはタグコンテンツTG1と同様であるため説明を省略する。 In FIG. 3-7, as the tag is input, the tag content TG2 in which the characters “About Agenda 2” indicating the content of the input tag is displayed under the text content CT7 is displayed. The bands painted on both ends of the tag content TG2 are the same as those of the tag content TG1, and thus the description thereof will be omitted.

限定ではなく例として、ユーザA.Aが「それではアジェンダ2の内容についてですが」と発話したことに基づくテキストコンテンツCT8の左側には、タグ「アジェンダ2」と紐付けられた帯が表示されている。
すなわち、ユーザは、帯の色に着目することで議事録データを後から見返すときにどの部分を参照すればよいか容易に判断することができる。
As an example, not a limitation, User A. On the left side of the text content CT8 based on A's utterance, "Then, about the contents of Agenda 2," a band associated with the tag "Agenda 2" is displayed.
That is, by paying attention to the color of the band, the user can easily determine which part should be referred to when looking back at the minutes data later.

図3−8は、図3−7からさらに時間をおき、音声データの取得が続いている場合の表示画面の一例である。 FIG. 3-8 is an example of a display screen when the acquisition of audio data is continued after a further time is taken from FIG. 3-7.

図3−8では、限定ではなく例として、ユーザによってコンテンツ強調機能ボタンBT6がタップされたことに伴い、コンテンツ強調選択領域MBT2が表示されている。 In FIG. 3-8, the content emphasis selection area MBT2 is displayed as the content emphasis function button BT6 is tapped by the user, not as a limitation but as an example.

コンテンツ強調選択領域MBT2には、ユーザ操作に基づいて、テキストコンテンツの表示態様を異ならせるための協調機能選択ボタンが並んでいる。これらのボタンをタップした後にテキストコンテンツをタップすることで、テキストコンテンツの表示態様を意味づけて変化させることができる。 In the content emphasis selection area MBT2, cooperative function selection buttons for changing the display mode of the text content are arranged based on the user operation. By tapping the text content after tapping these buttons, the display mode of the text content can be meaningfully changed.

限定ではなく例として、議事録の「ポイント」を示す選択ボタンをタップし、テキストコンテンツに適用したものが編集済みテキストコンテンツMCT4である。編集済みテキストコンテンツMCT4では、吹き出しの形状が対角を落とした四角形に変化し、さらに指マークが付加される。
これにより、ユーザは、このコンテンツが議事録のポイントとして扱われていることが容易に認識できる。
As an example, not a limitation, the edited text content MCT4 is applied to the text content by tapping the selection button indicating the "point" of the minutes. In the edited text content MCT4, the shape of the balloon changes to a quadrangle with a reduced diagonal, and a finger mark is further added.
As a result, the user can easily recognize that this content is treated as a point of the minutes.

同様に、限定ではなく例として、議事録の「承認」にまつわるコンテンツは、編集済みテキストコンテンツMCT5〜MCT7で示される亀甲型の吹き出しになる。 Similarly, as an example, but not a limitation, the content related to "approval" of the minutes will be the hexagonal balloon shown in the edited text contents MCT5 to MCT7.

なお、コンテンツ強調選択領域MBT2において、「戻す」を示す選択ボタンをタップし、強調表示したコンテンツを続けてタップすることで、元の吹き出し型のテキストコンテンツに復元するようにしてもよいし、しなくてもよい。
これにより、限定ではなく例として、誤ってコンテンツを強調したような場合でも、元の表示態様に戻すことが可能となる。
In the content highlighting selection area MBT2, the selection button indicating "return" may be tapped, and the highlighted content may be tapped continuously to restore the original balloon-type text content. It does not have to be.
As a result, even if the content is mistakenly emphasized as an example rather than a limitation, it is possible to return to the original display mode.

図3−8では、コンテンツ強調選択領域MBT2において、ユーザが議事録の「結論」を示す選択ボタンをタップする。そして、ユーザA.Aが「リリースを1年程度延期します」と発話したことに基づくテキストコンテンツCT9を続けてタップする。 In FIG. 3-8, in the content emphasis selection area MBT2, the user taps the selection button indicating the “conclusion” of the minutes. Then, user A. Continue tapping the text content CT9 based on A's utterance "The release will be postponed for about a year."

図3−9は、図3−8においてテキストコンテンツCT9がタップされた後の画面の一例である。 FIG. 3-9 is an example of the screen after the text content CT9 is tapped in FIG. 3-8.

図3−9では、コンテンツ表示領域TR1に、テキストコンテンツCT9に対して「結論」を意味する二重線の吹き出しにより強調される編集済みテキストコンテンツMCT8が表示されている。 In FIG. 3-9, the edited text content MCT8 emphasized by the balloon of the double line meaning “conclusion” is displayed in the content display area TR1 with respect to the text content CT9.

なお、テキストコンテンツの表示態様を異ならせるための強調機能は、限定ではなく例として、議事録データの文章解析(意味解析)結果から自動的に適用されるようにしてもよいし、そのようにしなくてもよい。 It should be noted that the emphasis function for changing the display mode of the text content may be automatically applied from the sentence analysis (semantic analysis) result of the minutes data as an example, and is not limited to that. It does not have to be.

また、協調対象となるコンテンツとして、「ポイント」や「結論」以外にも、限定ではなく例として、各ユーザに対する課題を意味する「宿題」等を設けてもよいし、そうしなくてもよい。限定ではなく例として、コンテンツが「宿題」として強調される場合、そのコンテンツの内容を自動的にユーザのTODOリストに追加するようにしてもよいし、そのようにしなくてもよい。 In addition to "points" and "conclusions", as content to be collaborated, "homework" or the like, which means a task for each user, may or may not be provided as an example rather than a limitation. .. As an example, rather than a limitation, if the content is emphasized as "homework", the content may or may not be automatically added to the user's TODO list.

図3−9では、編集済みテキストコンテンツMCT8の下には、ユーザA.Aが「これで会議を終わります」と発話したことに基づくテキストコンテンツCT10が表示されている。 In FIG. 3-9, under the edited text content MCT8, the user A. The text content CT10 based on A saying "This is the end of the meeting" is displayed.

限定ではなく例として、端末20Aのユーザは、テキストコンテンツCT10の発話に基づいて、音声データの取得と議事録データの追加とを停止するための記録終了ボタンBT4をタップする。すると、「議事録 終了しました」という文字の議事録終了表示メッセージEXM1がトークルームに追加される。このメッセージによって、このトークルームのメンバーに、議事録データの追加が終了したことを報知している。 As an example, not a limitation, the user of the terminal 20A taps the recording end button BT4 for stopping the acquisition of the voice data and the addition of the minutes data based on the utterance of the text content CT10. Then, the minutes end display message EXM1 with the characters "minutes completed" is added to the talk room. This message informs the members of this talk room that the addition of minutes data has been completed.

音声データの取得と議事録データの追加とが停止されると、限定ではなく例として、編集機能ボタンBT1やフィルタ機能ボタンBT3等の議事録データの編集や表示に関する機能ボタンは、コンテンツ表示領域TR1に表示されなくなる。 When the acquisition of audio data and the addition of minutes data are stopped, the function buttons related to editing and displaying the minutes data, such as the edit function button BT1 and the filter function button BT3, are not limited to the content display area TR1. Will not be displayed in.

なお、限定ではなく例として、コンテンツ表示領域TR1に対してユーザが上スクロール操作を行い、議事録データのコンテンツが表示される場合、コンテンツ表示領域TR1に編集機能ボタンBT1やフィルタ機能ボタンBT3を再表示することで、議事録データ追加後にいつでも編集操作が実行できるようにしてもよいし、そのようにしなくてもよい。 As an example, not limited to this, when the user scrolls up on the content display area TR1 and the contents of the minutes data are displayed, the edit function button BT1 and the filter function button BT3 are re-executed in the content display area TR1. By displaying the minutes data, the editing operation may or may not be executed at any time after the minutes data is added.

また、議事録データのコンテンツが表示される場合には、コンテンツ表示領域TR1に折り畳み機能ボタンBT2を表示させ、議事録データ部分の折りたたみを可能にしてもよいし、そのようにしなくてもよい。 Further, when the content of the minutes data is displayed, the folding function button BT2 may be displayed in the content display area TR1 so that the minutes data portion can be folded, or it is not necessary to do so.

<処理>
図3−10は、本実施例において各装置が実行する処理の流れの一例を示すフローチャートである。
左から順に、端末20Aの制御部21が実行する処理、サーバ10の制御部11が実行する処理の一例をそれぞれ示している。
<Processing>
FIG. 3-10 is a flowchart showing an example of the flow of processing executed by each device in this embodiment.
From left to right, examples of processing executed by the control unit 21 of the terminal 20A and processing executed by the control unit 11 of the server 10 are shown.

このフローチャートは、図2−16のフローチャートを、本実施例におけるリアルタイムモード用の処理に書き換えたフローチャートである。 This flowchart is a flowchart in which the flowchart of FIG. 2-16 is rewritten into the processing for the real-time mode in this embodiment.

まず、端末20Aの制御部21は、議事録投稿先を選択し、通信I/F22によってサーバ10に送信する(A150)。 First, the control unit 21 of the terminal 20A selects the minutes posting destination and transmits the minutes to the server 10 by the communication I / F 22 (A150).

なお、A150のステップの前に、限定ではなく例として、サーバ10において議事録投稿候補選出処理を行い、端末20Aは議事録投稿候補を受信するようにしてもよいし、そうしなくてもよい。あるいは、端末20Aにおいて議事録投稿候補選出処理を実行してもよいし、そうしなくてもよい。これらの場合、議事録投稿候補選出処理では、音声データに基づく方法以外の手法が用いられる。 In addition, before the step of A150, as an example, not limited to, the minutes posting candidate selection process may be performed on the server 10, and the terminal 20A may or may not receive the minutes posting candidate. .. Alternatively, the minutes submission candidate selection process may or may not be executed on the terminal 20A. In these cases, a method other than the method based on audio data is used in the minutes submission candidate selection process.

次いで、端末20Aの制御部21は、入出力部23に対するユーザ入力に基づいて、音声データの取得を終了するか否かの判定を行う(A190) Next, the control unit 21 of the terminal 20A determines whether or not to end the acquisition of voice data based on the user input to the input / output unit 23 (A190).

ユーザによって音声データの取得を終了することが選択された場合(A190:YES)、端末20Aの制御部21は、音声データの取得と議事録データの追加とを終了させるための議事録終端情報を、通信I/F22によってサーバ10に送信する。そして、端末20Aの制御部21は、処理を終了する。 When the user chooses to end the acquisition of the audio data (A190: YES), the control unit 21 of the terminal 20A provides the minutes termination information for terminating the acquisition of the audio data and the addition of the minutes data. , Transmit to the server 10 by communication I / F22. Then, the control unit 21 of the terminal 20A ends the process.

ユーザによって音声データの取得を終了することが選択されなかった場合(A190:NO)、端末20Aの制御部21は、音入力部25に対する入力を受け付け、限定ではなく例として、ユーザの対話内容を含む音声データを取得する。そして、端末20Aの制御部21は、限定ではなく例として、音声データに所定の時間を超える無音状態が生じた場合、それを区切りに音声データを部分音声データして記憶部28に記憶させる(A210)。この場合、部分音声データは、無音区間で区切られる音声データの一区間となる。 When the user does not choose to end the acquisition of voice data (A190: NO), the control unit 21 of the terminal 20A accepts the input to the sound input unit 25, and the user's dialogue content is used as an example, not a limitation. Acquire the audio data including. Then, as an example, the control unit 21 of the terminal 20A stores the voice data as partial voice data in the storage unit 28 when a silence state exceeding a predetermined time occurs in the voice data (as a delimiter). A210). In this case, the partial audio data is a section of audio data separated by a silent section.

その後、端末20Aの制御部21は、取得した部分音声データを、通信I/F22によってサーバ10に送信する(A220)。 After that, the control unit 21 of the terminal 20A transmits the acquired partial voice data to the server 10 by the communication I / F 22 (A220).

サーバ10の制御部11は、通信I/F14によって端末20Aから議事録投稿先を受信する。その後、サーバ10の制御部11は、通信I/F14によって端末20Aから議事録終端情報を受信したか否かの判定を行う(S180)。 The control unit 11 of the server 10 receives the minutes posting destination from the terminal 20A by the communication I / F14. After that, the control unit 11 of the server 10 determines whether or not the minutes termination information has been received from the terminal 20A by the communication I / F 14 (S180).

端末20Aから議事録終端情報を受信した場合(S180:YES)、サーバ10の制御部11は、処理を終了する。 When the minutes termination information is received from the terminal 20A (S180: YES), the control unit 11 of the server 10 ends the process.

端末20Aから議事録終端情報を受信しない場合(S180:NO)、サーバ10の制御部11は、通信I/F14によって端末20Aから部分音声データを受信する。
そして、サーバ10の制御部11は、受信した部分音声データに対して議事録データ変換処理を実行し、部分議事録データを作成(変換)する(S190)。
When the minutes termination information is not received from the terminal 20A (S180: NO), the control unit 11 of the server 10 receives the partial voice data from the terminal 20A by the communication I / F14.
Then, the control unit 11 of the server 10 executes the minutes data conversion process on the received partial voice data, and creates (converts) the partial minutes data (S190).

なお、議事録データ変換処理は、限定ではなく例として、図2−16のS120のステップと同様に実行することが可能なため、詳細な説明を省略する。 Since the minutes data conversion process can be executed in the same manner as the step of S120 of FIG. 2-16 as an example without limitation, detailed description thereof will be omitted.

部分議事録データが作成されると、サーバ10の制御部11は、部分議事録データを議事録投稿先として指定されたチャットルームに追加(入力)する(S200)。 When the partial minutes data is created, the control unit 11 of the server 10 adds (inputs) the partial minutes data to the chat room designated as the minutes posting destination (S200).

その後、サーバ10の制御部11は、チャットルームに追加(入力)された部分議事録データを、通信I/F14によって端末20Aを含むチャットルームに属するユーザの端末に送信する(S210)。そしてサーバ10の制御部11は、S180のステップに処理を戻す。 After that, the control unit 11 of the server 10 transmits the partial minutes data added (input) to the chat room to the terminals of the users belonging to the chat room including the terminal 20A by the communication I / F 14 (S210). Then, the control unit 11 of the server 10 returns the process to the step of S180.

通信I/F22によって部分議事録データを受信すると、端末20Aの制御部21は、表示部24に部分議事録データを追加して表示させる(A230)。そして端末20Aの制御部21は、A190のステップに処理を戻す。 When the partial minutes data is received by the communication I / F 22, the control unit 21 of the terminal 20A adds the partial minutes data to the display unit 24 and displays it (A230). Then, the control unit 21 of the terminal 20A returns the process to the step of A190.

なお、S200のステップを実行せず、端末20の制御部21が、部分議事録データを受信後に部分議事録データをチャットルームに追加するようにしてもよいし、そのようにしなくてもよい。 The control unit 21 of the terminal 20 may or may not add the partial minutes data to the chat room after receiving the partial minutes data without executing the step of S200.

<第3実施例の効果>
第3実施例は、端末20が、音入力部25(限定ではなく、取得部の一例)によって第1音情報(限定ではなく例として、ユーザA.Aの「それでは2020年2月の会議を始めます」という発話を含む部分音声データ)が取得されたことに基づいて、第1文字情報(限定ではなく例として、ユーザA.Aに紐付けられた「それでは2020年2月の会議を始めます」という文字を含む部分議事録データ)がチャットルームに入力され、第1文字情報を含むチャットルーム(限定ではなく例として、テキストコンテンツCT1)を表示部24に表示する。そして、端末20は、音入力部25によって第2音情報(限定ではなく例として、ユーザB.Bの「製品リリースはいつでしたっけ」という発話を含む部分音声データ)が取得されたことに基づいて、第2文字情報(限定ではなく例として、ユーザB.Bに紐付けられた「製品リリースはいつでしたっけ?」という文字を含む部分議事録データ)がチャットルームに入力され、第2文字情報を含むチャットルーム(限定ではなく例として、テキストコンテンツCT3)を表示部24に表示する構成を示している。
このような構成により得られる実施例の効果の一例として、取得部によって第1音情報が取得されると第1文字情報が、第2音情報が取得されると第2文字情報が、端末の表示部に逐次表示されるため、取得部によって音情報が取得されてから、音情報に基づく文字情報が表示されるまでの時間が短縮できる。その結果、ユーザは必要な情報をリアルタイムに参照することができ、ユーザの利便性を向上させることができる。
<Effect of the third embodiment>
In the third embodiment, the terminal 20 uses the sound input unit 25 (an example of an acquisition unit, not a limitation) to provide the first sound information (as an example, not a limitation) of the user A.A. Based on the acquisition of the partial voice data including the utterance "I will start"), the first character information (not limited, but as an example, "Let's start the meeting in February 2020" linked to user AA. Partial minutes data including the characters "masu" is input to the chat room, and the chat room containing the first character information (text content CT1 as an example, not limited) is displayed on the display unit 24. Then, the terminal 20 has acquired the second sound information (not limited, but as an example, partial voice data including the utterance "When was the product released?" By the user BB) by the sound input unit 25. Based on this, the second character information (partial minutes data including the characters "When was the product released?" Associated with user BB as an example, not limited) is input to the chat room, and the second character information is input. A configuration is shown in which a chat room containing two-character information (not limited, but as an example, text content CT3) is displayed on the display unit 24.
As an example of the effect of the embodiment obtained by such a configuration, when the first sound information is acquired by the acquisition unit, the first character information is obtained, and when the second sound information is acquired, the second character information is obtained from the terminal. Since the characters are sequentially displayed on the display unit, the time from the acquisition of the sound information by the acquisition unit to the display of the character information based on the sound information can be shortened. As a result, the user can refer to the necessary information in real time, and the convenience of the user can be improved.

また、第3実施例は、端末20が、撮像画像(限定ではなく例として、撮像ボタンBT5がタップされたことにより取得された画像)のうち少なくとも一部の領域を含む画像情報(限定ではなく例として、画像コンテンツPC2)が、チャットルームに入力され、画像情報を含むチャットルーム(限定ではなく例として、コンテンツ表示領域TR1)を表示部24に表示する構成を示している。
このような構成により得られる実施例の効果の一例として、文字情報では表現が難しい場合でも、画像情報を併用することで、チャットルームの中でより正確に情報が共有可能となる。
Further, in the third embodiment, the terminal 20 includes image information (not limited, but not limited) including at least a part of the captured image (for example, an image acquired by tapping the image capturing button BT5). As an example, the image content PC2) is input to the chat room, and the chat room containing the image information (content display area TR1 as an example, not limited) is displayed on the display unit 24.
As an example of the effect of the embodiment obtained by such a configuration, even if it is difficult to express with text information, by using image information together, information can be shared more accurately in a chat room.

また、第3実施例は、文字情報(限定ではなく例として、テキストコンテンツCT3)は、チャットルームの第1表示領域(限定ではなく例として、コンテンツ表示領域TR1)に表示され、画像情報は、チャットルームの第2表示領域(限定ではなく例として、コンテンツ表示領域TR1のテキストコンテンツ下方)に表示される構成を示している。
このような構成により得られる実施例の効果の一例として、画像情報と文字情報とがお互い邪魔にならないようにチャットルームに表示することができる。
Further, in the third embodiment, the character information (text content CT3 as an example, not limited) is displayed in the first display area (content display area TR1 as an example, not limited) of the chat room, and the image information is displayed. The configuration shown is displayed in the second display area of the chat room (not limited, but as an example, below the text content of the content display area TR1).
As an example of the effect of the embodiment obtained by such a configuration, the image information and the character information can be displayed in the chat room so as not to interfere with each other.

<第3変形例(1)>
第3実施例では、音声データに基づいて、サーバ10で議事録データ変換処理を実行し、議事録データを作成するが、これに限定されない。限定ではなく例として、上記の(2)の手法により処理を実現してもよいし、そうしなくてもよい。
<Third modification (1)>
In the third embodiment, the minutes data conversion process is executed on the server 10 based on the voice data to create the minutes data, but the present invention is not limited to this. As an example, not limited to the above, the process may or may not be realized by the method (2) above.

この場合、限定ではなく例として、端末20の制御部21は、図3−10のA210のステップを実行すると、部分議事録データ変換処理を実行する。各処理については、図3−10のS190のステップと同様に実行することが可能なため、詳細については省略する。そして、端末20の制御部21は、部分議事録データ変換処理で生成された部分議事録データを通信I/F22によってサーバ10に送信する。
サーバ10の制御部11は、通信I/F14によって部分議事録データを受信すると、図3−10のS200以下のステップを実行する。
In this case, as an example but not a limitation, the control unit 21 of the terminal 20 executes the partial minutes data conversion process when the step A210 of FIG. 3-10 is executed. Since each process can be executed in the same manner as the step of S190 in FIG. 3-10, the details will be omitted. Then, the control unit 21 of the terminal 20 transmits the partial minutes data generated by the partial minutes data conversion process to the server 10 by the communication I / F 22.
When the control unit 11 of the server 10 receives the partial minutes data by the communication I / F 14, the control unit 11 of the server 10 executes the steps of S200 and the following in FIG. 3-10.

このような構成により得られる変形例の効果の一例として、部分音情報のデータ容量が大きい場合、端末側で部分音情報をより情報量の圧縮が容易な文字情報へと変換してからサーバへ送信することが可能となり、通信量を削減することができる。
また、部分音声データの区切りを決定する時、限定ではなく例として、文字情報から文節の区切りを検出することで決定することが可能となり、より適切に部分音声データを取得することができる。結果として、部分議事録データ変換処理の精度が向上する。
As an example of the effect of the modified example obtained by such a configuration, when the data capacity of the partial sound information is large, the terminal side converts the partial sound information into character information whose amount of information can be compressed more easily, and then transfers the information to the server. It becomes possible to transmit, and the amount of communication can be reduced.
Further, when determining the delimiter of the partial voice data, it is possible to determine by detecting the delimiter of the phrase from the character information as an example, not the limitation, and the partial voice data can be acquired more appropriately. As a result, the accuracy of the partial minutes data conversion process is improved.

なお、図3−10のS200のステップについても、端末20で行ってもよいし、そうしなくてもよい。 The step S200 in FIG. 3-10 may or may not be performed at the terminal 20.

<第4実施例>
第4実施例は、上記の(C)のタイミングに関する(1)の手法による実施例である。
第4実施例では、議事録サービスにおいて、端末20の制御部21は、議事録データを追加するチャットルームが選択されると、チャットルームに議事録データを逐次(リアルタイム入力)追加するか、音声データを会議終了後にまとめて追加するかの選択用画面を表示する。
第4実施例に記載の内容は、他の各実施例や他の各変形例のいずれにも適用可能である。
<Fourth Example>
The fourth embodiment is an example according to the method (1) relating to the timing of (C) above.
In the fourth embodiment, in the minutes service, when the chat room to which the minutes data is added is selected, the control unit 21 of the terminal 20 sequentially adds the minutes data (real-time input) to the chat room or voices. Display a screen for selecting whether to add data all at once after the meeting.
The contents described in the fourth embodiment can be applied to any of the other embodiments and the other modifications.

<表示画面>
図4−1は、図3−1においてユーザによって「議事録」の機能アイコンがタップされた場合のトークルーム画面の一例である。
<Display screen>
FIG. 4-1 is an example of a talk room screen when the function icon of “minutes” is tapped by the user in FIG. 3-1.

図4−1では、コンテンツ表示領域TR1に、議事録モード選択領域WR6が重畳して表示されている。
議事録モード選択領域WR6には、限定ではなく例として、「リアルタイム追加」の文字で識別されるリアルタイムモード選択ボタンと、「あとで追加」の文字で識別されるバッチ追加モード選択ボタンとが表示されている。
In FIG. 4-1 the minutes mode selection area WR6 is superimposed and displayed on the content display area TR1.
In the minutes mode selection area WR6, as an example, not limited to, a real-time mode selection button identified by the characters "real-time addition" and a batch addition mode selection button identified by the characters "add later" are displayed. Has been done.

リアルタイムモード選択ボタンがユーザによってタップされると、限定ではなく例として、リアルタイムモードの様式に従い、議事録データを会議中に逐次追加する形式が選択される。
また、バッチ追加モード選択ボタンがユーザによってタップされると、限定ではなく例として、バッチ追加モードの様式に従い、議事録データを会議終了後に一括追加する形式が選択される。
When the real-time mode selection button is tapped by the user, the format of adding minutes data sequentially during the meeting is selected according to the format of the real-time mode as an example, not limited.
Further, when the batch addition mode selection button is tapped by the user, a format for batch addition of minutes data after the end of the meeting is selected according to the format of the batch addition mode, not as a limitation but as an example.

図4−2は、図4−1においてバッチ追加モード選択ボタンがタップされた場合のトークルーム画面の一例である。 FIG. 4-2 is an example of the talk room screen when the batch addition mode selection button is tapped in FIG. 4-1.

図4−2では、限定ではなく例として、コンテンツ表示領域TR1に、バッチ追加モード選択ボタンがタップされた時刻に応じて、音声データ取得状況確認領域STW1が割り込む形で表示されている。
すなわち、メッセージMSG1は、音声データ取得開始後にこのトークルームに対して入力(送信)されたメッセージであることを示している。
In FIG. 4-2, the audio data acquisition status confirmation area STW1 is displayed in the content display area TR1 as an example, not limited to the time, in accordance with the time when the batch addition mode selection button is tapped.
That is, the message MSG1 indicates that the message is input (transmitted) to the talk room after the start of voice data acquisition.

図4−3は、会議終了後、ユーザによって記録終了ボタンBT4がタップされ、さらにトークルームに追加された議事録データ概要コンテンツPRC1がタップされた場合のトークルーム画面の一例である。 FIG. 4-3 is an example of a talk room screen when the recording end button BT4 is tapped by the user after the meeting is completed, and then the minutes data summary content PRC1 added to the talk room is tapped.

図4−3では、議事録データ概要コンテンツPRC1がタップされたことに伴い、議事録データ表示領域PRW1が表示されている。
議事録データ表示領域PRW1では、限定ではなく例として、テキストコンテンツCT5のすぐ下に、音声データの取得中に受信したメッセージMSG1が挿入されて表示されている。メッセージMSG1の表示時刻は、図4−2で示された時刻から、音声データの先頭からの相対時間を表す「00:03:30」の表示に自動的に置き換えられている。
In FIG. 4-3, the minutes data display area PRW1 is displayed as the minutes data summary content PRC1 is tapped.
In the minutes data display area PRW1, as an example, the message MSG1 received during the acquisition of voice data is inserted and displayed immediately below the text content CT5. The display time of the message MSG1 is automatically replaced with the display of "00:03:30" indicating the relative time from the beginning of the voice data from the time shown in FIG. 4-2.

なお、図4−4で示すように、音声データの取得中に受信したメッセージMSG1を議事録データ表示領域PRW1に挿入せずに表示してもよいし、そのようにしなくてもよい。
限定ではなく例として、図4−4の表示例では、議事録データ表示領域PRW1のテキストコンテンツCT5のすぐ下には音声データの取得結果に基づくテキストコンテンツが表示され、メッセージMSG1は議事録データ表示領域PRW1外のコンテンツ表示領域TR1に表示時刻を保ったまま表示されている。
As shown in FIG. 4-4, the message MSG1 received during the acquisition of the voice data may or may not be displayed without being inserted into the minutes data display area PRW1.
As an example, not a limitation, in the display example of FIG. 4-4, the text content based on the acquisition result of the voice data is displayed immediately below the text content CT5 of the minutes data display area PRW1, and the message MSG1 displays the minutes data. It is displayed in the content display area TR1 outside the area PRW1 while maintaining the display time.

また、図4−1においてリアルタイムモード選択ボタンがタップされた場合には、限定ではなく例として、図3−2以降と同様の表示画面となる。 Further, when the real-time mode selection button is tapped in FIG. 4-1 as an example, the display screen is the same as that in FIGS. 3-2 and later.

<処理>
図4−5は、バッチ追加モード選択ボタンがタップされる場合における、本実施例において各装置が実行する処理の流れの一例を示すフローチャートである。
左から順に、端末20Aの制御部21が実行する処理、サーバ10の制御部11が実行する処理の一例をそれぞれ示している。
<Processing>
FIG. 4-5 is a flowchart showing an example of the flow of processing executed by each device in this embodiment when the batch addition mode selection button is tapped.
From left to right, examples of processing executed by the control unit 21 of the terminal 20A and processing executed by the control unit 11 of the server 10 are shown.

このフローチャートは、図2−16のフローチャートにおいて、端末20Aの処理として、A150のステップを前に移動させ、A110のステップをA150、A100のステップに置き換え、サーバ10の処理として、S130のステップを削除したフローチャートである。 In this flowchart, in the flowchart of FIG. 2-16, the step of A150 is moved forward as the process of the terminal 20A, the step of A110 is replaced with the step of A150 and A100, and the step of S130 is deleted as the process of the server 10. It is a flowchart of the above.

まず、端末20Aの制御部21は、議事録投稿先を選択し、サーバ10に送信する(A150)。 First, the control unit 21 of the terminal 20A selects the minutes posting destination and transmits the minutes to the server 10 (A150).

なお、A150のステップの前に、限定ではなく例として、サーバ10において議事録投稿候補選出処理を行い、端末20Aは議事録投稿候補を受信するようにしてもよいし、そうしなくてもよい。あるいは、端末20Aにおいて議事録投稿候補選出処理を実行してもよいし、そうしなくてもよい。これらの場合、議事録投稿候補選出処理では、音声データに基づく方法以外の手法が用いられる。 In addition, before the step of A150, as an example, not limited to, the minutes posting candidate selection process may be performed on the server 10, and the terminal 20A may or may not receive the minutes posting candidate. .. Alternatively, the minutes submission candidate selection process may or may not be executed on the terminal 20A. In these cases, a method other than the method based on audio data is used in the minutes submission candidate selection process.

次いで、端末20Aの制御部21は、限定ではなく例として、音入力部25によって音声データを取得する(A100)
そして、端末20Aの制御部21は、A130〜A180の各ステップを実行した後、処理を終了する。
Next, the control unit 21 of the terminal 20A acquires voice data by the sound input unit 25 as an example, not limited to (A100).
Then, the control unit 21 of the terminal 20A finishes the process after executing each step of A130 to A180.

サーバ10の制御部11は、S120〜S170の各ステップを実行した後、処理を終了する。 The control unit 11 of the server 10 ends the process after executing each step of S120 to S170.

なお、リアルタイムモード選択ボタンがタップされる場合には、限定ではなく例として、図3−10と同様に処理を行うことができるため、ここでは詳細な説明を省略する。 When the real-time mode selection button is tapped, the process can be performed in the same manner as in FIG. 3-10 as an example without limitation, and thus detailed description thereof will be omitted here.

<第4実施例の効果>
第4実施例は、トークルーム(限定ではなく、チャットルームの一例)は、限定ではなく例として、リアルタイムモード選択ボタンまたはバッチ追加モード選択ボタンに対するタップ操作(限定ではなく、端末のユーザによる入力の一例)に基づいて選択される構成を示している。
このような構成により得られる実施例の効果の一例として、ユーザが指定したチャットルームに、ユーザが意図する方法で文字情報を入力することができる。これにより、ユーザの利便性を向上させることができる。
<Effect of Fourth Example>
In the fourth embodiment, the talk room (an example of a chat room, not limited) is not limited, but as an example, a tap operation on the real-time mode selection button or the batch addition mode selection button (not limited, but input by the terminal user). The configuration selected based on (one example) is shown.
As an example of the effect of the embodiment obtained by such a configuration, character information can be input in a chat room designated by the user by a method intended by the user. Thereby, the convenience of the user can be improved.

<第4変形例(1)>
第4実施例では、音声データに基づいて、サーバ10で議事録データ(部分議事録データ)変換処理を実行し、議事録データ(部分議事録データ)を作成するが、これに限定されない。限定ではなく例として、上記の(2)の手法により処理を実現してもよいし、そうしなくてもよい。
<Fourth modification (1)>
In the fourth embodiment, the server 10 executes the minutes data (partial minutes data) conversion process based on the voice data to create the minutes data (partial minutes data), but the present invention is not limited to this. As an example, not limited to the above, the process may or may not be realized by the method (2) above.

この場合、リアルタイムモード選択ボタンがタップされる場合には、第3変形例(1)と、バッチ追加モード選択ボタンがタップされる場合には、第2変形例(1)と、それぞれ同様の処理を行えばよい。 In this case, when the real-time mode selection button is tapped, the third modification example (1) is performed, and when the batch addition mode selection button is tapped, the second modification example (1) is processed in the same manner. You just have to do.

<第4変形例(2)>
第4実施例では、リアルタイムモードとバッチ追加モードとは、全てのユーザ発話に対して一括して適用されていたが、これに限定されない。
<Fourth modification (2)>
In the fourth embodiment, the real-time mode and the batch addition mode are collectively applied to all user utterances, but are not limited thereto.

限定ではなく例として、ある特定のユーザ(限定ではなく例として、ユーザC.C)の発話に対してはリアルタイムモードが適用され、それ以外のユーザの発話に対してはバッチ追加モードが適用されるようにしてもよいし、そのようにしなくてもよい。 As an example, not a limitation, the real-time mode is applied to the utterances of a specific user (user CC as an example, not the limitation), and the batch addition mode is applied to the utterances of other users. It may or may not be.

この場合、会議や会合の開催中では、ユーザC.Cの発話内容が議事録データ化され、トークルームで共有される。そして、会議や会合の終了後、その他のユーザの発話内容が議事録データ化され、トークルームに追加される。そのため、限定ではなく例として、ユーザC.Cが会議のキーパーソンである場合、会議進行中にはキーパーソンの発言内容がトークルームで共有されるため、会議の進行が容易になる。会議の終了後には、その他のユーザの発言もトークルームに追加されるため、会議全体の流れを見返すことが容易になる。 In this case, during a meeting or meeting, User C.I. The content of C's utterance is converted into minutes data and shared in the talk room. Then, after the meeting or the meeting is over, the utterance contents of other users are converted into minutes data and added to the talk room. Therefore, as an example, not a limitation, the user C.I. When C is the key person of the meeting, the content of the key person's remarks is shared in the talk room during the meeting, so that the meeting can be facilitated. After the meeting is over, other users' remarks are also added to the talk room, making it easier to look back at the flow of the entire meeting.

なお、リアルタイムモードでの議事録データと、バッチ追加モードでの議事録データとは、会議終了後、どちらかにマージされるようにしてもよいし、独立したまま保管されてもよい。 The minutes data in the real-time mode and the minutes data in the batch addition mode may be merged into either one after the meeting is completed, or may be stored independently.

<第4変形例(3)>
第4実施例では、リアルタイムモードとバッチ追加モードとは、会議(会合)中の全ての時間に対して一括して適用されていたが、これに限定されない。
<Fourth modification (3)>
In the fourth embodiment, the real-time mode and the batch addition mode are collectively applied to all the times during the meeting, but are not limited thereto.

限定ではなく例として、会議のポイントとなる重要事項について議論している時間帯のみリアルタイムモードで議事録データを作成・追加し、それ以外の時間帯ではバッチ追加モードで議事録データを作成・追加するようにしてもよいし、そのようにしなくてもよい。 As an example, not limited, minutes data is created / added in real-time mode only during the time when important matters that are the points of the meeting are discussed, and minutes data is created / added in batch addition mode at other times. You may or may not do so.

この場合、重要事項についての議論内容についてはトークルームにリアルタイムに共有されるため、ユーザはその場で見返すことができ、重要事項についての誤解を防ぐことができる。 In this case, since the content of the discussion about the important matter is shared in the talk room in real time, the user can look back on the spot and prevent misunderstanding about the important matter.

<第5実施例>
上記の実施例では、音声データベース285に保存される音声データに基づいて、議事録データを作成していた。これに対して、本実施例では、映像(動画像)データを用いて、映像データに含まれる音声データ(音声トラック)に基づいて、議事録データを作成する。
第5実施例に記載の内容は、他の各実施例や他の各変形例のいずれにも適用可能である。
<Fifth Example>
In the above embodiment, the minutes data was created based on the voice data stored in the voice database 285. On the other hand, in this embodiment, the minutes data is created based on the audio data (audio track) included in the video data by using the video (moving image) data.
The contents described in the fifth embodiment can be applied to any of the other embodiments and the other modifications.

<表示画面例>
図5−1は、映像データを用いて議事録データを作成した場合における、議事録データ表示領域PRW1の表示態様の一例を示す画面図である。
図5−1では、限定ではなく例として、ユーザA.Aの端末20Aにおける表示画面を示している。
<Display screen example>
FIG. 5-1 is a screen view showing an example of the display mode of the minutes data display area PRW1 when the minutes data is created using the video data.
In FIG. 5-1 as an example, not a limitation, the user A. The display screen in the terminal 20A of A is shown.

図5−1は、限定ではなく例として、図2−14の表示画面に対応する画面であり、限定ではなく例として、ユーザA.Aによって端末20Aの表示部24に表示された議事録データ概要コンテンツPRC1がタップされた後の画面の一例である。 FIG. 5-1 is a screen corresponding to the display screen of FIG. 2-14 as an example, not a limitation, and the user A. This is an example of a screen after the minutes data summary content PRC1 displayed on the display unit 24 of the terminal 20A by A is tapped.

図5−1において、議事録データ表示領域PRW1の左下部には、議事録データを作成するために用いた映像データをピクチャーインピクチャー形式で表示する映像データ表示領域PP1が表示されている。すなわち、映像データ表示領域PP1は、議事録データ表示領域PRW1に対してスクロール操作を行っても、その表示位置は固定される。 In FIG. 5-1, a video data display area PP1 for displaying the video data used for creating the minutes data in a picture-in-picture format is displayed in the lower left portion of the minutes data display area PRW1. That is, the display position of the video data display area PP1 is fixed even if the minutes data display area PRW1 is scrolled.

映像データ表示領域PP1には、限定ではなく例として、映像データのうち、議事録データ表示領域PRW1の最下端に表示されているテキストコンテンツCT5の発話時点における、会議のホワイトボードを撮影した画像が表示されている。 The video data display area PP1 is not limited to, but as an example, an image of the whiteboard of the meeting at the time of utterance of the text content CT5 displayed at the lowermost end of the minutes data display area PRW1 of the video data is captured. It is displayed.

映像データ表示領域PP1の下部には、限定ではなく例として、映像データ表示領域PP1に再生されている映像における、その映像データの先頭からの経過時間が表示されている。すなわち、図5−1では、映像データ表示領域PP1には、テキストコンテンツCT5の発話時刻(会議開始からの経過時間によって定まる時刻)と対応する映像が表示されていることを示している。 At the lower part of the video data display area PP1, as an example, not limited to, the elapsed time from the beginning of the video data in the video being reproduced in the video data display area PP1 is displayed. That is, in FIG. 5-1 it is shown that the video corresponding to the utterance time (time determined by the elapsed time from the start of the conference) of the text content CT5 is displayed in the video data display area PP1.

限定ではなく例として、ユーザによって議事録データ表示領域PRW1に対して上スクロール操作が行われると、議事録データ表示領域PRW1に表示されるコンテンツ(テキストコンテンツ等)は会議の開始時間方向に戻る。このとき、映像データ表示領域PP1に表示される映像も、議事録データ表示領域PRW1に表示されるコンテンツに合わせて巻き戻って表示される。
逆に、ユーザによって議事録データ表示領域PRW1に対して下スクロール操作が行われると、議事録データ表示領域PRW1に表示されるコンテンツは会議の終了時間方向に進む。この場合、映像データ表示領域PP1に表示される映像も、議事録データ表示領域PRW1に表示されるコンテンツに合わせて早送りして表示される。
As an example, not limited to, when the user performs an up-scrolling operation on the minutes data display area PRW1, the content (text content or the like) displayed in the minutes data display area PRW1 returns to the start time direction of the meeting. At this time, the video displayed in the video data display area PP1 is also rewound and displayed according to the content displayed in the minutes data display area PRW1.
On the contrary, when the user performs a downward scroll operation on the minutes data display area PRW1, the content displayed in the minutes data display area PRW1 advances in the direction of the end time of the meeting. In this case, the video displayed in the video data display area PP1 is also fast-forwarded and displayed according to the content displayed in the minutes data display area PRW1.

なお、ユーザによるスクロール操作ではなく、ユーザの「早送り」や「巻き戻し」といった発話に基づいて、映像の早送りや巻き戻しを行うようにしてもよいし、そうしなくてもよい。また、議事録データ表示領域PRW1に対してタップ操作が行われる場合、映像を一時停止して表示させるようにしてもよいし、そのようにしなくてもよい。 It should be noted that the video may or may not be fast-forwarded or rewound based on the user's utterances such as "fast-forward" and "rewind" instead of the scrolling operation by the user. Further, when the tap operation is performed on the minutes data display area PRW1, the video may or may not be paused and displayed.

すなわち、映像データ表示領域PP1に表示される映像は、議事録データ表示領域PRW1に表示されるコンテンツと時間軸上で同期した映像となる。 That is, the video displayed in the video data display area PP1 is a video synchronized on the time axis with the content displayed in the minutes data display area PRW1.

なお、映像データを用いて議事録データを作成した場合、議事録データ表示領域PRW1に映像データ表示領域PP1が表示されることは必須ではない。限定ではなく例として、ユーザの選択操作に基づいて、議事録データ表示領域PRW1に映像データ表示領域PP1をオーバーレイ表示させるようにしてもよいし、そのようにしなくてもよい。 When the minutes data is created using the video data, it is not essential that the video data display area PP1 is displayed in the minutes data display area PRW1. As an example, not the limitation, the video data display area PP1 may or may not be overlaid on the minutes data display area PRW1 based on the user's selection operation.

また、限定ではなく例として、図2−7において、音声データ一覧情報表示領域WR1の複数の音声データと映像データとを示す行がユーザによって選択され(タップされ)、続いて不図示の音声データ選択決定ボタンがタップされることで、複数の音声データと映像データとから一つの議事録データを作成するようにしてもよいし、そうしなくてもよい。 Further, as an example, not limited to, in FIG. 2-7, a line indicating a plurality of audio data and video data in the audio data list information display area WR1 is selected (tapped) by the user, followed by audio data (not shown). By tapping the selection decision button, one minute data may or may not be created from a plurality of audio data and video data.

<処理>
本実施例における処理は、限定ではなく例として、映像データに付随する音声トラックを音声データとみなすことで、図2−16と同様に実現可能であるため、ここでは詳細な説明を省略する。
<Processing>
The processing in this embodiment is not limited, but as an example, it can be realized in the same manner as in FIG. 2-16 by regarding the audio track accompanying the video data as audio data. Therefore, detailed description thereof will be omitted here.

本実施例では、映像データ表示領域PP1に表示される映像(動画像)を、議事録データ表示領域PRW1に表示されるコンテンツと時間軸上で同期させて再生制御している。つまり、議事録データ表示領域PRW1に表示されるコンテンツの位置に合わせて、動画像の再生位置を変更している。 In this embodiment, the video (moving image) displayed in the video data display area PP1 is synchronized with the content displayed in the minutes data display area PRW1 on the time axis to control playback. That is, the reproduction position of the moving image is changed according to the position of the content displayed in the minutes data display area PRW1.

これを実現するための手法としては、限定ではなく例として、議事録データ変換処理において、映像データに対して、各コンテンツを生成するために用いられた音声トラックの発話開始点にチャプターマーク(場面ごとの区切りを示すポインタ)をコンテンツと紐付けて挿入する。そして、議事録データ表示領域PRW1に表示されるコンテンツのうち、映像データ表示領域PP1に表示される映像の基準となるコンテンツと紐付けられたチャプターマークを再生開始点として映像データを再生させればよい。 The method for achieving this is not limited, but as an example, in the minutes data conversion process, a chapter mark (scene) is set at the utterance start point of the audio track used to generate each content for the video data. Insert a pointer (pointer indicating each delimiter) in association with the content. Then, among the contents displayed in the minutes data display area PRW1, if the video data is played back using the chapter mark associated with the reference content of the video displayed in the video data display area PP1 as the playback start point. good.

上記の他にも、限定ではなく例として、議事録データ変換処理において議事録データ表示領域PRW1に表示される最初の(先頭の)コンテンツを生成するために用いられた音声トラックの発話開始時刻を、映像データ表示領域PP1に表示される映像の再生基準点(再生開始時刻)とすることによっても実現可能である。再生基準点(再生開始時刻)が決まれば、テキストコンテンツの発話時刻に対応する時点(タイミング)から映像を再生することで、映像データ表示領域PP1に表示される映像(動画像)を、議事録データ表示領域PRW1に表示されるコンテンツと時間軸上で同期させることが可能となる。 In addition to the above, as an example, not limited to, the utterance start time of the audio track used to generate the first (first) content displayed in the minutes data display area PRW1 in the minutes data conversion process. , It can also be realized by setting the reproduction reference point (reproduction start time) of the image displayed in the image data display area PP1. Once the playback reference point (playback start time) is determined, the video (moving image) displayed in the video data display area PP1 is recorded in the minutes by playing back the video from the time (timing) corresponding to the speech time of the text content. It is possible to synchronize with the content displayed in the data display area PRW1 on the time axis.

なお、限定ではなく例として、議事録の作成を開始した時刻(議事録作成開始時刻)の情報と、動画像の録画が開始された時刻(録画開始時刻)の情報とを記憶部28に保存しておく。そして、議事録作成開始時刻と録画開始時刻との差に基づいて、上記の再生基準点を決定してもよいし、そのようにしなくてもよい。 In addition, as an example, not limited, the information of the time when the minutes creation is started (minutes creation start time) and the information of the time when the recording of the moving image is started (recording start time) are saved in the storage unit 28. I will do it. Then, the above-mentioned reproduction reference point may or may not be determined based on the difference between the minutes creation start time and the recording start time.

<第5実施例の効果>
第5実施例は、映像データ(限定ではなく、撮像画像の一例)のうち少なくとも一部の領域を含むホワイトボードの動画像(限定ではなく、画像情報の一例)が、トークルーム(限定ではなく、チャットルームの一例)に入力され、端末20は、この動画像を含むコンテンツ表示領域TR1を表示部24に表示する構成を示している。
このような構成により得られる実施例の効果の一例として、文字情報では表現が難しい場合でも、画像情報を併用することで、チャットルームの中でより正確に情報が共有可能となる。
<Effect of the fifth embodiment>
In the fifth embodiment, the moving image (not limited, but an example of image information) of the whiteboard including at least a part of the video data (an example of a captured image, not limited) is a talk room (not limited, but an example of image information). , An example of a chat room), and the terminal 20 shows a configuration in which the content display area TR1 including the moving image is displayed on the display unit 24.
As an example of the effect of the embodiment obtained by such a configuration, even if it is difficult to express with text information, by using image information together, information can be shared more accurately in a chat room.

また、第5実施例は、テキストコンテンツ(限定ではなく、文字情報の一例)等のコンテンツは、トークルームの議事録データ表示領域PRW1(限定ではなく、第1表示領域の一例)に表示され、動画像等の画像情報は、トークルームの映像データ表示領域PP1(限定ではなく、第2表示領域の一例)に表示される構成を示している。
このような構成により得られる実施例の効果の一例として、画像情報と文字情報とが互いに邪魔にならないようにチャットルームに表示することができる。
Further, in the fifth embodiment, the content such as text content (not limited, but an example of character information) is displayed in the minutes data display area PRW1 (not limited, but an example of the first display area) of the talk room. The image information such as a moving image shows a configuration displayed in the video data display area PP1 (not limited, but an example of the second display area) of the talk room.
As an example of the effect of the embodiment obtained by such a configuration, the image information and the character information can be displayed in the chat room so as not to interfere with each other.

また、第5実施例は、端末20が、端末20のユーザによる入力に基づいて、トークルームにおけるコンテンツのスクロール制御(限定ではなく、第1表示領域の位置を変化させる制御の一例)を制御部21によって行い、トークルームにおける映像データ表示領域PP1の位置(限定ではなく、チャットルームにおける第2表示領域の位置の一例)は、端末20のユーザによる入力に基づいて変化しない構成を示している。
このような構成により得られる実施例の効果の一例として、第1表示領域の位置を変化させる制御に関わらず、第2表示領域の位置は固定されるため、第2表示領域の閲覧性を向上させることができる。
Further, in the fifth embodiment, the terminal 20 controls the scroll control of the content in the talk room (not limited, but an example of control for changing the position of the first display area) based on the input by the user of the terminal 20. 21 is performed, and the position of the video data display area PP1 in the talk room (not limited, but an example of the position of the second display area in the chat room) shows a configuration that does not change based on the input by the user of the terminal 20.
As an example of the effect of the embodiment obtained by such a configuration, the position of the second display area is fixed regardless of the control of changing the position of the first display area, so that the viewability of the second display area is improved. Can be made to.

また、第5実施例は、画像情報は動画像の情報であり、端末20は、端末20のユーザによる上スクロールや下スクロール等の操作(限定ではなく、端末のユーザによる入力の一例)に基づいて、動画像の巻き戻しや早送りの制御(限定ではなく、動画像を再生する制御の一例)を制御部21によって行う構成を示している。
このような構成により得られる実施例の効果の一例として、動画像を再生する制御をユーザの入力に基づいて実行可能となるため、ユーザの利便性を向上させることができる。
Further, in the fifth embodiment, the image information is moving image information, and the terminal 20 is based on operations such as up scrolling and down scrolling by the user of the terminal 20 (not limited, but an example of input by the user of the terminal). The control unit 21 is used to control the rewinding and fast-forwarding of the moving image (not limited to the control of reproducing the moving image).
As an example of the effect of the embodiment obtained by such a configuration, the control for reproducing the moving image can be executed based on the input of the user, so that the convenience of the user can be improved.

また、第5実施例は、端末20が、端末20のユーザによる入力に基づいて、テキストコンテンツを含むコンテンツのうちの一部のコンテンツ(限定ではなく、第3文字情報の一例)を議事録データ表示領域PRW1(限定ではなく、第1表示領域の一例)に表示する制御を制御部21によって行う。そして、端末20は、議事録データ表示領域PRW1に表示されるコンテンツに基づいて、動画像を再生する制御を制御部21によって行う構成を示している。
このような構成により得られる実施例の効果の一例として、端末のユーザによる入力に基づいて、文字情報のうちの一部の文字情報である第3文字情報を第1表示領域に表示する制御が行われる。そして、第1表示領域に表示される第3文字情報に基づいて動画像を再生する制御を実行可能となるため、ユーザの利便性を向上させることができる。
Further, in the fifth embodiment, the terminal 20 uses the minutes data of a part of the contents including the text contents (not limited, but an example of the third character information) based on the input by the user of the terminal 20. The control unit 21 controls the display in the display area PRW1 (not limited, but an example of the first display area). Then, the terminal 20 shows a configuration in which the control unit 21 controls to reproduce the moving image based on the content displayed in the minutes data display area PRW1.
As an example of the effect of the embodiment obtained by such a configuration, a control for displaying the third character information, which is a part of the character information, in the first display area based on the input by the user of the terminal is performed. Will be done. Then, since the control for reproducing the moving image can be executed based on the third character information displayed in the first display area, the convenience of the user can be improved.

また、この場合、限定ではなく例として、動画像の再生位置を、議事録データ表示領域PRW1に表示される一部のコンテンツ(第3文字情報)に基づいて変更するようにすることができる。
このような構成により得られる実施例の効果の一例として、第2表示領域に表示される動画像を、第1表示領域に表示されるコンテンツと時間軸上で同期させることができるため、ユーザにとって直感的で分かり易い動画像の再生を実現可能となる。
Further, in this case, as an example, the reproduction position of the moving image can be changed based on a part of the contents (third character information) displayed in the minutes data display area PRW1.
As an example of the effect of the embodiment obtained by such a configuration, the moving image displayed in the second display area can be synchronized with the content displayed in the first display area on the time axis, so that the user can use it. Intuitive and easy-to-understand video reproduction can be realized.

また、第5実施例は、端末20が、端末20のユーザによる入力に基づいて、トークルームにおけるコンテンツのスクロール制御(限定ではなく、第1表示領域の位置を変化させる制御の一例)を制御部21によって行い、コンテンツのスクロール制御に基づいて表示部24に表示されるコンテンツに対応して動画像を再生する制御を制御部21によって行う構成を示している。
このような構成により得られる実施例の効果の一例として、第1表示領域の位置を変化させる制御に基づいて端末の表示部に表示される文字情報に対応して動画像を再生する制御を実行可能となるため、ユーザの利便性を向上させることができる。
Further, in the fifth embodiment, the terminal 20 controls the scroll control of the content in the talk room (not limited, but an example of control for changing the position of the first display area) based on the input by the user of the terminal 20. 21 shows a configuration in which the control unit 21 controls to reproduce a moving image corresponding to the content displayed on the display unit 24 based on the scroll control of the content.
As an example of the effect of the embodiment obtained by such a configuration, the control of reproducing the moving image corresponding to the character information displayed on the display unit of the terminal is executed based on the control of changing the position of the first display area. Since it is possible, the convenience of the user can be improved.

また、第5実施例は、上記の端末20のユーザによる入力は、スクロール操作による入力を含む構成を示している。
このような構成により得られる実施例の効果の一例として、端末のユーザは、スクロール操作という簡易かつ直感的な操作によって、動画像を再生することが可能となるため、ユーザの利便性を向上させることができる。
Further, the fifth embodiment shows a configuration in which the input by the user of the terminal 20 includes the input by the scroll operation.
As an example of the effect of the embodiment obtained by such a configuration, the user of the terminal can reproduce the moving image by a simple and intuitive operation called a scroll operation, which improves the convenience of the user. be able to.

<第5変形例(1)>
第5実施例では、バッチ追加モードでの例を説明したが、これに限定されない。限定ではなく例として、リアルタイムモードでも映像データに基づいて議事録データを作成してもよいし、そうしなくてもよい。
<Fifth modification (1)>
In the fifth embodiment, an example in the batch addition mode has been described, but the present invention is not limited to this. As an example, not limited to, the minutes data may or may not be created based on the video data even in the real-time mode.

この場合、限定ではなく例として、撮像部27を用いて映像データを取得し、映像データの音声トラックから部分音声データを作成すればよい。 In this case, the image data may be acquired by using the imaging unit 27 and partial audio data may be created from the audio track of the video data as an example, not limited to this.

また、表示画面としては、コンテンツ表示領域TR1の左下側に、映像データ表示領域PP1が表示させ、映像データ表示領域PP1は、コンテンツ表示領域TR1に対してスクロール操作を行ってもその表示位置は固定されるようにすればよい。 Further, as a display screen, the video data display area PP1 is displayed on the lower left side of the content display area TR1, and the display position of the video data display area PP1 is fixed even if the content display area TR1 is scrolled. It should be done.

このとき、ユーザによってコンテンツ表示領域TR1に対して上スクロール操作が行われると、映像データ表示領域PP1に表示される映像は、コンテンツ表示領域TR1に表示されるコンテンツに合わせて巻き戻って表示される。
逆に、ユーザによってコンテンツ表示領域TR1に対して下スクロール操作が行われると、映像データ表示領域PP1に表示される映像は、コンテンツ表示領域TR1に表示されるコンテンツに合わせて早送りで表示される。
At this time, when the user performs an up-scrolling operation on the content display area TR1, the video displayed in the video data display area PP1 is rewound and displayed according to the content displayed in the content display area TR1. ..
On the contrary, when the user performs a downward scroll operation on the content display area TR1, the video displayed in the video data display area PP1 is displayed in fast forward according to the content displayed in the content display area TR1.

<第5変形例(2)>
第5実施例では、映像(動画像)データを用いて議事録データを作成する場合、映像データ表示領域PP1に映像が表示されることとしたが、これに限定されない。限定ではなく例として、編集機能ボタンBT1がタップされ、映像(動画像)の挿入操作が選択される場合、その映像を映像データ表示領域PP1に表示させるようにしてもよいし、そのようにしなくてもよい。
<Fifth variant (2)>
In the fifth embodiment, when the minutes data is created using the video (moving image) data, the video is displayed in the video data display area PP1, but the present invention is not limited to this. As an example, not a limitation, when the edit function button BT1 is tapped and the insertion operation of a video (moving image) is selected, the video may be displayed in the video data display area PP1 or not. You may.

この場合においても、映像データ表示領域PP1に表示される映像は、限定ではなく例として、コンテンツ表示領域TR1に対するスクロール操作によって、限定ではなく例として、早送りや巻き戻し等の表示操作が行われるようにしてもよいし、そのようにしなくてもよい。 Even in this case, the video displayed in the video data display area PP1 is not limited, and as an example, a scroll operation for the content display area TR1 is performed, and a display operation such as fast forward or rewind is performed as an example, not limited. It may or may not be.

<第6実施例>
第6実施例は、チャットルーム(トークルーム)に表示されるコンテンツ(メッセージ)の表示態様に関する実施例である。
第6実施例では、メッセンジャー(メッセージングサービス、メッセージングアプリケーション)の種類に応じて、同一のコンテンツに対してチャットルームで表示される態様を異ならせる。
第6実施例に記載の内容は、他の各実施例や他の各変形例のいずれにも適用可能である。
<Sixth Example>
The sixth embodiment is an embodiment relating to a display mode of the content (message) displayed in the chat room (talk room).
In the sixth embodiment, the mode in which the same content is displayed in the chat room differs depending on the type of messenger (messaging service, messaging application).
The contents described in the sixth embodiment can be applied to any of the other embodiments and the other modifications.

図6−1は、メッセンジャーの種類ごとに表示態様を規定した表示形式テーブルTBL1の一例を示す図である。
この表示形式テーブルTBL1は、限定ではなく例として、サーバ10の記憶部15に記憶される。
FIG. 6-1 is a diagram showing an example of a display format table TBL1 in which a display mode is defined for each type of messenger.
The display format table TBL1 is stored in the storage unit 15 of the server 10 as an example without limitation.

表示形式テーブルTBL1では、メッセンジャーの種類ごとに、限定ではなく例として、改行位置と、吹き出し頻度と、絵文字表示とが関連付けて規定されている。 In the display format table TBL1, for each type of messenger, the line feed position, the balloon frequency, and the pictogram display are defined in association with each other as an example, not limited.

改行位置は、コンテンツ中の一行の長さを規定した文字数であり、改行位置で規定される文字数を超える場合、限定ではなく例として、自動的に改行されて表示される。 The line feed position is the number of characters that specify the length of one line in the content, and if it exceeds the number of characters specified by the line feed position, it is not limited but is automatically displayed as a line feed as an example.

吹き出し頻度は、単一のテキストコンテンツの中に包含され得る行数を規定したものであり、吹き出し頻度で規定される行数を超える場合、限定ではなく例として、自動的にテキストコンテンツが分割され、複数のコンテンツとして表示される。 The callout frequency defines the number of lines that can be included in a single text content, and if the number of lines specified by the callout frequency is exceeded, the text content is automatically divided as an example, not a limitation. , Displayed as multiple contents.

絵文字表記は、絵文字の表示に関わる規定であり、限定ではなく例として、コンテンツ中に含まれる絵文字を絵として表示させる(「絵文字」として規定)か、絵文字の内容に沿うテキストに変換して表示させる(「テキスト変換」として規定)か、絵文字を削除して表示させる(「削除」として規定)かのいずれかの表記を取る。 Pictogram notation is a regulation related to the display of pictograms, and is not limited, but as an example, the pictograms included in the content are displayed as pictograms (defined as "pictograms"), or converted to text that matches the content of the pictograms and displayed. Take the notation of either letting (specified as "text conversion") or deleting and displaying pictograms (specified as "delete").

ここで、絵文字とは、限定ではなく例として、Unicode6形式以降でEmojiとして定義されている、物や事柄を、絵を文字のように用いて象徴的に示唆するもののことを指す。 Here, the pictogram is not a limitation but, as an example, refers to a thing or a thing defined as Emoji in the Unite 6 format or later, which symbolically suggests a thing or a thing by using a picture like a character.

表示形式テーブルTBL1は、限定ではなく例として、「メッセンジャーA」では、コンテンツ中の文章の28文字ごとに改行を行い、10行を超える場合には別なコンテンツに分割し、絵文字は絵文字として表示させる態様を適用することを規定している。 The display format table TBL1 is not limited, but as an example, in "Messenger A", a line break is performed every 28 characters of the text in the content, and if it exceeds 10 lines, it is divided into another content and the pictogram is displayed as a pictogram. It stipulates that the aspect of causing is applied.

また、限定ではなく例として、「メッセンジャーB」では、コンテンツ中の文章の16文字ごとに改行を行い、4行を超える場合には別なコンテンツに分割し、絵文字は絵文字として表示させる態様を適用することを規定している。 In addition, as an example, not limited, in "Messenger B", a line break is applied to every 16 characters of the text in the content, and if it exceeds 4 lines, it is divided into another content and the pictogram is displayed as a pictogram. It stipulates that.

同じ長さの文字列からなる文章を表示させる場合、「メッセンジャーA」よりも「メッセンジャーB」では、単一のコンテンツに含まれる文字数は少なく、また、一行当たりの文字数も少ない。
すなわち、「メッセンジャーB」の表示領域は、「メッセンジャーA」の表示領域よりも狭いことが推測される。
When displaying sentences composed of character strings of the same length, the number of characters contained in a single content is smaller in "Messenger B" than in "Messenger A", and the number of characters per line is also smaller.
That is, it is presumed that the display area of "Messenger B" is narrower than the display area of "Messenger A".

限定ではなく例として、「メッセンジャーC」では、コンテンツ中の文章の30文字ごとに改行を行い、12行を超える場合には別なコンテンツに分割し、絵文字はテキストに変換して表示させる態様を適用することを規定している。 As an example, not a limitation, in "Messenger C", a line break is performed every 30 characters in the text in the content, and if it exceeds 12 lines, it is divided into another content, and the pictogram is converted into text and displayed. It stipulates that it applies.

この場合、「メッセンジャーC」は、単一のコンテンツに含まれる文字数が多く、コンテンツ中の情報が文字に置き換えられることから、テキストの表示に特化したメッセンジャーであることが推測される。 In this case, "messenger C" is presumed to be a messenger specialized in displaying text because the number of characters contained in a single content is large and the information in the content is replaced with characters.

限定ではなく例として、「メッセンジャーD」では、コンテンツ中の文章の140文字ごとに改行を行い、1つのコンテンツは一文のみを含み、絵文字は削除(省略)して表示させる態様を適用することを規定している。 As an example, not a limitation, in "Messenger D", a line break is applied to every 140 characters of a sentence in the content, one content contains only one sentence, and pictograms are deleted (omitted) and displayed. It stipulates.

このことから、「メッセンジャーD」は、短文をやり取りすることに特化したメッセンジャーであることが推測される。 From this, it is inferred that "Messenger D" is a messenger specialized in exchanging short sentences.

サーバ10の制御部11は、使用されるメッセンジャーに基づいて、限定ではなく例として、表示形式テーブルTBL1に規定される形式に議事録データを成形し、チャットルームに追加(入力)する。 Based on the messenger used, the control unit 11 of the server 10 forms the minutes data in the format specified in the display format table TBL1 and adds (inputs) it to the chat room.

なお、議事録データをサーバ10から受信した後、端末20Aで表示形式テーブルTBL1に従い、表示態様を異ならせるようにしてもよいし、そうしなくてもよい。 After receiving the minutes data from the server 10, the terminal 20A may or may not have different display modes according to the display format table TBL1.

<第6実施例の効果>
第6実施例は、議事録データのテキストコンテンツ(限定ではなく、文字情報の一例)は、メッセンジャーA(限定ではなく、チャットサービスの一例)の種類に基づく態様で、チャットルームに入力される構成を示している。
このような構成により得られる実施例の効果の一例として、チャットサービスの特性に基づいて、文字情報の表示態様を異ならせることができる。これにより、ユーザの閲覧性を向上させることができる。
<Effect of the sixth embodiment>
In the sixth embodiment, the text content of the minutes data (an example of text information, not a limitation) is input to the chat room in a manner based on the type of messenger A (an example of a chat service, not a limitation). Is shown.
As an example of the effect of the embodiment obtained by such a configuration, the display mode of the character information can be changed based on the characteristics of the chat service. This makes it possible to improve the readability of the user.

また、第6実施例は、文字情報は、チャットサービスの種類に基づく改行位置で改行されて、チャットルームに入力される構成を示している。
このような構成により得られる実施例の効果の一例として、チャットサービスの特性に応じて一行の文字数を変化させることができ、ユーザの利便性を向上させることができる。
Further, the sixth embodiment shows a configuration in which the character information is broken at a line feed position based on the type of the chat service and is input to the chat room.
As an example of the effect of the embodiment obtained by such a configuration, the number of characters in one line can be changed according to the characteristics of the chat service, and the convenience of the user can be improved.

<第6変形例(1)>
第6実施例では、サーバ10の制御部11が、表示形式テーブルTBL1に合わせて議事録データを成形していたが、これに限定されない。
限定ではなく例として、メッセンジャーの種類に応じた議事録データの成形は、端末20で実行してもよいし、そのようにしなくてもよい。
<Sixth variant (1)>
In the sixth embodiment, the control unit 11 of the server 10 forms the minutes data according to the display format table TBL1, but the present invention is not limited to this.
As an example, not a limitation, the shaping of the minutes data according to the type of the messenger may or may not be performed on the terminal 20.

この場合、限定ではなく例として、端末20の記憶部28に表示形式テーブルTBL1を記憶させる。そして、端末20の制御部21は、サーバ10から議事録データを受信すると、メッセンジャーの種類に応じて、表示形式テーブルTBL1に従い各コンテンツを成形し、表示部24に表示させる。 In this case, the display format table TBL1 is stored in the storage unit 28 of the terminal 20 as an example, not a limitation. Then, when the control unit 21 of the terminal 20 receives the minutes data from the server 10, each content is molded according to the display format table TBL1 according to the type of the messenger, and is displayed on the display unit 24.

<第6変形例(2)>
第6実施例では、表示形式テーブルTBL1はメッセンジャーの種類ごとに表示態様を規定したものであったが、これに限定されない。
<Sixth variant (2)>
In the sixth embodiment, the display format table TBL1 defines the display mode for each type of messenger, but the display mode is not limited to this.

限定ではなく例として、端末20の表示部24の表示領域の大きさに応じて、表示態様を規定してもよいし、そのようにしなくてもよい。 As an example, not a limitation, the display mode may or may not be defined according to the size of the display area of the display unit 24 of the terminal 20.

この場合、限定ではなく例として、表示部24が1334×750ピグセルより大きい表示画面の場合にはメッセンジャーAの表示態様で、1334×750ピグセル以下の表示画面の場合にはメッセンジャーBの表示態様で、それぞれコンテンツを成形させるようにすればよい。 In this case, as an example, not limited, the display mode of the messenger A is used when the display unit 24 is larger than the 1334 × 750 pig cell, and the display mode of the messenger B is used when the display screen is 1334 × 750 pig cells or less. , Each content may be molded.

<第7実施例>
第7実施例は、会議や会合の出席状況に応じて、チャットルーム(トークルーム)に表示される議事録データに閲覧制限が設定される場合の実施例である。
第7実施例は、上記の(A)のタイミングに関する実施例である。
第7実施例に記載の内容は、他の各実施例や他の各変形例のいずれにも適用可能である。
<7th Example>
The seventh embodiment is an embodiment in which viewing restrictions are set for the minutes data displayed in the chat room (talk room) according to the attendance status of the meeting or the meeting.
The seventh embodiment is an embodiment relating to the timing of (A) above.
The contents described in the seventh embodiment can be applied to any of the other embodiments and the other modifications.

<データ構成>
本実施例におけるカレンダー情報管理データベース159の一例であるカレンダー情報管理データベース159Bのデータ構成例を図7−1に示す。
カレンダー情報管理データベース159Bには、スケジュール管理アプリケーションのカレンダーに登録されるイベントごとの管理データとして、カレンダー情報管理データが記憶される。
<Data structure>
FIG. 7-1 shows an example of data configuration of the calendar information management database 159B, which is an example of the calendar information management database 159 in this embodiment.
The calendar information management database 159B stores calendar information management data as management data for each event registered in the calendar of the schedule management application.

各々のカレンダー情報管理データには、限定ではなく例として、イベントIDと、MSアプリケーションIDと、イベント名と、イベント開始日時と、イベント終了日時と、イベント開催場所と、関連URIと、招待者データと、出欠管理データとが記憶される。 Each calendar information management data is not limited, but as an example, event ID, MS application ID, event name, event start date and time, event end date and time, event venue, related URI, and invitee data. And attendance management data are stored.

イベントIDと、MSアプリケーションIDと、イベント名と、イベント開始日時と、イベント終了日時と、イベント開催場所と、関連URIと、招待者データとについては、限定ではなく例として、カレンダー情報管理データベース159Aと同様であるため、再度の説明を省略する。 The event ID, MS application ID, event name, event start date and time, event end date and time, event venue, related URI, and invitee data are not limited, but as an example, the calendar information management database 159A. Since it is the same as the above, the description thereof will be omitted again.

出欠管理データには、そのイベントIDによって識別されるイベントに招待されたユーザの情報として、限定ではなく例として、MSアプリケーションIDと、出席時刻と、退席時刻とが関連付けて記憶される。 In the attendance management data, as information of the user invited to the event identified by the event ID, the MS application ID, the attendance time, and the leaving time are stored in association with each other as an example, not limited to the information.

MSアプリケーションIDは、限定ではなく例として、招待者データに記憶されるユーザのMSアプリケーションIDである。 The MS application ID is not limited, but is, for example, the user's MS application ID stored in the invitee data.

出席時刻は、MSアプリケーションIDで識別されるユーザの端末20が、限定ではなく例として、このイベントIDで識別されるイベント開催場所に設置されたビーコン装置から発信されるビーコン信号の受信圏内に到達した時刻である。 The attendance time is not limited, but the user's terminal 20 identified by the MS application ID reaches the reception range of the beacon signal transmitted from the beacon device installed at the event venue identified by this event ID. It is the time when

退席時刻は、MSアプリケーションIDで識別されるユーザの端末20が、限定ではなく例として、このイベントIDで識別されるイベント開催場所に設置されたビーコン装置から発信されるビーコン信号の受信圏内から離脱した時刻である。 The leaving time is not limited to the user's terminal 20 identified by the MS application ID, but as an example, the user's terminal 20 leaves the reception range of the beacon signal transmitted from the beacon device installed at the event venue identified by this event ID. It is the time when

すなわち、出席時刻と退席時刻とは、このイベントIDで識別されるイベント開始日時以降に出欠管理データに記憶される。 That is, the attendance time and the leaving time are stored in the attendance management data after the event start date and time identified by this event ID.

なお、イベント開始日時以降に、ある端末がビーコン装置への接近と離脱を繰り返す場合、出欠管理データには、出席時刻と退席時刻との組を複数記憶するようにしてもよいし、そのようにしなくてもよい。また、端末がビーコン装置に接近しなかった場合には、出席時刻と退席時刻とに、ユーザが欠席したことを示す、限定ではなく例として、「NULL」の値を入れるようにしてもよいし、そのようにしなくてもよい。 If a terminal repeatedly approaches and leaves the beacon device after the event start date and time, a plurality of pairs of attendance time and attendance time may be stored in the attendance management data, and so on. It does not have to be. Further, when the terminal does not approach the beacon device, the value of "Null" may be entered in the attendance time and the leaving time as an example, not a limitation, indicating that the user is absent. , You don't have to do that.

また、出席時刻と退席時刻とを取得する方法は、ビーコン装置を用いる方法に限定されない。限定ではなく例として、イベント開催場所の緯度と経度とで識別可能な位置情報に基づいて、各端末20の位置算出用情報検出部29Bにおいて位置情報を取得する。端末20がイベント開催場所の位置情報と所定の範囲内で合致する位置に移動した場合、その時刻を端末20のユーザの出席時刻にしてもよいし、そうしなくてもよい。端末20がイベント開催場所の位置情報と所定の範囲内で合致する位置を離れた場合、その時刻を端末20のユーザの退席時刻にしてもよいし、そうしなくてもよい。 Further, the method of acquiring the attendance time and the leaving time is not limited to the method using the beacon device. As an example, not a limitation, the position information is acquired by the position calculation information detection unit 29B of each terminal 20 based on the position information that can be identified by the latitude and longitude of the event venue. When the terminal 20 moves to a position that matches the position information of the event venue within a predetermined range, the time may or may not be the attendance time of the user of the terminal 20. When the terminal 20 leaves a position that matches the position information of the event venue within a predetermined range, that time may or may not be the time when the user of the terminal 20 leaves the desk.

また、限定ではなく例として、イベント開催場所に設置されたカメラもしくは端末20の撮像部27を用いてイベント開催中に画像を取得し、その画像に対して顔認識を行うことで、ユーザの出席状況を取得してもよいし、そうしなくてもよい。 Further, as an example, not limited to, the attendance of the user is performed by acquiring an image during the event using the camera installed at the event venue or the imaging unit 27 of the terminal 20 and performing face recognition on the image. You may or may not get the status.

または、限定ではなく例として、イベント開催場所に設置されたマイクもしくは端末20の音入力部25を用いてイベント開催中に音(音声を含む。)を取得し、その音に対して音認識(音声認識を含む。)を行うことで、ユーザの出席状況を取得してもよいし、そうしなくてもよい。 Alternatively, as an example, not limited to, a sound (including voice) is acquired during the event using a microphone installed at the event venue or the sound input unit 25 of the terminal 20, and sound recognition (including voice) is performed for the sound. By performing (including voice recognition), the attendance status of the user may or may not be acquired.

もしくは、限定ではなく例として、出席時刻と退席時刻とを打刻する、端末20に対するユーザ入力に基づいて、ユーザの出席状況を取得してもよいし、そうしなくてもよい。 Alternatively, as an example, not a limitation, the attendance status of the user may or may not be acquired based on the user input to the terminal 20 that stamps the attendance time and the leaving time.

なお、議事録データ変換処理を行うとき、この出席時刻と退席時刻に基づいて、音声データを取得した会議や会合に出席していないユーザやグループのみにメンション機能が働くようにしてもよいし、そうしなくてもよい。 When performing the minutes data conversion process, the mention function may be activated only for the users or groups who have not attended the meeting or the meeting for which the voice data has been acquired, based on the attendance time and the leaving time. You don't have to.

<表示画面>
図7−2は、限定ではなく例として、図2−12において、ユーザによって議事録投稿ボタンSBT1がタップされた場合におけるメッセージングアプリケーションのトークルームの表示画面の一例である。
<Display screen>
FIG. 7-2 is an example, not limited to, an example of the display screen of the talk room of the messaging application when the minutes posting button SBT1 is tapped by the user in FIG. 2-12.

図7−2では、コンテンツ表示領域TR1には、限定ではなく例として、ユーザA.Aが送信した「先ほどの会議の議事録です」という文字のテキストコンテンツの下に、議事録データ概要コンテンツPRC2が表示されている。 In FIG. 7-2, the content display area TR1 is not limited to the user A. The minutes data summary content PRC2 is displayed under the text content of the characters "The minutes of the previous meeting" sent by A.

議事録データ概要コンテンツPRC2には、限定ではなく例として、議事録データ概要コンテンツPRC1と同様に、議事録タイトルと、議事録データが最後に修正された日時とが表示されている。また、議事録データ概要コンテンツPRC2には、この議事録データの作成に用いられた音声データ取得時における各ユーザの出席状況を確認するための出席確認機能ボタンBT8が表示されている。 The minutes data summary content PRC2 is not limited, but as an example, the minutes title and the date and time when the minutes data was last modified are displayed as in the minutes data summary content PRC1. Further, in the minutes data summary content PRC2, an attendance confirmation function button BT8 for confirming the attendance status of each user at the time of acquiring the audio data used for creating the minutes data is displayed.

図7−3は、ユーザによって出席確認機能ボタンBT8がタップ操作された場合の表示画面の一例である。
限定ではなく例として、ユーザによって出席確認機能ボタンBT8がタップされると、コンテンツ表示領域TR1に出席確認状況表示領域WR7が表示される。
FIG. 7-3 is an example of a display screen when the attendance confirmation function button BT8 is tapped by the user.
As an example, not a limitation, when the attendance confirmation function button BT8 is tapped by the user, the attendance confirmation status display area WR7 is displayed in the content display area TR1.

出席確認状況表示領域WR7の左端には、限定ではなく例として、出欠管理データに記憶されるMSアプリケーションIDのユーザを示すアイコンが、一列に並んで表示されている。各ユーザのアイコンの右側には、限定ではなく例として、この議事録データの元となる音声データにおける取得開始から取得終了までの時間において、そのユーザが出席していたか否かを示すグラフが行ごとに表示されている。
これらのグラフは、限定ではなく例として、出欠管理データに記憶された各ユーザの出席時刻と退席時刻とに基づいて描画される。
At the left end of the attendance confirmation status display area WR7, icons indicating the user of the MS application ID stored in the attendance management data are displayed side by side as an example, not limited to the attendance confirmation status display area WR7. To the right of each user's icon, as an example, not a limitation, a graph showing whether or not the user was present during the time from the start of acquisition to the end of acquisition of the audio data that is the source of this minutes data is lined up. It is displayed for each.
These graphs are drawn based on the attendance time and the attendance time of each user stored in the attendance management data as an example, not a limitation.

出席確認状況表示領域WR7では、限定ではなく例として、ユーザA.AとユーザB.BとユーザC.Cとは、会議(イベント)の開始から終了まで出席していたことが表示されている。また、ユーザD.Dは、開始から20分の時点から出席していたことが、ユーザE.Eは、開始から1時間の時点で退席したことが、それぞれ表示されている。 In the attendance confirmation status display area WR7, as an example, not limited to the user A. A and user B. B and user C. C indicates that he was present from the start to the end of the meeting (event). In addition, user D. It is said that D has been present since 20 minutes from the start. It is displayed that E has left the seat one hour after the start.

図7−4は、ユーザD.Dの端末20Dにおいて議事録データを表示させる場合のトークルームの表示画面の一例である。 FIG. 7-4 shows the user D. This is an example of a talk room display screen when the minutes data is displayed on the terminal 20D of D.

図7−4において、コンテンツ表示領域TR1には、ユーザによって議事録データ概要コンテンツPRC2がタップされたことに基づき、議事録データ表示領域PRW2が表示されている。議事録データ表示領域PRW2の上部には、議事録データ表示領域PRW1の表示要素に加えて出席確認機能ボタンBT8が表示されている。 In FIG. 7-4, the minutes data display area PRW2 is displayed in the content display area TR1 based on the fact that the minutes data summary content PRC2 is tapped by the user. At the upper part of the minutes data display area PRW2, an attendance confirmation function button BT8 is displayed in addition to the display elements of the minutes data display area PRW1.

ユーザD.Dが音声データ取得開始時から20分まで欠席していたことに基づいて、議事録データ表示領域PRW2では、20分以前のコンテンツ部分に関して閲覧制限がかけられていることを示す「ここから前は閲覧がロックされています」という文字と、施錠された鍵マークのロック状況アイコンIC1とが表示されている。すなわち、端末20Dでは、ユーザD.Dが欠席していた時間帯の議事録データについては、そのコンテンツを表示することができない。 User D. Based on the fact that D was absent from the start of voice data acquisition until 20 minutes, the minutes data display area PRW2 indicates that viewing restrictions are applied to the content part before 20 minutes. The text "Browsing is locked" and the lock status icon IC1 of the locked key mark are displayed. That is, in the terminal 20D, the user D. The contents of the minutes data of the time zone when D was absent cannot be displayed.

限定ではなく例として、ユーザによってロック状況アイコンIC1がタップされると、限定ではなく例として、この議事録データを投稿したユーザA.Aの端末20Aの表示部24に、閲覧制限を解除するか否かの選択用画面が表示される。
ユーザ操作に基づいて、閲覧制限が解除されることが選択される場合、端末20Dにおいて、議事録データ表示領域PRW2の20分以前のコンテンツ部分についても閲覧が可能となり、それらのコンテンツが表示される。
As an example, not a limitation, when the lock status icon IC1 is tapped by the user, the user A. A screen for selecting whether or not to release the viewing restriction is displayed on the display unit 24 of the terminal 20A of the terminal A.
When it is selected that the viewing restriction is released based on the user operation, the content portion 20 minutes or earlier of the minutes data display area PRW2 can also be viewed on the terminal 20D, and those contents are displayed. ..

なお、ユーザによってロック状況アイコンIC1がタップされる場合、この議事録データが投稿されたトークルームの全てのユーザに対して、閲覧制限を解除するか否かの選択用画面が表示されるようにしてもよいし、そのようにしなくてもよい。 When the lock status icon IC1 is tapped by the user, a screen for selecting whether or not to release the viewing restriction is displayed for all users in the talk room to which the minutes data is posted. It may or may not be.

上記の表示画面例と同様に、ユーザE.Eの端末20Dにおいて議事録データを表示させる場合のトークルームの表示画面では、ユーザE.Eが音声データ取得開始時から60分以降欠席したことに基づいて、60分以降の議事録データのコンテンツ部分に関して閲覧制限がかけられる。 Similar to the above display screen example, the user E.I. On the display screen of the talk room when displaying the minutes data on the terminal 20D of E, the user E.I. Based on the fact that E has been absent after 60 minutes from the start of voice data acquisition, viewing restrictions are applied to the content portion of the minutes data after 60 minutes.

<処理>
図7−5は、本実施例において各装置が実行する処理の流れの一例を示すフローチャートである。
左から順に、端末20Dの制御部21が実行する処理、端末20Aの制御部21が実行する処理、サーバ10の制御部11が実行する処理の一例をそれぞれ示している。
<Processing>
FIG. 7-5 is a flowchart showing an example of the flow of processing executed by each device in this embodiment.
From left to right, examples of processing executed by the control unit 21 of the terminal 20D, processing executed by the control unit 21 of the terminal 20A, and processing executed by the control unit 11 of the server 10 are shown.

まず、端末20Aの制御部21と、サーバ10の制御部11とは、議事録投稿処理を実行する。議事録投稿処理については、限定ではなく例として、図2−16と同様の処理で実現可能なため、詳細な説明を省略する。 First, the control unit 21 of the terminal 20A and the control unit 11 of the server 10 execute the minutes posting process. The minutes posting process is not limited, but can be realized by the same process as in FIG. 2-16 as an example, and therefore detailed description thereof will be omitted.

次いで、サーバ10の制御部11は、各々のユーザが欠席していた時間帯のコンテンツを不可視化するための、議事録制限データを対象となる(欠席していた時間帯が存在する)ユーザごとに生成する(S300)。 Next, the control unit 11 of the server 10 targets the minutes restriction data for invisible the contents of the time zone in which each user was absent (there is a time zone in which the user was absent) for each user. (S300).

そして、サーバ10の制御部11は、議事録制限データを通信I/F14によって対象となる端末20に送信する(S310)。 Then, the control unit 11 of the server 10 transmits the minutes restriction data to the target terminal 20 by the communication I / F 14 (S310).

端末20Dの制御部21は、通信I/F22によってサーバ10から議事録制限データを受信すると、議事録データに対して閲覧制限をかけ、表示部24に表示させる(D100)。 When the control unit 21 of the terminal 20D receives the minutes restriction data from the server 10 by the communication I / F 22, the control unit 21 imposes a viewing restriction on the minutes data and displays it on the display unit 24 (D100).

入出力部23に対するユーザ操作に基づいて、議事録データの閲覧制限を解除することが選択される場合、端末20Dの制御部21は、閲覧制限解除要求情報を通信I/F22によってサーバ10に送信する(D110)。なお、議事録データの閲覧制限を解除しないことが選択される場合、端末20Dの制御部21は処理を終了する。 When it is selected to release the viewing restriction of the minutes data based on the user operation on the input / output unit 23, the control unit 21 of the terminal 20D transmits the viewing restriction release request information to the server 10 by the communication I / F 22. (D110). If it is selected not to release the restriction on viewing the minutes data, the control unit 21 of the terminal 20D ends the process.

通信I/F14によって端末20Dから閲覧制限解除要求情報を受信する場合、サーバ10の制御部11は、閲覧制限解除確認情報を通信I/F14によって端末20Aに送信する(S320)。閲覧制限解除要求情報を受信しない場合、サーバ10の制御部11は、処理を終了する。 When the viewing restriction release request information is received from the terminal 20D by the communication I / F 14, the control unit 11 of the server 10 transmits the viewing restriction release confirmation information to the terminal 20A by the communication I / F 14 (S320). When the viewing restriction release request information is not received, the control unit 11 of the server 10 ends the process.

なお、サーバ10の制御部11は、閲覧制限解除確認情報を、議事録データ投稿先のトークルームに属する他の(閲覧制限解除要求情報を受信した以外の)すべてのユーザ端末に対して送信するようにしてもよいし、そのようにしなくてもよい。 The control unit 11 of the server 10 transmits the viewing restriction release confirmation information to all other user terminals (other than receiving the viewing restriction release request information) belonging to the talk room to which the minutes data is posted. It may or may not be.

端末20Aの制御部21は、通信I/F22によってサーバ10から閲覧制限解除確認情報を受信する場合、閲覧制限を解除するか否かの選択用画面を表示部24に表示させる(A250)。なお、閲覧制限解除確認情報を受信しない場合、端末20Aの制御部21は、処理を終了する。 When the control unit 21 of the terminal 20A receives the viewing restriction release confirmation information from the server 10 by the communication I / F 22, the control unit 21 causes the display unit 24 to display a screen for selecting whether or not to release the viewing restriction (A250). If the viewing restriction release confirmation information is not received, the control unit 21 of the terminal 20A ends the process.

入出力部23に対するユーザ操作に基づいて、閲覧制限を解除することが選択される場合、端末20Aの制御部21は、閲覧許可情報を通信I/F22によってサーバ10に送信し(A260)、処理を終了する。なお、閲覧制限を解除しないことが選択される場合、端末20Aの制御部21は、処理を終了する。 When it is selected to release the viewing restriction based on the user operation on the input / output unit 23, the control unit 21 of the terminal 20A transmits the viewing permission information to the server 10 by the communication I / F 22 (A260) and processes it. To finish. If it is selected not to release the viewing restriction, the control unit 21 of the terminal 20A ends the process.

なお、端末20A以外の端末に対して閲覧制限解除確認情報が送信される場合には、A250とA260とのステップと同様の処理を実行すればよい。 When the viewing restriction release confirmation information is transmitted to a terminal other than the terminal 20A, the same process as the steps of A250 and A260 may be executed.

通信I/F14によって端末20Aから閲覧許可情報を受信する場合、サーバ10の制御部11は、閲覧制限解除要求情報を送信した端末で議事録データを確認可能にするための閲覧制限解除処理を実行する(S330)。閲覧許可情報を受信しない場合、サーバ10の制御部11は、処理を終了する。 When the viewing permission information is received from the terminal 20A by the communication I / F 14, the control unit 11 of the server 10 executes the viewing restriction canceling process so that the minutes data can be confirmed on the terminal that has sent the viewing restriction release request information. (S330). If the viewing permission information is not received, the control unit 11 of the server 10 ends the process.

そして、サーバ10の制御部11は、通信I/F14によって端末20Dに議事録データを送信すると(S340)、処理を終了する。 Then, when the control unit 11 of the server 10 transmits the minutes data to the terminal 20D by the communication I / F 14 (S340), the process ends.

なお、複数の端末に対して閲覧制限解除確認情報を送信した場合、閲覧制限解除処理が実行される条件としては、限定ではなく例として、以下のような場合が考えられる。
1)閲覧制限解除確認情報を送信した全ての端末から閲覧許可情報を受信する場合
2)閲覧制限解除確認情報を送信した過半数の端末から閲覧許可情報を受信する場合
3)議事録データを投稿した端末から閲覧許可情報を受信する場合
4)そのトークルームで定められるリーダーの端末から閲覧許可情報を受信する場合
When the viewing restriction release confirmation information is transmitted to a plurality of terminals, the conditions for executing the viewing restriction release process are not limited, but the following cases can be considered as an example.
1) When the viewing permission information is received from all the terminals that sent the viewing restriction release confirmation information 2) When the viewing permission information is received from the majority of the terminals that sent the viewing restriction release confirmation information 3) The minutes data was posted When receiving browsing permission information from the terminal 4) When receiving browsing permission information from the terminal of the reader specified in the talk room

端末20Dの制御部21は、通信I/F22によってサーバ10から議事録データを受信すると、表示部24に更新して表示させる(D120)。そして、端末20Dの制御部21は、処理を終了する。 When the control unit 21 of the terminal 20D receives the minutes data from the server 10 by the communication I / F 22, the control unit 21 updates and displays the minutes data on the display unit 24 (D120). Then, the control unit 21 of the terminal 20D ends the process.

<第7実施例の効果>
第7実施例は、議事録データ(限定ではなく、文字情報の一例)は、ユーザA.A(限定ではなく、端末のユーザの一例)と、ユーザB.B(限定ではなく、第1端末のユーザの一例)と、ユーザD.D(限定ではなく、第2端末のユーザの一例)とを含むグループ「X」のトークルーム(限定ではなく、第1チャットルームの一例)に入力され、少なくとも端末20D(限定ではなく、第2端末の一例)に対して送信される構成を示している。
このような構成により得られる実施例の効果の一例として、端末のユーザと、第1端末のユーザと、第2端末のユーザとは、第1チャットルームを介して情報を共有することができる。そのため、ユーザの利便性を向上させることができる。
<Effect of the 7th Example>
In the seventh embodiment, the minutes data (not limited, but an example of character information) is obtained by the user A. A (not limited, but an example of a terminal user) and user B. B (not limited, but an example of a user of the first terminal) and user D. It is input to the talk room (an example of the first chat room, not the limitation) of the group "X" including D (an example of the user of the second terminal, not the limitation), and at least the terminal 20D (the second, not the limitation). The configuration to be transmitted to (an example of a terminal) is shown.
As an example of the effect of the embodiment obtained by such a configuration, the terminal user, the user of the first terminal, and the user of the second terminal can share information via the first chat room. Therefore, the convenience of the user can be improved.

また、第7実施例は、端末20D(第2端末)に対して送信された議事録データのうちの一部のコンテンツ(限定ではなく、文字情報のうちの一部の文字情報である第4文字情報の一例)は、端末20Dの表示部24に表示されない構成を示している。
このような構成により得られる実施例の効果の一例として、第2端末の表示部では、文字情報の一部分が表示されないため、第2端末のユーザに対して共有する情報の制限を行うことができる。
Further, in the seventh embodiment, a fourth content (not limited, but a part of the character information, which is a part of the character information) of the minutes data transmitted to the terminal 20D (second terminal). (Example of character information) shows a configuration that is not displayed on the display unit 24 of the terminal 20D.
As an example of the effect of the embodiment obtained by such a configuration, since a part of the character information is not displayed on the display unit of the second terminal, it is possible to limit the information to be shared with the user of the second terminal. ..

また、第7実施例は、議事録データのうちの一部のコンテンツ(限定ではなく、第4文字情報の一例)は、ユーザA.A(限定ではなく、端末のユーザの一例)と、ユーザB.B(限定ではなく、第1端末のユーザの一例)とに基づく許可によって、第2端末の表示部に表示される構成を示している。
このような構成により得られる実施例の効果の一例として、端末のユーザと第1端末のユーザとに基づく許可があれば、第2端末のユーザは制限されていた情報を閲覧することができる。このため、情報の共有範囲を柔軟に設定することができる。
Further, in the seventh embodiment, a part of the contents of the minutes data (not limited, but an example of the fourth character information) is obtained by the user A. A (not limited, but an example of a terminal user) and user B. The configuration to be displayed on the display unit of the second terminal is shown by permission based on B (not limited, but an example of the user of the first terminal).
As an example of the effect of the embodiment obtained by such a configuration, the user of the second terminal can browse the restricted information if there is permission based on the user of the terminal and the user of the first terminal. Therefore, the information sharing range can be flexibly set.

また、第7実施例は、議事録データのうちの開始後第1所定時間(限定ではなく例として、開始後20分)までのコンテンツ(限定ではなく、第4文字情報の一例)は、端末20、または端末20と通信するサーバ10で端末20D(限定ではなく、第2端末の一例)に関する情報(限定ではなく例として、ビーコン装置の接近情報)が取得される前に音入力部25によって取得された音声データのうちの開始後第1所定時間までの音声データ(限定ではなく、第3音情報の一例)に基づくコンテンツ(限定ではなく、第5文字情報の一例)である構成を示している。
このような構成により得られる実施例の効果の一例として、第2端末に関する情報と連動させて第4文字情報を決定することが可能となる。また、第5文字情報は、第2端末に関する情報が取得されるまでの文字情報となる。その結果、第2端末に関する情報が取得される前の文字情報が第2端末で表示されないようにすることができる。
Further, in the seventh embodiment, the content (not limited, but an example of the fourth character information) of the minutes data up to the first predetermined time (not limited, but 20 minutes after the start) after the start is a terminal. Before the information (not limited, as an example of the beacon device) regarding the terminal 20D (not limited, but an example of the second terminal) is acquired by the server 10 communicating with the terminal 20 or the terminal 20, the sound input unit 25 Shows the configuration of the acquired audio data that is content (an example of fifth character information, not limitation) based on audio data (an example of third sound information, not limitation) up to the first predetermined time after the start. ing.
As an example of the effect of the embodiment obtained by such a configuration, it is possible to determine the fourth character information in conjunction with the information regarding the second terminal. Further, the fifth character information is character information until the information about the second terminal is acquired. As a result, the character information before the information about the second terminal is acquired can be prevented from being displayed on the second terminal.

また、第7実施例は、議事録データのうちの開始第2所定時間後(限定ではなく例として、開始1時間後)からのコンテンツ(限定ではなく、第4文字情報の一例)は、端末20、または端末20と通信するサーバ10で端末20E(限定ではなく、第2端末の一例)に関する情報(限定ではなく例として、ビーコン装置の離脱情報)が取得された後に音入力部25によって取得された音声データのうちの開始後第2所定時間以降の音声データ(限定ではなく、第4音情報の一例)に基づくコンテンツ(限定ではなく、第6文字情報の一例)である構成を示している。
このような構成により得られる実施例の効果の一例として、第6文字情報は、第2端末に関する情報が取得された後の文字情報となる。その結果、第2端末に関する情報が取得された後の文字情報が第2端末で表示されないようにすることができる。
Further, in the seventh embodiment, the content (not limited, but an example of the fourth character information) from the start second predetermined time (not limited, but one hour after the start) of the minutes data is a terminal. 20 or the server 10 that communicates with the terminal 20 acquires the information (not limited, but an example of the second terminal) about the terminal 20E (not limited, but as an example, the detachment information of the beacon device) by the sound input unit 25. Shows the configuration of the content (an example of the sixth character information, not the limitation) based on the audio data (an example of the fourth sound information, not the limitation) after the second predetermined time after the start of the voice data. There is.
As an example of the effect of the embodiment obtained by such a configuration, the sixth character information becomes the character information after the information regarding the second terminal is acquired. As a result, it is possible to prevent the character information after the information about the second terminal is acquired from being displayed on the second terminal.

また、第7実施例は、上記の第2端末に関する情報は、第2端末の位置に関する情報を含む構成を示している。
このような構成により得られる実施例の効果の一例として、第2端末の位置に関する情報に基づくことで、第2端末に関する情報が取得される前の文字情報が第2端末で表示されないようにすることや、第2端末に関する情報が取得された後の文字情報が第2端末で表示されないようにすることを、簡易かつ適切に実現することができる。
Further, in the seventh embodiment, the above-mentioned information regarding the second terminal shows a configuration including information regarding the position of the second terminal.
As an example of the effect of the embodiment obtained by such a configuration, the character information before the information on the second terminal is acquired is not displayed on the second terminal by being based on the information on the position of the second terminal. In addition, it is possible to easily and appropriately prevent the character information after the information about the second terminal is acquired from being displayed on the second terminal.

<第7変形例(1)>
第7実施例では、ユーザの出席状況に応じてチャットルームに表示される議事録データに閲覧制限が設定される場合を説明したが、これに限定されない。限定ではなく例として、複数のチャットルーム(トークルーム)を用意し、ユーザの出席状況に応じて、それぞれのチャットルームに議事録データを分割して追加(入力)してもよいし、そのようにしなくてもよい。
<7th modification (1)>
In the seventh embodiment, the case where the viewing restriction is set for the minutes data displayed in the chat room according to the attendance status of the user has been described, but the present invention is not limited to this. As an example, not limited to, multiple chat rooms (talk rooms) may be prepared, and minutes data may be divided and added (input) to each chat room according to the attendance status of the user. It does not have to be.

図7−6は、本変形例におけるトークルームの表示画面の一例である。
図7−6では、現在位置表示領域には、グループ「プロジェクトX」の5人のメンバーのうち4人のユーザで構成されるトークルームであることを示す「(4/5)」の表示が追加されている。その下には、このトークルームに所属するユーザであるユーザA.Aと、ユーザB.Bと、ユーザC.Cと、ユーザE.Eとのアイコンが表示されている。
FIG. 7-6 is an example of the display screen of the talk room in this modified example.
In FIG. 7-6, in the current position display area, "(4/5)" indicating that the talk room is composed of 4 users out of 5 members of the group "Project X" is displayed. Has been added. Below that is User A., a user who belongs to this talk room. A and user B. B and user C.I. C and user E. The icon with E is displayed.

その下には、このトークルームに送信(投稿)されるコンテンツ(メッセージ)を表示するためのコンテンツ表示領域TR2が表示されている。 Below that, the content display area TR2 for displaying the content (message) transmitted (posted) to the talk room is displayed.

コンテンツ表示領域TR2には、ユーザD.Dが会議の開始から20分の時点まで欠席していたことに基づいて、限定ではなく例として、実施例3の表示様態に従い、議事録データが入力されている。すなわち、コンテンツ表示領域TR2に追加(入力)されたコンテンツは、音声データの取得開始から20分後までの議事録データであり、グループ「プロジェクトX」のメンバーのうち、ユーザD.D以外が閲覧可能なコンテンツとなる。 In the content display area TR2, the user D. Based on the fact that D was absent from the start of the meeting to the time of 20 minutes, the minutes data is input according to the display mode of Example 3, not as a limitation but as an example. That is, the content added (input) to the content display area TR2 is the minutes data from the start of acquisition of the audio data to 20 minutes later, and among the members of the group "Project X", the user D. Content other than D can be viewed.

コンテンツ表示領域TR2の最下部には、グループ「プロジェクトX」のメンバー全員のアイコンが表記されたトークルーム遷移機能ボタンIC2が表示されている。限定ではなく例として、ユーザによってトークルーム遷移機能ボタンIC2がタップされると、グループ「プロジェクトX」のメンバー全員が閲覧可能なトークルーム画面が表示される。 At the bottom of the content display area TR2, a talk room transition function button IC2 in which the icons of all the members of the group "Project X" are displayed is displayed. As an example, not a limitation, when the talk room transition function button IC2 is tapped by the user, a talk room screen that can be viewed by all members of the group "Project X" is displayed.

図7−7は、図7−6において、ユーザによってトークルーム遷移機能ボタンIC2がタップされた場合のトークルームの表示画面の一例である。 FIG. 7-7 is an example of a talk room display screen when the talk room transition function button IC2 is tapped by the user in FIG. 7-6.

図7−7では、現在位置表示領域には、グループ「プロジェクトX」の5人のメンバーのうち5人のユーザで構成されるトークルームであることを示す「(5/5)」の表示が追加されている。その下には、このトークルームに所属するユーザ全員のアイコンが表示されている。 In FIG. 7-7, in the current position display area, "(5/5)" indicating that the talk room is composed of 5 users out of 5 members of the group "Project X" is displayed. Has been added. Below that, the icons of all the users who belong to this talk room are displayed.

その下には、このトークルーム(すなわちグループ「プロジェクトX」のトークルーム)に送信(投稿)されるコンテンツ(メッセージ)を表示するためのコンテンツ表示領域TR1が表示されている。 Below that, the content display area TR1 for displaying the content (message) transmitted (posted) to this talk room (that is, the talk room of the group "project X") is displayed.

コンテンツ表示領域TR1には、ユーザD.Dが会議開始から20分の時点から出席し、ユーザE.Eは会議開始から1時間の時点で退席していたことに基づいて、限定ではなく例として、第3実施例の表示様態に従い、議事録データが入力されている。 In the content display area TR1, the user D. D attended from 20 minutes after the start of the meeting, and user E. Based on the fact that E was absent one hour after the start of the meeting, the minutes data is input according to the display mode of the third embodiment, not as a limitation but as an example.

コンテンツ表示領域TR1に表示されるコンテンツは、グループ「プロジェクトX」のメンバー全員が閲覧可能なコンテンツである。そして、コンテンツ表示領域TR1には、議事録データのうち、音声データの取得開始20分後から1時間後までの議事録データが追加され、表示されている。 The content displayed in the content display area TR1 is content that can be viewed by all members of the group "project X". Then, among the minutes data, the minutes data from 20 minutes to 1 hour after the start of acquisition of the audio data is added and displayed in the content display area TR1.

コンテンツ表示領域TR1の最上部には、グループ「プロジェクトX」のメンバーのうち、ユーザD.D以外のアイコンが表記されたトークルーム遷移機能ボタンIC3が表示されている。また、コンテンツ表示領域TR1の最下部には、グループ「プロジェクトX」のメンバーのうち、ユーザE.E以外のアイコンが表記されたトークルーム遷移機能ボタンIC4が表示されている。 At the top of the content display area TR1, among the members of the group "Project X", the user D. The talk room transition function button IC3 on which an icon other than D is displayed is displayed. Further, at the bottom of the content display area TR1, among the members of the group "Project X", the user E.I. The talk room transition function button IC4 on which an icon other than E is displayed is displayed.

限定ではなく例として、ユーザによってトークルーム遷移機能ボタンIC3がタップされると、グループ「プロジェクトX」のメンバーのうち、ユーザD.D以外が閲覧可能なトークルーム(すなわちコンテンツ表示領域TR2)が表示される。
限定ではなく例として、ユーザD.Dは、コンテンツ表示領域TR1のコンテンツを閲覧することはできるが、トークルーム遷移機能ボタンIC3をタップしてもトークルームは遷移せず、コンテンツ表示領域TR2に入力されたコンテンツは閲覧することができない。すなわち、ユーザD.Dは、会議に出席していない開始から20分までの議事録データを閲覧することができない。
As an example, not a limitation, when the talk room transition function button IC3 is tapped by the user, among the members of the group "Project X", the user D. A talk room (that is, the content display area TR2) that can be viewed by anyone other than D is displayed.
As an example, not a limitation, User D. D can browse the content of the content display area TR1, but the talk room does not transition even if the talk room transition function button IC3 is tapped, and the content input to the content display area TR2 cannot be browsed. .. That is, the user D. D cannot view the minutes data from the start to 20 minutes when he is not attending the meeting.

また、ユーザによってトークルーム遷移機能ボタンIC4がタップされると、グループ「プロジェクトX」のメンバーのうち、ユーザE.E以外が閲覧可能なトークルームが表示される。
このとき、ユーザE.Eがトークルーム遷移機能ボタンIC4をタップしても、トークルームは遷移せず、遷移先のトークルームに入力されたコンテンツは閲覧することができない。すなわち、ユーザE.Eは、会議に出席していない開始から1時間を過ぎた議事録データを閲覧することができない。
Further, when the talk room transition function button IC4 is tapped by the user, among the members of the group "Project X", the user E.I. A talk room that can be viewed by anyone other than E is displayed.
At this time, the user E.I. Even if E taps the talk room transition function button IC4, the talk room does not transition and the content input to the transition destination talk room cannot be viewed. That is, the user E.I. E cannot view the minutes data that has passed one hour since the start of not attending the meeting.

なお、コンテンツ表示領域TR1にトークルーム遷移機能ボタンを表示させることは必須ではない。トークルーム遷移機能ボタンを表示させない場合、限定ではなく例として、ユーザ操作に基づいて、トークルーム間の遷移を実行してもよいし、そのようにしなくてもよい。 It is not essential to display the talk room transition function button in the content display area TR1. When the talk room transition function button is not displayed, the transition between talk rooms may or may not be executed based on the user operation as an example, not limited to the above.

また、限定ではなく例として、会議(イベント)の開始から終了まで出席しているユーザ(この場合、ユーザA.Aと、ユーザB.Bと、ユーザC.C)をメンバーとするトークルームが自動的に生成され、議事録データ全体をこのトークルームに追加(入力)するようにしてもよいし、そのようにしなくてもよい。 Also, as an example, not limited, there is a talk room whose members are users (in this case, users AA, user BB, and user CC) who are present from the start to the end of the conference (event). The entire minutes data, which is automatically generated, may or may not be added (input) to this talk room.

本変形例は、議事録データのうちの開始第3所定時間後(限定ではなく例として、開始20分後)までのコンテンツ(限定ではなく、第4文字情報の一例)は、ユーザA.A(限定ではなく、端末のユーザの一例)と、ユーザB.B(限定ではなく、第1端末のユーザの一例)と含み、ユーザD.D(限定ではなく、第2端末のユーザの一例)を含まない第2トークルーム(限定ではなく例として、コンテンツ表示領域TR2)に入力され、文字情報のうちの第4文字情報を含まない文字情報は、第1トークルーム(限定ではなく例として、コンテンツ表示領域TR1)に入力される構成を示している。
このような構成により得られる変形例の効果の一例として、第4文字情報は第2端末のユーザを含まない第2トークルームに、第4文字情報を含まない文字情報は第1トークルームにそれぞれ入力されるため、トークルームごとに入力される文字情報が異なる。そのため、文字情報の閲覧制限を第2端末のユーザに意識させる事なくより自然に行うことができる。
In this modified example, the content (not limited, but an example of the fourth character information) up to the third predetermined time after the start (not limited, but 20 minutes after the start) of the minutes data is described by the user A. A (not limited, but an example of a terminal user) and user B. Included as B (not limited, but an example of a user of the first terminal), user D. Characters that are input to the second talk room (content display area TR2 as an example, not limited) that does not include D (an example of a user of the second terminal, not limited) and do not include the fourth character information of the character information. The information shows a configuration to be input to the first talk room (content display area TR1 as an example, not limited).
As an example of the effect of the modification obtained by such a configuration, the fourth character information is in the second talk room that does not include the user of the second terminal, and the character information that does not include the fourth character information is in the first talk room. Since it is input, the character information to be input differs for each talk room. Therefore, the viewing restriction of the character information can be performed more naturally without making the user of the second terminal aware of it.

また、本変形例は、第2トークルーム(第2チャットルーム)から第1トークルーム(第1チャットルーム)に遷移することと、第1トークルームから第2トークルームに遷移することとが、端末20A(限定ではなく、端末の一例)と端末20B(限定ではなく、第1端末の一例)とによって実行される。その一方で、第1トークルームから第2トークルームに遷移することは、これらの端末20以外の端末20、限定ではなく例として端末20Dや端末20E(限定ではなく、第2端末の一例)によって実行されない構成を示している。
このような構成により得られる効果の一例として、第2端末のユーザへの文字情報の閲覧制限を適切に実現することができる。
Further, in this modification, the transition from the second talk room (second chat room) to the first talk room (first chat room) and the transition from the first talk room to the second talk room are It is executed by the terminal 20A (not limited, but an example of a terminal) and the terminal 20B (not limited, an example of a first terminal). On the other hand, the transition from the first talk room to the second talk room is not limited by the terminal 20 other than these terminals 20, but by the terminal 20D or the terminal 20E (not limited, but an example of the second terminal). Indicates a configuration that will not be executed.
As an example of the effect obtained by such a configuration, it is possible to appropriately realize the restriction of viewing the character information to the user of the second terminal.

<第7変形例(2)>
第7実施例では、端末20において受信した議事録データに閲覧制限をかけていたが、これに限定されない。限定ではなく例として、サーバ10で議事録データ閲覧制限をかけ、サーバ10の制御部11は、各々の端末20には議事録データの一部を送信するようにしてもよいし、そうしなくてもよい。
<7th variant (2)>
In the seventh embodiment, the minutes data received by the terminal 20 is restricted from being viewed, but the present invention is not limited to this. As an example, not a limitation, the server 10 may restrict the viewing of the minutes data, and the control unit 11 of the server 10 may or may not transmit a part of the minutes data to each terminal 20. You may.

図7−8は、本実施例において各装置が実行する処理の流れの一例を示すフローチャートである。
左から順に、端末20Dの制御部21が実行する処理、端末20Aの制御部21が実行する処理、サーバ10の制御部11が実行する処理の一例をそれぞれ示している。
FIG. 7-8 is a flowchart showing an example of the flow of processing executed by each device in this embodiment.
From left to right, examples of processing executed by the control unit 21 of the terminal 20D, processing executed by the control unit 21 of the terminal 20A, and processing executed by the control unit 11 of the server 10 are shown.

まず、端末20Aの制御部21と、サーバ10の制御部11とは、議事録投稿処理を実行する。議事録投稿処理については、限定ではなく例として、図2−16と同様の処理で実現可能なため、詳細な説明を省略する。ただし、図2−16のS170のステップにおいて、音声データを取得したイベント(会議)に通しで参加していないユーザの端末に対しては、議事録データは送信されない。 First, the control unit 21 of the terminal 20A and the control unit 11 of the server 10 execute the minutes posting process. The minutes posting process is not limited, but can be realized by the same process as in FIG. 2-16 as an example, and therefore detailed description thereof will be omitted. However, in the step of S170 of FIG. 2-16, the minutes data is not transmitted to the terminal of the user who has not participated in the event (meeting) in which the audio data has been acquired.

次いで、サーバ10の制御部11は、各ユーザが欠席していた時間帯のコンテンツを含まない議事録データである、部分制限議事録データを対象となる(欠席していた時間帯が存在する)ユーザごとに生成する(S350)。 Next, the control unit 11 of the server 10 targets the partially restricted minutes data, which is the minutes data that does not include the contents of the time zone in which each user was absent (there is a time zone in which the user was absent). Generated for each user (S350).

そして、サーバ10の制御部11は、部分制限議事録データを通信I/F14によって対象となる端末20に送信する(S360)。 Then, the control unit 11 of the server 10 transmits the partially restricted minutes data to the target terminal 20 by the communication I / F 14 (S360).

端末20Dの制御部21は、通信I/F22によってサーバ10から部分制限議事録データを受信すると、表示部24に表示させる(D150)。 When the control unit 21 of the terminal 20D receives the partial restriction minutes data from the server 10 by the communication I / F 22, the control unit 21 displays it on the display unit 24 (D150).

サーバ10の制御部11は、閲覧制限解除処理を実行する(S330)と、通信I/F14によって端末20Dに議事録データを送信し(S370)、処理を終了する。 When the control unit 11 of the server 10 executes the viewing restriction release process (S330), the minutes data is transmitted to the terminal 20D by the communication I / F 14 (S370), and the process ends.

端末20Dの制御部21は、通信I/F22によってサーバ10から議事録データを受信すると、全文を含む議事録データを表示部24に更新して表示させる(D120)。 When the control unit 21 of the terminal 20D receives the minutes data from the server 10 by the communication I / F 22, the control unit 21 updates and displays the minutes data including the full text on the display unit 24 (D120).

このような構成により得られる変形例の効果の一例として、閲覧制限がかかる端末20に対して議事録データ全体を送信することは必須でなくなるため、通信量の削減を図ることができる。 As an example of the effect of the modified example obtained by such a configuration, it is not essential to transmit the entire minutes data to the terminal 20 whose viewing is restricted, so that the amount of communication can be reduced.

1 通信システム
10 サーバ
20 端末
1 communication system 10 servers 20 terminals

Claims (29)

ユーザと、前記ユーザとは異なる第1端末のユーザとを含むチャットルームを表示する前記ユーザの端末によって実行されるプログラムであって、
音情報を前記端末の取得部によって取得することと、
前記取得部によって取得された前記音情報に基づく文字情報が、選択された前記チャットルームに入力され、前記文字情報を含む前記チャットルームを前記端末の表示部に表示することとが前記端末によって実行される。
A program executed by a terminal of the user who displays a chat room including the user and a user of a first terminal different from the user.
Acquiring sound information by the acquisition unit of the terminal,
Character information based on the sound information acquired by the acquisition unit is input to the selected chat room, and the chat room containing the character information is displayed on the display unit of the terminal. Will be done.
請求項1に記載のプログラムであって、
前記チャットルームは、前記端末のユーザによる入力に基づいて選択される。
The program according to claim 1.
The chat room is selected based on input by the user of the terminal.
請求項1に記載のプログラムであって、
前記チャットルームは、前記端末の第1取得部によって取得された第1情報に基づいて選択される。
The program according to claim 1.
The chat room is selected based on the first information acquired by the first acquisition unit of the terminal.
請求項3に記載のプログラムであって、
前記第1情報は、前記取得部によって取得される音情報を含む。
The program according to claim 3.
The first information includes sound information acquired by the acquisition unit.
請求項3に記載のプログラムであって、
前記第1情報は、電子装置から送信される情報を含む。
The program according to claim 3.
The first information includes information transmitted from an electronic device.
請求項5に記載のプログラムであって、
前記電子装置は、前記第1端末を含む。
The program according to claim 5.
The electronic device includes the first terminal.
請求項3に記載のプログラムであって、
前記第1情報は、前記端末の撮像部によって撮像された撮像画像の画像情報を含む。
The program according to claim 3.
The first information includes image information of an captured image captured by an imaging unit of the terminal.
請求項3に記載のプログラムであって、
前記第1情報は、前記端末のユーザのスケジュール情報を含む。
The program according to claim 3.
The first information includes schedule information of the user of the terminal.
請求項1から請求項8のいずれか一項に記載のプログラムであって、
前記取得部によって取得された第1音情報に基づく第1文字情報が、選択された前記チャットルームに前記端末のユーザと関連付けて入力され、前記取得部によって取得された第2音情報に基づく第2文字情報が、前記チャットルームに前記第1端末のユーザと関連付けて入力され、前記第1文字情報と前記第2文字情報とを含む前記チャットルームを前記表示部に表示することが前記端末によって実行される。
The program according to any one of claims 1 to 8.
The first character information based on the first sound information acquired by the acquisition unit is input to the selected chat room in association with the user of the terminal, and the second sound information based on the second sound information acquired by the acquisition unit is input. The two-character information is input to the chat room in association with the user of the first terminal, and the terminal can display the chat room including the first character information and the second character information on the display unit. Will be executed.
請求項1から請求項9のいずれか一項に記載のプログラムであって、
前記音情報は、前記チャットルームが選択される前に、前記取得部によって取得され、
前記文字情報は、前記チャットルームが選択されたことに基づいて、前記チャットルームに入力される。
The program according to any one of claims 1 to 9.
The sound information is acquired by the acquisition unit before the chat room is selected.
The character information is input to the chat room based on the selection of the chat room.
請求項9に記載のプログラムであって、
前記取得部によって前記第1音情報が取得されたことに基づいて、前記第1文字情報が前記チャットルームに入力され、前記第1文字情報を含む前記チャットルームを前記表示部に表示することと、
前記取得部によって前記第2音情報が取得されたことに基づいて、前記第2文字情報が前記チャットルームに入力され、前記第2文字情報を含む前記チャットルームを前記表示部に表示することとが前記端末によって実行される。
The program according to claim 9.
Based on the acquisition of the first sound information by the acquisition unit, the first character information is input to the chat room, and the chat room including the first character information is displayed on the display unit. ,
Based on the acquisition of the second sound information by the acquisition unit, the second character information is input to the chat room, and the chat room including the second character information is displayed on the display unit. Is executed by the terminal.
請求項1から請求項11のいずれか一項に記載のプログラムであって、
前記文字情報は、チャットサービスの種類に基づく態様で、前記チャットルームに入力される。
The program according to any one of claims 1 to 11.
The character information is input to the chat room in a manner based on the type of chat service.
請求項12に記載のプログラムであって、
前記文字情報は、前記チャットサービスの種類に基づく改行位置で改行されて、前記チャットルームに入力される。
The program according to claim 12.
The character information is broken at a line feed position based on the type of the chat service and is input to the chat room.
請求項1から請求項13のいずれか一項に記載のプログラムであって、
撮像画像のうちの少なくとも一部の領域を含む画像情報が、前記チャットルームに入力され、前記画像情報を含む前記チャットルームを前記表示部に表示することが前記端末によって実行される。
The program according to any one of claims 1 to 13.
Image information including at least a part of the captured image is input to the chat room, and the terminal executes the display of the chat room including the image information on the display unit.
請求項14に記載のプログラムであって、
前記文字情報は、前記チャットルームの第1表示領域に表示され、
前記画像情報は、前記チャットルームの第2表示領域に表示される。
The program according to claim 14.
The character information is displayed in the first display area of the chat room, and is displayed.
The image information is displayed in the second display area of the chat room.
請求項15に記載のプログラムであって、
前記端末のユーザによる入力に基づいて、前記チャットルームにおける前記第1表示領域の位置を変化させる制御を前記端末の制御部によって行うことが前記端末によって実行され、
前記チャットルームにおける前記第2表示領域の位置は、前記端末のユーザによる入力に基づいて変化しない。
The program according to claim 15.
The terminal executes control to change the position of the first display area in the chat room based on the input by the user of the terminal by the control unit of the terminal.
The position of the second display area in the chat room does not change based on input by the user of the terminal.
請求項15または請求項16に記載のプログラムであって、
前記画像情報は、動画像の情報であり、
前記端末のユーザによる入力に基づいて、前記動画像を再生する制御を前記端末の制御部によって行うことが前記端末によって実行される。
The program according to claim 15 or 16.
The image information is moving image information, and is
Based on the input by the user of the terminal, the control unit of the terminal controls the reproduction of the moving image by the terminal.
請求項17に記載のプログラムであって、
前記端末のユーザによる入力に基づいて、前記文字情報のうちの一部の文字情報である第3文字情報を前記第1表示領域に表示する制御を前記制御部によって行うことと、
前記第1表示領域に表示される前記第3文字情報に基づいて、前記動画像を再生する制御を前記制御部によって行うこととが前記端末によって実行される。
The program according to claim 17.
Based on the input by the user of the terminal, the control unit controls to display the third character information, which is a part of the character information, in the first display area.
The terminal executes control for reproducing the moving image based on the third character information displayed in the first display area.
請求項16から請求項18のいずれか一項に記載のプログラムであって、
前記端末のユーザによる入力は、スクロール操作による入力を含む。
The program according to any one of claims 16 to 18.
The input by the user of the terminal includes the input by the scroll operation.
請求項1から請求項19のいずれか一項に記載のプログラムであって、
前記文字情報は、前記端末のユーザと、前記第1端末のユーザと、第2端末のユーザとを含む第1チャットルームに入力され、少なくとも前記第2端末に対して送信される。
The program according to any one of claims 1 to 19.
The character information is input to a first chat room including a user of the terminal, a user of the first terminal, and a user of the second terminal, and is transmitted to at least the second terminal.
請求項20に記載のプログラムであって、
前記第2端末に対して送信された文字情報のうちの一部の文字情報である第4文字情報は、前記第2端末の表示部に表示されない。
The program according to claim 20.
The fourth character information, which is a part of the character information transmitted to the second terminal, is not displayed on the display unit of the second terminal.
請求項21に記載のプログラムであって、
前記第4文字情報は、前記端末のユーザと、前記第1端末のユーザとに基づく許可によって、前記第2端末の表示部に表示される。
The program according to claim 21.
The fourth character information is displayed on the display unit of the second terminal with permission based on the user of the terminal and the user of the first terminal.
請求項21または請求項22に記載のプログラムであって、
前記第4文字情報は、前記端末、または前記端末と通信するサーバで前記第2端末に関する情報が取得される前に前記取得部によって取得された第3音情報に基づく第5文字情報である。
21 or the program according to claim 22.
The fourth character information is fifth character information based on the third sound information acquired by the acquisition unit before the information about the second terminal is acquired by the terminal or the server communicating with the terminal.
請求項21から請求項23のいずれか一項に記載のプログラムであって、
前記第4文字情報は、前記端末、または前記端末と通信するサーバで前記第2端末に関する情報が取得された後に前記取得部によって取得された第4音情報に基づく第6文字情報である。
The program according to any one of claims 21 to 23.
The fourth character information is sixth character information based on the fourth sound information acquired by the acquisition unit after the information about the second terminal is acquired by the terminal or a server communicating with the terminal.
請求項23または請求項24に記載のプログラムであって、
前記第2端末に関する情報は、前記第2端末の位置に関する情報を含む。
The program according to claim 23 or 24.
The information regarding the second terminal includes information regarding the position of the second terminal.
請求項21に記載のプログラムであって、
前記第4文字情報は、前記端末のユーザと、前記第1端末のユーザとを含み、前記第2端末のユーザを含まない第2チャットルームに入力され、
前記文字情報のうちの前記第4文字情報を含まない文字情報は、前記第1チャットルームに入力される。
The program according to claim 21.
The fourth character information is input to a second chat room that includes the user of the terminal and the user of the first terminal and does not include the user of the second terminal.
Character information that does not include the fourth character information among the character information is input to the first chat room.
請求項26に記載のプログラムであって、
前記第2チャットルームから前記第1チャットルームに遷移することと、前記第1チャットルームから前記第2チャットルームに遷移することとが、前記端末と前記第1端末とによって実行され、
前記第1チャットルームから前記第2チャットルームに遷移することは、前記第2端末によって実行されない。
The program according to claim 26.
The transition from the second chat room to the first chat room and the transition from the first chat room to the second chat room are executed by the terminal and the first terminal.
The transition from the first chat room to the second chat room is not executed by the second terminal.
ユーザと、前記ユーザとは異なる第1端末のユーザとを含むチャットルームを表示する前記ユーザの端末の表示方法であって、
音情報を前記端末の取得部によって取得することと、
前記取得部によって取得された前記音情報に基づく文字情報が、選択された前記チャットルームに入力され、前記文字情報を含む前記チャットルームを前記端末の表示部に表示することとを含む。
A method of displaying a terminal of the user, which displays a chat room including a user and a user of a first terminal different from the user.
Acquiring sound information by the acquisition unit of the terminal,
Character information based on the sound information acquired by the acquisition unit is input to the selected chat room, and the chat room including the character information is displayed on the display unit of the terminal.
ユーザと、前記ユーザとは異なる第1端末のユーザとを含むチャットルームを表示する前記ユーザの端末であって、
音情報を取得する取得部と、
前記取得部によって取得された前記音情報に基づく文字情報が、選択された前記チャットルームに入力され、前記文字情報を含む前記チャットルームを表示する表示部とを備える。
A terminal of the user that displays a chat room that includes the user and a user of a first terminal different from the user.
The acquisition unit that acquires sound information,
Character information based on the sound information acquired by the acquisition unit is input to the selected chat room, and includes a display unit that displays the chat room including the character information.
JP2020082496A 2020-05-08 2020-05-08 Program, displaying method and terminal Pending JP2021177321A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020082496A JP2021177321A (en) 2020-05-08 2020-05-08 Program, displaying method and terminal
PCT/JP2021/016957 WO2021225104A1 (en) 2020-05-08 2021-04-28 Program, display method, and terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020082496A JP2021177321A (en) 2020-05-08 2020-05-08 Program, displaying method and terminal

Publications (1)

Publication Number Publication Date
JP2021177321A true JP2021177321A (en) 2021-11-11

Family

ID=78409517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020082496A Pending JP2021177321A (en) 2020-05-08 2020-05-08 Program, displaying method and terminal

Country Status (2)

Country Link
JP (1) JP2021177321A (en)
WO (1) WO2021225104A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162119A1 (en) * 2022-02-25 2023-08-31 ビーサイズ株式会社 Information processing terminal, information processing method, and information processing program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120214416A1 (en) * 2011-02-23 2012-08-23 Jonathan Douglas Kent Methods and apparatuses for communication between devices
JP5631947B2 (en) * 2012-09-21 2014-11-26 株式会社コナミデジタルエンタテインメント Management device, message management method and program
JP6102016B2 (en) * 2012-11-12 2017-03-29 株式会社コナミデジタルエンタテインメント Display device and program
JP2015126524A (en) * 2013-12-27 2015-07-06 ブラザー工業株式会社 Remote conference program, terminal device, and remote conference method
JP2017084285A (en) * 2015-10-30 2017-05-18 キヤノンマーケティングジャパン株式会社 Web conference system and control method of the same, and program
JP6062027B1 (en) * 2015-12-17 2017-01-18 Line株式会社 Display control method, terminal, and program
JP7046546B2 (en) * 2017-09-28 2022-04-04 株式会社野村総合研究所 Conference support system and conference support program
JP2020027351A (en) * 2018-08-09 2020-02-20 キヤノン株式会社 Minutes distribution system, minutes distribution method, and program

Also Published As

Publication number Publication date
WO2021225104A1 (en) 2021-11-11

Similar Documents

Publication Publication Date Title
US10270862B1 (en) Identifying non-search actions based on a search query
JP6803719B2 (en) Message providing method, message providing device, display control method, display control device and computer program
CN101843086B (en) Apparatus, method and computer program product for using images in contact lists maintained in electronic devices
CN102483917B (en) For the order of display text
US10139994B2 (en) Capturing and processing multi-media information using mobile communication devices
US8467402B2 (en) Digital audio communication system
KR20140115320A (en) Notebook driven accumulation of meeting documentation and notations
JP6840379B2 (en) Information processing system, information processing device, information processing method and program
JP2015528968A (en) Generating string prediction using context
JP2008282397A (en) Method for creating annotated transcript of presentation, information processing system, and computer program
CN106134149A (en) Communications event
WO2022105710A1 (en) Meeting minutes interaction method and apparatus, device, and medium
KR101123370B1 (en) service method and apparatus for object-based contents for portable device
CN113010698A (en) Multimedia interaction method, information interaction method, device, equipment and medium
WO2021225104A1 (en) Program, display method, and terminal
WO2018047461A1 (en) Recording medium with program recorded thereon, information processing method, and information processing terminal
CN112242948B (en) Group session processing method and device, computer equipment and storage medium
US20130204414A1 (en) Digital audio communication system
KR102530669B1 (en) Method, system, and computer readable record medium to write memo for audio file through linkage between app and web
WO2018168998A1 (en) Bot control management program, method, device, and system
KR20240049798A (en) Programs, information processing methods and terminals
KR101844872B1 (en) Method and apparatus of providing message, Method and apparatus of controlling display and computer program for executing one of the method
KR102448356B1 (en) Method, system, and computer readable record medium to record conversations in connection with video communication service
KR20180036939A (en) Method and apparatus of providing message, Method and apparatus of controlling display and computer program for executing one of the method
JP2018156184A (en) Bot control management program, method, device, and system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230424

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230424

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231027

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20231102