JP7430672B2 - Terminal device, transmission method, transmission program and information processing system - Google Patents

Terminal device, transmission method, transmission program and information processing system Download PDF

Info

Publication number
JP7430672B2
JP7430672B2 JP2021132964A JP2021132964A JP7430672B2 JP 7430672 B2 JP7430672 B2 JP 7430672B2 JP 2021132964 A JP2021132964 A JP 2021132964A JP 2021132964 A JP2021132964 A JP 2021132964A JP 7430672 B2 JP7430672 B2 JP 7430672B2
Authority
JP
Japan
Prior art keywords
terminal device
voice
user
information
server device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021132964A
Other languages
Japanese (ja)
Other versions
JP2023027697A (en
Inventor
健一 磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2021132964A priority Critical patent/JP7430672B2/en
Publication of JP2023027697A publication Critical patent/JP2023027697A/en
Application granted granted Critical
Publication of JP7430672B2 publication Critical patent/JP7430672B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)

Description

本発明は、端末装置、送信方法、送信プログラム及び情報処理システムに関する。 The present invention relates to a terminal device, a transmission method, a transmission program, and an information processing system.

ユーザが発話した音声を認識する音声認識が様々なサービスで利用されている。例えば、発話情報とその発話情報の示す発話内容とを用いた学習により作成されたモデルを用いて、音声認識を行う技術が提供されている(例えば、特許文献1参照)。 Speech recognition, which recognizes voices uttered by users, is used in various services. For example, there is a technology that performs speech recognition using a model created by learning using utterance information and utterance content indicated by the utterance information (for example, see Patent Document 1).

特開2021-081527号公報JP 2021-081527 Publication

しかしながら、上記の従来技術では、ユーザが発話した音声に関する情報を取得することが難しい場合がある。例えば、上記の従来技術では、ユーザの発話(音声)をサーバ装置で音声認識を行い、その認識結果をユーザが利用する端末装置へ送信する構成であるため、必然的にサーバ装置はユーザの発話(音声)データを取得することができる。一方で、端末装置自体で音声認識が行われる、いわゆるオンデバイス型の音声認識が行われる場合、端末装置からサーバ装置へユーザの発話(音声)データを送信することなく、音声認識が完了するため、ユーザが発話した音声に関する情報を、ユーザが利用する端末装置以外の装置であるサーバ装置等の他の装置が収集することが難しい。 However, with the above-mentioned conventional technology, it may be difficult to obtain information regarding the voice uttered by the user. For example, in the above-mentioned conventional technology, the server device performs voice recognition on the user's utterances (speech), and the recognition result is transmitted to the terminal device used by the user. (audio) data can be obtained. On the other hand, when so-called on-device type voice recognition is performed, in which voice recognition is performed on the terminal device itself, voice recognition is completed without transmitting the user's utterance (speech) data from the terminal device to the server device. , it is difficult for a device other than the terminal device used by the user, such as a server device, to collect information regarding the voice uttered by the user.

本願は、上記に鑑みてなされたものであって、端末装置が音声認識を行う場合であっても、端末装置で収集される音声に関する情報を他の装置へ適切に送信することを目的とする。 This application has been made in view of the above, and aims to appropriately transmit information related to voices collected by a terminal device to other devices even when the terminal device performs voice recognition. .

本願に係る端末装置は、ユーザに利用され、自装置で音声認識を行う端末装置であって、前記ユーザが発話した音声と前記発話の前記音声認識による認識結果とを対応付けて自装置内の記憶部に収集する収集部と、前記収集部により収集された前記音声が所定の条件を満たす場合、前記ユーザの許諾に応じて、前記音声に関する情報をサーバ装置に送信する送信部と、を備えることを特徴とする。 The terminal device according to the present application is a terminal device that is used by a user and performs voice recognition on its own, and that associates the voice uttered by the user with the recognition result of the voice recognition of the utterance and performs voice recognition within the own device. a collection unit that collects the audio into a storage unit; and a transmission unit that transmits information regarding the audio to a server device in accordance with the user's consent if the audio collected by the collection unit satisfies a predetermined condition. It is characterized by

実施形態の一態様によれば、端末装置が音声認識を行う場合であっても、端末装置で収集される音声に関する情報を他の装置へ適切に送信することができる。 According to one aspect of the embodiment, even when a terminal device performs speech recognition, information regarding speech collected by the terminal device can be appropriately transmitted to another device.

図1は、実施形態に係る情報処理の概要を示す説明図である。FIG. 1 is an explanatory diagram showing an overview of information processing according to the embodiment. 図2は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an information processing system according to an embodiment. 図3は、実施形態に係る端末装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a terminal device according to an embodiment. 図4は、モデル情報記憶部の一例を示す図である。FIG. 4 is a diagram illustrating an example of a model information storage section. 図5は、収集情報記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of a collected information storage section. 図6は、実施形態に係るサーバ装置の構成例を示す図である。FIG. 6 is a diagram illustrating a configuration example of a server device according to an embodiment. 図7は、モデル情報記憶部の一例を示す図である。FIG. 7 is a diagram illustrating an example of a model information storage section. 図8は、学習用データ情報記憶部の一例を示す図である。FIG. 8 is a diagram illustrating an example of a learning data information storage section. 図9は、実施形態に係る処理手順を示すフローチャートである。FIG. 9 is a flowchart showing the processing procedure according to the embodiment. 図10は、ハードウェア構成の一例を示す図である。FIG. 10 is a diagram showing an example of a hardware configuration.

以下に、本願に係る端末装置、送信方法、送信プログラム及び情報処理システムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る端末装置、送信方法、送信プログラム及び情報処理システムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Below, a terminal device, a transmission method, a transmission program, and a form for implementing an information processing system (hereinafter referred to as an "embodiment") according to the present application will be described in detail with reference to the drawings. Note that this embodiment does not limit the terminal device, transmission method, transmission program, and information processing system according to the present application. In addition, in the following embodiments, the same parts are given the same reference numerals, and redundant explanations will be omitted.

(実施形態)
〔1.情報処理〕
まず、図1を参照し、実施形態に係る情報処理システム1が行う情報処理の概要について説明する。図1は、実施形態に係る情報処理の概要を示す説明図である。図1では、サーバ装置100が端末装置10に情報送信を要求する音声を指定する条件の情報を端末装置10に送信し、端末装置10は、サーバ装置100から受信した条件を満たす音声に関する情報をサーバ装置100に送信する場合を一例として説明する。なお、端末装置10からサーバ装置100が音声に関する情報を取得可能であれば、サーバ装置100が条件を指定することなく、端末装置10は予め設定された条件を基にサーバ装置100に音声に関する情報を送信してもよい。
(Embodiment)
[1. Information processing〕
First, with reference to FIG. 1, an overview of information processing performed by the information processing system 1 according to the embodiment will be described. FIG. 1 is an explanatory diagram showing an overview of information processing according to the embodiment. In FIG. 1, the server device 100 transmits to the terminal device 10 information on conditions specifying a voice requesting information transmission, and the terminal device 10 transmits information regarding the voice that satisfies the conditions received from the server device 100. The case of transmitting to the server device 100 will be explained as an example. Note that if the server device 100 can acquire information regarding audio from the terminal device 10, the terminal device 10 will transmit information regarding audio to the server device 100 based on preset conditions without the server device 100 specifying the conditions. may be sent.

また、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。なお、図1では、端末装置10がスマートフォンである場合を一例として説明するが、端末装置10は、ユーザが発話した音声を収集し、サーバ装置100へ送信可能であれば、スマートフォンに限らず任意の装置(機器)であってもよいが、この点についての詳細は後述する。また、図1では、端末装置10が音声に関する情報として、音声データをサーバ装置100へ送信する場合を一例として説明するが、端末装置10がサーバ装置100へ送信する音声に関する情報は、音声データに限らず、様々な情報であってもよいが、この点についての詳細は後述する。 Further, below, the terminal device 10 may be referred to as a user. That is, in the following, the user can also be read as the terminal device 10. In addition, in FIG. 1, the case where the terminal device 10 is a smartphone will be explained as an example, but the terminal device 10 is not limited to a smartphone and can be any arbitrary device as long as it can collect the voice uttered by the user and send it to the server device 100. However, details regarding this point will be described later. Further, in FIG. 1, a case will be described as an example in which the terminal device 10 transmits audio data to the server device 100 as information regarding audio. However, the information regarding audio that the terminal device 10 transmits to the server device 100 is However, the details regarding this point will be described later.

以下、図1を用いて、情報処理の一例を説明する。なお、図1では説明のため、1つの発話を対象として送信を行う場合を示すが、端末装置10は、収集した発話(音声)の数が一定の閾値(例えば50、100等)を超えた場合に、ユーザの送信許諾を得て、送信を行ってもよい。 An example of information processing will be described below with reference to FIG. Note that, for the sake of explanation, FIG. 1 shows a case in which transmission is performed with one utterance as the target, but the terminal device 10 detects when the number of collected utterances (voices) exceeds a certain threshold (for example, 50, 100, etc.). In some cases, transmission may be performed with the user's consent for transmission.

図1では、ユーザがユーザID「U1」により識別されるユーザ(以下、「ユーザU1」とする場合がある)である場合を示す。ユーザU1が利用する端末装置10は、音声認識モデルであるモデルM1を用いて、自装置内で音声認識を行い、音声認識の結果に応じたサービスをユーザU1に提供する。図1では、説明のためにモデルM1がユーザの発話の音声情報を文字に変換する場合を一例とするが、モデルM1は音声認識に関する処理を行うものであれば、発話をしたユーザ(話者)を識別する機能など、様々な機能を実行する音声認識モデルであってもよい。 FIG. 1 shows a case where the user is identified by the user ID "U1" (hereinafter sometimes referred to as "user U1"). The terminal device 10 used by the user U1 performs voice recognition within itself using the model M1, which is a voice recognition model, and provides a service to the user U1 according to the result of the voice recognition. In FIG. 1, for the sake of explanation, an example is taken in which the model M1 converts the audio information of the user's utterance into text. However, if the model M1 performs processing related to speech recognition, ) may be a speech recognition model that performs various functions, such as the ability to identify

まず、サーバ装置100は、端末装置10に提供を要求する音声を指定する条件CN1を示す情報を端末装置10に送信する(ステップS11)。端末装置10は、受信した条件CN1を示す情報を記憶部120(図3参照)に記憶する。例えば、端末装置10は、記憶部120に記憶した条件CN1と、音声に関する情報とを比較し、音声が条件CN1を満たすか否かを判定し、条件CN1を満たす音声データをサーバ装置100へ送信する。なお、以下では説明を簡単にするために条件CN1が特定の単語(以下「新語NX」とする)を含むことであるものとして説明し、他の条件の例示については後述する。 First, the server device 100 transmits to the terminal device 10 information indicating a condition CN1 specifying the voice that the terminal device 10 is requested to provide (step S11). The terminal device 10 stores the received information indicating the condition CN1 in the storage unit 120 (see FIG. 3). For example, the terminal device 10 compares the condition CN1 stored in the storage unit 120 with the information regarding the voice, determines whether the voice satisfies the condition CN1, and transmits the voice data that satisfies the condition CN1 to the server device 100. do. Note that, in order to simplify the explanation, the following description assumes that the condition CN1 includes a specific word (hereinafter referred to as "new word NX"), and examples of other conditions will be described later.

まず、ユーザU1が「XXXX」と発話する。なお、「XXXX」は具体的な内容を含む発話であるものとする。端末装置10は、ユーザU1の発話PAを検知し、ユーザU1の発話PAである「XXXX」の音声データを入力として受け付ける(ステップS12)。 First, user U1 utters "XXXX". Note that "XXXX" is an utterance that includes specific content. The terminal device 10 detects the utterance PA of the user U1, and receives the audio data of "XXXX", which is the utterance PA of the user U1, as input (step S12).

そして、端末装置10は、入力として受け付けた「XXXX」の音声データと、モデルM1とを利用して音声認識の処理を行う(ステップS13)。端末装置10は、「XXXX」の音声データをモデルM1に入力し、モデルM1に文字データを出力させることにより、音声を文字に変換する処理(音声認識処理)を行う。図1では、「XXXX」の音声データが入力されたモデルM1は、「XXXX」の文字データを出力する。なお、モデルM1は、入力された音声に対する文字とともに、その音声認識の確度を示すスコアを出力してもよい。また、「XXXX」の文字データには、新語NXが含まれるものとする。 Then, the terminal device 10 performs voice recognition processing using the voice data of "XXXX" received as input and the model M1 (step S13). The terminal device 10 inputs the voice data of "XXXX" into the model M1, and causes the model M1 to output character data, thereby performing a process of converting voice into characters (speech recognition process). In FIG. 1, model M1 to which voice data of "XXXX" is input outputs character data of "XXXX". Note that the model M1 may output a score indicating the accuracy of speech recognition together with the characters corresponding to the input speech. Further, it is assumed that the character data of "XXXX" includes a new word NX.

そして、端末装置10は、ユーザが発話した音声と発話の音声認識による認識結果とを対応付けて記憶部DBに収集する(ステップS14)。図1では、端末装置10は、ユーザU1が発話した発話PAと発話PAの認識結果とを対応付けて記憶部120に収集する。例えば、端末装置10は、発話PAである「XXXX」の音声データと、その音声データの認識結果である「XXXX」の文字データとを対応付けて自装置内の収集情報記憶部142(図3参照)に格納する。 Then, the terminal device 10 associates the voice uttered by the user with the recognition result of the voice recognition of the utterance and collects them in the storage unit DB (step S14). In FIG. 1, the terminal device 10 associates and collects the utterance PA uttered by the user U1 and the recognition result of the utterance PA in the storage unit 120. For example, the terminal device 10 associates the voice data of “XXXX”, which is the utterance PA, with the character data of “XXXX”, which is the recognition result of the voice data, and associates it with the collected information storage unit 142 (see FIG. reference).

そして、端末装置10は、収集した音声が条件を満たすか否かを判定し、条件を満たすと判定した場合、ユーザに通知する(ステップS15)。図1では、端末装置10は、収集した発話PAが条件CN1を満たすか否かを判定する。例えば、端末装置10は、発話PAの文字データと、条件CN1とを比較し、発話PAが条件CN1を満たすか否かを判定する。このように、端末装置10は、内容に関する条件(「内容条件」ともいう)である条件CN1を用いて発話PAが所定の内容を含むか否かを判定する。端末装置10は、収集した発話PAの文字データには新語NXが含まれるため、条件CN1を満たすと判定する。 Then, the terminal device 10 determines whether or not the collected voice satisfies the condition, and if it determines that the condition is satisfied, it notifies the user (step S15). In FIG. 1, the terminal device 10 determines whether the collected utterance PA satisfies the condition CN1. For example, the terminal device 10 compares the character data of the utterance PA with the condition CN1, and determines whether the utterance PA satisfies the condition CN1. In this manner, the terminal device 10 uses the condition CN1, which is a condition related to content (also referred to as "content condition"), to determine whether or not the utterance PA includes predetermined content. Since the collected character data of the utterance PA includes the new word NX, the terminal device 10 determines that the condition CN1 is satisfied.

そのため、端末装置10は、発話PAをサーバ装置100へ送信する候補となる情報としてユーザU1に通知する。例えば、端末装置10は、発話PAをサーバ装置100へ送信する候補として表示する。例えば、端末装置10は、文字列「XXXX」及びそれが候補であることを示す説明を画面に表示する。この場合、端末装置10は、発話PAが候補であることを示す情報とともに、ユーザU1の許諾の可否を示す情報を受け付けるための情報を表示してもよい。例えば、端末装置10は、発話PAが候補であることを示す情報とともに、その送信可否をユーザが指定するためのボタンを表示する。例えば、端末装置10は、発話PAが候補であることを示す情報とともに、「送信を許諾する」等と記載された許諾ボタン及び「送信を許諾しない」等と記載された拒絶ボタンを表示してもよい。このように、端末装置10は、条件を満たした場合にユーザに許諾を確認する。 Therefore, the terminal device 10 notifies the user U1 of the utterance PA as information that is a candidate to be transmitted to the server device 100. For example, the terminal device 10 displays the utterance PA as a candidate to be transmitted to the server device 100. For example, the terminal device 10 displays the character string "XXXX" and an explanation indicating that it is a candidate on the screen. In this case, the terminal device 10 may display information indicating that the utterance PA is a candidate, as well as information for accepting information indicating whether permission is granted by the user U1. For example, the terminal device 10 displays information indicating that the utterance PA is a candidate, as well as a button for the user to specify whether to transmit the utterance PA. For example, the terminal device 10 displays information indicating that the utterance PA is a candidate, as well as an accept button that says "permit transmission" or the like and a reject button that says "do not authorize transmission" or the like. Good too. In this way, the terminal device 10 confirms permission from the user when the conditions are met.

この場合、端末装置10は、許諾ボタンにより、発話PAをサーバ装置100へ送信することに対するユーザU1の許諾を受け付ける。例えば、端末装置10は、許諾ボタンをユーザU1が選択した場合、発話PAをサーバ装置100に送信することをユーザU1が許諾したと判定する。また、端末装置10は、拒絶ボタンをユーザU1が選択した場合、発話PAをサーバ装置100に送信することをユーザU1が許諾しなかったと判定する。なお、上記は一例に過ぎず、端末装置10は、表示による通知や許諾の受付けに限らず、様々な態様(モーダル)により通知や許諾の受付けを行ってもよい。例えば、端末装置10は、音声により発話PAをサーバ装置100へ送信する候補であることをユーザU1に対して通知(出力)してもよい。また、端末装置10は、音声により発話PAをサーバ装置100へ送信することに対するユーザU1の許諾の可否を受け付けてもよい。 In this case, the terminal device 10 accepts permission from the user U1 to transmit the utterance PA to the server device 100 using the permission button. For example, if the user U1 selects the consent button, the terminal device 10 determines that the user U1 has given permission to transmit the utterance PA to the server device 100. Furthermore, when the user U1 selects the reject button, the terminal device 10 determines that the user U1 does not approve the transmission of the utterance PA to the server device 100. Note that the above is just an example, and the terminal device 10 is not limited to accepting notifications and permissions through display, but may accept notifications and permissions in various modes (modals). For example, the terminal device 10 may notify (output) the user U1 that the user U1 is a candidate for transmitting the utterance PA to the server device 100 by voice. Further, the terminal device 10 may accept whether or not the user U1 gives permission to transmit the utterance PA to the server device 100 by voice.

端末装置10は、発話PAをサーバ装置100へ送信することに対するユーザU1の許諾を受け付ける。(ステップS16)。例えば、端末装置10は、ユーザU1が許諾ボタンを選択する操作により、発話PAをサーバ装置100へ送信することに対するユーザU1の許諾を受け付ける The terminal device 10 receives permission from the user U1 to transmit the utterance PA to the server device 100. (Step S16). For example, the terminal device 10 receives permission from the user U1 to transmit the utterance PA to the server device 100 when the user U1 selects a permission button.

そして、端末装置10は、ユーザU1が送信を許諾した発話PAに関する情報をサーバ装置100へ送信する(ステップS17)。図1では、端末装置10は、発話PAの音声データ及びその認識結果をサーバ装置100へ送信する。すなわち、端末装置10は、発話PAである「XXXX」の音声データと、その音声データの認識結果である「XXXX」の文字データとをサーバ装置100へ送信する。なお、上記は一例に過ぎず、端末装置10は、発話PAの音声データのみをサーバ装置100へ送信してもよい。 Then, the terminal device 10 transmits to the server device 100 information regarding the utterance PA that the user U1 has approved to transmit (step S17). In FIG. 1, the terminal device 10 transmits the audio data of the utterance PA and the recognition result thereof to the server device 100. That is, the terminal device 10 transmits to the server device 100 the voice data of “XXXX”, which is the utterance PA, and the character data of “XXXX”, which is the recognition result of the voice data. Note that the above is only an example, and the terminal device 10 may transmit only the audio data of the utterance PA to the server device 100.

サーバ装置100は、端末装置10から受信した音声に関する情報を学習に用いるデータに追加する(ステップS18)。図1では、端末装置10から発話PAである「XXXX」の音声データと、その音声データの認識結果である「XXXX」の文字データとの組合せ(以下「新規データPDT」ともいう)を受信したサーバ装置100は、受信した新規データPDTを学習用データセットであるデータセットDS1に追加する。例えば、サーバ装置100は、発話PAである「XXXX」の音声データに、「XXXX」の文字データをラベルとして対応付けた新規データPDTを、データセットDS1のデータとして学習用データ情報記憶部122(図8参照)に格納する。 The server device 100 adds the information regarding the voice received from the terminal device 10 to the data used for learning (step S18). In FIG. 1, a combination of voice data of "XXXX" which is the utterance PA and character data of "XXXX" which is the recognition result of the voice data (hereinafter also referred to as "new data PDT") is received from the terminal device 10. The server device 100 adds the received new data PDT to the data set DS1, which is a learning data set. For example, the server device 100 stores new data PDT in which the voice data of the utterance PA "XXXX" is associated with the character data of "XXXX" as a label in the learning data information storage unit 122 ( (see Figure 8).

そして、サーバ装置100は、新規データPDTが追加されたデータセットDS1を用いて、モデルM1を学習する(ステップS19)。サーバ装置100は、データセットDS1を用いて、モデルM1の重み等のパラメータを学習(更新)する。モデルM1の学習処理には、任意の手法が採用可能である。 Then, the server device 100 learns the model M1 using the data set DS1 to which the new data PDT has been added (step S19). The server device 100 uses the data set DS1 to learn (update) parameters such as weights of the model M1. Any method can be adopted for the learning process of the model M1.

例えば、サーバ装置100は、モデルM1が出力した文字データが、モデルM1に入力した音声データに対応する正解データ(ラベル)に近づくように、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、サーバ装置100は、学習処理によりノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を調整する。このように、サーバ装置100は、モデルM1における出力と、入力に対応する正解データとの誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理によりモデルM1を学習する。例えば、サーバ装置100は、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことによりモデルM1を生成する。これにより、サーバ装置100は、モデルM1のパラメータを学習する学習処理を行うことができる。 For example, the server device 100 uses a technique such as backpropagation (error backpropagation method) to learn so that the character data output by the model M1 approaches the correct data (label) corresponding to the voice data input to the model M1. Perform processing. For example, the server device 100 adjusts the value of a weight (i.e., connection coefficient) that is taken into consideration when transmitting a value between nodes through a learning process. In this way, the server device 100 learns the model M1 through processing such as backpropagation that corrects parameters (connection coefficients) so that the error between the output of the model M1 and the correct data corresponding to the input is reduced. For example, the server device 100 generates the model M1 by performing processing such as backpropagation to minimize a predetermined loss function. Thereby, the server device 100 can perform a learning process to learn the parameters of the model M1.

上述したように、情報処理システム1は、端末装置10が音声認識を行う場合であっても、端末装置10で収集される音声に関する情報をサーバ装置100へ適切に送信することができる。したがって、情報処理システム1は、端末装置10が音声認識を行う場合であっても、モデルを学習するために必要なデータを収集することができる。 As described above, even when the terminal device 10 performs speech recognition, the information processing system 1 can appropriately transmit information related to speech collected by the terminal device 10 to the server device 100. Therefore, the information processing system 1 can collect data necessary for learning a model even when the terminal device 10 performs speech recognition.

例えば、情報処理システム1は、ユーザがオンデバイス音声認識を搭載したアプリケーション(単に「アプリ」ともいう)を端末装置10で使用したときに、発話した音声と認識結果を端末装置10内に保存(蓄積)する。例えば、情報処理システム1は、例えばカーナビアプリ、ショッピングアプリ等の任意のアプリがインストールされた端末装置10でアプリを使用したときに、発話した音声と認識結果を端末装置10内に保存(蓄積)する。そして、情報処理システム1は、蓄積(収集)された発話が所定の基準を満たしたら、ユーザにサーバ装置100への送信許諾を確認し、ユーザの許諾が得られた場合に、許諾が得られた情報を端末装置10からサーバ装置100へ送信する。このような処理により、情報処理システム1は、端末装置10が音声認識を行う場合であっても、端末装置10で収集される音声に関する情報をサーバ装置100へ適切に送信することができる。 For example, when a user uses an application (also simply referred to as an "app") equipped with on-device voice recognition on the terminal device 10, the information processing system 1 stores the voice uttered and the recognition result in the terminal device 10 ( accumulate. For example, when the information processing system 1 uses an application on the terminal device 10 in which an arbitrary application such as a car navigation application or a shopping application is installed, the information processing system 1 stores (accumulates) the voice uttered and the recognition result in the terminal device 10. do. Then, when the accumulated (collected) utterances meet a predetermined standard, the information processing system 1 asks the user for permission to send the utterances to the server device 100, and if the user's permission is obtained, permission is obtained. The information is sent from the terminal device 10 to the server device 100. Through such processing, the information processing system 1 can appropriately transmit information related to speech collected by the terminal device 10 to the server device 100 even when the terminal device 10 performs speech recognition.

〔1-1.他の例〕
なお、図1に示した処理は一例に過ぎず、情報処理システム1は、様々な条件を用いて、様々な情報を端末装置10からサーバ装置100へ送信してもよい。この点について、以下各要素についての例示を記載する。
[1-1. Other examples]
Note that the process illustrated in FIG. 1 is only an example, and the information processing system 1 may transmit various information from the terminal device 10 to the server device 100 using various conditions. Regarding this point, examples of each element will be described below.

〔1-1-1.送信する情報〕
図1では、端末装置10からサーバ装置100へ音声データが送信される場合を一例として説明したが、端末装置10からサーバ装置100へ送信される情報は、音声に関する情報であればどのような情報であってもよい。
[1-1-1. Information to send〕
In FIG. 1, the case where audio data is transmitted from the terminal device 10 to the server device 100 has been described as an example, but the information transmitted from the terminal device 10 to the server device 100 can be any information related to audio. It may be.

端末装置10は、音声のデータをサーバ装置100に送信してもよい。端末装置10は、音声の波形データをサーバ装置100に送信してもよい。端末装置10は、音声のデータを圧縮したデータをサーバ装置100に送信してもよい。端末装置10は、音声から抽出した特徴情報をサーバ装置100に送信してもよい。 The terminal device 10 may transmit audio data to the server device 100. The terminal device 10 may transmit audio waveform data to the server device 100. The terminal device 10 may transmit compressed audio data to the server device 100. The terminal device 10 may transmit the feature information extracted from the voice to the server device 100.

上述のように、端末装置10からサーバ装置100へ送信する情報は、音声波形またはその圧縮したもの等の様々な情報であってもよい。端末装置10からサーバ装置100へ送信する情報は、音声波形から抽出した特徴量であってもよい。ここでいう特徴量とは、例えば元となる音声データよりもサイズが小さいデータであり、個人性に関する情報を極力含まないスペクトル情報などであってもよい。また、端末装置10からサーバ装置100へ送信する情報は、発話内容を検聴確認可能なレベルで不可逆圧縮してサイズを極力小さくした音声等の圧縮音声のデータであってもよい。 As described above, the information transmitted from the terminal device 10 to the server device 100 may be various information such as an audio waveform or a compressed version thereof. The information transmitted from the terminal device 10 to the server device 100 may be a feature extracted from the audio waveform. The feature amount here is, for example, data smaller in size than the original audio data, and may be spectrum information that does not include information regarding individuality as much as possible. Further, the information transmitted from the terminal device 10 to the server device 100 may be data of compressed audio, such as audio in which the utterance content is irreversibly compressed to a level that can be confirmed by listening test, thereby reducing the size as much as possible.

〔1-1-2.情報の条件〕
図1では、音声が特定の単語を含むか否かである条件CN1を一例と説明したが、サーバ装置100へ送信する情報の条件(送信情報条件)は、音声が特定の単語を含むか否かに限らず、様々な条件であってもよい。
[1-1-2. Information conditions〕
In FIG. 1, the condition CN1, which is whether the audio includes a specific word, was explained as an example, but the condition for information to be transmitted to the server device 100 (transmission information condition) is whether the audio includes a specific word. The conditions are not limited to these, and various conditions may be used.

送信情報条件は、収集した発話(音声)の数に関する条件(「数条件」ともいう)であってもよい。例えば、送信情報条件は、収集した発話(音声)の数が一定の閾値を超えたことであってもよい。この場合、端末装置10は、収集した音声の数が所定数(例えば50、100等)以上であるか否かを判定する。例えば、端末装置10は、収集した音声の数が所定数以上になった場合、条件を満たしたと判定し、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信する。 The transmission information condition may be a condition regarding the number of collected utterances (voices) (also referred to as "number condition"). For example, the transmission information condition may be that the number of collected utterances (voices) exceeds a certain threshold. In this case, the terminal device 10 determines whether the number of collected voices is equal to or greater than a predetermined number (for example, 50, 100, etc.). For example, when the number of collected voices exceeds a predetermined number, the terminal device 10 determines that the condition is satisfied, and transmits information regarding the voices to the server device 100 in accordance with the user's permission.

例えば、送信情報条件は、収集した発話(音声)の音声認識に関するスコアが所定の条件(「スコア条件」ともいう)を満たすことであってもよい。この場合、端末装置10は、収集した音声の音声認識に関するスコアが所定の閾値(例えば0.5、0.7等)以上であるか否かを判定する。例えば、端末装置10は、収集した音声の音声認識に関するスコアが所定の閾値以上である場合、条件を満たしたと判定し、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信する。 For example, the transmission information condition may be that a score related to speech recognition of collected utterances (voices) satisfies a predetermined condition (also referred to as "score condition"). In this case, the terminal device 10 determines whether the voice recognition score of the collected voice is equal to or higher than a predetermined threshold (for example, 0.5, 0.7, etc.). For example, if the score related to voice recognition of the collected voice is equal to or higher than a predetermined threshold, the terminal device 10 determines that the condition is satisfied, and transmits information regarding the voice to the server device 100 in accordance with the user's permission.

また、例えば、端末装置10は、収集した音声の音声認識に関するスコアが所定の閾値(例えば0.5、0.7等)未満であるか否かを判定する。例えば、端末装置10は、収集した音声の音声認識に関するスコアが所定の閾値未満である場合、条件を満たしたと判定し、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信する。 Further, for example, the terminal device 10 determines whether the score related to voice recognition of the collected voice is less than a predetermined threshold (eg, 0.5, 0.7, etc.). For example, if the score related to voice recognition of the collected voice is less than a predetermined threshold, the terminal device 10 determines that the condition is satisfied, and transmits information regarding the voice to the server device 100 in accordance with the user's permission.

また、例えば、送信情報条件は、収集した音声がノイズに関する条件(「ノイズ条件」ともいう)を満たすことであってもよい。この場合、端末装置10は、収集した音声の信号対雑音比(SN比)が所定値以上であるか否かを判定する。例えば、端末装置10は、収集した音声のSN比が所定値以上である場合、条件を満たしたと判定し、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信する。 Furthermore, for example, the transmission information condition may be that the collected audio satisfies a condition regarding noise (also referred to as a "noise condition"). In this case, the terminal device 10 determines whether the signal-to-noise ratio (SN ratio) of the collected audio is greater than or equal to a predetermined value. For example, if the SN ratio of the collected audio is greater than or equal to a predetermined value, the terminal device 10 determines that the condition is satisfied, and transmits information regarding the audio to the server device 100 in accordance with the user's consent.

また、例えば、端末装置10は、収集した音声の信号対雑音比(SN比)が所定値未満であるか否かを判定する。例えば、端末装置10は、収集した音声のSN比が所定値未満である場合、条件を満たしたと判定し、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信する。 Further, for example, the terminal device 10 determines whether the signal-to-noise ratio (SN ratio) of the collected audio is less than a predetermined value. For example, if the SN ratio of the collected audio is less than a predetermined value, the terminal device 10 determines that the condition is satisfied, and transmits information regarding the audio to the server device 100 in accordance with the user's permission.

なお、上記は一例に過ぎず、情報処理システム1は、様々な条件を適宜用いてもよい。送信情報条件は、端末装置10の種別であってもよい。例えば、情報処理システム1は、カーナビでのユーザの発話(音声)が不足している場合、端末装置10の種別が「カーナビ」であることを条件(端末条件)としてもよい。送信情報条件は、ユーザの属性であってもよい。例えば、情報処理システム1は、子どもの発話(音声)が不足している場合、話者が「子ども」であることまたは音声(声)の基本周波数が所定値以上であることを条件(話者条件)としてもよい。なお、上記は一例に過ぎず、情報処理システム1は、子どもの発話(音声)を収集する場合、「成人・子供」や「年齢年代」の判別器を用いて、子どもの発話(音声)を収集してもよい。この場合、情報処理システム1は、特徴量として基本周波数だけでなくスペクトル情報なども利用する判別器を用いて、子どもの発話(音声)を収集してもよい。 Note that the above is only an example, and the information processing system 1 may use various conditions as appropriate. The transmission information condition may be the type of terminal device 10. For example, when the user's speech (voice) in the car navigation system is insufficient, the information processing system 1 may set the condition (terminal condition) that the type of the terminal device 10 is "car navigation system". The transmission information condition may be a user attribute. For example, when the child's utterances (voices) are insufficient, the information processing system 1 sets the conditions (speaker condition). Note that the above is just an example, and when collecting children's utterances (voices), the information processing system 1 uses a discriminator for "adult/child" and "age group" to identify children's utterances (voices). May be collected. In this case, the information processing system 1 may collect the child's utterances (voices) using a classifier that uses not only the fundamental frequency but also spectral information as a feature quantity.

また、例えば、情報処理システム1は、上述した条件などを組み合わせて用いてもよい。例えば、端末装置10は、内容条件、スコア条件、またはノイズ条件の少なくとも1つを満たす音声の数が数条件を満たす場合に、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信してもよい。例えば、端末装置10は、内容条件、スコア条件、またはノイズ条件の少なくとも1つを満たす音声を該当音声として収集する。そして、端末装置10は、該当音声の数が所定の数(例えば30や150等)に達した場合、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信してもよい。 Further, for example, the information processing system 1 may use a combination of the above-mentioned conditions. For example, if the number of voices satisfying at least one of the content condition, score condition, or noise condition satisfies the number condition, the terminal device 10 transmits information regarding the voice to the server device 100 according to the user's permission. Good too. For example, the terminal device 10 collects audio that satisfies at least one of the content condition, the score condition, or the noise condition as the relevant audio. Then, when the number of corresponding voices reaches a predetermined number (for example, 30, 150, etc.), the terminal device 10 may transmit information regarding the voices to the server device 100 according to the user's permission.

このように、端末装置10は、収集した音声(ユーザ発話)のうち、音声認識エンジンの改良に資すると判断される発話を選んで、それが一定数を超えた場合に送信許諾を得てもよい。例えば、音声認識エンジンの改良に資すると判定する基準として、音声認識エンジンが発話ごとに付与するスコアを利用してもよい。音声認識エンジンの改良に資すると判定する基準として、発話ごとの信号対雑音比(SNR:signal-to-noise ratio)を利用してもよい。例えば、音声認識エンジンの改良に資すると判定する基準として、発話ごとの認識結果テキストを利用してもよい。例えば、情報処理システム1は、音声認識エンジンの改良のために欲しい単語を含んでいるような発話を選んでもよい。 In this way, the terminal device 10 selects utterances that are judged to contribute to improving the speech recognition engine from among the collected voices (user utterances), and obtains permission to transmit them if the number of utterances exceeds a certain number. good. For example, a score given to each utterance by the speech recognition engine may be used as a criterion for determining that it contributes to improvement of the speech recognition engine. The signal-to-noise ratio (SNR) for each utterance may be used as a criterion for determining that it contributes to improving the speech recognition engine. For example, the recognition result text for each utterance may be used as a criterion for determining that it contributes to improving the speech recognition engine. For example, the information processing system 1 may select an utterance that includes a desired word to improve the speech recognition engine.

〔1-1-3.送信タイミング〕
図1では、ユーザの許諾が得られたタイミングで情報を送信する場合を一例と説明したが、サーバ装置100へ送信するタイミングは、任意のタイミングが採用可能である。
[1-1-3. Transmission timing]
In FIG. 1, an example is described in which the information is transmitted at the timing when the user's permission is obtained, but any timing can be adopted as the timing for transmitting the information to the server device 100.

端末装置10は、音声についてユーザの許諾を受け付けた後、その音声に関する情報を所定のタイミングでサーバ装置100に送信する。端末装置10は、音声についてユーザの許諾を受け付けた後、通信環境が所定の通信条件を満たしている間に、その音声に関する情報をサーバ装置100に送信する。例えば、端末装置10は、音声についてユーザの許諾を受け付けた後、Wi-Fi(登録商標)(Wireless Fidelity)による通信を行っている間に、その音声に関する情報をサーバ装置100に送信する。 After receiving the user's permission for the audio, the terminal device 10 transmits information regarding the audio to the server device 100 at a predetermined timing. After receiving permission from the user for the audio, the terminal device 10 transmits information regarding the audio to the server device 100 while the communication environment satisfies predetermined communication conditions. For example, after receiving permission from the user for audio, the terminal device 10 transmits information regarding the audio to the server device 100 while communicating via Wi-Fi (registered trademark) (Wireless Fidelity).

また、端末装置10は、音声についてユーザの許諾を受け付けた後、端末装置10の利用率が低いタイミングで、その音声に関する情報をサーバ装置100に送信する。例えば、端末装置10は、音声についてユーザの許諾を受け付けた後、端末装置10のプロセッサの利用率が所定の閾値未満となったタイミングで、その音声に関する情報をサーバ装置100に送信する。例えば、端末装置10は、音声についてユーザの許諾を受け付けた後、端末装置10が充電されている間に、その音声に関する情報をサーバ装置100に送信する。 Further, after receiving the user's permission for the audio, the terminal device 10 transmits information regarding the audio to the server device 100 at a timing when the usage rate of the terminal device 10 is low. For example, after receiving the user's permission for the audio, the terminal device 10 transmits information regarding the audio to the server device 100 at a timing when the usage rate of the processor of the terminal device 10 becomes less than a predetermined threshold. For example, after receiving the user's permission for the audio, the terminal device 10 transmits information regarding the audio to the server device 100 while the terminal device 10 is being charged.

上記のように、端末装置10は、ユーザの送信許諾を得た後、Wi-Fi接続されている場合、またはユーザの端末装置10の利用率が低いタイミング(CPU負荷が所定値以下や深夜自宅充電時など)にサーバ装置100へ情報を送信する。 As mentioned above, after obtaining the user's transmission permission, the terminal device 10 is connected to Wi-Fi, or when the usage rate of the user's terminal device 10 is low (when the CPU load is below a predetermined value or when the user is at home late at night). (such as during charging), the information is transmitted to the server device 100.

また、端末装置10は、各音声の価値に応じて、価値が高い音声に関する情報の優先送信を行ってもよい。端末装置10は、音声認識のスコアに応じて優先度(順位)付けを行い、優先度が高い音声に関する情報から順に、サーバ装置100へ送信する。例えば、端末装置10は、音声認識のスコアが高い方から順に高い優先度(順位)を付して、優先度が高い音声に関する情報から順に、サーバ装置100へ送信する。 Further, the terminal device 10 may perform preferential transmission of information regarding voices having high value, depending on the value of each voice. The terminal device 10 prioritizes (ranks) the information according to the voice recognition score, and transmits information to the server device 100 in order of priority. For example, the terminal device 10 assigns a higher priority (rank) in descending order of voice recognition score, and transmits information regarding voices with higher priority to the server device 100 in order.

〔1-1-4.ユーザによる選択〕
上述したように、端末装置10は、ユーザに通知した候補のうち、ユーザが許諾した音声に関する情報のみサーバ装置100に送信する。例えば、端末装置10は、ユーザに送信許諾を得る際に、送信する発話リスト(認識結果テキストと発話へのリンクなど)をユーザに提示して、ユーザが送信したくない発話を選択した場合、ユーザが選択した発話を送信対象から除外する。
[1-1-4. User selection]
As described above, the terminal device 10 transmits to the server device 100 only information related to voices approved by the user among the candidates notified to the user. For example, when obtaining transmission permission from the user, the terminal device 10 presents the user with a list of utterances to be transmitted (recognition result text and links to the utterances, etc.), and if the user selects an utterance that the user does not want to transmit, Exclude the utterance selected by the user from being sent.

〔1-1-5.インセンティブ〕
情報処理システム1は、ユーザに送信許諾を得るために、ユーザにインセンティブを提供してもよい。例えば、情報処理システム1は、ユーザが音声の送信を許諾した場合、許諾した音声に応じた、電子マネー、ポイント、クーポン等の様々種別のインセンティブをユーザに提供してもよい。
[1-1-5. Incentive]
The information processing system 1 may provide an incentive to the user in order to obtain transmission permission from the user. For example, when the user approves the transmission of audio, the information processing system 1 may provide the user with various types of incentives, such as electronic money, points, and coupons, depending on the audio that the user has approved.

例えば、端末装置10は、音声に関する情報がサーバ装置100へ送信された場合にユーザに提供されるインセンティブを示す情報をユーザに通知してもよい。例えば、端末装置10は、音声の価値が高い方がより良いインセンティブをユーザに提供することをユーザに通知してもよい。例えば、端末装置10は、音声のスコアが高い方が多いポイントをユーザに提供することをユーザに通知してもよい。 For example, the terminal device 10 may notify the user of information indicating an incentive to be provided to the user when information regarding audio is transmitted to the server device 100. For example, the terminal device 10 may notify the user that the higher the value of the voice, the better the incentive will be provided to the user. For example, the terminal device 10 may notify the user that the higher the audio score, the more points will be provided to the user.

例えば、端末装置10は、音声にユーザがラベル(正解)を付した場合に、インセンティブをユーザに提供することをユーザに通知してもよい。例えば、端末装置10は、スコアが所定の閾値未満である音声の認識結果をユーザが確認し、誤っている場合に修正した場合に、インセンティブをユーザに提供することをユーザに通知してもよい。 For example, the terminal device 10 may notify the user that an incentive will be provided to the user when the user attaches a label (correct answer) to the audio. For example, the terminal device 10 may notify the user that an incentive will be provided to the user if the user checks the recognition result of a voice whose score is less than a predetermined threshold and corrects it if it is incorrect. .

〔2.情報処理システムの構成例〕
次に、図2を用いて、実施形態に係るサーバ装置100が含まれる情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1は、複数の端末装置10とサーバ装置100とを含む。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
[2. Configuration example of information processing system]
Next, the configuration of the information processing system 1 including the server device 100 according to the embodiment will be described using FIG. 2. FIG. 2 is a diagram showing a configuration example of the information processing system 1 according to the embodiment. As shown in FIG. 2, the information processing system 1 according to the embodiment includes a plurality of terminal devices 10 and a server device 100. These various devices are connected via a network N so that they can communicate by wire or wirelessly. The network N is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet.

また、図2に示す情報処理システム1に含まれる各装置の数は図示したものに限られない。例えば、図2では、図示の簡略化のため、端末装置10-1、10-2、10-3の3台のみを示したが、これはあくまでも例示であって限定されるものではなく、4台以上であってもよい。 Furthermore, the number of devices included in the information processing system 1 shown in FIG. 2 is not limited to what is illustrated. For example, in FIG. 2, only three terminal devices 10-1, 10-2, and 10-3 are shown to simplify the illustration, but this is just an example and is not limited to four terminal devices. It may be more than one.

端末装置10は、ユーザにより利用され、自装置内での音声認識によりユーザに音声認識に基づくサービスを提供する情報処理装置(コンピュータ)である。端末装置10は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、サーバ装置100と通信することができる。 The terminal device 10 is an information processing device (computer) that is used by a user and provides a service based on voice recognition to the user through voice recognition within the device itself. The terminal device 10 is connected to a wireless communication network such as LTE (Long Term Evolution), 4G (4th Generation), or 5G (5th Generation), Bluetooth (registered trademark), or wireless LAN (Local Area Network). It is possible to connect to the network N and communicate with the server device 100 via short-range wireless communication such as the like.

図2では、端末装置10-1は、ユーザにより利用されるスマートフォンである。なお、端末装置10-1は、ユーザにより利用されるデバイスであれば、タブレット端末等のスマートデバイス、フィーチャーフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、カーナビゲーションシステム、スマートウォッチやヘッドマウントディスプレイ等のウェアラブルデバイス(Wearable Device)、スマートグラス等であってもよい。 In FIG. 2, the terminal device 10-1 is a smartphone used by a user. Note that the terminal device 10-1 may be a smart device such as a tablet terminal, a feature phone, a PC (Personal Computer), a PDA (Personal Digital Assistant), a car navigation system, a smart watch, or a headphone, as long as it is a device used by the user. It may also be a wearable device such as a mounted display, smart glasses, or the like.

図2では、端末装置10-2は、ユーザにより利用されるスマートスピーカである。なお、端末装置10-2は、ユーザにより利用されるデバイスであれば、テレビ、冷蔵庫等の任意のIoT(Internet of Things)であってもよい。 In FIG. 2, the terminal device 10-2 is a smart speaker used by a user. Note that the terminal device 10-2 may be any IoT (Internet of Things) device such as a television or a refrigerator as long as it is used by a user.

図2では、端末装置10-3は、カーナビゲーション(カーナビ)機能が搭載された自動車等の車両等の移動体である。なお、端末装置10-3は、移動体に配置されたカーナビゲーション機能を提供するカーナビ装置であってもよい。 In FIG. 2, the terminal device 10-3 is a mobile object such as a vehicle such as an automobile equipped with a car navigation function. Note that the terminal device 10-3 may be a car navigation device that is placed in a moving object and provides a car navigation function.

サーバ装置100は、端末装置10から音声に関する情報を取得する情報処理装置(コンピュータ)である。また、サーバ装置100は、取得した音声に関する情報を用いた機械学習により、音声認識に用いられるモデルを学習する学習装置である。また、サーバ装置100は、端末装置10にモデルを送信する。また、サーバ装置100は、端末装置10に送信してほしいデータを指定する条件を示す情報を端末装置10に送信する。なお、サーバ装置100は、端末装置10から音声に関する情報を取得し、取得した情報を蓄積する機能のみを有してもよい。この場合、情報処理システム1には、サーバ装置100が蓄積した情報を用いてモデルの学習を行う装置(学習装置)が含まれてもよい。すなわち、情報処理システム1において、端末装置10から音声データ等の音声に関する情報を受信して蓄積する装置(例えばサーバ装置100)と、音声認識モデルを保持して収集したデータで学習または更新行い、端末装置10に送信(配布)する装置(例えば学習装置)とは別体であってもよい。この場合、学習装置は、音声認識モデルを保持し、サーバ装置100から取得したデータを用いてモデルの学習や更新を行い、ユーザが利用する端末装置10へモデルを送信してもよい。例えば、情報処理システム1では、サーバ装置100が収集した音声データ等の音声に関する情報を、別途、人手で検聴して正解テキストを付与したり、機械的に選別して、新しい音声認識モデルを学習したり、更新したりしてもよい。また、情報処理システム1では、モデルの配布は、アプリのバイナリに添付して、アプリストア等、アプリケーションのダウンロードサービスを経由して、ユーザが利用する端末装置10にバージョンアップとして配信されてもよい。なお、情報処理システム1の構成は、サーバ装置100が端末装置10から音声に関する情報を取得する構成であれば、上記に限らず任意の構成が採用可能である。 The server device 100 is an information processing device (computer) that acquires information regarding audio from the terminal device 10. Further, the server device 100 is a learning device that learns a model used for speech recognition through machine learning using information regarding acquired speech. Additionally, the server device 100 transmits the model to the terminal device 10. Furthermore, the server device 100 transmits to the terminal device 10 information indicating conditions for specifying data that the terminal device 10 wants to transmit. Note that the server device 100 may have only the function of acquiring information regarding audio from the terminal device 10 and accumulating the acquired information. In this case, the information processing system 1 may include a device (learning device) that performs model learning using information accumulated by the server device 100. That is, in the information processing system 1, a device (e.g., server device 100) that receives and stores voice information such as voice data from the terminal device 10, and a voice recognition model is stored and learned or updated using the collected data. It may be separate from the device (for example, a learning device) that transmits (distributes) to the terminal device 10. In this case, the learning device may hold the speech recognition model, perform learning and updating of the model using data acquired from the server device 100, and transmit the model to the terminal device 10 used by the user. For example, in the information processing system 1, the information on speech such as speech data collected by the server device 100 is separately manually listened to and given a correct answer text, or mechanically selected to create a new speech recognition model. May be learned or updated. Further, in the information processing system 1, the model may be distributed as an upgrade to the terminal device 10 used by the user via an application download service such as an app store, attached to the binary of the application. . Note that the configuration of the information processing system 1 is not limited to the above, and any configuration can be adopted as long as the server device 100 acquires information regarding audio from the terminal device 10.

〔3.端末装置の構成例〕
次に、図3を用いて、端末装置10の構成について説明する。図3は、端末装置10の構成例を示す図である。図3に示すように、端末装置10は、通信部11と、入力部12と、出力部13と、記憶部14と、制御部15と、センサ部16とを有する。なお、端末装置10は、データを収集し、サーバ装置100へ提供可能な構成であれば、どのような装置構成であってもよい。例えば、端末装置10は、サーバ装置100と通信する通信部11と、データを収集する処理を行う制御部15とを有すれば、その他の構成は任意であってもよい。端末装置10の種別によっては、例えば、端末装置10は、入力部12や出力部13や記憶部14やセンサ部16のいずれかを有しなくてもよい。
[3. Configuration example of terminal device]
Next, the configuration of the terminal device 10 will be explained using FIG. 3. FIG. 3 is a diagram showing a configuration example of the terminal device 10. As shown in FIG. As shown in FIG. 3, the terminal device 10 includes a communication section 11, an input section 12, an output section 13, a storage section 14, a control section 15, and a sensor section 16. Note that the terminal device 10 may have any device configuration as long as it can collect data and provide it to the server device 100. For example, the terminal device 10 may have any other configuration as long as it has a communication unit 11 that communicates with the server device 100 and a control unit 15 that performs a process of collecting data. Depending on the type of the terminal device 10, for example, the terminal device 10 may not include the input section 12, the output section 13, the storage section 14, or the sensor section 16.

なお、端末装置10は、どのような実現態様であるかに応じて、上記に限らず任意の構成を有してもよい。例えば、端末装置10が移動体である場合、端末装置10は、駆動部(モータ)等の移動を実現するための機構を有する構成であってもよい。 Note that the terminal device 10 may have any configuration other than the above, depending on the implementation mode. For example, when the terminal device 10 is a moving object, the terminal device 10 may have a structure that includes a mechanism for realizing movement, such as a drive unit (motor).

(通信部11)
通信部11は、例えば、NICや通信回路等によって実現される。通信部11は、ネットワークN(インターネット等)と有線又は無線で接続され、ネットワークNを介して、サーバ装置100等の他の装置等との間で情報の送受信を行う。
(Communication Department 11)
The communication unit 11 is realized by, for example, a NIC, a communication circuit, or the like. The communication unit 11 is connected to a network N (such as the Internet) by wire or wirelessly, and transmits and receives information to and from other devices such as the server device 100 via the network N.

(入力部12)
入力部12は、各種入力を受け付ける。入力部12は、ユーザの操作を受け付ける。例えば、入力部12は、音声によるユーザの入力をマイク等の音声センサ161を介して受け付ける。入力部12は、ユーザの発話による各種操作を受け付ける。
(Input section 12)
The input unit 12 receives various inputs. The input unit 12 receives user operations. For example, the input unit 12 receives voice input from the user via a voice sensor 161 such as a microphone. The input unit 12 accepts various operations based on user's utterances.

また、入力部12は、ユーザの発話(音声)以外による端末装置10への操作(ユーザ操作)をユーザによる操作入力として受け付けてもよい。入力部12は、通信部11を介して、リモコン(リモートコントローラー:remote controller)を用いたユーザの操作に関する情報を受け付けてもよい。また、入力部12は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスを有してもよい。 Further, the input unit 12 may accept an operation (user operation) on the terminal device 10 other than the user's utterance (voice) as an operation input by the user. The input unit 12 may receive information regarding a user's operation using a remote controller (remote controller) via the communication unit 11 . Furthermore, the input unit 12 may include buttons provided on the terminal device 10 or a keyboard or mouse connected to the terminal device 10.

例えば、入力部12は、リモコンやキーボードやマウスと同等の機能を実現できるタッチパネルを有してもよい。この場合、入力部12は、ディスプレイ(出力部13)を介して各種情報が入力される。入力部12は、各種センサにより実現されるタッチパネルの機能により、表示画面を介してユーザから各種操作を受け付ける。すなわち、入力部12は、端末装置10のディスプレイ(出力部13)を介してユーザから各種操作を受け付ける。例えば、入力部12は、端末装置10のディスプレイ(出力部13)を介してユーザの操作を受け付ける。 For example, the input unit 12 may include a touch panel that can realize functions equivalent to a remote control, a keyboard, and a mouse. In this case, various information is input to the input unit 12 via the display (output unit 13). The input unit 12 receives various operations from the user via the display screen using touch panel functions realized by various sensors. That is, the input unit 12 receives various operations from the user via the display (output unit 13) of the terminal device 10. For example, the input unit 12 receives user operations via the display (output unit 13) of the terminal device 10.

(出力部13)
出力部13は、各種情報を出力する。出力部13は、情報を表示する機能を有する。出力部13は、端末装置10に設けられ各種情報を表示する。出力部13は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現される。出力部13は、音声を出力する機能を有してもよい。例えば、出力部13は、音声を出力するスピーカーを有する。
(Output section 13)
The output unit 13 outputs various information. The output unit 13 has a function of displaying information. The output unit 13 is provided in the terminal device 10 and displays various information. The output unit 13 is realized by, for example, a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like. The output unit 13 may have a function of outputting audio. For example, the output unit 13 includes a speaker that outputs audio.

(記憶部14)
記憶部14は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、データの収集に必要な各種情報を記憶する。記憶部14は、モデル情報記憶部141と収集情報記憶部142とを有する。
(Storage unit 14)
The storage unit 14 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 14 stores various information necessary for data collection. The storage unit 14 includes a model information storage unit 141 and a collected information storage unit 142.

(モデル情報記憶部141)
実施形態に係るモデル情報記憶部141は、モデル(ネットワーク)の構造を示す情報(モデルデータ)を記憶する。図4は、モデル情報記憶部の一例を示す図である。図4に示した例では、モデル情報記憶部141は、「モデルID」、「用途」、「モデルデータ」といった項目が含まれる。
(Model information storage unit 141)
The model information storage unit 141 according to the embodiment stores information (model data) indicating the structure of a model (network). FIG. 4 is a diagram illustrating an example of a model information storage section. In the example shown in FIG. 4, the model information storage unit 141 includes items such as "model ID", "use", and "model data".

「モデルID」は、モデルを識別するための識別情報を示す。「用途」は、対応するモデルの用途を示す。「モデルデータ」は、モデルのデータを示す。図4では「モデルデータ」に「MDT1」といった概念的な情報が格納される例を示したが、実際には、モデルに含まれるネットワークに関する情報や関数等、そのモデルを構成する種々の情報が含まれる。 "Model ID" indicates identification information for identifying a model. “Application” indicates the use of the corresponding model. "Model data" indicates data of a model. Figure 4 shows an example in which conceptual information such as "MDT1" is stored in "model data," but in reality, various information constituting the model, such as network information and functions included in the model, is stored. included.

図4に示す例では、モデルID「M1」により識別されるモデル(モデルM1)は、用途が「音声認識」であることを示す。モデルM1は、音声認識に用いられるモデルであることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。 In the example shown in FIG. 4, the model (model M1) identified by the model ID "M1" indicates that the application is "speech recognition." Model M1 indicates a model used for speech recognition. Further, the model data of model M1 is model data MDT1.

なお、モデル情報記憶部141は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、モデル情報記憶部141は、学習処理により学習(生成)されたモデルのパラメータ情報を記憶する。 Note that the model information storage unit 141 is not limited to the above, and may store various information depending on the purpose. For example, the model information storage unit 141 stores parameter information of a model learned (generated) through learning processing.

(収集情報記憶部142)
実施形態に係る収集情報記憶部142は、端末装置10が収集したユーザの発話(音声)に関する情報を記憶する。図5は、収集情報記憶部の一例を示す図である。図5に示した例では、収集情報記憶部142は、「音声ID」、「音声」、「認識結果」といった項目が含まれる。
(Collected information storage unit 142)
The collected information storage unit 142 according to the embodiment stores information regarding the user's utterances (voices) collected by the terminal device 10. FIG. 5 is a diagram illustrating an example of a collected information storage section. In the example shown in FIG. 5, the collected information storage unit 142 includes items such as "voice ID,""voice," and "recognition result."

「音声ID」は、収集した音声を識別するための識別情報を示す。「音声」は、収集した音声を示す。図5では「音声」に「ADT1」といった概念的な情報が格納される例を示したが、実際には、収集した音声データ、例えば音声の波形データ等、音声に関する種々の情報が含まれる。「認識結果」は、対応する音声の認識結果を示す。図5では「認識結果」に「RS1」といった概念的な情報が格納される例を示したが、実際には、音声の認識結果、例えば、音声データを文字データ(文字列)に変換した結果や、音声に含まれる内容等を示す情報が含まれる。 “Voice ID” indicates identification information for identifying the collected voice. "Audio" indicates collected audio. Although FIG. 5 shows an example in which conceptual information such as "ADT1" is stored in "audio," in reality, various information related to speech is included, such as collected audio data, for example, audio waveform data. “Recognition result” indicates the recognition result of the corresponding voice. Although Fig. 5 shows an example in which conceptual information such as "RS1" is stored in "recognition result," in reality, it is the result of speech recognition, such as the result of converting speech data into character data (character string). It also includes information indicating the content included in the audio.

図5に示す例では、音声ID「AD1」により識別される音声(音声AD1)の認識結果が、認識結果RS1あることを示す。 The example shown in FIG. 5 shows that the recognition result of the voice (voice AD1) identified by the voice ID "AD1" is the recognition result RS1.

なお、収集情報記憶部142は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、収集情報記憶部142は、各音声にその音声がどのような状況で検知されたかを示す情報が対応付けて記憶する。例えば、収集情報記憶部142は、各音声にその音声のSN比を対応付けて記憶する。 Note that the collected information storage unit 142 is not limited to the above, and may store various information depending on the purpose. For example, the collected information storage unit 142 stores each sound in association with information indicating under what circumstances the sound was detected. For example, the collected information storage unit 142 stores each sound in association with its SN ratio.

(制御部15)
図3に戻り、説明を続ける。制御部15は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置10内部に記憶されたプログラム(例えば、に係る送信プログラム等の情報処理プログラム)がRAM等を作業領域として実行されることにより実現される。また、制御部15は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
(Control unit 15)
Returning to FIG. 3, the explanation will be continued. The control unit 15 is a controller that processes information such as programs stored inside the terminal device 10 (for example, transmission programs related to This is realized by executing a program (program) using a RAM or the like as a work area. Further, the control unit 15 is a controller, and may be realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図3に示すように、制御部15は、受信部151と、音声認識部152と、収集部153と、通知部154と、受付部155と、判定部156と、送信部157とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 3, the control unit 15 includes a receiving unit 151, a voice recognition unit 152, a collecting unit 153, a notification unit 154, a receiving unit 155, a determining unit 156, and a transmitting unit 157. , realizes or executes the information processing functions and operations described below. Note that the internal configuration of the control unit 15 is not limited to the configuration shown in FIG. 3, and may be any other configuration as long as it performs information processing to be described later.

(受信部151)
受信部151は、各種情報を受信する。受信部151は、外部の情報処理装置から各種情報を受信する。受信部151は、サーバ装置100等の他の情報処理装置から各種情報を受信する。
(Receiving unit 151)
The receiving unit 151 receives various information. The receiving unit 151 receives various information from an external information processing device. The receiving unit 151 receives various information from other information processing devices such as the server device 100.

受信部151は、サーバ装置100が情報提供を要求する音声に関する条件を示す情報をサーバ装置100から受信する。 The receiving unit 151 receives from the server device 100 information indicating a condition regarding the voice for which the server device 100 requests information provision.

受信部151は、サーバ装置100が学習したモデルをサーバ装置100から受信する。受信部151は、サーバ装置100から音声認識モデルを受信する。受信部151は、サーバ装置100からモデルM1を受信する。 The receiving unit 151 receives the model learned by the server device 100 from the server device 100. The receiving unit 151 receives the speech recognition model from the server device 100. The receiving unit 151 receives the model M1 from the server device 100.

(音声認識部152)
音声認識部152は、音声認識に関する各種処理を実行する。音声認識部152は、記憶部14に記憶された情報を用いて、音声認識処理を実行する。音声認識部152は、音声認識モデルを用いて、音声認識処理を実行する。音声認識部152は、受信部151が受信した音声認識モデルを用いて、音声認識処理を実行する。音声認識部152は、受信部151が受信したモデルM1を用いて、音声認識処理を実行する。例えば、音声認識部152は、モデル情報記憶部141に記憶されたモデルM1を用いて、音声認識処理を実行する。
(Voice recognition unit 152)
The speech recognition unit 152 executes various processes related to speech recognition. The speech recognition unit 152 uses the information stored in the storage unit 14 to execute speech recognition processing. The speech recognition unit 152 executes speech recognition processing using a speech recognition model. The speech recognition unit 152 executes speech recognition processing using the speech recognition model received by the receiving unit 151. The speech recognition unit 152 executes speech recognition processing using the model M1 received by the receiving unit 151. For example, the voice recognition unit 152 uses the model M1 stored in the model information storage unit 141 to execute voice recognition processing.

音声認識部152は、モデルM1を用いて、ユーザの発話(音声)を文字情報(文字データ)に変換することにより、ユーザ発話の音声をテキスト化する。また、音声認識部152は、ユーザの発話の内容を分析する。音声認識部152は、種々の従来技術を適宜用いて、ユーザの発話を分析することにより、ユーザの発話の内容を推定する。例えば、音声認識部152は、自然言語理解(NLU:Natural Language Understanding)や自動音声認識(ASR:Automatic Speech Recognition)の機能により、ユーザの発話の内容を分析してもよい。 The speech recognition unit 152 converts the user's utterance (speech) into text information (text data) using the model M1, thereby converting the user's utterance into text. Furthermore, the speech recognition unit 152 analyzes the content of the user's utterance. The speech recognition unit 152 estimates the content of the user's utterance by analyzing the user's utterance using various conventional techniques as appropriate. For example, the speech recognition unit 152 may analyze the content of the user's utterance using a natural language understanding (NLU) or automatic speech recognition (ASR) function.

(収集部153)
収集部153は、各種情報を収集する。収集部153は、各種情報の収集を決定する。収集部153は、外部の情報処理装置からの情報に基づいて、各種情報を収集する。収集部153は、記憶部14に記憶された情報に基づいて、各種情報を収集する。収集部153は、モデル情報記憶部141に記憶されたモデルM1を用いたセンシングによりデータを収集する。
(Collection unit 153)
The collection unit 153 collects various information. The collection unit 153 decides to collect various information. The collection unit 153 collects various information based on information from an external information processing device. The collection unit 153 collects various information based on the information stored in the storage unit 14. The collection unit 153 collects data through sensing using the model M1 stored in the model information storage unit 141.

収集部153は、ユーザが発話した音声と発話の音声認識による認識結果とを対応付けて自装置内の記憶部14に収集する。収集部153は、音声とその音声の認識結果とを対応付けて収集情報記憶部142に格納する。収集部153は、ユーザが発話した音声と音声認識部152による音声認識の結果とを対応付けて収集情報記憶部142に登録する。 The collection unit 153 associates the voice uttered by the user with the recognition result of the voice recognition of the utterance, and collects them in the storage unit 14 within the own device. The collection unit 153 stores the voice and the recognition result of the voice in the collected information storage unit 142 in association with each other. The collection unit 153 associates the voice uttered by the user with the result of voice recognition by the voice recognition unit 152 and registers the result in the collected information storage unit 142 .

(通知部154)
通知部154は、ユーザへの通知に関する処理を実行する。通知部154は、ユーザへの情報の通知を行う。通知部154は、出力部13を介してユーザへの情報の通知を行う。
(Notification section 154)
The notification unit 154 executes processing related to notifications to users. The notification unit 154 notifies the user of information. The notification unit 154 notifies the user of information via the output unit 13.

通知部154は、サーバ装置100へ送信する候補となる音声に関する情報をユーザに通知する。通知部154は、サーバ装置100へ送信する候補の一覧情報を出力部13に表示する。 The notification unit 154 notifies the user of information regarding voices that are candidates for transmission to the server device 100. The notification unit 154 displays list information of candidates to be transmitted to the server device 100 on the output unit 13.

通知部154は、音声に関する情報がサーバ装置100へ送信された場合にユーザに提供されるインセンティブを示す情報を通知する。通知部154は、音声に関する情報がサーバ装置100へ送信された場合にユーザに提供されるインセンティブを示す情報を出力部13に表示する。 The notification unit 154 notifies information indicating an incentive provided to the user when information regarding audio is transmitted to the server device 100. The notification unit 154 displays on the output unit 13 information indicating incentives to be provided to the user when information regarding audio is transmitted to the server device 100.

(受付部155)
受付部155は、各種情報を受け付ける。受付部155は、ユーザによる各種操作を受け付ける。例えば、受付部155は、入力部12を介してユーザによる各種操作を受け付ける。
(Reception Department 155)
The reception unit 155 receives various information. The reception unit 155 receives various operations by the user. For example, the reception unit 155 accepts various operations by the user via the input unit 12.

受付部155は、ユーザによる許諾を受け付ける。受付部155は、通知部154により通知されたサーバ装置100へ送信する候補に対する、ユーザによる許諾を受け付ける。 The accepting unit 155 accepts permission from the user. The accepting unit 155 accepts permission from the user for the candidate to be transmitted to the server device 100 notified by the notifying unit 154.

(判定部156)
判定部156は、各種情報を判定する。例えば、判定部156は、受信部151により外部装置から受信された各種情報に基づいて、各種情報を判定する。例えば、判定部156は、記憶部14に記憶された情報に基づいて、各種情報を判定する。例えば、判定部156は、記憶部14に記憶されたデータの収集に関する条件を示す情報を用いて、判定を行う。
(Determination unit 156)
The determination unit 156 determines various information. For example, the determination unit 156 determines various information based on various information received by the reception unit 151 from an external device. For example, the determination unit 156 determines various information based on the information stored in the storage unit 14. For example, the determination unit 156 makes the determination using information stored in the storage unit 14 that indicates conditions regarding data collection.

判定部156は、サーバ装置100へ送信する情報に関する判定を行う。判定部156は、音声がサーバ装置100へ送信する情報に関する条件を満たすか否かを判定する。判定部156は、サーバ装置100へ情報を送信するタイミングを判定する。 The determination unit 156 determines information to be transmitted to the server device 100. The determination unit 156 determines whether the voice satisfies conditions regarding information to be transmitted to the server device 100. The determining unit 156 determines the timing of transmitting information to the server device 100.

判定部156は、収集部153により収集された音声が所定の条件を満たすか否かを判定する。判定部156は、収集部153により収集された音声の数が所定数以上であるか否かを判定する。判定部156は、収集部153により収集された音声の音声認識に関するスコアが所定の条件を満たすか否かを判定する。判定部156は、収集部153により収集された音声がノイズに関する条件を満たすか否かを判定する。判定部156は、収集部153により収集された音声に対応する発話が所定の内容を含むか否かを判定する。 The determining unit 156 determines whether the audio collected by the collecting unit 153 satisfies a predetermined condition. The determining unit 156 determines whether the number of voices collected by the collecting unit 153 is greater than or equal to a predetermined number. The determining unit 156 determines whether the score related to voice recognition of the voice collected by the collecting unit 153 satisfies a predetermined condition. The determining unit 156 determines whether the audio collected by the collecting unit 153 satisfies the noise-related conditions. The determining unit 156 determines whether the utterance corresponding to the voice collected by the collecting unit 153 includes predetermined content.

判定部156は、サーバ装置100により指定された所定の条件を満たすか否かを判定する。判定部156は、サーバ装置100から受信した所定の条件を満たすであるか否かを判定する。 The determination unit 156 determines whether a predetermined condition specified by the server device 100 is satisfied. The determining unit 156 determines whether a predetermined condition received from the server device 100 is satisfied.

判定部156は、通知部154により通知された候補のうち、ユーザが許諾した音声に関する情報をサーバ装置100に送信する。判定部156は、サーバ装置100へ情報を送信するタイミングであるか否かを判定する。判定部156は、通信環境が所定の通信条件を満たしているか否かを判定する。判定部156は、ユーザによる端末装置の利用率が低いタイミングであるか否かを判定する。 The determination unit 156 transmits to the server device 100 information regarding the voice that the user has approved from among the candidates notified by the notification unit 154. The determining unit 156 determines whether it is the timing to transmit information to the server device 100. The determination unit 156 determines whether the communication environment satisfies predetermined communication conditions. The determination unit 156 determines whether the timing is such that the usage rate of the terminal device by the user is low.

(送信部157)
送信部157は、外部の情報処理装置へ各種情報を送信する。例えば、送信部157は、サーバ装置100等の他の情報処理装置へ各種情報を送信する。送信部157は、記憶部14に記憶された情報を送信する。
(Transmission unit 157)
The transmitter 157 transmits various information to an external information processing device. For example, the transmitter 157 transmits various information to other information processing devices such as the server device 100. The transmitting unit 157 transmits the information stored in the storage unit 14.

送信部157は、サーバ装置100等の他の情報処理装置からの情報に基づいて、各種情報を送信する。送信部157は、記憶部14に記憶された情報に基づいて、各種情報を送信する。 The transmitter 157 transmits various information based on information from other information processing devices such as the server device 100. The transmitting unit 157 transmits various information based on the information stored in the storage unit 14.

送信部157は、判定部156による判定結果に応じて、サーバ装置100に情報を送信する。送信部157は、判定部156により情報送信の条件をみたすと判定された場合、サーバ装置100に情報を送信する。送信部157は、収集部153により収集された音声が所定の条件を満たす場合、ユーザの許諾に応じて、音声に関する情報を音声認識に関するモデルを学習するサーバ装置100に送信する。 The transmitting unit 157 transmits information to the server device 100 according to the determination result by the determining unit 156. The transmitting unit 157 transmits information to the server device 100 when the determining unit 156 determines that the information transmitting conditions are satisfied. If the voice collected by the collection unit 153 satisfies a predetermined condition, the transmitting unit 157 transmits information regarding the voice to the server device 100 that learns a model regarding voice recognition, in accordance with the user's permission.

送信部157は、音声のデータをサーバ装置100に送信する。送信部157は、音声の波形データをサーバ装置100に送信する。送信部157は、音声のデータを圧縮したデータをサーバ装置100に送信する。送信部157は、音声から抽出した特徴情報をサーバ装置100に送信する。 The transmitter 157 transmits audio data to the server device 100. The transmitter 157 transmits audio waveform data to the server device 100. The transmitter 157 transmits compressed audio data to the server device 100. The transmitter 157 transmits the feature information extracted from the voice to the server device 100.

送信部157は、収集部153により収集された音声の数が所定数以上である場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。送信部157は、収集部153により収集された音声の音声認識に関するスコアが所定の条件を満たす場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。送信部157は、収集部153により収集された音声がノイズに関する条件を満たす場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。送信部157は、収集部153により収集された音声に対応する発話が所定の内容を含む場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。送信部157は、サーバ装置100により指定された所定の条件を満たす場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。 If the number of voices collected by the collection unit 153 is greater than or equal to a predetermined number, the transmitting unit 157 transmits information regarding the voices to the server device 100 in response to permission. If the score related to voice recognition of the voice collected by the collection unit 153 satisfies a predetermined condition, the transmitting unit 157 transmits information regarding the voice to the server device 100 in response to permission. If the audio collected by the collecting unit 153 satisfies the noise-related conditions, the transmitting unit 157 transmits information regarding the audio to the server device 100 in response to permission. If the utterance corresponding to the voice collected by the collection unit 153 includes predetermined content, the transmitting unit 157 transmits information regarding the voice to the server device 100 in response to permission. If a predetermined condition specified by the server device 100 is satisfied, the transmitter 157 transmits information regarding the audio to the server device 100 in accordance with the permission.

送信部157は、通知部154により通知された候補のうち、ユーザが許諾した音声に関する情報をサーバ装置100に送信する。送信部157は、受付部155によりユーザの許諾が受け付けられた後、所定のタイミングで音声に関する情報をサーバ装置100に送信する。送信部157は、通信環境が所定の通信条件を満たしている間に、音声に関する情報をサーバ装置100に送信する。送信部157は、ユーザによる端末装置の利用率が低いタイミングで、音声に関する情報をサーバ装置100に送信する。送信部157は、サーバ装置100から受信した所定の条件を満たす音声に関する情報を、ユーザの許諾に応じて、サーバ装置100に送信する。 The transmitting unit 157 transmits to the server device 100 information regarding the voice that the user has approved from among the candidates notified by the notifying unit 154 . The transmitting unit 157 transmits information regarding the audio to the server device 100 at a predetermined timing after the accepting unit 155 accepts the user's permission. The transmitter 157 transmits information regarding audio to the server device 100 while the communication environment satisfies predetermined communication conditions. The transmitting unit 157 transmits information regarding audio to the server device 100 at a timing when the usage rate of the terminal device by the user is low. The transmitting unit 157 transmits information regarding the audio that satisfies a predetermined condition received from the server device 100 to the server device 100 in accordance with the user's permission.

(センサ部16)
センサ部16は、様々なセンサ情報を検知するセンサを有する。図3の例では、センサ部16は、音声センサ161を有する。
(Sensor part 16)
The sensor section 16 includes sensors that detect various sensor information. In the example of FIG. 3, the sensor section 16 includes an audio sensor 161.

(音声センサ161)
音声センサ161は、例えばマイク等であり、音声を検知する。例えば、音声センサ161は、ユーザの発話を検知する。なお、音声センサ161は、処理に必要なユーザの発話情報を検知可能であれば、どのような構成であってもよい。
(Audio sensor 161)
The audio sensor 161 is, for example, a microphone, and detects audio. For example, the audio sensor 161 detects a user's utterance. Note that the audio sensor 161 may have any configuration as long as it can detect the user's utterance information necessary for processing.

なお、センサ部16は、上記に限らず、種々のセンサを有してもよい。センサ部16は、画像センサ、位置センサ、加速度センサ、ジャイロセンサ、温度センサ、湿度センサ、照度センサ、圧力センサ、近接センサ、ニオイや汗や心拍や脈拍や脳波等の生体情報を受信のためのセンサ等の種々のセンサを有してもよい。また、センサ部16における上記の各種情報を検知するセンサは共通のセンサであってもよいし、各々異なるセンサにより実現されてもよい。 Note that the sensor section 16 is not limited to the above, and may include various sensors. The sensor unit 16 includes an image sensor, a position sensor, an acceleration sensor, a gyro sensor, a temperature sensor, a humidity sensor, an illuminance sensor, a pressure sensor, a proximity sensor, and a sensor for receiving biological information such as odor, sweat, heartbeat, pulse, and brain waves. It may have various sensors such as a sensor. Further, the sensors that detect the above-mentioned various information in the sensor section 16 may be a common sensor, or may be realized by different sensors.

〔4.サーバ装置の構成例〕
次に、図6を用いて、実施形態に係るサーバ装置100の構成について説明する。図6は、実施形態に係るサーバ装置100の構成例を示す図である。図6に示すように、サーバ装置100は、通信部110と、記憶部120と、制御部130とを有する。
[4. Configuration example of server device]
Next, the configuration of the server device 100 according to the embodiment will be described using FIG. 6. FIG. 6 is a diagram showing a configuration example of the server device 100 according to the embodiment. As shown in FIG. 6, the server device 100 includes a communication section 110, a storage section 120, and a control section 130.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークN(図2参照)と有線又は無線で接続される。
(Communication Department 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). Further, the communication unit 110 is connected to the network N (see FIG. 2) by wire or wirelessly.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置によって実現される。図6に示すように、記憶部120は、モデル情報記憶部121と、学習用データ情報記憶部122とを有する。なお、記憶部120は、上記に限らず、様々な情報を記憶する。記憶部120は、情報の送信に関する様々な条件を示す情報を記憶する。例えば、記憶部120は、サーバ装置100へ送信する情報の条件を示す情報(情報条件情報)を記憶する。例えば、記憶部120は、サーバ装置100へ送信するタイミングの条件を示す情報(タイミング条件情報)を記憶する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 6, the storage unit 120 includes a model information storage unit 121 and a learning data information storage unit 122. Note that the storage unit 120 stores various information not limited to the above information. The storage unit 120 stores information indicating various conditions regarding information transmission. For example, the storage unit 120 stores information indicating conditions for information to be transmitted to the server device 100 (information condition information). For example, the storage unit 120 stores information indicating timing conditions for transmitting to the server device 100 (timing condition information).

(モデル情報記憶部121)
実施形態に係るモデル情報記憶部121は、モデルに関する情報を記憶する。例えば、モデル情報記憶部121は、ユーザやコミュニティを対象として学習した共通モデル(グローバルモデル)を記憶する。図7は、実施形態に係るモデル情報記憶部の一例を示す図である。図7に示すモデル情報記憶部121は、「モデルID」、「用途」、「モデルデータ」といった項目が含まれる。
(Model information storage unit 121)
The model information storage unit 121 according to the embodiment stores information regarding models. For example, the model information storage unit 121 stores a common model (global model) learned for users and communities. FIG. 7 is a diagram illustrating an example of a model information storage unit according to the embodiment. The model information storage unit 121 shown in FIG. 7 includes items such as "model ID", "use", and "model data".

「モデルID」は、モデルを識別するための識別情報を示す。「用途」は、対応するモデルの用途を示す。「モデルデータ」は、モデルのデータを示す。図7では「モデルデータ」に「MDT1」といった概念的な情報が格納される例を示したが、実際には、モデルに含まれるネットワークに関する情報や関数等、そのモデルを構成する種々の情報が含まれる。 "Model ID" indicates identification information for identifying a model. “Application” indicates the use of the corresponding model. "Model data" indicates data of a model. Although Figure 7 shows an example in which conceptual information such as "MDT1" is stored in "model data," in reality, various information constituting the model, such as network information and functions included in the model, is stored. included.

図7に示す例では、モデルID「M1」により識別されるモデル(モデルM1)は、用途が「音声認識」であることを示す。モデルM1は、音声認識に用いられるモデルであることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。 In the example shown in FIG. 7, the model identified by the model ID "M1" (model M1) indicates that the application is "speech recognition." Model M1 indicates a model used for speech recognition. Further, the model data of model M1 is model data MDT1.

なお、モデル情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、モデル情報記憶部121は、学習処理により学習(生成)されたモデルのパラメータ情報を記憶する。なお、モデルの学習を他の装置(学習装置等)が行う場合は、サーバ装置100は、モデル情報記憶部121を有しなくてもよい。 Note that the model information storage unit 121 is not limited to the above, and may store various information depending on the purpose. For example, the model information storage unit 121 stores parameter information of a model learned (generated) through learning processing. Note that if another device (such as a learning device) performs model learning, the server device 100 does not need to include the model information storage unit 121.

(学習用データ情報記憶部122)
実施形態に係る学習用データ情報記憶部122は、学習に用いるデータに関する各種情報を記憶する。学習用データ情報記憶部122は、学習に用いるデータセットを記憶する。図8は、実施形態に係る学習用データ情報記憶部の一例を示す図である。例えば、学習用データ情報記憶部122は、学習に用いる学習用データや精度評価(算出)に用いる評価用データ等の種々のデータに関する各種情報を記憶する。図8に、実施形態に係る学習用データ情報記憶部122の一例を示す。図8の例では、学習用データ情報記憶部122は、「データセットID」、「データID」、「データ」、「ラベル」、「日時」といった項目が含まれる。
(Learning data information storage unit 122)
The learning data information storage unit 122 according to the embodiment stores various information regarding data used for learning. The learning data information storage unit 122 stores data sets used for learning. FIG. 8 is a diagram illustrating an example of a learning data information storage unit according to the embodiment. For example, the learning data information storage unit 122 stores various information regarding various data such as learning data used for learning and evaluation data used for accuracy evaluation (calculation). FIG. 8 shows an example of the learning data information storage unit 122 according to the embodiment. In the example of FIG. 8, the learning data information storage unit 122 includes items such as "data set ID", "data ID", "data", "label", and "date and time".

「データセットID」は、データセットを識別するための識別情報を示す。「データID」は、データを識別するための識別情報を示す。また、「データ」は、データIDにより識別されるデータに対応するデータを示す。 "Data set ID" indicates identification information for identifying a data set. "Data ID" indicates identification information for identifying data. Further, "data" indicates data corresponding to data identified by the data ID.

「ラベル」は、対応するデータに付されるラベル(正解ラベル)を示す。例えば、「ラベル」は、対応するデータ(音声)の認識結果を示す情報(正解情報)であってもよい。例えば、「ラベル」は、ユーザの発話を示す音声データを文字データ(文字列)に変換した結果を示す正解情報である。 “Label” indicates a label (correct label) attached to corresponding data. For example, the "label" may be information (correct information) indicating the recognition result of the corresponding data (speech). For example, the "label" is correct information indicating the result of converting audio data indicating the user's utterance into character data (character string).

また、「日時」は、対応するデータに関する時間(日時)を示す。なお、図8の例では、「DA1」等で図示するが、「日時」には、「2021年8月8日15時52分14秒」等の具体的な日時であってもよいし、「バージョンXXもモデル学習から使用開始」等、そのデータがどのモデルの学習から使用が開始されたかを示す情報が記憶されてもよい。 Moreover, "date and time" indicates the time (date and time) regarding the corresponding data. In addition, in the example of FIG. 8, it is illustrated as "DA1" etc., but "date and time" may be a specific date and time such as "August 8, 2021 15:52:14", Information indicating from which model learning the data started to be used, such as "Version XX also started using from model learning" may be stored.

図8の例では、データセットID「DS1」により識別されるデータセット(データセットDS1)には、データID「DID1」、「DID2」、「DID3」等により識別される複数のデータが含まれることを示す。例えば、データID「DID1」、「DID2」、「DID3」等により識別される各データ(学習用データ)は、モデルの学習に用いられる音声情報(音声データ)等である。 In the example of FIG. 8, the data set (data set DS1) identified by the data set ID "DS1" includes a plurality of data identified by data IDs "DID1", "DID2", "DID3", etc. Show that. For example, each data (learning data) identified by data IDs "DID1", "DID2", "DID3", etc. is audio information (sound data) used for model learning.

例えば、データID「DID1」により識別されるデータDT1は、ラベルLB1が付されたラベル有りデータであり、日時DA1でのモデルの学習から使用が開始されたことを示す。また、例えば、データID「DID4」により識別されるデータDT4は、ラベル無しデータとして取集され、予測ラベルであるラベルLB4が付されたデータであり、日時DA4でのモデルの学習から使用が開始されたことを示す。 For example, the data DT1 identified by the data ID "DID1" is labeled data with a label LB1 attached thereto, indicating that its use started with model learning at date and time DA1. Furthermore, for example, data DT4 identified by data ID "DID4" is data that is collected as unlabeled data and is attached with label LB4, which is a predicted label, and its use starts from model learning at date and time DA4. indicates that it has been done.

なお、学習用データ情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、学習用データ情報記憶部122は、各データが学習用データであるか、評価用データであるか等を特定可能に記憶してもよい。例えば、学習用データ情報記憶部122は、学習用データと評価用データとを区別可能に記憶する。学習用データ情報記憶部122は、各データが学習用データや評価用データであるかを識別する情報を記憶してもよい。サーバ装置100は、学習用データとして用いられる各データと正解情報とに基づいて、モデルを学習する。サーバ装置100は、評価用データとして用いられる各データと正解情報とに基づいて、モデルの精度を算出する。サーバ装置100は、評価用データを入力した場合にモデルが出力する出力結果と、正解情報とを比較した結果を収集することにより、モデルの精度を算出する。 Note that the learning data information storage unit 122 is not limited to the above, and may store various information depending on the purpose. For example, the learning data information storage unit 122 may store information such as whether each piece of data is learning data or evaluation data in such a manner that it can be specified. For example, the learning data information storage unit 122 stores learning data and evaluation data in a distinguishable manner. The learning data information storage unit 122 may store information that identifies whether each data is learning data or evaluation data. The server device 100 learns a model based on each data used as learning data and correct answer information. The server device 100 calculates the accuracy of the model based on each data used as evaluation data and the correct answer information. The server device 100 calculates the accuracy of the model by collecting the results of comparing the output result output by the model when the evaluation data is input and the correct answer information.

(制御部130)
図6に戻り、説明を続ける。制御部130は、コントローラ(Controller)であり、例えば、CPU、MPU、ASIC、FPGA等によって、サーバ装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。
(Control unit 130)
Returning to FIG. 6, the explanation will be continued. The control unit 130 is a controller, and various programs (corresponding to an example of an information processing program) stored in a storage device inside the server device 100 are stored in a RAM by, for example, a CPU, MPU, ASIC, FPGA, etc. This is realized by using a storage area such as the following as a work area.

図6に示す例では、制御部130は、取得部131と、決定部132と、学習部133と、送信部134とを有する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 In the example shown in FIG. 6, the control unit 130 includes an acquisition unit 131, a determination unit 132, a learning unit 133, and a transmission unit 134. Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 3, and may be any other configuration as long as it performs information processing to be described later.

(取得部131)
取得部131は、通信部110を介して、外部の情報処理装置から各種情報を受信する。取得部131は、端末装置10から各種情報を受信する。取得部131は、端末装置10から受信した音声に関する情報を記憶部120へ格納する。取得部131は、端末装置10から受信した音声に関する情報を、モデルの学習に用いるデータ(学習データ)として学習用データ情報記憶部122に登録する。
(Acquisition unit 131)
The acquisition unit 131 receives various information from an external information processing device via the communication unit 110. The acquisition unit 131 receives various information from the terminal device 10. The acquisition unit 131 stores information regarding the audio received from the terminal device 10 into the storage unit 120. The acquisition unit 131 registers information regarding the audio received from the terminal device 10 in the learning data information storage unit 122 as data used for model learning (learning data).

取得部131は、各種情報を取得する。取得部131は、記憶部120から各種情報を取得する。取得部131は、モデル情報記憶部121や学習用データ情報記憶部122から各種情報を取得する。 The acquisition unit 131 acquires various information. The acquisition unit 131 acquires various information from the storage unit 120. The acquisition unit 131 acquires various information from the model information storage unit 121 and the learning data information storage unit 122.

(決定部132)
決定部132は、各種情報を決定する。例えば、決定部132は、取得部131により外部装置から取得された各種情報に基づいて、各種情報を決定する。例えば、決定部132は、端末装置10から取得された各種情報に基づいて、各種情報を決定する。
(Decision unit 132)
The determining unit 132 determines various information. For example, the determining unit 132 determines various pieces of information based on various pieces of information acquired by the acquiring unit 131 from an external device. For example, the determining unit 132 determines various information based on various information acquired from the terminal device 10.

決定部132は、端末装置10に提供を要求する情報に関する条件を決定する。例えば、決定部132は、記憶部120に記憶された情報に基づいて、端末装置10に提供を要求する情報に関する条件を決定する。 The determining unit 132 determines conditions regarding information that the terminal device 10 is requested to provide. For example, the determining unit 132 determines conditions regarding information that the terminal device 10 is requested to provide, based on the information stored in the storage unit 120.

(学習部133)
学習部133は、各種情報を学習する。学習部133は、外部の情報処理装置からの情報や記憶部120に記憶された情報に基づいて、各種情報を学習する。学習部133は、学習用データ情報記憶部122に記憶された情報に基づいて、各種情報を学習する。学習部133は、学習により生成したモデルをモデル情報記憶部121に格納する。学習部133は、学習により更新したモデルをモデル情報記憶部121に格納する。
(Learning Department 133)
The learning unit 133 learns various information. The learning unit 133 learns various information based on information from an external information processing device and information stored in the storage unit 120. The learning unit 133 learns various information based on the information stored in the learning data information storage unit 122. The learning unit 133 stores the model generated through learning in the model information storage unit 121. The learning unit 133 stores the model updated through learning in the model information storage unit 121.

学習部133は、学習処理を行う。学習部133は、各種学習を行う。学習部133は、取得部131により取得された情報に基づいて、各種情報を学習する。学習部133は、モデルを学習(生成)する。学習部133は、モデル等の各種情報を学習する。学習部133は、学習によりモデルを生成する。学習部133は、種々の機械学習に関する技術を用いて、モデルを学習する。例えば、学習部133は、モデル(ネットワーク)のパラメータを学習する。学習部133は、種々の機械学習に関する技術を用いて、モデルを学習する。 The learning unit 133 performs learning processing. The learning unit 133 performs various types of learning. The learning unit 133 learns various information based on the information acquired by the acquisition unit 131. The learning unit 133 learns (generates) a model. The learning unit 133 learns various information such as models. The learning unit 133 generates a model through learning. The learning unit 133 learns the model using various machine learning techniques. For example, the learning unit 133 learns parameters of a model (network). The learning unit 133 learns the model using various machine learning techniques.

学習部133は、モデルM1を生成する。学習部133は、ネットワークのパラメータを学習する。例えば、学習部133は、モデルM1のネットワークのパラメータを学習する。 The learning unit 133 generates a model M1. The learning unit 133 learns network parameters. For example, the learning unit 133 learns the parameters of the network of model M1.

学習部133は、学習用データ情報記憶部122に記憶された学習用データ(教師データ)に基づいて、学習処理を行う。学習部133は、学習用データ情報記憶部122に記憶された学習用データを用いて、学習処理を行うことにより、モデルM1を生成する。例えば、学習部133は、音声認識に用いられるモデルを生成する。学習部133は、モデルM1のネットワークのパラメータを学習することにより、モデルM1を生成する。 The learning unit 133 performs learning processing based on the learning data (teacher data) stored in the learning data information storage unit 122. The learning unit 133 generates the model M1 by performing a learning process using the learning data stored in the learning data information storage unit 122. For example, the learning unit 133 generates a model used for speech recognition. The learning unit 133 generates the model M1 by learning the parameters of the network of the model M1.

学習部133による学習の手法は特に限定されないが、例えば、ラベルとデータ(画像)とを紐づけた学習用データを用意し、その学習用データを多層ニューラルネットワークに基づいた計算モデルに入力して学習してもよい。また、例えばCNN(Convolutional Neural Network)、3D-CNN等のDNN(Deep Neural Network)に基づく手法が用いられてもよい。学習部133は、音声等のような時系列データを対象とする場合、再帰型ニューラルネットワーク(Recurrent Neural Network:RNN)やRNNを拡張したLSTM(Long Short-Term Memory units)に基づく手法を用いてもよい。なお、モデルの学習を他の装置(学習装置等)が行う場合は、サーバ装置100は、学習部133を有しなくてもよい。 The learning method by the learning unit 133 is not particularly limited, but for example, training data in which labels and data (images) are linked is prepared, and the learning data is input to a calculation model based on a multilayer neural network. You can learn it. Further, for example, a method based on a DNN (Deep Neural Network) such as a CNN (Convolutional Neural Network) or a 3D-CNN may be used. When processing time series data such as audio, the learning unit 133 uses a method based on a recurrent neural network (RNN) or an extended RNN called LSTM (Long Short-Term Memory units). Good too. Note that if another device (such as a learning device) performs model learning, the server device 100 does not need to include the learning unit 133.

(送信部134)
送信部134は、通信部110を介して、各種情報を端末装置10へ送信する。送信部134は、端末装置10が自装置内で音声認識を行うために用いる音声認識モデルを端末装置10へ送信する。送信部134は、モデルM1を端末装置10に提供する。
(Transmission unit 134)
The transmitting unit 134 transmits various information to the terminal device 10 via the communication unit 110. The transmitter 134 transmits to the terminal device 10 a voice recognition model used by the terminal device 10 to perform voice recognition within itself. The transmitter 134 provides the model M1 to the terminal device 10.

送信部134は、端末装置10に情報送信を要求する音声を指定する所定の条件を示す情報を、端末装置10に送信する。送信部134は、決定部132により決定された条件を示す情報を、端末装置10に送信する。送信部134は、他の装置(学習装置等)に収集したデータを送信してもよい。 The transmitting unit 134 transmits to the terminal device 10 information indicating a predetermined condition specifying a voice requesting the terminal device 10 to transmit information. The transmitting unit 134 transmits information indicating the conditions determined by the determining unit 132 to the terminal device 10. The transmitter 134 may transmit the collected data to another device (such as a learning device).

〔5.処理手順〕
次に、図9を用いて実施形態に係る端末装置10による処理手順について説明する。図9は、実施形態に係る処理手順を示すフローチャートである。
[5. Processing procedure]
Next, a processing procedure by the terminal device 10 according to the embodiment will be described using FIG. 9. FIG. 9 is a flowchart showing the processing procedure according to the embodiment.

図9に示すように、端末装置10は、ユーザが発話した音声と発話の音声認識による認識結果とを対応付けて自装置内の記憶部120に収集する(ステップS101)。 As shown in FIG. 9, the terminal device 10 associates the voice uttered by the user with the recognition result of the voice recognition of the utterance and collects them in the storage unit 120 within the terminal device 10 (step S101).

そして、端末装置10は、収集した音声が所定の条件を満たす場合、ユーザの許諾に応じて、音声に関する情報をサーバ装置100に送信する(ステップS102)。 Then, if the collected voice satisfies a predetermined condition, the terminal device 10 transmits information regarding the voice to the server device 100 in accordance with the user's permission (step S102).

〔6.効果〕
上述してきたように、本願に係る端末装置10は、ユーザに利用され、自装置で音声認識を行う端末装置10であり、収集部153と、送信部157とを有する。収集部153は、ユーザが発話した音声と発話の音声認識による認識結果とを対応付けて自装置内の記憶部14に収集する。送信部157は、収集部153により収集された音声が所定の条件を満たす場合、ユーザの許諾に応じて、音声に関する情報をサーバ装置100に送信する。
[6. effect〕
As described above, the terminal device 10 according to the present application is used by a user and performs voice recognition on its own, and includes a collection section 153 and a transmission section 157. The collection unit 153 associates the voice uttered by the user with the recognition result of the voice recognition of the utterance, and collects them in the storage unit 14 within the own device. If the audio collected by the collecting unit 153 satisfies a predetermined condition, the transmitting unit 157 transmits information regarding the audio to the server device 100 in accordance with the user's permission.

このように、端末装置10は、自装置内でユーザの発話の音声の音声認識行い、その音声に関する情報を、条件を満たしかつユーザが許諾した場合にサーバ装置100に送信する。これにより、端末装置10は、端末装置10が音声認識を行う場合であっても、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。 In this way, the terminal device 10 performs voice recognition of the user's utterance within itself, and transmits information regarding the voice to the server device 100 if the conditions are met and the user gives permission. Thereby, even if the terminal device 10 performs voice recognition, the terminal device 10 can appropriately transmit information regarding the voice collected by the terminal device 10 to another device.

また、端末装置10において、送信部157は、音声のデータをサーバ装置100に送信する。このように、端末装置10は、音声のデータをサーバ装置100へ送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。 Furthermore, in the terminal device 10 , the transmitter 157 transmits audio data to the server device 100 . In this manner, by transmitting voice data to the server device 100, the terminal device 10 can appropriately transmit information regarding the voice collected by the terminal device 10 to other devices.

また、端末装置10において、送信部157は、音声の波形データをサーバ装置100に送信する。このように、端末装置10は、音声の波形データをサーバ装置100へ送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。 Furthermore, in the terminal device 10 , the transmitter 157 transmits audio waveform data to the server device 100 . In this way, by transmitting voice waveform data to the server device 100, the terminal device 10 can appropriately transmit information regarding the voice collected by the terminal device 10 to other devices.

また、端末装置10において、送信部157は、音声のデータを圧縮したデータをサーバ装置100に送信する。このように、端末装置10は、音声のデータを圧縮したデータをサーバ装置100へ送信することにより、通信量の増大を抑制しつつ、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。 Furthermore, in the terminal device 10 , the transmitter 157 transmits compressed audio data to the server device 100 . In this way, the terminal device 10 transmits compressed audio data to the server device 100, thereby suppressing an increase in communication volume and transmitting information regarding the audio collected by the terminal device 10 to other devices. Can be sent appropriately.

また、端末装置10において、送信部157は、音声から抽出した特徴情報をサーバ装置100に送信する。このように、端末装置10は、音声のデータを圧縮したデータをサーバ装置100へ送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。 Furthermore, in the terminal device 10 , the transmitter 157 transmits feature information extracted from the voice to the server device 100 . In this way, the terminal device 10 can appropriately transmit information regarding the voice collected by the terminal device 10 to other devices by transmitting compressed voice data to the server device 100.

また、端末装置10において、送信部157は、収集部153により収集された音声の数が所定数以上である場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、収集した音声の数が所定数以上になった場合に、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。 Further, in the terminal device 10, when the number of voices collected by the collecting unit 153 is equal to or greater than a predetermined number, the transmitting unit 157 transmits information regarding the voice to the server device 100 in response to permission. In this way, when the number of collected voices exceeds a predetermined number, the terminal device 10 transmits the information about the voices to the server device 100, thereby transmitting the information about the voices collected by the terminal device 10 to other voices. can be sent to the device appropriately.

また、端末装置10において、送信部157は、収集部153により収集された音声の音声認識に関するスコアが所定の条件を満たす場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、収集した音声の音声認識に関するスコアが所定の条件を満たす場合に、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。 Furthermore, in the terminal device 10, if the score regarding the voice recognition of the voice collected by the collection unit 153 satisfies a predetermined condition, the transmitter 157 transmits information regarding the voice to the server device 100 in response to permission. In this way, the terminal device 10 transmits the information related to the voice collected by the terminal device 10 by transmitting the information related to the voice to the server device 100 when the score related to voice recognition of the collected voice satisfies a predetermined condition. It can be properly transmitted to other devices.

また、端末装置10において、送信部157は、収集部153により収集された音声がノイズに関する条件を満たす場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、収集した音声がノイズに関する条件を満たす場合に、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。 Furthermore, in the terminal device 10, when the audio collected by the collecting unit 153 satisfies the condition regarding noise, the transmitting unit 157 transmits information regarding the audio to the server device 100 in response to permission. In this way, the terminal device 10 transmits the information regarding the audio to the server device 100 when the collected audio satisfies the noise-related conditions, so that the information regarding the audio collected by the terminal device 10 can be appropriately transmitted to other devices. can be sent to.

また、端末装置10において、送信部157は、収集部153により収集された音声に対応する発話が所定の内容を含む場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、音声に対応する発話が所定の内容を含む場合に、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。 Furthermore, in the terminal device 10, if the utterance corresponding to the voice collected by the collection unit 153 includes predetermined content, the transmitting unit 157 transmits information regarding the voice to the server device 100 in accordance with permission. In this way, when the utterance corresponding to the voice includes predetermined content, the terminal device 10 transmits the information about the voice to the server device 100, thereby transmitting the information about the voice collected by the terminal device 10 to other devices. can be sent appropriately.

また、端末装置10において、送信部157は、サーバ装置100により指定された所定の条件を満たす場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、サーバ装置100により指定された条件を満たす場合に、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。 Furthermore, in the terminal device 10, if a predetermined condition specified by the server device 100 is satisfied, the transmitter 157 transmits information regarding the audio to the server device 100 in response to permission. In this way, the terminal device 10 transmits information regarding the audio collected by the terminal device 10 to other devices by transmitting the information regarding the audio to the server device 100 when the conditions specified by the server device 100 are met. Can be sent appropriately.

また、端末装置10は、受付部155を有する。受付部155は、ユーザによる許諾を受け付ける。このように、端末装置10は、ユーザによる許諾を受け付けることにより、ユーザの許諾があった場合にのみ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。 The terminal device 10 also includes a reception section 155. The accepting unit 155 accepts permission from the user. In this way, the terminal device 10 receives permission from the user and transmits the information regarding the audio only when the user has given permission, thereby transmitting the information regarding the audio collected by the terminal device 10 to other devices. Can be sent appropriately.

また、端末装置10において、送信部157は、受付部155によりユーザの許諾が受け付けられた後、所定のタイミングで音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、ユーザの許諾後の所定のタイミングで、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切なタイミングで送信することができる。 Further, in the terminal device 10, the transmitting unit 157 transmits information regarding audio to the server device 100 at a predetermined timing after the accepting unit 155 accepts the user's permission. In this way, the terminal device 10 transmits the information regarding the audio to the server device 100 at a predetermined timing after the user's permission, so that the information regarding the audio collected by the terminal device 10 can be transmitted to other devices at an appropriate timing. can be sent by.

また、端末装置10において、送信部157は、通信環境が所定の通信条件を満たしている間に、音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、通信環境が所定の通信条件を満たしている間に、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切なタイミングで送信することができる。 Furthermore, in the terminal device 10, the transmitter 157 transmits information regarding audio to the server device 100 while the communication environment satisfies predetermined communication conditions. In this way, the terminal device 10 transmits the information regarding the audio to the server device 100 while the communication environment satisfies the predetermined communication conditions, so that the information regarding the audio collected by the terminal device 10 can be transmitted to other devices. can be sent at the appropriate time.

また、端末装置10において、送信部157は、ユーザによる端末装置の利用率が低いタイミングで、音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、ユーザによる端末装置10の利用率が低いタイミングで、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切なタイミングで送信することができる。 Furthermore, in the terminal device 10, the transmitter 157 transmits information regarding audio to the server device 100 at a timing when the usage rate of the terminal device by the user is low. In this way, the terminal device 10 transmits the information regarding the audio collected by the terminal device 10 to other devices by transmitting the information regarding the audio to the server device 100 at a timing when the usage rate of the terminal device 10 by the user is low. It can be sent at the right time.

また、端末装置10は、通知部154を有する。通知部154は、サーバ装置100へ送信する候補となる音声に関する情報をユーザに通知する。このように、端末装置10は、サーバ装置100へ送信する候補となる音声に関する情報をユーザに通知することにより、ユーザにどのような情報がサーバ装置100へ送信されるのかを認識させることができる。 The terminal device 10 also includes a notification section 154. The notification unit 154 notifies the user of information regarding voices that are candidates for transmission to the server device 100. In this way, the terminal device 10 can make the user aware of what kind of information is to be transmitted to the server device 100 by notifying the user of information regarding voices that are candidates to be transmitted to the server device 100. .

また、端末装置10において、送信部157は、通知部154により通知された候補のうち、ユーザが許諾した音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、ユーザに候補を通知し、その中でユーザが許諾した音声について、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。 Furthermore, in the terminal device 10 , the transmitting unit 157 transmits to the server device 100 information regarding the voice that the user has approved from among the candidates notified by the notifying unit 154 . In this way, the terminal device 10 notifies the user of the candidates, and transmits the information regarding the voices to the server device 100 for the voices that the user has approved, so that the information regarding the voices collected by the terminal device 10 can be transmitted to the server device 100. It can be properly transmitted to other devices.

また、端末装置10において、通知部154は、音声に関する情報がサーバ装置100へ送信された場合にユーザに提供されるインセンティブを示す情報を通知する。このように、端末装置10は、情報提供の対価としてユーザに提供されるインセンティブをユーザに知らせることにより、ユーザが情報提供を行う動機づけを与えることができ、端末装置10から他の装置へ送信される情報量を増大させることができる。 Furthermore, in the terminal device 10, the notification unit 154 notifies the user of information indicating an incentive provided to the user when information regarding audio is transmitted to the server device 100. In this way, the terminal device 10 can motivate the user to provide information by informing the user of the incentives provided to the user as compensation for providing information, and the terminal device 10 can transmit information to other devices. The amount of information displayed can be increased.

上述してきたように、本願に係る情報処理システム1は、ユーザに利用され、自装置で音声認識を行う端末装置10と、サーバ装置100と、を有する。サーバ装置100は、端末装置10に情報送信を要求する音声を指定する所定の条件を示す情報を、端末装置10に送信する。端末装置10は、サーバ装置100から受信した所定の条件を満たす音声に関する情報を、ユーザの許諾に応じて、サーバ装置100に送信する。 As described above, the information processing system 1 according to the present application includes a terminal device 10 that is used by a user and performs voice recognition on its own, and a server device 100. The server device 100 transmits to the terminal device 10 information indicating a predetermined condition specifying a voice requesting the terminal device 10 to transmit information. The terminal device 10 transmits information regarding the audio that satisfies a predetermined condition received from the server device 100 to the server device 100 according to the user's permission.

このように、情報処理システム1は、ユーザが利用する端末装置10が自装置内でユーザの発話の音声の音声認識行い、サーバ装置100から指定された条件を満たす音声に関する情報を、端末装置10がサーバに送信する。これにより、情報処理システム1は、端末装置10が音声認識を行う場合であっても、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。 In this way, in the information processing system 1, the terminal device 10 used by the user performs voice recognition of the voice of the user's utterance within its own device, and transmits information about the voice that satisfies the specified conditions from the server device 100 to the terminal device 10. sends it to the server. Thereby, even if the terminal device 10 performs voice recognition, the information processing system 1 can appropriately transmit information regarding the voice collected by the terminal device 10 to other devices.

〔7.ハードウェア構成〕
また、上述した実施形態に係る端末装置10やサーバ装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、サーバ装置100を例に挙げて説明する。図10は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[7. Hardware configuration]
Further, the terminal device 10 and the server device 100 according to the embodiments described above are realized by, for example, a computer 1000 having a configuration as shown in FIG. 10. The following will explain the server device 100 as an example. FIG. 10 is a diagram showing an example of a hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and a calculation device 1030, a primary storage device 1040, a secondary storage device 1050, an output I/F (Interface) 1060, an input I/F 1070, and a network I/F 1080 are connected to a bus. 1090.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。 The arithmetic unit 1030 operates based on programs stored in the primary storage device 1040 and the secondary storage device 1050, programs read from the input device 1020, and performs various processes. The arithmetic device 1030 is realized by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like.

一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USBメモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。 The primary storage device 1040 is a memory device such as a RAM (Random Access Memory) that temporarily stores data used by the calculation device 1030 for various calculations. Further, the secondary storage device 1050 is a storage device in which data used by the calculation device 1030 for various calculations and various databases are registered, and includes a ROM (Read Only Memory), an HDD (Hard Disk Drive), and an SSD (Solid Disk Drive). This is realized using flash memory, etc. The secondary storage device 1050 may be a built-in storage or an external storage. Further, the secondary storage device 1050 may be a removable storage medium such as a USB memory or an SD (Secure Digital) memory card. Further, the secondary storage device 1050 may be a cloud storage (online storage), a NAS (Network Attached Storage), a file server, or the like.

出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェイスであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェイスであり、例えば、USB等により実現される。 The output I/F 1060 is an interface for transmitting information to be output to the output device 1010 that outputs various information such as a display, a projector, and a printer. (Digital Visual Interface) and HDMI (registered trademark) (High Definition Multimedia Interface). Further, the input I/F 1070 is an interface for receiving information from various input devices 1020 such as a mouse, keyboard, keypad, button, scanner, etc., and is realized by, for example, a USB or the like.

また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。 Further, the output I/F 1060 and the input I/F 1070 may be wirelessly connected to the output device 1010 and the input device 1020, respectively. That is, output device 1010 and input device 1020 may be wireless devices.

また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。 Moreover, the output device 1010 and the input device 1020 may be integrated like a touch panel. In this case, the output I/F 1060 and the input I/F 1070 may also be integrated as an input/output I/F.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。 Note that the input device 1020 is, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), or a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like.

ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 Network I/F 1080 receives data from other devices via network N and sends it to computing device 1030, and also sends data generated by computing device 1030 to other devices via network N.

演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 Arithmetic device 1030 controls output device 1010 and input device 1020 via output I/F 1060 and input I/F 1070. For example, the arithmetic device 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040, and executes the loaded program.

例えば、コンピュータ1000がサーバ装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。 For example, when the computer 1000 functions as the server device 100, the arithmetic unit 1030 of the computer 1000 realizes the functions of the control unit 130 by executing a program loaded onto the primary storage device 1040. Further, the arithmetic device 1030 of the computer 1000 may load a program obtained from another device via the network I/F 1080 onto the primary storage device 1040, and execute the loaded program. Further, the arithmetic device 1030 of the computer 1000 may cooperate with other devices via the network I/F 1080, and may call and use program functions, data, etc. from other programs of other devices.

〔8.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[8. others〕
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. Furthermore, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that are in a so-called equivalent range. Furthermore, the aforementioned components can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the constituent elements can be made without departing from the gist of the embodiments described above.

また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be performed automatically using known methods. In addition, the processing procedures, specific names, and information including various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Further, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.

例えば、上述したサーバ装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。 For example, the server device 100 described above may be realized by a plurality of server computers, and depending on the function, it may be realized by calling an external platform etc. using an API (Application Programming Interface), network computing, etc. Can be changed flexibly.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and modifications can be combined as appropriate within a range that does not conflict with the processing contents.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.

1 情報処理システム
10 端末装置
11 通信部
12 入力部
13 出力部
14 記憶部
141 モデル情報記憶部
142 収集情報記憶部
15 制御部
151 受信部
152 音声認識部
153 収集部
154 通知部
155 受付部
156 判定部
157 送信部
16 センサ部
161 音声センサ
100 サーバ装置
110 通信部
120 記憶部
121 モデル情報記憶部
122 学習用データ情報記憶部
130 制御部
131 取得部
132 決定部
133 学習部
134 送信部
1 Information processing system 10 Terminal device 11 Communication unit 12 Input unit 13 Output unit 14 Storage unit 141 Model information storage unit 142 Collection information storage unit 15 Control unit 151 Receiving unit 152 Voice recognition unit 153 Collection unit 154 Notification unit 155 Reception unit 156 Judgment Section 157 Transmission section 16 Sensor section 161 Voice sensor 100 Server device 110 Communication section 120 Storage section 121 Model information storage section 122 Learning data information storage section 130 Control section 131 Acquisition section 132 Determination section 133 Learning section 134 Transmission section

Claims (20)

ユーザに利用され、自装置で音声認識を行う端末装置であって、
前記ユーザが発話した音声と前記発話の前記音声認識による認識結果とを対応付けて自装置内の記憶部に収集する収集部と、
前記収集部により収集された前記音声が所定の条件を満たす場合、前記ユーザの許諾に応じて、前記音声に関する情報をサーバ装置に送信する送信部と、
を備えることを特徴とする端末装置。
A terminal device that is used by a user and performs voice recognition on its own,
a collection unit that associates the voice uttered by the user with the recognition result of the voice recognition of the utterance and collects it in a storage unit within the own device;
a transmitting unit that transmits information regarding the voice to a server device in accordance with the user's consent if the voice collected by the collection unit satisfies a predetermined condition;
A terminal device comprising:
前記送信部は、
前記音声のデータを前記サーバ装置に送信する
ことを特徴とする請求項1に記載の端末装置。
The transmitter includes:
The terminal device according to claim 1, wherein the audio data is transmitted to the server device.
前記送信部は、
前記音声の波形データを前記サーバ装置に送信する
ことを特徴とする請求項1または請求項2に記載の端末装置。
The transmitter includes:
The terminal device according to claim 1 or 2, wherein the audio waveform data is transmitted to the server device.
前記送信部は、
前記音声のデータを圧縮したデータを前記サーバ装置に送信する
ことを特徴とする請求項1~3のいずれか1項に記載の端末装置。
The transmitter includes:
The terminal device according to any one of claims 1 to 3, wherein data obtained by compressing the audio data is transmitted to the server device.
前記送信部は、
前記音声から抽出した特徴情報を前記サーバ装置に送信する
ことを特徴とする請求項1~4のいずれか1項に記載の端末装置。
The transmitter includes:
The terminal device according to any one of claims 1 to 4, characterized in that the feature information extracted from the voice is transmitted to the server device.
前記送信部は、
前記収集部により収集された前記音声の数が所定数以上である場合、前記許諾に応じて前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項1~5のいずれか1項に記載の端末装置。
The transmitter includes:
If the number of the voices collected by the collection unit is equal to or greater than a predetermined number, information regarding the voices is transmitted to the server device in accordance with the permission. The terminal device described in .
前記送信部は、
前記収集部により収集された前記音声の前記音声認識に関するスコアが所定の条件を満たす場合、前記許諾に応じて前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項1~6のいずれか1項に記載の端末装置。
The transmitter includes:
If the score regarding the voice recognition of the voice collected by the collection unit satisfies a predetermined condition, the information regarding the voice is transmitted to the server device in accordance with the permission. The terminal device according to any one of the items.
前記送信部は、
前記収集部により収集された前記音声がノイズに関する条件を満たす場合、前記許諾に応じて前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項1~7のいずれか1項に記載の端末装置。
The transmitter includes:
According to any one of claims 1 to 7, when the voice collected by the collection unit satisfies a condition regarding noise, information regarding the voice is transmitted to the server device in accordance with the permission. terminal device.
前記送信部は、
前記収集部により収集された前記音声に対応する発話が所定の内容を含む場合、前記許諾に応じて前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項1~8のいずれか1項に記載の端末装置。
The transmitter includes:
Any one of claims 1 to 8, characterized in that when the utterance corresponding to the voice collected by the collection unit includes predetermined content, information regarding the voice is transmitted to the server device in accordance with the permission. The terminal device according to item 1.
前記送信部は、
前記サーバ装置により指定された前記所定の条件を満たす場合、前記許諾に応じて前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項1~9のいずれか1項に記載の端末装置。
The transmitter includes:
The terminal according to any one of claims 1 to 9, wherein if the predetermined condition specified by the server device is satisfied, information regarding the audio is transmitted to the server device in accordance with the permission. Device.
前記ユーザによる前記許諾を受け付ける受付部、
を備えることを特徴とする請求項1~10のいずれか1項に記載の端末装置。
a reception unit that receives the permission from the user;
The terminal device according to any one of claims 1 to 10, comprising:
前記送信部は、
前記受付部により前記ユーザの前記許諾が受け付けられた後、所定のタイミングで前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項11に記載の端末装置。
The transmitter includes:
The terminal device according to claim 11, wherein the information regarding the audio is transmitted to the server device at a predetermined timing after the permission from the user is accepted by the reception unit.
前記送信部は、
通信環境が所定の通信条件を満たしている間に、前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項12に記載の端末装置。
The transmitter includes:
The terminal device according to claim 12, wherein the information regarding the voice is transmitted to the server device while a communication environment satisfies predetermined communication conditions.
前記送信部は、
前記ユーザによる前記端末装置の利用率が低いタイミングで、前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項12または請求項13に記載の端末装置。
The transmitter includes:
The terminal device according to claim 12 or 13, wherein the information regarding the audio is transmitted to the server device at a timing when the usage rate of the terminal device by the user is low.
前記サーバ装置へ送信する候補となる前記音声に関する情報を前記ユーザに通知する通知部、
をさらに備えることを特徴とする請求項1~14のうちいずれか1つに記載の端末装置。
a notification unit that notifies the user of information regarding the voice that is a candidate to be transmitted to the server device;
The terminal device according to any one of claims 1 to 14, further comprising the following.
前記送信部は、
前記通知部により通知された前記候補のうち、前記ユーザが許諾した前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項15に記載の端末装置。
The transmitter includes:
16. The terminal device according to claim 15, wherein information regarding the voice approved by the user among the candidates notified by the notification unit is transmitted to the server device.
前記通知部は、
前記音声に関する情報が前記サーバ装置へ送信された場合に前記ユーザに提供されるインセンティブを示す情報を通知する
ことを特徴とする請求項15または請求項16に記載の端末装置。
The notification section is
The terminal device according to claim 15 or 16, wherein information indicating an incentive provided to the user is notified when the information regarding the voice is transmitted to the server device.
ユーザに利用され、自装置で音声認識を行う端末装置が実行する送信方法であって、
前記ユーザが発話した音声と前記発話の前記音声認識による認識結果とを対応付けて自装置内の記憶部に収集する収集工程と、
前記収集工程により収集された前記音声が所定の条件を満たす場合、前記ユーザの許諾に応じて、前記音声に関する情報をサーバ装置に送信する送信工程と、
を含むことを特徴とする送信方法。
A transmission method executed by a terminal device that is used by a user and performs voice recognition on its own device,
a collection step of associating the voice uttered by the user with the recognition result of the voice recognition of the utterance and collecting it in a storage unit within the own device;
If the voice collected in the collecting step satisfies a predetermined condition, a transmitting step of transmitting information regarding the voice to a server device according to the user's permission;
A transmission method characterized by comprising:
ユーザに利用され、自装置で音声認識を行う端末装置が実行する送信プログラムであって、
前記ユーザが発話した音声と前記発話の前記音声認識による認識結果とを対応付けて自装置内の記憶部に収集する収集手順と、
前記収集手順により収集された前記音声が所定の条件を満たす場合、前記ユーザの許諾に応じて、前記音声に関する情報をサーバ装置に送信する送信手順と、
を端末装置に実行させることを特徴とする送信プログラム。
A transmission program executed by a terminal device used by a user and performing voice recognition on its own device,
a collection procedure of associating the voice uttered by the user with the recognition result of the voice recognition of the utterance and collecting it in a storage unit within the own device;
a transmission procedure of transmitting information regarding the voice to a server device in accordance with the user's consent if the voice collected by the collection procedure satisfies a predetermined condition;
A transmission program that causes a terminal device to execute.
ユーザに利用され、自装置で音声認識を行う端末装置と、
サーバ装置と、
を有し、
前記サーバ装置は、
前記端末装置に情報送信を要求する音声を指定する所定の条件を示す情報を、前記端末装置に送信し、
前記端末装置は、
前記サーバ装置から受信した前記所定の条件を満たす音声に関する情報を、前記ユーザの許諾に応じて、前記サーバ装置に送信する
ことを特徴とする情報処理システム。
A terminal device that is used by a user and performs voice recognition on its own,
a server device;
has
The server device includes:
transmitting to the terminal device information indicating a predetermined condition specifying a voice requesting the terminal device to transmit information;
The terminal device is
An information processing system characterized in that information regarding audio that satisfies the predetermined condition received from the server device is transmitted to the server device in accordance with permission from the user.
JP2021132964A 2021-08-17 2021-08-17 Terminal device, transmission method, transmission program and information processing system Active JP7430672B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021132964A JP7430672B2 (en) 2021-08-17 2021-08-17 Terminal device, transmission method, transmission program and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021132964A JP7430672B2 (en) 2021-08-17 2021-08-17 Terminal device, transmission method, transmission program and information processing system

Publications (2)

Publication Number Publication Date
JP2023027697A JP2023027697A (en) 2023-03-02
JP7430672B2 true JP7430672B2 (en) 2024-02-13

Family

ID=85330456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021132964A Active JP7430672B2 (en) 2021-08-17 2021-08-17 Terminal device, transmission method, transmission program and information processing system

Country Status (1)

Country Link
JP (1) JP7430672B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7352249B1 (en) * 2023-05-10 2023-09-28 株式会社Fronteo Information processing device, information processing system, and information processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010139843A (en) 2008-12-12 2010-06-24 Yahoo Japan Corp Voice information collection device, and method and program for the same
US20150287401A1 (en) 2012-11-05 2015-10-08 Nuance Communications, Inc. Privacy-sensitive speech model creation via aggregation of multiple user models

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010139843A (en) 2008-12-12 2010-06-24 Yahoo Japan Corp Voice information collection device, and method and program for the same
US20150287401A1 (en) 2012-11-05 2015-10-08 Nuance Communications, Inc. Privacy-sensitive speech model creation via aggregation of multiple user models

Also Published As

Publication number Publication date
JP2023027697A (en) 2023-03-02

Similar Documents

Publication Publication Date Title
US11367434B2 (en) Electronic device, method for determining utterance intention of user thereof, and non-transitory computer-readable recording medium
US11521038B2 (en) Electronic apparatus and control method thereof
US10909982B2 (en) Electronic apparatus for processing user utterance and controlling method thereof
US10643620B2 (en) Speech recognition method and apparatus using device information
CN104704556B (en) Mapping audio utterances to actions using a classifier
US10521723B2 (en) Electronic apparatus, method of providing guide and non-transitory computer readable recording medium
US20190019509A1 (en) Voice data processing method and electronic device for supporting the same
US10586528B2 (en) Domain-specific speech recognizers in a digital medium environment
US20230036080A1 (en) Device and method for providing recommended words for character input
US11769492B2 (en) Voice conversation analysis method and apparatus using artificial intelligence
KR102701423B1 (en) Electronic device for performing speech recognition and the method for the same
CN109671435B (en) Method and apparatus for waking up smart device
US11881209B2 (en) Electronic device and control method
US20200020327A1 (en) Method and apparatus for recognizing a voice
JP6892426B2 (en) Learning device, detection device, learning method, learning program, detection method, and detection program
CN112740327B (en) Algorithm determination of interruption of reading by story readers
US11568875B2 (en) Artificial intelligence apparatus and method for recognizing plurality of wake-up words
US20200111025A1 (en) Electronic apparatus and control method thereof
US20220237915A1 (en) Electronic apparatus and controlling method thereof
CN111414512A (en) Resource recommendation method and device based on voice search and electronic equipment
JP7430672B2 (en) Terminal device, transmission method, transmission program and information processing system
US11862178B2 (en) Electronic device for supporting artificial intelligence agent services to talk to users
EP3790005A1 (en) Electronic apparatus and control method thereof
KR20200040562A (en) System for processing user utterance and operating method thereof
JP7408518B2 (en) Information processing device, information processing method, information processing program, terminal device, inference method, and inference program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230315

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240131

R150 Certificate of patent or registration of utility model

Ref document number: 7430672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150