JP7430672B2 - Terminal device, transmission method, transmission program and information processing system - Google Patents
Terminal device, transmission method, transmission program and information processing system Download PDFInfo
- Publication number
- JP7430672B2 JP7430672B2 JP2021132964A JP2021132964A JP7430672B2 JP 7430672 B2 JP7430672 B2 JP 7430672B2 JP 2021132964 A JP2021132964 A JP 2021132964A JP 2021132964 A JP2021132964 A JP 2021132964A JP 7430672 B2 JP7430672 B2 JP 7430672B2
- Authority
- JP
- Japan
- Prior art keywords
- terminal device
- voice
- user
- information
- server device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 57
- 230000005540 biological transmission Effects 0.000 title claims description 44
- 238000000034 method Methods 0.000 title claims description 37
- 238000004891 communication Methods 0.000 claims description 30
- 238000012545 processing Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 14
- 230000004044 response Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 5
- 101001111655 Homo sapiens Retinol dehydrogenase 11 Proteins 0.000 description 4
- 102100023916 Retinol dehydrogenase 11 Human genes 0.000 description 4
- 101100366082 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) SNF7 gene Proteins 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 101150047375 DID2 gene Proteins 0.000 description 2
- 101100317166 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) VPS24 gene Proteins 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 101150040982 DID4 gene Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 101150086549 adt-1 gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Telephonic Communication Services (AREA)
Description
本発明は、端末装置、送信方法、送信プログラム及び情報処理システムに関する。 The present invention relates to a terminal device, a transmission method, a transmission program, and an information processing system.
ユーザが発話した音声を認識する音声認識が様々なサービスで利用されている。例えば、発話情報とその発話情報の示す発話内容とを用いた学習により作成されたモデルを用いて、音声認識を行う技術が提供されている(例えば、特許文献1参照)。 Speech recognition, which recognizes voices uttered by users, is used in various services. For example, there is a technology that performs speech recognition using a model created by learning using utterance information and utterance content indicated by the utterance information (for example, see Patent Document 1).
しかしながら、上記の従来技術では、ユーザが発話した音声に関する情報を取得することが難しい場合がある。例えば、上記の従来技術では、ユーザの発話(音声)をサーバ装置で音声認識を行い、その認識結果をユーザが利用する端末装置へ送信する構成であるため、必然的にサーバ装置はユーザの発話(音声)データを取得することができる。一方で、端末装置自体で音声認識が行われる、いわゆるオンデバイス型の音声認識が行われる場合、端末装置からサーバ装置へユーザの発話(音声)データを送信することなく、音声認識が完了するため、ユーザが発話した音声に関する情報を、ユーザが利用する端末装置以外の装置であるサーバ装置等の他の装置が収集することが難しい。 However, with the above-mentioned conventional technology, it may be difficult to obtain information regarding the voice uttered by the user. For example, in the above-mentioned conventional technology, the server device performs voice recognition on the user's utterances (speech), and the recognition result is transmitted to the terminal device used by the user. (audio) data can be obtained. On the other hand, when so-called on-device type voice recognition is performed, in which voice recognition is performed on the terminal device itself, voice recognition is completed without transmitting the user's utterance (speech) data from the terminal device to the server device. , it is difficult for a device other than the terminal device used by the user, such as a server device, to collect information regarding the voice uttered by the user.
本願は、上記に鑑みてなされたものであって、端末装置が音声認識を行う場合であっても、端末装置で収集される音声に関する情報を他の装置へ適切に送信することを目的とする。 This application has been made in view of the above, and aims to appropriately transmit information related to voices collected by a terminal device to other devices even when the terminal device performs voice recognition. .
本願に係る端末装置は、ユーザに利用され、自装置で音声認識を行う端末装置であって、前記ユーザが発話した音声と前記発話の前記音声認識による認識結果とを対応付けて自装置内の記憶部に収集する収集部と、前記収集部により収集された前記音声が所定の条件を満たす場合、前記ユーザの許諾に応じて、前記音声に関する情報をサーバ装置に送信する送信部と、を備えることを特徴とする。 The terminal device according to the present application is a terminal device that is used by a user and performs voice recognition on its own, and that associates the voice uttered by the user with the recognition result of the voice recognition of the utterance and performs voice recognition within the own device. a collection unit that collects the audio into a storage unit; and a transmission unit that transmits information regarding the audio to a server device in accordance with the user's consent if the audio collected by the collection unit satisfies a predetermined condition. It is characterized by
実施形態の一態様によれば、端末装置が音声認識を行う場合であっても、端末装置で収集される音声に関する情報を他の装置へ適切に送信することができる。 According to one aspect of the embodiment, even when a terminal device performs speech recognition, information regarding speech collected by the terminal device can be appropriately transmitted to another device.
以下に、本願に係る端末装置、送信方法、送信プログラム及び情報処理システムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る端末装置、送信方法、送信プログラム及び情報処理システムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Below, a terminal device, a transmission method, a transmission program, and a form for implementing an information processing system (hereinafter referred to as an "embodiment") according to the present application will be described in detail with reference to the drawings. Note that this embodiment does not limit the terminal device, transmission method, transmission program, and information processing system according to the present application. In addition, in the following embodiments, the same parts are given the same reference numerals, and redundant explanations will be omitted.
(実施形態)
〔1.情報処理〕
まず、図1を参照し、実施形態に係る情報処理システム1が行う情報処理の概要について説明する。図1は、実施形態に係る情報処理の概要を示す説明図である。図1では、サーバ装置100が端末装置10に情報送信を要求する音声を指定する条件の情報を端末装置10に送信し、端末装置10は、サーバ装置100から受信した条件を満たす音声に関する情報をサーバ装置100に送信する場合を一例として説明する。なお、端末装置10からサーバ装置100が音声に関する情報を取得可能であれば、サーバ装置100が条件を指定することなく、端末装置10は予め設定された条件を基にサーバ装置100に音声に関する情報を送信してもよい。
(Embodiment)
[1. Information processing〕
First, with reference to FIG. 1, an overview of information processing performed by the
また、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。なお、図1では、端末装置10がスマートフォンである場合を一例として説明するが、端末装置10は、ユーザが発話した音声を収集し、サーバ装置100へ送信可能であれば、スマートフォンに限らず任意の装置(機器)であってもよいが、この点についての詳細は後述する。また、図1では、端末装置10が音声に関する情報として、音声データをサーバ装置100へ送信する場合を一例として説明するが、端末装置10がサーバ装置100へ送信する音声に関する情報は、音声データに限らず、様々な情報であってもよいが、この点についての詳細は後述する。
Further, below, the
以下、図1を用いて、情報処理の一例を説明する。なお、図1では説明のため、1つの発話を対象として送信を行う場合を示すが、端末装置10は、収集した発話(音声)の数が一定の閾値(例えば50、100等)を超えた場合に、ユーザの送信許諾を得て、送信を行ってもよい。
An example of information processing will be described below with reference to FIG. Note that, for the sake of explanation, FIG. 1 shows a case in which transmission is performed with one utterance as the target, but the
図1では、ユーザがユーザID「U1」により識別されるユーザ(以下、「ユーザU1」とする場合がある)である場合を示す。ユーザU1が利用する端末装置10は、音声認識モデルであるモデルM1を用いて、自装置内で音声認識を行い、音声認識の結果に応じたサービスをユーザU1に提供する。図1では、説明のためにモデルM1がユーザの発話の音声情報を文字に変換する場合を一例とするが、モデルM1は音声認識に関する処理を行うものであれば、発話をしたユーザ(話者)を識別する機能など、様々な機能を実行する音声認識モデルであってもよい。
FIG. 1 shows a case where the user is identified by the user ID "U1" (hereinafter sometimes referred to as "user U1"). The
まず、サーバ装置100は、端末装置10に提供を要求する音声を指定する条件CN1を示す情報を端末装置10に送信する(ステップS11)。端末装置10は、受信した条件CN1を示す情報を記憶部120(図3参照)に記憶する。例えば、端末装置10は、記憶部120に記憶した条件CN1と、音声に関する情報とを比較し、音声が条件CN1を満たすか否かを判定し、条件CN1を満たす音声データをサーバ装置100へ送信する。なお、以下では説明を簡単にするために条件CN1が特定の単語(以下「新語NX」とする)を含むことであるものとして説明し、他の条件の例示については後述する。
First, the
まず、ユーザU1が「XXXX」と発話する。なお、「XXXX」は具体的な内容を含む発話であるものとする。端末装置10は、ユーザU1の発話PAを検知し、ユーザU1の発話PAである「XXXX」の音声データを入力として受け付ける(ステップS12)。
First, user U1 utters "XXXX". Note that "XXXX" is an utterance that includes specific content. The
そして、端末装置10は、入力として受け付けた「XXXX」の音声データと、モデルM1とを利用して音声認識の処理を行う(ステップS13)。端末装置10は、「XXXX」の音声データをモデルM1に入力し、モデルM1に文字データを出力させることにより、音声を文字に変換する処理(音声認識処理)を行う。図1では、「XXXX」の音声データが入力されたモデルM1は、「XXXX」の文字データを出力する。なお、モデルM1は、入力された音声に対する文字とともに、その音声認識の確度を示すスコアを出力してもよい。また、「XXXX」の文字データには、新語NXが含まれるものとする。
Then, the
そして、端末装置10は、ユーザが発話した音声と発話の音声認識による認識結果とを対応付けて記憶部DBに収集する(ステップS14)。図1では、端末装置10は、ユーザU1が発話した発話PAと発話PAの認識結果とを対応付けて記憶部120に収集する。例えば、端末装置10は、発話PAである「XXXX」の音声データと、その音声データの認識結果である「XXXX」の文字データとを対応付けて自装置内の収集情報記憶部142(図3参照)に格納する。
Then, the
そして、端末装置10は、収集した音声が条件を満たすか否かを判定し、条件を満たすと判定した場合、ユーザに通知する(ステップS15)。図1では、端末装置10は、収集した発話PAが条件CN1を満たすか否かを判定する。例えば、端末装置10は、発話PAの文字データと、条件CN1とを比較し、発話PAが条件CN1を満たすか否かを判定する。このように、端末装置10は、内容に関する条件(「内容条件」ともいう)である条件CN1を用いて発話PAが所定の内容を含むか否かを判定する。端末装置10は、収集した発話PAの文字データには新語NXが含まれるため、条件CN1を満たすと判定する。
Then, the
そのため、端末装置10は、発話PAをサーバ装置100へ送信する候補となる情報としてユーザU1に通知する。例えば、端末装置10は、発話PAをサーバ装置100へ送信する候補として表示する。例えば、端末装置10は、文字列「XXXX」及びそれが候補であることを示す説明を画面に表示する。この場合、端末装置10は、発話PAが候補であることを示す情報とともに、ユーザU1の許諾の可否を示す情報を受け付けるための情報を表示してもよい。例えば、端末装置10は、発話PAが候補であることを示す情報とともに、その送信可否をユーザが指定するためのボタンを表示する。例えば、端末装置10は、発話PAが候補であることを示す情報とともに、「送信を許諾する」等と記載された許諾ボタン及び「送信を許諾しない」等と記載された拒絶ボタンを表示してもよい。このように、端末装置10は、条件を満たした場合にユーザに許諾を確認する。
Therefore, the
この場合、端末装置10は、許諾ボタンにより、発話PAをサーバ装置100へ送信することに対するユーザU1の許諾を受け付ける。例えば、端末装置10は、許諾ボタンをユーザU1が選択した場合、発話PAをサーバ装置100に送信することをユーザU1が許諾したと判定する。また、端末装置10は、拒絶ボタンをユーザU1が選択した場合、発話PAをサーバ装置100に送信することをユーザU1が許諾しなかったと判定する。なお、上記は一例に過ぎず、端末装置10は、表示による通知や許諾の受付けに限らず、様々な態様(モーダル)により通知や許諾の受付けを行ってもよい。例えば、端末装置10は、音声により発話PAをサーバ装置100へ送信する候補であることをユーザU1に対して通知(出力)してもよい。また、端末装置10は、音声により発話PAをサーバ装置100へ送信することに対するユーザU1の許諾の可否を受け付けてもよい。
In this case, the
端末装置10は、発話PAをサーバ装置100へ送信することに対するユーザU1の許諾を受け付ける。(ステップS16)。例えば、端末装置10は、ユーザU1が許諾ボタンを選択する操作により、発話PAをサーバ装置100へ送信することに対するユーザU1の許諾を受け付ける
The
そして、端末装置10は、ユーザU1が送信を許諾した発話PAに関する情報をサーバ装置100へ送信する(ステップS17)。図1では、端末装置10は、発話PAの音声データ及びその認識結果をサーバ装置100へ送信する。すなわち、端末装置10は、発話PAである「XXXX」の音声データと、その音声データの認識結果である「XXXX」の文字データとをサーバ装置100へ送信する。なお、上記は一例に過ぎず、端末装置10は、発話PAの音声データのみをサーバ装置100へ送信してもよい。
Then, the
サーバ装置100は、端末装置10から受信した音声に関する情報を学習に用いるデータに追加する(ステップS18)。図1では、端末装置10から発話PAである「XXXX」の音声データと、その音声データの認識結果である「XXXX」の文字データとの組合せ(以下「新規データPDT」ともいう)を受信したサーバ装置100は、受信した新規データPDTを学習用データセットであるデータセットDS1に追加する。例えば、サーバ装置100は、発話PAである「XXXX」の音声データに、「XXXX」の文字データをラベルとして対応付けた新規データPDTを、データセットDS1のデータとして学習用データ情報記憶部122(図8参照)に格納する。
The
そして、サーバ装置100は、新規データPDTが追加されたデータセットDS1を用いて、モデルM1を学習する(ステップS19)。サーバ装置100は、データセットDS1を用いて、モデルM1の重み等のパラメータを学習(更新)する。モデルM1の学習処理には、任意の手法が採用可能である。
Then, the
例えば、サーバ装置100は、モデルM1が出力した文字データが、モデルM1に入力した音声データに対応する正解データ(ラベル)に近づくように、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、サーバ装置100は、学習処理によりノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を調整する。このように、サーバ装置100は、モデルM1における出力と、入力に対応する正解データとの誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理によりモデルM1を学習する。例えば、サーバ装置100は、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことによりモデルM1を生成する。これにより、サーバ装置100は、モデルM1のパラメータを学習する学習処理を行うことができる。
For example, the
上述したように、情報処理システム1は、端末装置10が音声認識を行う場合であっても、端末装置10で収集される音声に関する情報をサーバ装置100へ適切に送信することができる。したがって、情報処理システム1は、端末装置10が音声認識を行う場合であっても、モデルを学習するために必要なデータを収集することができる。
As described above, even when the
例えば、情報処理システム1は、ユーザがオンデバイス音声認識を搭載したアプリケーション(単に「アプリ」ともいう)を端末装置10で使用したときに、発話した音声と認識結果を端末装置10内に保存(蓄積)する。例えば、情報処理システム1は、例えばカーナビアプリ、ショッピングアプリ等の任意のアプリがインストールされた端末装置10でアプリを使用したときに、発話した音声と認識結果を端末装置10内に保存(蓄積)する。そして、情報処理システム1は、蓄積(収集)された発話が所定の基準を満たしたら、ユーザにサーバ装置100への送信許諾を確認し、ユーザの許諾が得られた場合に、許諾が得られた情報を端末装置10からサーバ装置100へ送信する。このような処理により、情報処理システム1は、端末装置10が音声認識を行う場合であっても、端末装置10で収集される音声に関する情報をサーバ装置100へ適切に送信することができる。
For example, when a user uses an application (also simply referred to as an "app") equipped with on-device voice recognition on the
〔1-1.他の例〕
なお、図1に示した処理は一例に過ぎず、情報処理システム1は、様々な条件を用いて、様々な情報を端末装置10からサーバ装置100へ送信してもよい。この点について、以下各要素についての例示を記載する。
[1-1. Other examples]
Note that the process illustrated in FIG. 1 is only an example, and the
〔1-1-1.送信する情報〕
図1では、端末装置10からサーバ装置100へ音声データが送信される場合を一例として説明したが、端末装置10からサーバ装置100へ送信される情報は、音声に関する情報であればどのような情報であってもよい。
[1-1-1. Information to send〕
In FIG. 1, the case where audio data is transmitted from the
端末装置10は、音声のデータをサーバ装置100に送信してもよい。端末装置10は、音声の波形データをサーバ装置100に送信してもよい。端末装置10は、音声のデータを圧縮したデータをサーバ装置100に送信してもよい。端末装置10は、音声から抽出した特徴情報をサーバ装置100に送信してもよい。
The
上述のように、端末装置10からサーバ装置100へ送信する情報は、音声波形またはその圧縮したもの等の様々な情報であってもよい。端末装置10からサーバ装置100へ送信する情報は、音声波形から抽出した特徴量であってもよい。ここでいう特徴量とは、例えば元となる音声データよりもサイズが小さいデータであり、個人性に関する情報を極力含まないスペクトル情報などであってもよい。また、端末装置10からサーバ装置100へ送信する情報は、発話内容を検聴確認可能なレベルで不可逆圧縮してサイズを極力小さくした音声等の圧縮音声のデータであってもよい。
As described above, the information transmitted from the
〔1-1-2.情報の条件〕
図1では、音声が特定の単語を含むか否かである条件CN1を一例と説明したが、サーバ装置100へ送信する情報の条件(送信情報条件)は、音声が特定の単語を含むか否かに限らず、様々な条件であってもよい。
[1-1-2. Information conditions〕
In FIG. 1, the condition CN1, which is whether the audio includes a specific word, was explained as an example, but the condition for information to be transmitted to the server device 100 (transmission information condition) is whether the audio includes a specific word. The conditions are not limited to these, and various conditions may be used.
送信情報条件は、収集した発話(音声)の数に関する条件(「数条件」ともいう)であってもよい。例えば、送信情報条件は、収集した発話(音声)の数が一定の閾値を超えたことであってもよい。この場合、端末装置10は、収集した音声の数が所定数(例えば50、100等)以上であるか否かを判定する。例えば、端末装置10は、収集した音声の数が所定数以上になった場合、条件を満たしたと判定し、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信する。
The transmission information condition may be a condition regarding the number of collected utterances (voices) (also referred to as "number condition"). For example, the transmission information condition may be that the number of collected utterances (voices) exceeds a certain threshold. In this case, the
例えば、送信情報条件は、収集した発話(音声)の音声認識に関するスコアが所定の条件(「スコア条件」ともいう)を満たすことであってもよい。この場合、端末装置10は、収集した音声の音声認識に関するスコアが所定の閾値(例えば0.5、0.7等)以上であるか否かを判定する。例えば、端末装置10は、収集した音声の音声認識に関するスコアが所定の閾値以上である場合、条件を満たしたと判定し、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信する。
For example, the transmission information condition may be that a score related to speech recognition of collected utterances (voices) satisfies a predetermined condition (also referred to as "score condition"). In this case, the
また、例えば、端末装置10は、収集した音声の音声認識に関するスコアが所定の閾値(例えば0.5、0.7等)未満であるか否かを判定する。例えば、端末装置10は、収集した音声の音声認識に関するスコアが所定の閾値未満である場合、条件を満たしたと判定し、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信する。
Further, for example, the
また、例えば、送信情報条件は、収集した音声がノイズに関する条件(「ノイズ条件」ともいう)を満たすことであってもよい。この場合、端末装置10は、収集した音声の信号対雑音比(SN比)が所定値以上であるか否かを判定する。例えば、端末装置10は、収集した音声のSN比が所定値以上である場合、条件を満たしたと判定し、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信する。
Furthermore, for example, the transmission information condition may be that the collected audio satisfies a condition regarding noise (also referred to as a "noise condition"). In this case, the
また、例えば、端末装置10は、収集した音声の信号対雑音比(SN比)が所定値未満であるか否かを判定する。例えば、端末装置10は、収集した音声のSN比が所定値未満である場合、条件を満たしたと判定し、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信する。
Further, for example, the
なお、上記は一例に過ぎず、情報処理システム1は、様々な条件を適宜用いてもよい。送信情報条件は、端末装置10の種別であってもよい。例えば、情報処理システム1は、カーナビでのユーザの発話(音声)が不足している場合、端末装置10の種別が「カーナビ」であることを条件(端末条件)としてもよい。送信情報条件は、ユーザの属性であってもよい。例えば、情報処理システム1は、子どもの発話(音声)が不足している場合、話者が「子ども」であることまたは音声(声)の基本周波数が所定値以上であることを条件(話者条件)としてもよい。なお、上記は一例に過ぎず、情報処理システム1は、子どもの発話(音声)を収集する場合、「成人・子供」や「年齢年代」の判別器を用いて、子どもの発話(音声)を収集してもよい。この場合、情報処理システム1は、特徴量として基本周波数だけでなくスペクトル情報なども利用する判別器を用いて、子どもの発話(音声)を収集してもよい。
Note that the above is only an example, and the
また、例えば、情報処理システム1は、上述した条件などを組み合わせて用いてもよい。例えば、端末装置10は、内容条件、スコア条件、またはノイズ条件の少なくとも1つを満たす音声の数が数条件を満たす場合に、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信してもよい。例えば、端末装置10は、内容条件、スコア条件、またはノイズ条件の少なくとも1つを満たす音声を該当音声として収集する。そして、端末装置10は、該当音声の数が所定の数(例えば30や150等)に達した場合、ユーザの許諾に応じて音声に関する情報をサーバ装置100に送信してもよい。
Further, for example, the
このように、端末装置10は、収集した音声(ユーザ発話)のうち、音声認識エンジンの改良に資すると判断される発話を選んで、それが一定数を超えた場合に送信許諾を得てもよい。例えば、音声認識エンジンの改良に資すると判定する基準として、音声認識エンジンが発話ごとに付与するスコアを利用してもよい。音声認識エンジンの改良に資すると判定する基準として、発話ごとの信号対雑音比(SNR:signal-to-noise ratio)を利用してもよい。例えば、音声認識エンジンの改良に資すると判定する基準として、発話ごとの認識結果テキストを利用してもよい。例えば、情報処理システム1は、音声認識エンジンの改良のために欲しい単語を含んでいるような発話を選んでもよい。
In this way, the
〔1-1-3.送信タイミング〕
図1では、ユーザの許諾が得られたタイミングで情報を送信する場合を一例と説明したが、サーバ装置100へ送信するタイミングは、任意のタイミングが採用可能である。
[1-1-3. Transmission timing]
In FIG. 1, an example is described in which the information is transmitted at the timing when the user's permission is obtained, but any timing can be adopted as the timing for transmitting the information to the
端末装置10は、音声についてユーザの許諾を受け付けた後、その音声に関する情報を所定のタイミングでサーバ装置100に送信する。端末装置10は、音声についてユーザの許諾を受け付けた後、通信環境が所定の通信条件を満たしている間に、その音声に関する情報をサーバ装置100に送信する。例えば、端末装置10は、音声についてユーザの許諾を受け付けた後、Wi-Fi(登録商標)(Wireless Fidelity)による通信を行っている間に、その音声に関する情報をサーバ装置100に送信する。
After receiving the user's permission for the audio, the
また、端末装置10は、音声についてユーザの許諾を受け付けた後、端末装置10の利用率が低いタイミングで、その音声に関する情報をサーバ装置100に送信する。例えば、端末装置10は、音声についてユーザの許諾を受け付けた後、端末装置10のプロセッサの利用率が所定の閾値未満となったタイミングで、その音声に関する情報をサーバ装置100に送信する。例えば、端末装置10は、音声についてユーザの許諾を受け付けた後、端末装置10が充電されている間に、その音声に関する情報をサーバ装置100に送信する。
Further, after receiving the user's permission for the audio, the
上記のように、端末装置10は、ユーザの送信許諾を得た後、Wi-Fi接続されている場合、またはユーザの端末装置10の利用率が低いタイミング(CPU負荷が所定値以下や深夜自宅充電時など)にサーバ装置100へ情報を送信する。
As mentioned above, after obtaining the user's transmission permission, the
また、端末装置10は、各音声の価値に応じて、価値が高い音声に関する情報の優先送信を行ってもよい。端末装置10は、音声認識のスコアに応じて優先度(順位)付けを行い、優先度が高い音声に関する情報から順に、サーバ装置100へ送信する。例えば、端末装置10は、音声認識のスコアが高い方から順に高い優先度(順位)を付して、優先度が高い音声に関する情報から順に、サーバ装置100へ送信する。
Further, the
〔1-1-4.ユーザによる選択〕
上述したように、端末装置10は、ユーザに通知した候補のうち、ユーザが許諾した音声に関する情報のみサーバ装置100に送信する。例えば、端末装置10は、ユーザに送信許諾を得る際に、送信する発話リスト(認識結果テキストと発話へのリンクなど)をユーザに提示して、ユーザが送信したくない発話を選択した場合、ユーザが選択した発話を送信対象から除外する。
[1-1-4. User selection]
As described above, the
〔1-1-5.インセンティブ〕
情報処理システム1は、ユーザに送信許諾を得るために、ユーザにインセンティブを提供してもよい。例えば、情報処理システム1は、ユーザが音声の送信を許諾した場合、許諾した音声に応じた、電子マネー、ポイント、クーポン等の様々種別のインセンティブをユーザに提供してもよい。
[1-1-5. Incentive]
The
例えば、端末装置10は、音声に関する情報がサーバ装置100へ送信された場合にユーザに提供されるインセンティブを示す情報をユーザに通知してもよい。例えば、端末装置10は、音声の価値が高い方がより良いインセンティブをユーザに提供することをユーザに通知してもよい。例えば、端末装置10は、音声のスコアが高い方が多いポイントをユーザに提供することをユーザに通知してもよい。
For example, the
例えば、端末装置10は、音声にユーザがラベル(正解)を付した場合に、インセンティブをユーザに提供することをユーザに通知してもよい。例えば、端末装置10は、スコアが所定の閾値未満である音声の認識結果をユーザが確認し、誤っている場合に修正した場合に、インセンティブをユーザに提供することをユーザに通知してもよい。
For example, the
〔2.情報処理システムの構成例〕
次に、図2を用いて、実施形態に係るサーバ装置100が含まれる情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1は、複数の端末装置10とサーバ装置100とを含む。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
[2. Configuration example of information processing system]
Next, the configuration of the
また、図2に示す情報処理システム1に含まれる各装置の数は図示したものに限られない。例えば、図2では、図示の簡略化のため、端末装置10-1、10-2、10-3の3台のみを示したが、これはあくまでも例示であって限定されるものではなく、4台以上であってもよい。
Furthermore, the number of devices included in the
端末装置10は、ユーザにより利用され、自装置内での音声認識によりユーザに音声認識に基づくサービスを提供する情報処理装置(コンピュータ)である。端末装置10は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、サーバ装置100と通信することができる。
The
図2では、端末装置10-1は、ユーザにより利用されるスマートフォンである。なお、端末装置10-1は、ユーザにより利用されるデバイスであれば、タブレット端末等のスマートデバイス、フィーチャーフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、カーナビゲーションシステム、スマートウォッチやヘッドマウントディスプレイ等のウェアラブルデバイス(Wearable Device)、スマートグラス等であってもよい。 In FIG. 2, the terminal device 10-1 is a smartphone used by a user. Note that the terminal device 10-1 may be a smart device such as a tablet terminal, a feature phone, a PC (Personal Computer), a PDA (Personal Digital Assistant), a car navigation system, a smart watch, or a headphone, as long as it is a device used by the user. It may also be a wearable device such as a mounted display, smart glasses, or the like.
図2では、端末装置10-2は、ユーザにより利用されるスマートスピーカである。なお、端末装置10-2は、ユーザにより利用されるデバイスであれば、テレビ、冷蔵庫等の任意のIoT(Internet of Things)であってもよい。 In FIG. 2, the terminal device 10-2 is a smart speaker used by a user. Note that the terminal device 10-2 may be any IoT (Internet of Things) device such as a television or a refrigerator as long as it is used by a user.
図2では、端末装置10-3は、カーナビゲーション(カーナビ)機能が搭載された自動車等の車両等の移動体である。なお、端末装置10-3は、移動体に配置されたカーナビゲーション機能を提供するカーナビ装置であってもよい。 In FIG. 2, the terminal device 10-3 is a mobile object such as a vehicle such as an automobile equipped with a car navigation function. Note that the terminal device 10-3 may be a car navigation device that is placed in a moving object and provides a car navigation function.
サーバ装置100は、端末装置10から音声に関する情報を取得する情報処理装置(コンピュータ)である。また、サーバ装置100は、取得した音声に関する情報を用いた機械学習により、音声認識に用いられるモデルを学習する学習装置である。また、サーバ装置100は、端末装置10にモデルを送信する。また、サーバ装置100は、端末装置10に送信してほしいデータを指定する条件を示す情報を端末装置10に送信する。なお、サーバ装置100は、端末装置10から音声に関する情報を取得し、取得した情報を蓄積する機能のみを有してもよい。この場合、情報処理システム1には、サーバ装置100が蓄積した情報を用いてモデルの学習を行う装置(学習装置)が含まれてもよい。すなわち、情報処理システム1において、端末装置10から音声データ等の音声に関する情報を受信して蓄積する装置(例えばサーバ装置100)と、音声認識モデルを保持して収集したデータで学習または更新行い、端末装置10に送信(配布)する装置(例えば学習装置)とは別体であってもよい。この場合、学習装置は、音声認識モデルを保持し、サーバ装置100から取得したデータを用いてモデルの学習や更新を行い、ユーザが利用する端末装置10へモデルを送信してもよい。例えば、情報処理システム1では、サーバ装置100が収集した音声データ等の音声に関する情報を、別途、人手で検聴して正解テキストを付与したり、機械的に選別して、新しい音声認識モデルを学習したり、更新したりしてもよい。また、情報処理システム1では、モデルの配布は、アプリのバイナリに添付して、アプリストア等、アプリケーションのダウンロードサービスを経由して、ユーザが利用する端末装置10にバージョンアップとして配信されてもよい。なお、情報処理システム1の構成は、サーバ装置100が端末装置10から音声に関する情報を取得する構成であれば、上記に限らず任意の構成が採用可能である。
The
〔3.端末装置の構成例〕
次に、図3を用いて、端末装置10の構成について説明する。図3は、端末装置10の構成例を示す図である。図3に示すように、端末装置10は、通信部11と、入力部12と、出力部13と、記憶部14と、制御部15と、センサ部16とを有する。なお、端末装置10は、データを収集し、サーバ装置100へ提供可能な構成であれば、どのような装置構成であってもよい。例えば、端末装置10は、サーバ装置100と通信する通信部11と、データを収集する処理を行う制御部15とを有すれば、その他の構成は任意であってもよい。端末装置10の種別によっては、例えば、端末装置10は、入力部12や出力部13や記憶部14やセンサ部16のいずれかを有しなくてもよい。
[3. Configuration example of terminal device]
Next, the configuration of the
なお、端末装置10は、どのような実現態様であるかに応じて、上記に限らず任意の構成を有してもよい。例えば、端末装置10が移動体である場合、端末装置10は、駆動部(モータ)等の移動を実現するための機構を有する構成であってもよい。
Note that the
(通信部11)
通信部11は、例えば、NICや通信回路等によって実現される。通信部11は、ネットワークN(インターネット等)と有線又は無線で接続され、ネットワークNを介して、サーバ装置100等の他の装置等との間で情報の送受信を行う。
(Communication Department 11)
The communication unit 11 is realized by, for example, a NIC, a communication circuit, or the like. The communication unit 11 is connected to a network N (such as the Internet) by wire or wirelessly, and transmits and receives information to and from other devices such as the
(入力部12)
入力部12は、各種入力を受け付ける。入力部12は、ユーザの操作を受け付ける。例えば、入力部12は、音声によるユーザの入力をマイク等の音声センサ161を介して受け付ける。入力部12は、ユーザの発話による各種操作を受け付ける。
(Input section 12)
The
また、入力部12は、ユーザの発話(音声)以外による端末装置10への操作(ユーザ操作)をユーザによる操作入力として受け付けてもよい。入力部12は、通信部11を介して、リモコン(リモートコントローラー:remote controller)を用いたユーザの操作に関する情報を受け付けてもよい。また、入力部12は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスを有してもよい。
Further, the
例えば、入力部12は、リモコンやキーボードやマウスと同等の機能を実現できるタッチパネルを有してもよい。この場合、入力部12は、ディスプレイ(出力部13)を介して各種情報が入力される。入力部12は、各種センサにより実現されるタッチパネルの機能により、表示画面を介してユーザから各種操作を受け付ける。すなわち、入力部12は、端末装置10のディスプレイ(出力部13)を介してユーザから各種操作を受け付ける。例えば、入力部12は、端末装置10のディスプレイ(出力部13)を介してユーザの操作を受け付ける。
For example, the
(出力部13)
出力部13は、各種情報を出力する。出力部13は、情報を表示する機能を有する。出力部13は、端末装置10に設けられ各種情報を表示する。出力部13は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現される。出力部13は、音声を出力する機能を有してもよい。例えば、出力部13は、音声を出力するスピーカーを有する。
(Output section 13)
The output unit 13 outputs various information. The output unit 13 has a function of displaying information. The output unit 13 is provided in the
(記憶部14)
記憶部14は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、データの収集に必要な各種情報を記憶する。記憶部14は、モデル情報記憶部141と収集情報記憶部142とを有する。
(Storage unit 14)
The storage unit 14 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 14 stores various information necessary for data collection. The storage unit 14 includes a model
(モデル情報記憶部141)
実施形態に係るモデル情報記憶部141は、モデル(ネットワーク)の構造を示す情報(モデルデータ)を記憶する。図4は、モデル情報記憶部の一例を示す図である。図4に示した例では、モデル情報記憶部141は、「モデルID」、「用途」、「モデルデータ」といった項目が含まれる。
(Model information storage unit 141)
The model
「モデルID」は、モデルを識別するための識別情報を示す。「用途」は、対応するモデルの用途を示す。「モデルデータ」は、モデルのデータを示す。図4では「モデルデータ」に「MDT1」といった概念的な情報が格納される例を示したが、実際には、モデルに含まれるネットワークに関する情報や関数等、そのモデルを構成する種々の情報が含まれる。 "Model ID" indicates identification information for identifying a model. “Application” indicates the use of the corresponding model. "Model data" indicates data of a model. Figure 4 shows an example in which conceptual information such as "MDT1" is stored in "model data," but in reality, various information constituting the model, such as network information and functions included in the model, is stored. included.
図4に示す例では、モデルID「M1」により識別されるモデル(モデルM1)は、用途が「音声認識」であることを示す。モデルM1は、音声認識に用いられるモデルであることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。 In the example shown in FIG. 4, the model (model M1) identified by the model ID "M1" indicates that the application is "speech recognition." Model M1 indicates a model used for speech recognition. Further, the model data of model M1 is model data MDT1.
なお、モデル情報記憶部141は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、モデル情報記憶部141は、学習処理により学習(生成)されたモデルのパラメータ情報を記憶する。
Note that the model
(収集情報記憶部142)
実施形態に係る収集情報記憶部142は、端末装置10が収集したユーザの発話(音声)に関する情報を記憶する。図5は、収集情報記憶部の一例を示す図である。図5に示した例では、収集情報記憶部142は、「音声ID」、「音声」、「認識結果」といった項目が含まれる。
(Collected information storage unit 142)
The collected
「音声ID」は、収集した音声を識別するための識別情報を示す。「音声」は、収集した音声を示す。図5では「音声」に「ADT1」といった概念的な情報が格納される例を示したが、実際には、収集した音声データ、例えば音声の波形データ等、音声に関する種々の情報が含まれる。「認識結果」は、対応する音声の認識結果を示す。図5では「認識結果」に「RS1」といった概念的な情報が格納される例を示したが、実際には、音声の認識結果、例えば、音声データを文字データ(文字列)に変換した結果や、音声に含まれる内容等を示す情報が含まれる。 “Voice ID” indicates identification information for identifying the collected voice. "Audio" indicates collected audio. Although FIG. 5 shows an example in which conceptual information such as "ADT1" is stored in "audio," in reality, various information related to speech is included, such as collected audio data, for example, audio waveform data. “Recognition result” indicates the recognition result of the corresponding voice. Although Fig. 5 shows an example in which conceptual information such as "RS1" is stored in "recognition result," in reality, it is the result of speech recognition, such as the result of converting speech data into character data (character string). It also includes information indicating the content included in the audio.
図5に示す例では、音声ID「AD1」により識別される音声(音声AD1)の認識結果が、認識結果RS1あることを示す。 The example shown in FIG. 5 shows that the recognition result of the voice (voice AD1) identified by the voice ID "AD1" is the recognition result RS1.
なお、収集情報記憶部142は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、収集情報記憶部142は、各音声にその音声がどのような状況で検知されたかを示す情報が対応付けて記憶する。例えば、収集情報記憶部142は、各音声にその音声のSN比を対応付けて記憶する。
Note that the collected
(制御部15)
図3に戻り、説明を続ける。制御部15は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置10内部に記憶されたプログラム(例えば、に係る送信プログラム等の情報処理プログラム)がRAM等を作業領域として実行されることにより実現される。また、制御部15は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
(Control unit 15)
Returning to FIG. 3, the explanation will be continued. The
図3に示すように、制御部15は、受信部151と、音声認識部152と、収集部153と、通知部154と、受付部155と、判定部156と、送信部157とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
As shown in FIG. 3, the
(受信部151)
受信部151は、各種情報を受信する。受信部151は、外部の情報処理装置から各種情報を受信する。受信部151は、サーバ装置100等の他の情報処理装置から各種情報を受信する。
(Receiving unit 151)
The receiving unit 151 receives various information. The receiving unit 151 receives various information from an external information processing device. The receiving unit 151 receives various information from other information processing devices such as the
受信部151は、サーバ装置100が情報提供を要求する音声に関する条件を示す情報をサーバ装置100から受信する。
The receiving unit 151 receives from the
受信部151は、サーバ装置100が学習したモデルをサーバ装置100から受信する。受信部151は、サーバ装置100から音声認識モデルを受信する。受信部151は、サーバ装置100からモデルM1を受信する。
The receiving unit 151 receives the model learned by the
(音声認識部152)
音声認識部152は、音声認識に関する各種処理を実行する。音声認識部152は、記憶部14に記憶された情報を用いて、音声認識処理を実行する。音声認識部152は、音声認識モデルを用いて、音声認識処理を実行する。音声認識部152は、受信部151が受信した音声認識モデルを用いて、音声認識処理を実行する。音声認識部152は、受信部151が受信したモデルM1を用いて、音声認識処理を実行する。例えば、音声認識部152は、モデル情報記憶部141に記憶されたモデルM1を用いて、音声認識処理を実行する。
(Voice recognition unit 152)
The speech recognition unit 152 executes various processes related to speech recognition. The speech recognition unit 152 uses the information stored in the storage unit 14 to execute speech recognition processing. The speech recognition unit 152 executes speech recognition processing using a speech recognition model. The speech recognition unit 152 executes speech recognition processing using the speech recognition model received by the receiving unit 151. The speech recognition unit 152 executes speech recognition processing using the model M1 received by the receiving unit 151. For example, the voice recognition unit 152 uses the model M1 stored in the model
音声認識部152は、モデルM1を用いて、ユーザの発話(音声)を文字情報(文字データ)に変換することにより、ユーザ発話の音声をテキスト化する。また、音声認識部152は、ユーザの発話の内容を分析する。音声認識部152は、種々の従来技術を適宜用いて、ユーザの発話を分析することにより、ユーザの発話の内容を推定する。例えば、音声認識部152は、自然言語理解(NLU:Natural Language Understanding)や自動音声認識(ASR:Automatic Speech Recognition)の機能により、ユーザの発話の内容を分析してもよい。 The speech recognition unit 152 converts the user's utterance (speech) into text information (text data) using the model M1, thereby converting the user's utterance into text. Furthermore, the speech recognition unit 152 analyzes the content of the user's utterance. The speech recognition unit 152 estimates the content of the user's utterance by analyzing the user's utterance using various conventional techniques as appropriate. For example, the speech recognition unit 152 may analyze the content of the user's utterance using a natural language understanding (NLU) or automatic speech recognition (ASR) function.
(収集部153)
収集部153は、各種情報を収集する。収集部153は、各種情報の収集を決定する。収集部153は、外部の情報処理装置からの情報に基づいて、各種情報を収集する。収集部153は、記憶部14に記憶された情報に基づいて、各種情報を収集する。収集部153は、モデル情報記憶部141に記憶されたモデルM1を用いたセンシングによりデータを収集する。
(Collection unit 153)
The
収集部153は、ユーザが発話した音声と発話の音声認識による認識結果とを対応付けて自装置内の記憶部14に収集する。収集部153は、音声とその音声の認識結果とを対応付けて収集情報記憶部142に格納する。収集部153は、ユーザが発話した音声と音声認識部152による音声認識の結果とを対応付けて収集情報記憶部142に登録する。
The
(通知部154)
通知部154は、ユーザへの通知に関する処理を実行する。通知部154は、ユーザへの情報の通知を行う。通知部154は、出力部13を介してユーザへの情報の通知を行う。
(Notification section 154)
The
通知部154は、サーバ装置100へ送信する候補となる音声に関する情報をユーザに通知する。通知部154は、サーバ装置100へ送信する候補の一覧情報を出力部13に表示する。
The
通知部154は、音声に関する情報がサーバ装置100へ送信された場合にユーザに提供されるインセンティブを示す情報を通知する。通知部154は、音声に関する情報がサーバ装置100へ送信された場合にユーザに提供されるインセンティブを示す情報を出力部13に表示する。
The
(受付部155)
受付部155は、各種情報を受け付ける。受付部155は、ユーザによる各種操作を受け付ける。例えば、受付部155は、入力部12を介してユーザによる各種操作を受け付ける。
(Reception Department 155)
The
受付部155は、ユーザによる許諾を受け付ける。受付部155は、通知部154により通知されたサーバ装置100へ送信する候補に対する、ユーザによる許諾を受け付ける。
The accepting
(判定部156)
判定部156は、各種情報を判定する。例えば、判定部156は、受信部151により外部装置から受信された各種情報に基づいて、各種情報を判定する。例えば、判定部156は、記憶部14に記憶された情報に基づいて、各種情報を判定する。例えば、判定部156は、記憶部14に記憶されたデータの収集に関する条件を示す情報を用いて、判定を行う。
(Determination unit 156)
The
判定部156は、サーバ装置100へ送信する情報に関する判定を行う。判定部156は、音声がサーバ装置100へ送信する情報に関する条件を満たすか否かを判定する。判定部156は、サーバ装置100へ情報を送信するタイミングを判定する。
The
判定部156は、収集部153により収集された音声が所定の条件を満たすか否かを判定する。判定部156は、収集部153により収集された音声の数が所定数以上であるか否かを判定する。判定部156は、収集部153により収集された音声の音声認識に関するスコアが所定の条件を満たすか否かを判定する。判定部156は、収集部153により収集された音声がノイズに関する条件を満たすか否かを判定する。判定部156は、収集部153により収集された音声に対応する発話が所定の内容を含むか否かを判定する。
The determining
判定部156は、サーバ装置100により指定された所定の条件を満たすか否かを判定する。判定部156は、サーバ装置100から受信した所定の条件を満たすであるか否かを判定する。
The
判定部156は、通知部154により通知された候補のうち、ユーザが許諾した音声に関する情報をサーバ装置100に送信する。判定部156は、サーバ装置100へ情報を送信するタイミングであるか否かを判定する。判定部156は、通信環境が所定の通信条件を満たしているか否かを判定する。判定部156は、ユーザによる端末装置の利用率が低いタイミングであるか否かを判定する。
The
(送信部157)
送信部157は、外部の情報処理装置へ各種情報を送信する。例えば、送信部157は、サーバ装置100等の他の情報処理装置へ各種情報を送信する。送信部157は、記憶部14に記憶された情報を送信する。
(Transmission unit 157)
The
送信部157は、サーバ装置100等の他の情報処理装置からの情報に基づいて、各種情報を送信する。送信部157は、記憶部14に記憶された情報に基づいて、各種情報を送信する。
The
送信部157は、判定部156による判定結果に応じて、サーバ装置100に情報を送信する。送信部157は、判定部156により情報送信の条件をみたすと判定された場合、サーバ装置100に情報を送信する。送信部157は、収集部153により収集された音声が所定の条件を満たす場合、ユーザの許諾に応じて、音声に関する情報を音声認識に関するモデルを学習するサーバ装置100に送信する。
The transmitting
送信部157は、音声のデータをサーバ装置100に送信する。送信部157は、音声の波形データをサーバ装置100に送信する。送信部157は、音声のデータを圧縮したデータをサーバ装置100に送信する。送信部157は、音声から抽出した特徴情報をサーバ装置100に送信する。
The
送信部157は、収集部153により収集された音声の数が所定数以上である場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。送信部157は、収集部153により収集された音声の音声認識に関するスコアが所定の条件を満たす場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。送信部157は、収集部153により収集された音声がノイズに関する条件を満たす場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。送信部157は、収集部153により収集された音声に対応する発話が所定の内容を含む場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。送信部157は、サーバ装置100により指定された所定の条件を満たす場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。
If the number of voices collected by the
送信部157は、通知部154により通知された候補のうち、ユーザが許諾した音声に関する情報をサーバ装置100に送信する。送信部157は、受付部155によりユーザの許諾が受け付けられた後、所定のタイミングで音声に関する情報をサーバ装置100に送信する。送信部157は、通信環境が所定の通信条件を満たしている間に、音声に関する情報をサーバ装置100に送信する。送信部157は、ユーザによる端末装置の利用率が低いタイミングで、音声に関する情報をサーバ装置100に送信する。送信部157は、サーバ装置100から受信した所定の条件を満たす音声に関する情報を、ユーザの許諾に応じて、サーバ装置100に送信する。
The transmitting
(センサ部16)
センサ部16は、様々なセンサ情報を検知するセンサを有する。図3の例では、センサ部16は、音声センサ161を有する。
(Sensor part 16)
The sensor section 16 includes sensors that detect various sensor information. In the example of FIG. 3, the sensor section 16 includes an
(音声センサ161)
音声センサ161は、例えばマイク等であり、音声を検知する。例えば、音声センサ161は、ユーザの発話を検知する。なお、音声センサ161は、処理に必要なユーザの発話情報を検知可能であれば、どのような構成であってもよい。
(Audio sensor 161)
The
なお、センサ部16は、上記に限らず、種々のセンサを有してもよい。センサ部16は、画像センサ、位置センサ、加速度センサ、ジャイロセンサ、温度センサ、湿度センサ、照度センサ、圧力センサ、近接センサ、ニオイや汗や心拍や脈拍や脳波等の生体情報を受信のためのセンサ等の種々のセンサを有してもよい。また、センサ部16における上記の各種情報を検知するセンサは共通のセンサであってもよいし、各々異なるセンサにより実現されてもよい。 Note that the sensor section 16 is not limited to the above, and may include various sensors. The sensor unit 16 includes an image sensor, a position sensor, an acceleration sensor, a gyro sensor, a temperature sensor, a humidity sensor, an illuminance sensor, a pressure sensor, a proximity sensor, and a sensor for receiving biological information such as odor, sweat, heartbeat, pulse, and brain waves. It may have various sensors such as a sensor. Further, the sensors that detect the above-mentioned various information in the sensor section 16 may be a common sensor, or may be realized by different sensors.
〔4.サーバ装置の構成例〕
次に、図6を用いて、実施形態に係るサーバ装置100の構成について説明する。図6は、実施形態に係るサーバ装置100の構成例を示す図である。図6に示すように、サーバ装置100は、通信部110と、記憶部120と、制御部130とを有する。
[4. Configuration example of server device]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークN(図2参照)と有線又は無線で接続される。
(Communication Department 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). Further, the communication unit 110 is connected to the network N (see FIG. 2) by wire or wirelessly.
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置によって実現される。図6に示すように、記憶部120は、モデル情報記憶部121と、学習用データ情報記憶部122とを有する。なお、記憶部120は、上記に限らず、様々な情報を記憶する。記憶部120は、情報の送信に関する様々な条件を示す情報を記憶する。例えば、記憶部120は、サーバ装置100へ送信する情報の条件を示す情報(情報条件情報)を記憶する。例えば、記憶部120は、サーバ装置100へ送信するタイミングの条件を示す情報(タイミング条件情報)を記憶する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 6, the storage unit 120 includes a model
(モデル情報記憶部121)
実施形態に係るモデル情報記憶部121は、モデルに関する情報を記憶する。例えば、モデル情報記憶部121は、ユーザやコミュニティを対象として学習した共通モデル(グローバルモデル)を記憶する。図7は、実施形態に係るモデル情報記憶部の一例を示す図である。図7に示すモデル情報記憶部121は、「モデルID」、「用途」、「モデルデータ」といった項目が含まれる。
(Model information storage unit 121)
The model
「モデルID」は、モデルを識別するための識別情報を示す。「用途」は、対応するモデルの用途を示す。「モデルデータ」は、モデルのデータを示す。図7では「モデルデータ」に「MDT1」といった概念的な情報が格納される例を示したが、実際には、モデルに含まれるネットワークに関する情報や関数等、そのモデルを構成する種々の情報が含まれる。 "Model ID" indicates identification information for identifying a model. “Application” indicates the use of the corresponding model. "Model data" indicates data of a model. Although Figure 7 shows an example in which conceptual information such as "MDT1" is stored in "model data," in reality, various information constituting the model, such as network information and functions included in the model, is stored. included.
図7に示す例では、モデルID「M1」により識別されるモデル(モデルM1)は、用途が「音声認識」であることを示す。モデルM1は、音声認識に用いられるモデルであることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。 In the example shown in FIG. 7, the model identified by the model ID "M1" (model M1) indicates that the application is "speech recognition." Model M1 indicates a model used for speech recognition. Further, the model data of model M1 is model data MDT1.
なお、モデル情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、モデル情報記憶部121は、学習処理により学習(生成)されたモデルのパラメータ情報を記憶する。なお、モデルの学習を他の装置(学習装置等)が行う場合は、サーバ装置100は、モデル情報記憶部121を有しなくてもよい。
Note that the model
(学習用データ情報記憶部122)
実施形態に係る学習用データ情報記憶部122は、学習に用いるデータに関する各種情報を記憶する。学習用データ情報記憶部122は、学習に用いるデータセットを記憶する。図8は、実施形態に係る学習用データ情報記憶部の一例を示す図である。例えば、学習用データ情報記憶部122は、学習に用いる学習用データや精度評価(算出)に用いる評価用データ等の種々のデータに関する各種情報を記憶する。図8に、実施形態に係る学習用データ情報記憶部122の一例を示す。図8の例では、学習用データ情報記憶部122は、「データセットID」、「データID」、「データ」、「ラベル」、「日時」といった項目が含まれる。
(Learning data information storage unit 122)
The learning data information storage unit 122 according to the embodiment stores various information regarding data used for learning. The learning data information storage unit 122 stores data sets used for learning. FIG. 8 is a diagram illustrating an example of a learning data information storage unit according to the embodiment. For example, the learning data information storage unit 122 stores various information regarding various data such as learning data used for learning and evaluation data used for accuracy evaluation (calculation). FIG. 8 shows an example of the learning data information storage unit 122 according to the embodiment. In the example of FIG. 8, the learning data information storage unit 122 includes items such as "data set ID", "data ID", "data", "label", and "date and time".
「データセットID」は、データセットを識別するための識別情報を示す。「データID」は、データを識別するための識別情報を示す。また、「データ」は、データIDにより識別されるデータに対応するデータを示す。 "Data set ID" indicates identification information for identifying a data set. "Data ID" indicates identification information for identifying data. Further, "data" indicates data corresponding to data identified by the data ID.
「ラベル」は、対応するデータに付されるラベル(正解ラベル)を示す。例えば、「ラベル」は、対応するデータ(音声)の認識結果を示す情報(正解情報)であってもよい。例えば、「ラベル」は、ユーザの発話を示す音声データを文字データ(文字列)に変換した結果を示す正解情報である。 “Label” indicates a label (correct label) attached to corresponding data. For example, the "label" may be information (correct information) indicating the recognition result of the corresponding data (speech). For example, the "label" is correct information indicating the result of converting audio data indicating the user's utterance into character data (character string).
また、「日時」は、対応するデータに関する時間(日時)を示す。なお、図8の例では、「DA1」等で図示するが、「日時」には、「2021年8月8日15時52分14秒」等の具体的な日時であってもよいし、「バージョンXXもモデル学習から使用開始」等、そのデータがどのモデルの学習から使用が開始されたかを示す情報が記憶されてもよい。 Moreover, "date and time" indicates the time (date and time) regarding the corresponding data. In addition, in the example of FIG. 8, it is illustrated as "DA1" etc., but "date and time" may be a specific date and time such as "August 8, 2021 15:52:14", Information indicating from which model learning the data started to be used, such as "Version XX also started using from model learning" may be stored.
図8の例では、データセットID「DS1」により識別されるデータセット(データセットDS1)には、データID「DID1」、「DID2」、「DID3」等により識別される複数のデータが含まれることを示す。例えば、データID「DID1」、「DID2」、「DID3」等により識別される各データ(学習用データ)は、モデルの学習に用いられる音声情報(音声データ)等である。 In the example of FIG. 8, the data set (data set DS1) identified by the data set ID "DS1" includes a plurality of data identified by data IDs "DID1", "DID2", "DID3", etc. Show that. For example, each data (learning data) identified by data IDs "DID1", "DID2", "DID3", etc. is audio information (sound data) used for model learning.
例えば、データID「DID1」により識別されるデータDT1は、ラベルLB1が付されたラベル有りデータであり、日時DA1でのモデルの学習から使用が開始されたことを示す。また、例えば、データID「DID4」により識別されるデータDT4は、ラベル無しデータとして取集され、予測ラベルであるラベルLB4が付されたデータであり、日時DA4でのモデルの学習から使用が開始されたことを示す。 For example, the data DT1 identified by the data ID "DID1" is labeled data with a label LB1 attached thereto, indicating that its use started with model learning at date and time DA1. Furthermore, for example, data DT4 identified by data ID "DID4" is data that is collected as unlabeled data and is attached with label LB4, which is a predicted label, and its use starts from model learning at date and time DA4. indicates that it has been done.
なお、学習用データ情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、学習用データ情報記憶部122は、各データが学習用データであるか、評価用データであるか等を特定可能に記憶してもよい。例えば、学習用データ情報記憶部122は、学習用データと評価用データとを区別可能に記憶する。学習用データ情報記憶部122は、各データが学習用データや評価用データであるかを識別する情報を記憶してもよい。サーバ装置100は、学習用データとして用いられる各データと正解情報とに基づいて、モデルを学習する。サーバ装置100は、評価用データとして用いられる各データと正解情報とに基づいて、モデルの精度を算出する。サーバ装置100は、評価用データを入力した場合にモデルが出力する出力結果と、正解情報とを比較した結果を収集することにより、モデルの精度を算出する。
Note that the learning data information storage unit 122 is not limited to the above, and may store various information depending on the purpose. For example, the learning data information storage unit 122 may store information such as whether each piece of data is learning data or evaluation data in such a manner that it can be specified. For example, the learning data information storage unit 122 stores learning data and evaluation data in a distinguishable manner. The learning data information storage unit 122 may store information that identifies whether each data is learning data or evaluation data. The
(制御部130)
図6に戻り、説明を続ける。制御部130は、コントローラ(Controller)であり、例えば、CPU、MPU、ASIC、FPGA等によって、サーバ装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。
(Control unit 130)
Returning to FIG. 6, the explanation will be continued. The control unit 130 is a controller, and various programs (corresponding to an example of an information processing program) stored in a storage device inside the
図6に示す例では、制御部130は、取得部131と、決定部132と、学習部133と、送信部134とを有する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 In the example shown in FIG. 6, the control unit 130 includes an acquisition unit 131, a determination unit 132, a learning unit 133, and a transmission unit 134. Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 3, and may be any other configuration as long as it performs information processing to be described later.
(取得部131)
取得部131は、通信部110を介して、外部の情報処理装置から各種情報を受信する。取得部131は、端末装置10から各種情報を受信する。取得部131は、端末装置10から受信した音声に関する情報を記憶部120へ格納する。取得部131は、端末装置10から受信した音声に関する情報を、モデルの学習に用いるデータ(学習データ)として学習用データ情報記憶部122に登録する。
(Acquisition unit 131)
The acquisition unit 131 receives various information from an external information processing device via the communication unit 110. The acquisition unit 131 receives various information from the
取得部131は、各種情報を取得する。取得部131は、記憶部120から各種情報を取得する。取得部131は、モデル情報記憶部121や学習用データ情報記憶部122から各種情報を取得する。
The acquisition unit 131 acquires various information. The acquisition unit 131 acquires various information from the storage unit 120. The acquisition unit 131 acquires various information from the model
(決定部132)
決定部132は、各種情報を決定する。例えば、決定部132は、取得部131により外部装置から取得された各種情報に基づいて、各種情報を決定する。例えば、決定部132は、端末装置10から取得された各種情報に基づいて、各種情報を決定する。
(Decision unit 132)
The determining unit 132 determines various information. For example, the determining unit 132 determines various pieces of information based on various pieces of information acquired by the acquiring unit 131 from an external device. For example, the determining unit 132 determines various information based on various information acquired from the
決定部132は、端末装置10に提供を要求する情報に関する条件を決定する。例えば、決定部132は、記憶部120に記憶された情報に基づいて、端末装置10に提供を要求する情報に関する条件を決定する。
The determining unit 132 determines conditions regarding information that the
(学習部133)
学習部133は、各種情報を学習する。学習部133は、外部の情報処理装置からの情報や記憶部120に記憶された情報に基づいて、各種情報を学習する。学習部133は、学習用データ情報記憶部122に記憶された情報に基づいて、各種情報を学習する。学習部133は、学習により生成したモデルをモデル情報記憶部121に格納する。学習部133は、学習により更新したモデルをモデル情報記憶部121に格納する。
(Learning Department 133)
The learning unit 133 learns various information. The learning unit 133 learns various information based on information from an external information processing device and information stored in the storage unit 120. The learning unit 133 learns various information based on the information stored in the learning data information storage unit 122. The learning unit 133 stores the model generated through learning in the model
学習部133は、学習処理を行う。学習部133は、各種学習を行う。学習部133は、取得部131により取得された情報に基づいて、各種情報を学習する。学習部133は、モデルを学習(生成)する。学習部133は、モデル等の各種情報を学習する。学習部133は、学習によりモデルを生成する。学習部133は、種々の機械学習に関する技術を用いて、モデルを学習する。例えば、学習部133は、モデル(ネットワーク)のパラメータを学習する。学習部133は、種々の機械学習に関する技術を用いて、モデルを学習する。 The learning unit 133 performs learning processing. The learning unit 133 performs various types of learning. The learning unit 133 learns various information based on the information acquired by the acquisition unit 131. The learning unit 133 learns (generates) a model. The learning unit 133 learns various information such as models. The learning unit 133 generates a model through learning. The learning unit 133 learns the model using various machine learning techniques. For example, the learning unit 133 learns parameters of a model (network). The learning unit 133 learns the model using various machine learning techniques.
学習部133は、モデルM1を生成する。学習部133は、ネットワークのパラメータを学習する。例えば、学習部133は、モデルM1のネットワークのパラメータを学習する。 The learning unit 133 generates a model M1. The learning unit 133 learns network parameters. For example, the learning unit 133 learns the parameters of the network of model M1.
学習部133は、学習用データ情報記憶部122に記憶された学習用データ(教師データ)に基づいて、学習処理を行う。学習部133は、学習用データ情報記憶部122に記憶された学習用データを用いて、学習処理を行うことにより、モデルM1を生成する。例えば、学習部133は、音声認識に用いられるモデルを生成する。学習部133は、モデルM1のネットワークのパラメータを学習することにより、モデルM1を生成する。 The learning unit 133 performs learning processing based on the learning data (teacher data) stored in the learning data information storage unit 122. The learning unit 133 generates the model M1 by performing a learning process using the learning data stored in the learning data information storage unit 122. For example, the learning unit 133 generates a model used for speech recognition. The learning unit 133 generates the model M1 by learning the parameters of the network of the model M1.
学習部133による学習の手法は特に限定されないが、例えば、ラベルとデータ(画像)とを紐づけた学習用データを用意し、その学習用データを多層ニューラルネットワークに基づいた計算モデルに入力して学習してもよい。また、例えばCNN(Convolutional Neural Network)、3D-CNN等のDNN(Deep Neural Network)に基づく手法が用いられてもよい。学習部133は、音声等のような時系列データを対象とする場合、再帰型ニューラルネットワーク(Recurrent Neural Network:RNN)やRNNを拡張したLSTM(Long Short-Term Memory units)に基づく手法を用いてもよい。なお、モデルの学習を他の装置(学習装置等)が行う場合は、サーバ装置100は、学習部133を有しなくてもよい。
The learning method by the learning unit 133 is not particularly limited, but for example, training data in which labels and data (images) are linked is prepared, and the learning data is input to a calculation model based on a multilayer neural network. You can learn it. Further, for example, a method based on a DNN (Deep Neural Network) such as a CNN (Convolutional Neural Network) or a 3D-CNN may be used. When processing time series data such as audio, the learning unit 133 uses a method based on a recurrent neural network (RNN) or an extended RNN called LSTM (Long Short-Term Memory units). Good too. Note that if another device (such as a learning device) performs model learning, the
(送信部134)
送信部134は、通信部110を介して、各種情報を端末装置10へ送信する。送信部134は、端末装置10が自装置内で音声認識を行うために用いる音声認識モデルを端末装置10へ送信する。送信部134は、モデルM1を端末装置10に提供する。
(Transmission unit 134)
The transmitting unit 134 transmits various information to the
送信部134は、端末装置10に情報送信を要求する音声を指定する所定の条件を示す情報を、端末装置10に送信する。送信部134は、決定部132により決定された条件を示す情報を、端末装置10に送信する。送信部134は、他の装置(学習装置等)に収集したデータを送信してもよい。
The transmitting unit 134 transmits to the
〔5.処理手順〕
次に、図9を用いて実施形態に係る端末装置10による処理手順について説明する。図9は、実施形態に係る処理手順を示すフローチャートである。
[5. Processing procedure]
Next, a processing procedure by the
図9に示すように、端末装置10は、ユーザが発話した音声と発話の音声認識による認識結果とを対応付けて自装置内の記憶部120に収集する(ステップS101)。
As shown in FIG. 9, the
そして、端末装置10は、収集した音声が所定の条件を満たす場合、ユーザの許諾に応じて、音声に関する情報をサーバ装置100に送信する(ステップS102)。
Then, if the collected voice satisfies a predetermined condition, the
〔6.効果〕
上述してきたように、本願に係る端末装置10は、ユーザに利用され、自装置で音声認識を行う端末装置10であり、収集部153と、送信部157とを有する。収集部153は、ユーザが発話した音声と発話の音声認識による認識結果とを対応付けて自装置内の記憶部14に収集する。送信部157は、収集部153により収集された音声が所定の条件を満たす場合、ユーザの許諾に応じて、音声に関する情報をサーバ装置100に送信する。
[6. effect〕
As described above, the
このように、端末装置10は、自装置内でユーザの発話の音声の音声認識行い、その音声に関する情報を、条件を満たしかつユーザが許諾した場合にサーバ装置100に送信する。これにより、端末装置10は、端末装置10が音声認識を行う場合であっても、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。
In this way, the
また、端末装置10において、送信部157は、音声のデータをサーバ装置100に送信する。このように、端末装置10は、音声のデータをサーバ装置100へ送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。
Furthermore, in the
また、端末装置10において、送信部157は、音声の波形データをサーバ装置100に送信する。このように、端末装置10は、音声の波形データをサーバ装置100へ送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。
Furthermore, in the
また、端末装置10において、送信部157は、音声のデータを圧縮したデータをサーバ装置100に送信する。このように、端末装置10は、音声のデータを圧縮したデータをサーバ装置100へ送信することにより、通信量の増大を抑制しつつ、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。
Furthermore, in the
また、端末装置10において、送信部157は、音声から抽出した特徴情報をサーバ装置100に送信する。このように、端末装置10は、音声のデータを圧縮したデータをサーバ装置100へ送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。
Furthermore, in the
また、端末装置10において、送信部157は、収集部153により収集された音声の数が所定数以上である場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、収集した音声の数が所定数以上になった場合に、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。
Further, in the
また、端末装置10において、送信部157は、収集部153により収集された音声の音声認識に関するスコアが所定の条件を満たす場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、収集した音声の音声認識に関するスコアが所定の条件を満たす場合に、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。
Furthermore, in the
また、端末装置10において、送信部157は、収集部153により収集された音声がノイズに関する条件を満たす場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、収集した音声がノイズに関する条件を満たす場合に、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。
Furthermore, in the
また、端末装置10において、送信部157は、収集部153により収集された音声に対応する発話が所定の内容を含む場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、音声に対応する発話が所定の内容を含む場合に、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。
Furthermore, in the
また、端末装置10において、送信部157は、サーバ装置100により指定された所定の条件を満たす場合、許諾に応じて音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、サーバ装置100により指定された条件を満たす場合に、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。
Furthermore, in the
また、端末装置10は、受付部155を有する。受付部155は、ユーザによる許諾を受け付ける。このように、端末装置10は、ユーザによる許諾を受け付けることにより、ユーザの許諾があった場合にのみ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。
The
また、端末装置10において、送信部157は、受付部155によりユーザの許諾が受け付けられた後、所定のタイミングで音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、ユーザの許諾後の所定のタイミングで、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切なタイミングで送信することができる。
Further, in the
また、端末装置10において、送信部157は、通信環境が所定の通信条件を満たしている間に、音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、通信環境が所定の通信条件を満たしている間に、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切なタイミングで送信することができる。
Furthermore, in the
また、端末装置10において、送信部157は、ユーザによる端末装置の利用率が低いタイミングで、音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、ユーザによる端末装置10の利用率が低いタイミングで、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切なタイミングで送信することができる。
Furthermore, in the
また、端末装置10は、通知部154を有する。通知部154は、サーバ装置100へ送信する候補となる音声に関する情報をユーザに通知する。このように、端末装置10は、サーバ装置100へ送信する候補となる音声に関する情報をユーザに通知することにより、ユーザにどのような情報がサーバ装置100へ送信されるのかを認識させることができる。
The
また、端末装置10において、送信部157は、通知部154により通知された候補のうち、ユーザが許諾した音声に関する情報をサーバ装置100に送信する。このように、端末装置10は、ユーザに候補を通知し、その中でユーザが許諾した音声について、サーバ装置100へ音声に関する情報を送信することにより、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。
Furthermore, in the
また、端末装置10において、通知部154は、音声に関する情報がサーバ装置100へ送信された場合にユーザに提供されるインセンティブを示す情報を通知する。このように、端末装置10は、情報提供の対価としてユーザに提供されるインセンティブをユーザに知らせることにより、ユーザが情報提供を行う動機づけを与えることができ、端末装置10から他の装置へ送信される情報量を増大させることができる。
Furthermore, in the
上述してきたように、本願に係る情報処理システム1は、ユーザに利用され、自装置で音声認識を行う端末装置10と、サーバ装置100と、を有する。サーバ装置100は、端末装置10に情報送信を要求する音声を指定する所定の条件を示す情報を、端末装置10に送信する。端末装置10は、サーバ装置100から受信した所定の条件を満たす音声に関する情報を、ユーザの許諾に応じて、サーバ装置100に送信する。
As described above, the
このように、情報処理システム1は、ユーザが利用する端末装置10が自装置内でユーザの発話の音声の音声認識行い、サーバ装置100から指定された条件を満たす音声に関する情報を、端末装置10がサーバに送信する。これにより、情報処理システム1は、端末装置10が音声認識を行う場合であっても、端末装置10で収集される音声に関する情報を他の装置へ適切に送信することができる。
In this way, in the
〔7.ハードウェア構成〕
また、上述した実施形態に係る端末装置10やサーバ装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、サーバ装置100を例に挙げて説明する。図10は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[7. Hardware configuration]
Further, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。
The
一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USBメモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。
The primary storage device 1040 is a memory device such as a RAM (Random Access Memory) that temporarily stores data used by the
出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェイスであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェイスであり、例えば、USB等により実現される。
The output I/
また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。
Further, the output I/
また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。
Moreover, the output device 1010 and the input device 1020 may be integrated like a touch panel. In this case, the output I/
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。 Note that the input device 1020 is, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), or a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like.
ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
Network I/
演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000がサーバ装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。
For example, when the
〔8.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[8. others〕
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. Furthermore, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that are in a so-called equivalent range. Furthermore, the aforementioned components can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the constituent elements can be made without departing from the gist of the embodiments described above.
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be performed automatically using known methods. In addition, the processing procedures, specific names, and information including various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Further, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.
例えば、上述したサーバ装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。
For example, the
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and modifications can be combined as appropriate within a range that does not conflict with the processing contents.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.
1 情報処理システム
10 端末装置
11 通信部
12 入力部
13 出力部
14 記憶部
141 モデル情報記憶部
142 収集情報記憶部
15 制御部
151 受信部
152 音声認識部
153 収集部
154 通知部
155 受付部
156 判定部
157 送信部
16 センサ部
161 音声センサ
100 サーバ装置
110 通信部
120 記憶部
121 モデル情報記憶部
122 学習用データ情報記憶部
130 制御部
131 取得部
132 決定部
133 学習部
134 送信部
1
Claims (20)
前記ユーザが発話した音声と前記発話の前記音声認識による認識結果とを対応付けて自装置内の記憶部に収集する収集部と、
前記収集部により収集された前記音声が所定の条件を満たす場合、前記ユーザの許諾に応じて、前記音声に関する情報をサーバ装置に送信する送信部と、
を備えることを特徴とする端末装置。 A terminal device that is used by a user and performs voice recognition on its own,
a collection unit that associates the voice uttered by the user with the recognition result of the voice recognition of the utterance and collects it in a storage unit within the own device;
a transmitting unit that transmits information regarding the voice to a server device in accordance with the user's consent if the voice collected by the collection unit satisfies a predetermined condition;
A terminal device comprising:
前記音声のデータを前記サーバ装置に送信する
ことを特徴とする請求項1に記載の端末装置。 The transmitter includes:
The terminal device according to claim 1, wherein the audio data is transmitted to the server device.
前記音声の波形データを前記サーバ装置に送信する
ことを特徴とする請求項1または請求項2に記載の端末装置。 The transmitter includes:
The terminal device according to claim 1 or 2, wherein the audio waveform data is transmitted to the server device.
前記音声のデータを圧縮したデータを前記サーバ装置に送信する
ことを特徴とする請求項1~3のいずれか1項に記載の端末装置。 The transmitter includes:
The terminal device according to any one of claims 1 to 3, wherein data obtained by compressing the audio data is transmitted to the server device.
前記音声から抽出した特徴情報を前記サーバ装置に送信する
ことを特徴とする請求項1~4のいずれか1項に記載の端末装置。 The transmitter includes:
The terminal device according to any one of claims 1 to 4, characterized in that the feature information extracted from the voice is transmitted to the server device.
前記収集部により収集された前記音声の数が所定数以上である場合、前記許諾に応じて前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項1~5のいずれか1項に記載の端末装置。 The transmitter includes:
If the number of the voices collected by the collection unit is equal to or greater than a predetermined number, information regarding the voices is transmitted to the server device in accordance with the permission. The terminal device described in .
前記収集部により収集された前記音声の前記音声認識に関するスコアが所定の条件を満たす場合、前記許諾に応じて前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項1~6のいずれか1項に記載の端末装置。 The transmitter includes:
If the score regarding the voice recognition of the voice collected by the collection unit satisfies a predetermined condition, the information regarding the voice is transmitted to the server device in accordance with the permission. The terminal device according to any one of the items.
前記収集部により収集された前記音声がノイズに関する条件を満たす場合、前記許諾に応じて前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項1~7のいずれか1項に記載の端末装置。 The transmitter includes:
According to any one of claims 1 to 7, when the voice collected by the collection unit satisfies a condition regarding noise, information regarding the voice is transmitted to the server device in accordance with the permission. terminal device.
前記収集部により収集された前記音声に対応する発話が所定の内容を含む場合、前記許諾に応じて前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項1~8のいずれか1項に記載の端末装置。 The transmitter includes:
Any one of claims 1 to 8, characterized in that when the utterance corresponding to the voice collected by the collection unit includes predetermined content, information regarding the voice is transmitted to the server device in accordance with the permission. The terminal device according to item 1.
前記サーバ装置により指定された前記所定の条件を満たす場合、前記許諾に応じて前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項1~9のいずれか1項に記載の端末装置。 The transmitter includes:
The terminal according to any one of claims 1 to 9, wherein if the predetermined condition specified by the server device is satisfied, information regarding the audio is transmitted to the server device in accordance with the permission. Device.
を備えることを特徴とする請求項1~10のいずれか1項に記載の端末装置。 a reception unit that receives the permission from the user;
The terminal device according to any one of claims 1 to 10, comprising:
前記受付部により前記ユーザの前記許諾が受け付けられた後、所定のタイミングで前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項11に記載の端末装置。 The transmitter includes:
The terminal device according to claim 11, wherein the information regarding the audio is transmitted to the server device at a predetermined timing after the permission from the user is accepted by the reception unit.
通信環境が所定の通信条件を満たしている間に、前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項12に記載の端末装置。 The transmitter includes:
The terminal device according to claim 12, wherein the information regarding the voice is transmitted to the server device while a communication environment satisfies predetermined communication conditions.
前記ユーザによる前記端末装置の利用率が低いタイミングで、前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項12または請求項13に記載の端末装置。 The transmitter includes:
The terminal device according to claim 12 or 13, wherein the information regarding the audio is transmitted to the server device at a timing when the usage rate of the terminal device by the user is low.
をさらに備えることを特徴とする請求項1~14のうちいずれか1つに記載の端末装置。 a notification unit that notifies the user of information regarding the voice that is a candidate to be transmitted to the server device;
The terminal device according to any one of claims 1 to 14, further comprising the following.
前記通知部により通知された前記候補のうち、前記ユーザが許諾した前記音声に関する情報を前記サーバ装置に送信する
ことを特徴とする請求項15に記載の端末装置。 The transmitter includes:
16. The terminal device according to claim 15, wherein information regarding the voice approved by the user among the candidates notified by the notification unit is transmitted to the server device.
前記音声に関する情報が前記サーバ装置へ送信された場合に前記ユーザに提供されるインセンティブを示す情報を通知する
ことを特徴とする請求項15または請求項16に記載の端末装置。 The notification section is
The terminal device according to claim 15 or 16, wherein information indicating an incentive provided to the user is notified when the information regarding the voice is transmitted to the server device.
前記ユーザが発話した音声と前記発話の前記音声認識による認識結果とを対応付けて自装置内の記憶部に収集する収集工程と、
前記収集工程により収集された前記音声が所定の条件を満たす場合、前記ユーザの許諾に応じて、前記音声に関する情報をサーバ装置に送信する送信工程と、
を含むことを特徴とする送信方法。 A transmission method executed by a terminal device that is used by a user and performs voice recognition on its own device,
a collection step of associating the voice uttered by the user with the recognition result of the voice recognition of the utterance and collecting it in a storage unit within the own device;
If the voice collected in the collecting step satisfies a predetermined condition, a transmitting step of transmitting information regarding the voice to a server device according to the user's permission;
A transmission method characterized by comprising:
前記ユーザが発話した音声と前記発話の前記音声認識による認識結果とを対応付けて自装置内の記憶部に収集する収集手順と、
前記収集手順により収集された前記音声が所定の条件を満たす場合、前記ユーザの許諾に応じて、前記音声に関する情報をサーバ装置に送信する送信手順と、
を端末装置に実行させることを特徴とする送信プログラム。 A transmission program executed by a terminal device used by a user and performing voice recognition on its own device,
a collection procedure of associating the voice uttered by the user with the recognition result of the voice recognition of the utterance and collecting it in a storage unit within the own device;
a transmission procedure of transmitting information regarding the voice to a server device in accordance with the user's consent if the voice collected by the collection procedure satisfies a predetermined condition;
A transmission program that causes a terminal device to execute.
サーバ装置と、
を有し、
前記サーバ装置は、
前記端末装置に情報送信を要求する音声を指定する所定の条件を示す情報を、前記端末装置に送信し、
前記端末装置は、
前記サーバ装置から受信した前記所定の条件を満たす音声に関する情報を、前記ユーザの許諾に応じて、前記サーバ装置に送信する
ことを特徴とする情報処理システム。 A terminal device that is used by a user and performs voice recognition on its own,
a server device;
has
The server device includes:
transmitting to the terminal device information indicating a predetermined condition specifying a voice requesting the terminal device to transmit information;
The terminal device is
An information processing system characterized in that information regarding audio that satisfies the predetermined condition received from the server device is transmitted to the server device in accordance with permission from the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021132964A JP7430672B2 (en) | 2021-08-17 | 2021-08-17 | Terminal device, transmission method, transmission program and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021132964A JP7430672B2 (en) | 2021-08-17 | 2021-08-17 | Terminal device, transmission method, transmission program and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023027697A JP2023027697A (en) | 2023-03-02 |
JP7430672B2 true JP7430672B2 (en) | 2024-02-13 |
Family
ID=85330456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021132964A Active JP7430672B2 (en) | 2021-08-17 | 2021-08-17 | Terminal device, transmission method, transmission program and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7430672B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7352249B1 (en) * | 2023-05-10 | 2023-09-28 | 株式会社Fronteo | Information processing device, information processing system, and information processing method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010139843A (en) | 2008-12-12 | 2010-06-24 | Yahoo Japan Corp | Voice information collection device, and method and program for the same |
US20150287401A1 (en) | 2012-11-05 | 2015-10-08 | Nuance Communications, Inc. | Privacy-sensitive speech model creation via aggregation of multiple user models |
-
2021
- 2021-08-17 JP JP2021132964A patent/JP7430672B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010139843A (en) | 2008-12-12 | 2010-06-24 | Yahoo Japan Corp | Voice information collection device, and method and program for the same |
US20150287401A1 (en) | 2012-11-05 | 2015-10-08 | Nuance Communications, Inc. | Privacy-sensitive speech model creation via aggregation of multiple user models |
Also Published As
Publication number | Publication date |
---|---|
JP2023027697A (en) | 2023-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11367434B2 (en) | Electronic device, method for determining utterance intention of user thereof, and non-transitory computer-readable recording medium | |
US11521038B2 (en) | Electronic apparatus and control method thereof | |
US10909982B2 (en) | Electronic apparatus for processing user utterance and controlling method thereof | |
US10643620B2 (en) | Speech recognition method and apparatus using device information | |
CN104704556B (en) | Mapping audio utterances to actions using a classifier | |
US10521723B2 (en) | Electronic apparatus, method of providing guide and non-transitory computer readable recording medium | |
US20190019509A1 (en) | Voice data processing method and electronic device for supporting the same | |
US10586528B2 (en) | Domain-specific speech recognizers in a digital medium environment | |
US20230036080A1 (en) | Device and method for providing recommended words for character input | |
US11769492B2 (en) | Voice conversation analysis method and apparatus using artificial intelligence | |
KR102701423B1 (en) | Electronic device for performing speech recognition and the method for the same | |
CN109671435B (en) | Method and apparatus for waking up smart device | |
US11881209B2 (en) | Electronic device and control method | |
US20200020327A1 (en) | Method and apparatus for recognizing a voice | |
JP6892426B2 (en) | Learning device, detection device, learning method, learning program, detection method, and detection program | |
CN112740327B (en) | Algorithm determination of interruption of reading by story readers | |
US11568875B2 (en) | Artificial intelligence apparatus and method for recognizing plurality of wake-up words | |
US20200111025A1 (en) | Electronic apparatus and control method thereof | |
US20220237915A1 (en) | Electronic apparatus and controlling method thereof | |
CN111414512A (en) | Resource recommendation method and device based on voice search and electronic equipment | |
JP7430672B2 (en) | Terminal device, transmission method, transmission program and information processing system | |
US11862178B2 (en) | Electronic device for supporting artificial intelligence agent services to talk to users | |
EP3790005A1 (en) | Electronic apparatus and control method thereof | |
KR20200040562A (en) | System for processing user utterance and operating method thereof | |
JP7408518B2 (en) | Information processing device, information processing method, information processing program, terminal device, inference method, and inference program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230315 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20231026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7430672 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |