JP2020154140A - Speech processing apparatus, agent system, program, and speech processing method - Google Patents
Speech processing apparatus, agent system, program, and speech processing method Download PDFInfo
- Publication number
- JP2020154140A JP2020154140A JP2019052608A JP2019052608A JP2020154140A JP 2020154140 A JP2020154140 A JP 2020154140A JP 2019052608 A JP2019052608 A JP 2019052608A JP 2019052608 A JP2019052608 A JP 2019052608A JP 2020154140 A JP2020154140 A JP 2020154140A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- agent
- data
- voice data
- authentication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000006243 chemical reaction Methods 0.000 claims abstract description 29
- 238000004891 communication Methods 0.000 claims description 42
- 230000004044 response Effects 0.000 claims description 14
- 238000000034 method Methods 0.000 description 20
- 238000013523 data management Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
Images
Landscapes
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、音声処理装置、エージェントシステム、音声処理プログラム、および、音声処理方法に関し、例えば、音声によってサーバ上のエージェントに対して何らかの指示を行い、結果を音声で返すシステムに関して記載したものである。 The present invention describes a voice processing device, an agent system, a voice processing program, and a voice processing method, for example, a system that gives some instruction to an agent on a server by voice and returns a result by voice. ..
近年、利用者が行う仕事(例えば、検索)を、利用者に代わって行うエージェントサービスに関する技術が盛んに行われている。エージェントサービスを実現するエージェントシステムについては、従来では、利用者からエージェント装置へリクエストを行うと、予めエージェント装置内に登録されているサーバへのアクセスアカウントを用いてサーバへアクセスし、同じエージェント装置では利用者の区別を行わない第1の方式や、エージェントシステムのエージェント装置ごとに予め複数の利用者を登録し、エージェント装置に設定されたアカウントでサーバにアクセスした後に、サーバでさらに生体情報等を利用して登録利用者を検出するという第2の方式があった。 In recent years, technologies related to agent services that perform work (for example, search) performed by a user on behalf of the user have been actively performed. Conventionally, when a user makes a request to an agent device, an agent system that realizes an agent service accesses the server using an access account to the server registered in the agent device in advance, and the same agent device uses the same agent system. The first method that does not distinguish between users, or after registering multiple users in advance for each agent device of the agent system and accessing the server with the account set in the agent device, further biometric information etc. is stored on the server. There was a second method of using it to detect registered users.
第1の方式では、エージェント装置ごとにサーバへのアクセスアカウントがつけられる。しかしながら、第1の方式では、利用者からの指示に対するサーバからの回答の内容は、所定の箇所(例:エージェント装置の周辺)に設置された機器に括りつけられることになる。換言すれば、サーバからの回答の内容は、利用者が利用する機器に、および、当該利用者に固有の回答となる。このため、利用者が使用可能なエージェント装置に対して、利用者本人のアカウントとは別のアカウントが登録されている場合、利用者が普段使用している同等のエージェント装置から指示した場合とは異なる回答が返ってくる等の動作が発生してしまい不便である。 In the first method, an access account to the server is assigned to each agent device. However, in the first method, the content of the response from the server to the instruction from the user is bound to the device installed at a predetermined location (eg, around the agent device). In other words, the content of the reply from the server is a reply unique to the device used by the user and to the user. For this reason, when an account other than the user's own account is registered for the agent device that can be used by the user, and when instructed by the equivalent agent device that the user normally uses, It is inconvenient because operations such as returning different answers occur.
また、第2の方式では、エージェント装置ごとの登録処理自体が大きな手間である。このため、第2の方式は、自宅等での使用であればともかく、不特定多数が使用可能な共用のエージェント装置に適用するには現実的ではない。 Further, in the second method, the registration process itself for each agent device is a great trouble. Therefore, the second method is not realistic to be applied to a shared agent device that can be used by an unspecified number of people, regardless of whether it is used at home or the like.
上記事情に鑑みて、本発明は、エージェントサービスを利用する不特定多数の利用者の各々に、当該利用者に紐づいた回答を返すことを課題とする。 In view of the above circumstances, it is an object of the present invention to return an answer associated with each of the unspecified number of users who use the agent service.
前記課題を解決するため、本発明の音声処理装置は、入力された音声と音声データを相互に変換する音声データ変換部と、エージェントサーバにアクセスするための認証データを無線通信装置から受信する無線通信装置認証部と、前記音声データ変換部で変換された音声データ、および、前記無線通信装置認証部が受信した認証データを前記エージェントサーバに送信し、前記音声データの指示内容に対する回答を前記エージェントサーバから取得するエージェントサービスアクセス部と、を備える、ことを特徴とする。 In order to solve the above problems, the voice processing device of the present invention has a voice data conversion unit that mutually converts input voice and voice data, and a radio that receives authentication data for accessing an agent server from a wireless communication device. The communication device authentication unit, the voice data converted by the voice data conversion unit, and the authentication data received by the wireless communication device authentication unit are transmitted to the agent server, and the agent responds to the instruction content of the voice data. It is characterized by having an agent service access unit acquired from a server.
また、本発明は、音声処理装置とエージェントサーバとを備えるエージェントシステムであって、前記音声処理装置は、入力された音声と音声データを相互に変換する音声データ変換部と、前記エージェントサーバにアクセスするための認証データを無線通信装置から受信する無線通信装置認証部と、前記音声データ変換部で変換された音声データ、および、前記無線通信装置認証部が受信した認証データを前記エージェントサーバに送信し、前記音声データの指示内容に対する回答を前記エージェントサーバから取得するエージェントサービスアクセス部と、を備える、ことを特徴とする。 Further, the present invention is an agent system including a voice processing device and an agent server, and the voice processing device accesses a voice data conversion unit that mutually converts input voice and voice data and the agent server. The wireless communication device authentication unit that receives the authentication data for receiving the authentication data from the wireless communication device, the voice data converted by the voice data conversion unit, and the authentication data received by the wireless communication device authentication unit are transmitted to the agent server. It is characterized by including an agent service access unit that acquires an answer to the instruction content of the voice data from the agent server.
また、本発明は、音声処理装置のコンピュータを、入力された音声と音声データを相互に変換する音声データ変換部、エージェントサーバにアクセスするための認証データを無線通信装置から受信する無線通信装置認証部、前記音声データ変換部で変換された音声データ、および、前記無線通信装置認証部が受信した認証データを前記エージェントサーバに送信し、前記音声データの指示内容に対する回答を前記エージェントサーバから取得するエージェントサービスアクセス部、として機能させるためのプログラムである。 Further, according to the present invention, the computer of the voice processing device receives authentication data for accessing the voice data conversion unit and the agent server that mutually convert the input voice and the voice data from the wireless communication device. The unit, the voice data converted by the voice data conversion unit, and the authentication data received by the wireless communication device authentication unit are transmitted to the agent server, and a response to the instruction content of the voice data is acquired from the agent server. It is a program to function as an agent service access unit.
また、本発明は、音声処理装置における音声処理方法であって、前記音声処理装置は、入力された音声と音声データを相互に変換する音声データ変換ステップと、エージェントサーバにアクセスするための認証データを無線通信装置から受信する無線通信装置認証ステップと、前記音声データ変換ステップで変換された音声データ、および、前記無線通信装置認証ステップで受信した認証データを前記エージェントサーバに送信し、前記音声データの指示内容に対する回答を前記エージェントサーバから取得するエージェントサービスアクセスステップと、を実行する、ことを特徴とする。 Further, the present invention is a voice processing method in a voice processing device, wherein the voice processing device has a voice data conversion step for mutually converting input voice and voice data, and authentication data for accessing an agent server. Is transmitted from the wireless communication device to the agent server, the wireless communication device authentication step, the voice data converted in the voice data conversion step, and the authentication data received in the wireless communication device authentication step are transmitted to the voice data. It is characterized in that the agent service access step of acquiring the answer to the instruction content of the above from the agent server is executed.
本発明によれば、エージェントサービスを利用する不特定多数の利用者の各々に、当該利用者に紐づいた回答を返すことができる。 According to the present invention, it is possible to return an answer associated with each of the unspecified number of users who use the agent service.
以下、本発明の実施形態を、適宜図面を参照しながら詳細に説明する。
各図は、本発明を十分に理解できる程度に、概略的に示してあるに過ぎない。よって、本発明は、図示例のみに限定されるものではない。また、本実施形態では、本発明と直接的に関連しない構成や周知な構成については、説明を省略する場合がある。なお、各図において、共通する構成要素や同様な構成要素については、同一の符号を付し、それらの重複する説明を省略する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
Each figure is only schematically shown to the extent that the present invention can be fully understood. Therefore, the present invention is not limited to the illustrated examples. Further, in the present embodiment, description may be omitted for configurations that are not directly related to the present invention and well-known configurations. In each figure, common components and similar components are designated by the same reference numerals, and duplicate description thereof will be omitted.
≪構成≫
図1に示すように、本実施形態のエージェントシステムは、エージェント装置100と、エージェントサーバ300と、アクセスポイント400とを備える。図1に示すモバイル端末200,200−1〜200−3の各々は、エージェントシステムが提供するエージェントサービスを利用する利用者が所持する端末である。アクセスポイント400は、例えば、無線LAN(Local Area Network)のルータとすることができるが、これに限定されない。アクセスポイント400は、モバイル端末200,200−1〜200−3が、エージェント装置100と通信可能に接続するための、および通信ネットワークを介してエージェントサーバ300と通信可能に接続するための接続点であるが、本発明に必須の構成ではない。図1に示す通信ネットワークは、例えば、インターネットであるが、これに限定されない。
≪Composition≫
As shown in FIG. 1, the agent system of the present embodiment includes an
(エージェント装置)
エージェント装置100は、利用者から入力された音声を処理する音声処理装置である。また、エージェント装置100は、利用者からの音声の指示に対する回答を音声で出力する音声入出力端末である。エージェント装置100は、例えば、スマートスピーカや感情認識ヒューマノイドロボットとすることができるが、これらに限定されない。エージェント装置100は、通信ネットワークを介してエージェントサーバ300と通信可能に接続されている。エージェント装置100は、マイク101と、スピーカ102と、音声データ変換部103と、モバイル端末認証部104(無線通信装置認証部)と、エージェントサービスアクセス部105とを備える。
(Agent device)
The
マイク101は、エージェント装置100の周囲の音声を収集する。
スピーカ102は、音声を出力する。
The microphone 101 collects sounds around the
The
音声データ変換部103は、マイク101から取得した音声を音声データに変換する。また、音声データ変換部103は、音声データを音声に変換し、スピーカ102から出力させる。なお、音声から音声データへの変換、および、音声データから音声への変換の技術は、周知技術とすることができ、説明を省略する。
The voice
モバイル端末認証部104は、エージェント装置100の周辺に存在するモバイル端末200,200−1〜200−3や、通信の相手先となる通信機器(図示せず)とデータの送受信をする。
The mobile
エージェントサービスアクセス部105は、エージェント装置100がエージェントサーバ300にアクセスするためのインタフェースである。エージェントサービスアクセス部105は、音声入力された利用者の指示をエージェントサーバ300に送ったり、指示に対する回答をエージェントサーバ300から取得したりすることができる。
The agent
(モバイル端末)
モバイル端末200は、無線通信装置の例である。モバイル端末200は、例えば、スマートフォンやタブレット端末とすることができるが、これらに限定されない。モバイル端末200は、音声認証部201と、認証データ管理部202とを備える。モバイル端末200−1〜200−3は、本発明の特徴部分に関しては、モバイル端末200と同等の機能を備えるため、モバイル端末200についてのみ説明する。
(mobile computer)
The
音声認証部201は、音声データ変換部103が変換した音声データからモバイル端末200の所有者(利用者)か否かを認識する。
認証データ管理部202は、モバイル端末200の利用者個人がエージェントサービスを利用するための認証データを記憶して管理する。
The
The authentication
(エージェントサーバ)
エージェントサーバ300は、エージェントサービスを提供するサーバであり、例えば、クラウドサーバとすることができる。エージェントサーバ300は、エージェントサービスとして、音声データによる指示と利用者の認証データとから、利用者に合った適切な回答を返すことができる。
(Agent server)
The
≪処理≫
図2を参照して、エージェントシステムで実行される処理について説明する。事前に、利用者は、自身のモバイル端末200の音声認証部201に自身の声を音声データとして登録している。登録する声の内容は特に限定されない。また、利用者は、モバイル端末200を持ち歩き、エージェント装置100の付近に移動する。これにより、モバイル端末200は、エージェントシステム使用時には、エージェント装置100と同一のネットワークが占めるエリア(図1に示す通信ネットワークとは異なる)に入る。以降、この同一のネットワークが占めるエリアは、例えば、エージェント装置100から所定距離内となるエージェント装置100の周辺とすることができる。この同一のネットワークを、「特定通信エリア」と呼ぶ場合がある。モバイル端末200が特定通信エリア内に入ると、音声認証部201は、エージェント装置100から取得予定の音声データを受信可能な状態に切り替わる。
≪Processing≫
The processing executed in the agent system will be described with reference to FIG. In advance, the user has registered his / her voice as voice data in the
エージェント装置100のマイク101は、エージェント装置100の周囲の音声を絶えず受信している。エージェント装置100のマイク101は、一定以上の音量の音声を受信すると、受信した音声を音声データ変換部103に出力する(ステップS1)。受信した音声は、モバイル端末200の利用者が喋った指示の音声である。
The
次に、音声データ変換部103は、マイク101から出力された音声を音声データに変換し、変換した音声データをモバイル端末認証部104に出力する(ステップS2)。次に、モバイル端末認証部104は、音声データ変換部103から入力された音声データを、特定通信エリア内にあるモバイル端末200の音声認証部201に送信する(ステップS3)。同時に、モバイル端末認証部104は、音声データ変換部103から入力された音声データを、特定通信エリア内にある他のモバイル端末200,200−1〜200−3の音声認証部201に送信する(図2では図示略)。
Next, the voice
モバイル端末200の音声認証部201は、モバイル端末認証部104から受信した音声データと、事前に登録している、モバイル端末200の利用者自身の声の音声データとを比較する(ステップS4)。音声認証部201は、比較の結果、双方の音声データが同一人物のものか否か判定する。つまり、ここでは、ステップS1での音声の声紋などがどの利用者のものであるか(どのモバイル端末の利用者であるか)を判別する。本処理では、モバイル端末200については、同一人物の認証データと判定する。なお、モバイル端末200−1〜200−3については、同一人物という判定にならず、図2の処理を終了する。
The
次に、モバイル端末200の音声認証部201は、エージェントサービスを利用するための認証データを認証データ管理部202に要求する(ステップS5)。認証データは、例えば、所有者(モバイル端末200の利用者)のID等、所有者の権限でエージェントサーバ300へアクセスするためのデータである。また、認証データは、例えば、銀行のモバイルバンキングアプリケーション等で使用される1タイムパスワード発生アルゴリズムによるもの(一時的に有効なデータの例)とすることができる。また、認証データは、例えば、認証データ管理部202が要求(ステップS5の要求)とともにエージェントサーバ300へアクセスし、1タイムでトークンの発行を行い、発行されたトークンを渡す等のものとし、1回または短期間の時間のみ有効な方法のもの(一時的に有効なデータの例)とすることができる。
Next, the
次に、モバイル端末200の認証データ管理部202は、音声認証部201に認証データを返す(ステップS6)。また、モバイル端末200の音声認証部201は、エージェント装置100のモバイル端末認証部104に認証データを送信する(ステップS6)。
Next, the authentication
次に、モバイル端末認証部104は、ステップS6で音声認証部201から受信した認証データ、および、ステップS2で音声データ変換部103から入力された音声データを、エージェントサービスアクセス部105に出力する(ステップS7)。次に、エージェントサービスアクセス部105は、モバイル端末認証部104から入力された認証データおよび音声データを、通信ネットワークを介してエージェントサーバ300に送信する(ステップS8)。
Next, the mobile
次に、エージェントサーバ300は、エージェント装置100のエージェントサービスアクセス部105から受信した認証データによって、利用者を判別する(ステップS9)。なお、認証データによる利用者の判別の技術は、さまざまな技術を用いることができ、認証データの種類に応じた技術を用いることができる。
Next, the
次に、エージェントサーバ300は、利用者が正当な利用者であると判別した場合には、エージェント装置100のエージェントサービスアクセス部105から受信した音声データを解析する(ステップS10)。なお、音声データの解析の技術は、さまざまな技術を用いることができ、例えば、ケプストラム分析やLPC(linear predictive coding)分析の技術を用いることができる。
Next, when the
次に、エージェントサーバ300は、認証データで認識された利用者ごとに、音声データによる指示内容(問い合わせ)の回答を回答データとして作成する(ステップS11)。回答データは、例えば、さまざまなルールやAIで処理を行うことで作成される。エージェントサーバ300は、例えば、認証データに対応づけて利用者に関する情報(例:性別、年齢)や過去の応答を保有しており、利用者ごとに適した回答を行うことができる。
Next, the
次に、エージェントサーバ300は、作成された回答データを、エージェント装置100のエージェントサービスアクセス部105を介して音声データ変換部103に送信する(ステップS12)。よって、エージェントサービスアクセス部105は、回答データが示す回答をエージェントサーバ300から取得する。
Next, the
次に、音声データ変換部103は、エージェントサーバ300からの回答データを音声の信号に変換して、スピーカ102に出力する(ステップS13)。次に、スピーカ102は、音声の信号に変換した、エージェントサーバ300の回答を音声として出力して利用者に伝える(ステップS14)。
以上で、図2の処理が終了する。
Next, the voice
This completes the process of FIG.
≪まとめ≫
本実施形態によれば、エージェント装置100に音声を入力した利用者を認証して、エージェントサービスを実行するように制御することができる。これにより、従来で問題視していた、不特定多数の利用者本人のアカウントをエージェント装置100に登録する処理そのものを省くことができる。
したがって、エージェントサービスを利用する不特定多数の利用者の各々に、当該利用者に紐づいた回答を返すことができる。
≪Summary≫
According to the present embodiment, it is possible to authenticate the user who input the voice to the
Therefore, it is possible to return the answer associated with the user to each of the unspecified number of users who use the agent service.
≪その他≫
(a):AI等による自己学習機能がエージェントサーバ300に搭載されている場合、他人にエージェント装置100から指示を出されることで、本人とは異なる志向の学習がされてしまいノイズになる。しかし、本発明によれば、エージェント装置100が複数あって、各地に点在していた場合に、どのエージェント装置100からエージェントサーバ300へのアクセスがあったとしても、話しかけた本人のアカウントでエージェントサーバ300にアクセスすることができる。このため、自己学習機能にノイズが載らず、本人の指示のみのデータで学習させることができる。
(b):本実施形態のエージェント装置100は、CPU(Central Processing unit)と、メモリと、ハードディスクなどの記憶手段(記億部)と、ネットワークインタフェースとを有するコンピュータとして構成される。このコンピュータは、CPUが、メモリ上に読み込んだプログラムを実行することにより、各種機能が実現される。
(c):例えば、不特定多数のお客様が訪れるショッピングモールの無人のサービスカウンタなどに、本実施形態のエージェント装置100を配置し、お客様からの音声の問合せを受け付け、相応の回答を音声で出力するというエージェントサービスを実現することができる。
≪Others≫
(A): When the
(B): The
(C): For example, the
100 エージェント装置
101 マイク
102 スピーカ
103 音声データ変換部
104 モバイル端末認証部(無線通信装置認証部)
105 エージェントサービスアクセス部
200 モバイル端末
201 音声認証部
202 認証データ管理部
300 エージェントサーバ
100
105 Agent
Claims (7)
エージェントサーバにアクセスするための認証データを無線通信装置から受信する無線通信装置認証部と、
前記音声データ変換部で変換された音声データ、および、前記無線通信装置認証部が受信した認証データを前記エージェントサーバに送信し、前記音声データの指示内容に対する回答を前記エージェントサーバから取得するエージェントサービスアクセス部と、を備える、
ことを特徴とする音声処理装置。 A voice data converter that converts the input voice and voice data to each other,
A wireless communication device authentication unit that receives authentication data for accessing the agent server from the wireless communication device,
An agent service that transmits voice data converted by the voice data conversion unit and authentication data received by the wireless communication device authentication unit to the agent server, and obtains a response to an instruction content of the voice data from the agent server. Equipped with an access unit
A voice processing device characterized by the fact that.
ことを特徴とする請求項1に記載の音声処理装置。 The wireless communication device authentication unit transmits the voice data to the wireless communication device, and causes the wireless communication device to authenticate the user who has input the voice.
The voice processing device according to claim 1.
ことを特徴とする請求項2に記載の音声処理装置。 The wireless communication device authentication unit transmits the voice data to a wireless communication device in the vicinity of the voice processing device.
The voice processing device according to claim 2.
ことを特徴とする請求項1から請求項3の何れか1項に記載の音声処理装置。 The authentication data is temporarily valid data,
The voice processing device according to any one of claims 1 to 3, wherein the voice processing device is characterized.
前記音声処理装置は、
入力された音声と音声データを相互に変換する音声データ変換部と、
前記エージェントサーバにアクセスするための認証データを無線通信装置から受信する無線通信装置認証部と、
前記音声データ変換部で変換された音声データ、および、前記無線通信装置認証部が受信した認証データを前記エージェントサーバに送信し、前記音声データの指示内容に対する回答を前記エージェントサーバから取得するエージェントサービスアクセス部と、を備える、
ことを特徴とするエージェントシステム。 An agent system equipped with a voice processing device and an agent server.
The voice processing device is
A voice data converter that converts the input voice and voice data to each other,
A wireless communication device authentication unit that receives authentication data for accessing the agent server from the wireless communication device, and
An agent service that transmits voice data converted by the voice data conversion unit and authentication data received by the wireless communication device authentication unit to the agent server, and obtains a response to an instruction content of the voice data from the agent server. Equipped with an access unit
An agent system characterized by that.
入力された音声と音声データを相互に変換する音声データ変換部、
エージェントサーバにアクセスするための認証データを無線通信装置から受信する無線通信装置認証部、
前記音声データ変換部で変換された音声データ、および、前記無線通信装置認証部が受信した認証データを前記エージェントサーバに送信し、前記音声データの指示内容に対する回答を前記エージェントサーバから取得するエージェントサービスアクセス部、
として機能させるためのプログラム。 The computer of the voice processing device,
Voice data conversion unit that converts input voice and voice data to each other,
Wireless communication device authentication unit that receives authentication data for accessing the agent server from the wireless communication device,
An agent service that transmits the voice data converted by the voice data conversion unit and the authentication data received by the wireless communication device authentication unit to the agent server, and acquires a response to the instruction content of the voice data from the agent server. Access section,
A program to function as.
前記音声処理装置は、
入力された音声と音声データを相互に変換する音声データ変換ステップと、
エージェントサーバにアクセスするための認証データを無線通信装置から受信する無線通信装置認証ステップと、
前記音声データ変換ステップで変換された音声データ、および、前記無線通信装置認証ステップで受信した認証データを前記エージェントサーバに送信し、前記音声データの指示内容に対する回答を前記エージェントサーバから取得するエージェントサービスアクセスステップと、を実行する、
ことを特徴とする音声処理方法。 It is a voice processing method in a voice processing device.
The voice processing device is
A voice data conversion step that converts the input voice and voice data to each other,
A wireless communication device authentication step that receives authentication data for accessing the agent server from the wireless communication device, and
An agent service that transmits the voice data converted in the voice data conversion step and the authentication data received in the wireless communication device authentication step to the agent server, and acquires a response to the instruction content of the voice data from the agent server. Perform access steps and
A voice processing method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019052608A JP7259446B2 (en) | 2019-03-20 | 2019-03-20 | Speech processing device, agent system, program, and speech processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019052608A JP7259446B2 (en) | 2019-03-20 | 2019-03-20 | Speech processing device, agent system, program, and speech processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020154140A true JP2020154140A (en) | 2020-09-24 |
JP7259446B2 JP7259446B2 (en) | 2023-04-18 |
Family
ID=72558808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019052608A Active JP7259446B2 (en) | 2019-03-20 | 2019-03-20 | Speech processing device, agent system, program, and speech processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7259446B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002024182A (en) * | 2000-07-11 | 2002-01-25 | Mitsubishi Electric Corp | User authentication system |
JP2005321906A (en) * | 2004-05-07 | 2005-11-17 | Yasuhiko Hanjiyo | Input and output system by voice |
WO2018067531A1 (en) * | 2016-10-03 | 2018-04-12 | Google Llc | Multi-user personalization at a voice interface device |
WO2018213415A1 (en) * | 2017-05-16 | 2018-11-22 | Apple Inc. | Far-field extension for digital assistant services |
-
2019
- 2019-03-20 JP JP2019052608A patent/JP7259446B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002024182A (en) * | 2000-07-11 | 2002-01-25 | Mitsubishi Electric Corp | User authentication system |
JP2005321906A (en) * | 2004-05-07 | 2005-11-17 | Yasuhiko Hanjiyo | Input and output system by voice |
WO2018067531A1 (en) * | 2016-10-03 | 2018-04-12 | Google Llc | Multi-user personalization at a voice interface device |
WO2018213415A1 (en) * | 2017-05-16 | 2018-11-22 | Apple Inc. | Far-field extension for digital assistant services |
Also Published As
Publication number | Publication date |
---|---|
JP7259446B2 (en) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10650824B1 (en) | Computer systems and methods for securing access to content provided by virtual assistants | |
AU2006306790B2 (en) | System and method of subscription identity authentication utilizing multiple factors | |
EP4009206A1 (en) | System and method for authenticating a user by voice to grant access to data | |
US11557301B2 (en) | Hotword-based speaker recognition | |
JP6812392B2 (en) | Information output method, information output device, terminal device and computer-readable storage medium | |
JP2022513977A (en) | Identity identification method, device and server for designated point approval | |
CN109087639B (en) | Method, apparatus, electronic device and computer readable medium for speech recognition | |
US11200891B2 (en) | Communications utilizing multiple virtual assistant services | |
US10623403B1 (en) | Leveraging multiple audio channels for authentication | |
JP2004535000A (en) | Context-sensitive web services | |
US20190050545A1 (en) | Authentication via a dynamic passphrase | |
US11516197B2 (en) | Techniques to provide sensitive information over a voice connection | |
JP7123871B2 (en) | Identity authentication method, identity authentication device, electronic device and computer-readable storage medium | |
US10089305B1 (en) | Bidirectional call translation in controlled environment | |
WO2014011131A2 (en) | A method enabling verification of the user id by means of an interactive voice response system | |
CN110149618B (en) | Intelligent device access method, device, equipment and medium based on voiceprint authorization | |
KR20130059999A (en) | Authentication system and method based by voice | |
JP7259446B2 (en) | Speech processing device, agent system, program, and speech processing method | |
US20220321350A1 (en) | System for voice authentication through voice recognition and voiceprint recognition | |
KR101703942B1 (en) | Financial security system and method using speaker verification | |
TWI754816B (en) | Method for processing voice command and system thereof | |
EP3502938A1 (en) | A conversational registration method for client devices | |
TWM583589U (en) | System for processing voice command | |
JP2020034597A (en) | Voice input device, method, and program | |
US20240054195A1 (en) | Authorization of Action by Voice Identification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7259446 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |