JP6736617B2 - 音声対話方法、及び、音声対話エージェントサーバ - Google Patents

音声対話方法、及び、音声対話エージェントサーバ Download PDF

Info

Publication number
JP6736617B2
JP6736617B2 JP2018145020A JP2018145020A JP6736617B2 JP 6736617 B2 JP6736617 B2 JP 6736617B2 JP 2018145020 A JP2018145020 A JP 2018145020A JP 2018145020 A JP2018145020 A JP 2018145020A JP 6736617 B2 JP6736617 B2 JP 6736617B2
Authority
JP
Japan
Prior art keywords
voice
agent
input
voice interaction
agent server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018145020A
Other languages
English (en)
Other versions
JP2018189984A (ja
Inventor
博史 天野
博史 天野
小塚 雅之
雅之 小塚
大森 基司
基司 大森
宜子 広瀬
宜子 広瀬
中野 稔久
稔久 中野
山口 高弘
高弘 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JP2018189984A publication Critical patent/JP2018189984A/ja
Application granted granted Critical
Publication of JP6736617B2 publication Critical patent/JP6736617B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L15/222Barge in, i.e. overridable guidance for interrupting prompts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Description

本発明は、対話形式で入力された音声に基づいて処理を行う音声対話方法に関する。
従来、音声入力インターフェースを備え、ユーザから対話形式で入力された音声に基づいて処理を行う音声対話システムが知られている。
例えば、特許文献1には、マイクロフォンを備マイクロフォンから入力される音声に対して音声認識処理を行い、その音声認識処理の結果に基づく処理を行うヘッドセットが記載されている。
また、特許文献2には、ユーザから対話形式で入力される音声に基づいて処理を行うエージェントを有する音声対話システムが記載されている。
特開2004−233794号公報 特開2008−90545号公報
ところで、上記従来技術では、ネットワークにおいて、音声認識機能を提供するエージェントが複数あり、そのうちの1つを選んで、ユーザが通信を開始した場合、その相手側のエージェントの音声認識機能の用途が、ユーザが求めるものと異なることもある。この場合、充分な認識結果が得られず、期待外れになることがある。
こうした期待外れを避けるには、ネットワークに存在する複数のエージェントのそれぞれがどのような用途の音声認識機能を有しているかをユーザが事前に把握しておかねばらなない。しかしそうした事前把握をユーザに強いることは音声認識機能の使い勝手を損ねる。
本発明の目的は、ネットワークに存在する複数のエージェントのそれぞれがどのような用途の音声認識機能を有しているかを、事前に把握することなく、適切な音声認識を実行することができる音声対話方法を提供することを目的とする。
上記課題を解決するために本発明に係る音声対話方法は、音声対話エージェントサーバによって行われる音声対話方法であって、前記音声対話エージェントサーバは、他の音声対話エージェントサーバと1以上のキーワードとを対応付けるエージェント情報を記憶するメモリを備え、前記音声対話方法は、入力音声信号を受け付け、前記入力音声信号に対して音声認識処理を行い、前記音声認識処理の結果と前記メモリに記憶されるエージェント情報とに基づいて、当該入力音声信号に基づく処理を、前記音声対話エージェントサーバと前記他の音声対話エージェントサーバとのいずれで行うかを決定し、前記決定において、前記音声対話エージェントサーバで行うと決定された場合、前記音声認識処理の結果に基づく処理を行い、当該処理に係る応答音声信号を生成して出力し、前記決定において、前記他の音声対話エージェントサーバで行うと決定された場合、前記入力音声信号を前記他の音声対話エージェントサーバへ転送する、ことを特徴とする。
上述の音声対話方法によると、ユーザが1の音声対話エージェントサーバ(音声対話エージェントサーバA)と通信している場合において、音声対話エージェントサーバAが、音声対話エージェントサーバAよりも他の音声対話エージェントサーバ(音声対話エージェントサーバB)の方を通信相手とすべきであると判定した場合には、ユーザの通信相手の音声対話エージェントサーバを、音声対話エージェントサーバAから音声対話エージェントサーバBに変更することができるようになる。
このことによって、ユーザは、各音声対話エージェントサーバにおいてどのようなサービスが提供されているかを知らなくても、より適切な音声対話エージェントサーバからサービスの提供を受けることができるようになる。また、この場合には、音声対話エージェントサーバAは、入力音声を、そのまま音声対話エージェントサーバBに転送することになるので、音声対話エージェントサーバBは、その入力音声そのものに対して音声認識処理そのものを行うことができる。このため、ユーザは、より適切なサービスの提供を受けることができるようになる。
音声対話システム100の構成を示すシステム構成図 機器140の機能構成を示すブロック図 制御部210によって管理されるステートの状態遷移図 音声対話エージェント400の機能構成を示すブロック図 対話DB500のデータ構成図 第1機器処理のフローチャート 第1音声入力処理のフローチャート 第1エージェント処理のフローチャート 第1命令実行処理のフローチャート 具体例における処理手順図 (a)機器140の表示内容を模式的に示す図その1、(b)機器140の表示内容を模式的に示す図その2、(c)機器140の表示内容を模式的に示す図その3、(d)機器140の表示内容を模式的に示す図その4 機器140の表示内容を模式的に示す図その5 機器1300の機能構成を示すブロック図 制御部1310によって管理されるステートの状態遷移図 第2機器処理のフローチャート 音声対話エージェントとの対話を行う様子を模式的に示す処理手順図 機器1700の機能構成を示すブロック図 制御部1710によって管理されるステートの状態遷移図 第3機器処理のフローチャート 第2音声入力処理のフローチャート 音声対話エージェントとの対話を行う様子を模式的に示す処理手順図 音声対話エージェント2200の機能構成を示すブロック図 対象エージェントDB2300のデータ構成図 第2エージェント処理のフローチャート 第2命令実行処理のフローチャート 第1接続応答処理のフローチャート 切断応答処理のフローチャート 第3エージェント処理のフローチャート 音声対話エージェントとの対話を行う様子を模式的に示す処理手順図 音声対話エージェント3000の機能構成を示すブロック図 利用可能サービスDB3100のデータ構成図 第4エージェント処理のフローチャート 第3命令実行処理のフローチャート 第2接続応答処理のフローチャート 音声対話エージェントとの対話を行う様子を模式的に示す処理手順図 (A)音声対話システムが運用される運用形態の模式図、(B)データセンタ運営会社3610の模式図その1、(C)データセンタ運営会社3610の模式図その2 サービスの類型1の模式図 サービスの類型2の模式図 サービスの類型3の模式図 サービスの類型4の模式図 音声対話システム4100の構成を示すシステム構成図 仲介サーバ4150の機能構成を示すブロック図 仲介サーバ4350の機能構成を示すブロック図 (a)表示部に表示される画像例その1、(b)表示部に表示される画像例その2、(c)表示部に表示される画像例その3、(d)表示部に表示される画像例その4 (a)表示部に表示される画像例その5、(b)表示部に表示される画像例その6 ステートの状態遷移図の例その1 ステートの状態遷移図の例その2 ステートの状態遷移図の例その3 ステートの状態遷移図の例その4 ステートの状態遷移図の例その5
<実施の形態1>
<概要>
以下、本発明に係る音声対話方法の一態様、及び本発明に係る機器の一態様として、宅内、車内等に設置された機器と、これら機器と通信する音声対話エージェントサーバとを含んで構成される音声対話システムについて説明する。
この音声対話システムにおいて、音声対話エージェントサーバは、記憶しているプログラムを実行することで、音声対話エージェントを実現する。この音声対話エージェントは、音声対話システムを利用するユーザと、機器を介して音声を用いた対話(音声による入出力)を行う。そして、音声対話エージェントは、その対話の内容が反映された処理を実行して、その実行結果を、そのユーザが利用している機器を介して、音声にて出力する。
ユーザは、音声対話エージェントと対話したい(音声対話エージェントに対して音声による入力を行いたい)場合に、音声対話システムを構成する機器に対して、所定の音声入力開始操作を行う。すると、その機器は、その音声入力開始操作がなされてから所定期間、音声入力の受け付けが可能な状態となる。そして、機器が、音声入力の受け付けが可能な状態である期間に、そのユーザは、音声対話エージェントに対して音声による入力を行う。
以下、この音声対話システムの詳細について図面を参照しながら説明する。
<構成>
図1は、音声対話システム100の構成を示すシステム構成図である。
同図に示されるように、音声対話システム100は、音声対話エージェントサーバ110a〜音声エージェントサーバ110bと、ネットワーク120と、ゲートウエイ130a〜ゲートウエイ130bと、機器140a〜機器140eとから構成される。
これらのうち、ゲートウエイ130aと機器140a〜機器140cとは、家180内に配置され、ゲートウエイ130bと機器140d〜機器140eとは、車190内に配置されている。
機器140a〜機器140eは、それぞれ、ゲートウエイ130(ゲートウエイ130aとゲートウエイ130bとを明示的に区別して表示する場合を除いて、ゲートウエイ130a又はゲートウエイ130bのことを、単にゲートウエイ130と呼ぶ。)と無線又は有線で通信する機能と、ゲートウエイ130及びネットワーク120を介して、音声対話エージェントサーバ110(音声対話エージェントサーバ110aと音声対話エージェントサーバ110bとを明示的に区別して表示する場合を除いて、音声対話エージェントサーバ110a又は音声対話エージェントサーバ110bのことを、単に音声対話エージェントサーバ110と呼ぶ。)と通信する機能とを有する。
家180内に配置されている機器140a〜機器140cは、例えば、屋内に設置されたテレビ、エアコン、録画機、洗濯機、持ち運び自在なスマートフォン等であり、車190内に配置されている機器140d〜機器140eは、例えば、車190内に設置されているカーエアコン、カーナビ等である。
ここでは、機器140a〜機器140eをそれぞれ個別に説明することに代えて、機器140a〜機器140eが共通に有している機能を有する仮想的な機器140について説明する。
図2は、機器140の機能構成を示すブロック図である。
同図に示されるように、機器140は、制御部210と、音声入力部220と、操作受付部230と、アドレス記憶部240と、通信部250と、音声出力部260と、表示部270と、実行部280とから構成される。
音声入力部220は、一例として、マイクと、プログラムを実行するプロセッサとによって実現され、制御部210に接続され、制御部210によって制御される。そして、ユーザからの音声による入力を受け付けて、音声信号(以下、「入力音声データ」と呼ぶこともある。)を生成する機能を有する。
音声入力部220は、制御部210によって制御されることで、音声入力を受け付けることが可能な音声入力受付可能状態と、音声入力の受け付けることが不可能な音声入力受付不可能状態とのいずれかの状態となる。
操作受付部230は、一例として、タッチパネルと、タッチパネルコントローラと、プログラムを実行するプロセッサとによって実現され、制御部210に接続され、制御部210によって制御される。そして、ユーザによってなされる所定の接触操作を受け付けて、受け付けた接触操作に基づく電気信号を生成する機能を有する。
操作受付部230が受け付ける、ユーザによってなされる所定の接触操作の中には、音声入力部220を利用して音声による入力を開始する旨を示す所定の音声入力開始操作が含まれる。
音声入力開始操作は、一例として、操作受付部230の一部であるタッチパネル上に表示されている、音声入力開始操作を受け付けるためのアイコンにタッチする操作が考えられる。また、別の一例として、操作受付部230が、音声入力開始操作を受け付けるためのボタンを含んで構成されており、このボタンを押下する操作が考えられる。
アドレス記憶部240は、一例として、メモリと、プログラムを実行するプロセッサとによって実現され、通信部250に接続される。そして、音声対話エージェントサーバ110の中の1つ(以下、この1つのことを、「特定音声対話エージェントサーバ」と呼ぶ。)についての、ネットワーク120のおけるIP(Internet Protocol)アドレスを記憶する機能を有する。
この機能によって、機器140のそれぞれは、音声対話エージェントサーバ110の中の1つである特定音声対話エージェントサーバに対応付けられている。
なお、機器140の内蔵するメモリとしては、一例として、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が考えられる。
通信部250は、一例として、プログラムを実行するプロセッサと、通信用LSI(Large Scale Integration)と、アンテナとによって実現され、制御部210と、アドレス記憶部240とに接続され、制御部210によって制御される。そして、以下の、ゲートウエイ通信機能と、音声対話エージェントサーバ通信機能とを有する。
ゲートウエイ通信機能とは、ゲートウエイ130と無線又は有線にて、通信する機能である。
音声対話エージェントサーバ通信機能とは、ゲートウエイ130とネットワーク120とを介して、音声対話エージェントサーバ110と通信する機能である。
ここで、通信部250は、音声対話エージェントサーバ110のうちのいずれか1つと通信する場合において、制御部210から、通信先の音声対話エージェントサーバ110として、特定の1つを指定されないときには、アドレス記憶部240に記憶されるIPアドレスを参照して、特定音声対話エージェントサーバと通信する。
音声出力部260は、一例として、プログラムを実行するプロセッサと、スピーカとによって実現され、制御部210に接続され、制御部210によって制御される。そして、制御部210から送られる電気信号を音声に変換して出力する機能を有する。
表示部270は、一例として、タッチパネルと、タッチパネルコントローラと、プログラムを実行するプロセッサとによって実現され、制御部210に接続され、制御部210によって制御される。そして、制御部210から送られる電気信号に基づく画像、文字列等を表示する機能を有する。
実行部280は、機器140が、機器として本来備えている機能(例えば、機器140がテレビであれば、テレビ信号を受信して復号し、復号したテレビ画像をディスプレイに表示して、復号したテレビ音声をスピーカから出力する機能等であり、例えば、機器140がエアコンであれば、エアコンの設置された部屋が設定温度となるように、送風口から冷風又は温風を送風する機能等である)を実現する機能ブロックであって、制御部210に接続され、制御部210によって制御される。
実行部280は、例えば、機器140がテレビである場合には、一例として、テレビ信号受信機、テレビ信号チューナ、テレビ信号デコーダ、ディスプレイ、スピーカ等によって実現される。
また、実行部280は、必ずしも、1つの筺体内に、その全ての構成要素が含まれて実現される構成である必要はない。例えば、機器140がテレビである場合には、リモコンと、ディスプレイとが、互いに別筺体に含まれて構成される例等が考えられる。同様に、機器140を構成する各機能ブロックは、1つの筺体内に、その全ての構成要素が含まれて実現される構成である必要はない。
制御部210は、一例として、プログラムを実行するプロセッサによって実現され、音声入力部220と、操作受付部230と、通信部250と、音声出力部260と、表示部270と、実行部280とに接続され、音声入力部220を制御する機能と、操作受付部230を制御する機能と、通信部250を制御する機能と、音声出力部260を制御する機能と、表示部270を制御する機能と、実行部280を制御する機能とに加えて、以下に述べる音声入力部状態管理機能と、第1機器処理実現機能とを有する。
音声入力部状態管理機能とは、音声入力受付可能状態と、音声入力受付不可能状態とのいずれかとなる音声入力部220の状態(以下、「ステート」とも言う。)を管理する機能である。
図3は、制御部210によって管理されるステートの状態遷移図である。
同図に示されるように、制御部210は、ステートが、音声入力受付不可能状態である場合において、(1)操作受付部230によって音声入力開始操作が受け付けられるまでは、音声入力受付不可能状態を維持し、(2)操作受付部230によって音声入力開始操作が受け付けられると、ステートを、音声入力受付可能状態へと遷移させる。そして、ステートが、音声入力受付可能状態である場合において、(3)ステートが音声入力受付可能状態へと遷移してから所定時間T1(例えば5秒)経過するまでは、音声入力受付可能状態を維持し、(4)所定時間T1経過すると、ステートを、音声入力受付不可能状態へと遷移させる。
なお、機器140が起動された時点では、制御部210は、ステートを音声入力受付不可能状態として管理を開始する。
再び図2に戻って、制御部210の説明を続ける。
第1機器処理実現機能とは、制御部210が、音声入力部220と、操作受付部230と、通信部250と、音声出力部260と、表示部270と、実行部280とを制御して、機器140に、その特徴的な動作である第1機器処理を実行させることで、機器140に、(1)ユーザによって音声入力開始操作がなされると、(2)ユーザからの音声による入力を受け付けて入力音声データを生成し、(3)生成した入力音声データを音声対話エージェントに送信し、(4)音声対話エージェントから返信された応答音声データを受信して、(5)受信した応答音声データに基づく音声を出力するという一連の処理を実現させる機能である。
なお、第1機器処理については、後程<第1機器処理>の項目において、フローチャートを用いて詳細に説明する。
図1に戻って、再び機器140の説明を続ける。
ゲートウエイ130は、一例として、通信機能を有するパソコン等によって実現され、ネットワーク120に接続される。そして、記憶しているプログラムを実行することで、機器140と無線又は有線で通信する機能と、ネットワーク120を介して音声対話エージェントサーバ110と通信する機能と、機器140と音声対話エージェントサーバ110との間の通信を仲介する機能とを実現する。
音声対話エージェントサーバ110は、一例として、1又は複数のコンピュータシステムによって構成される、通信機能を有するサーバによって実現され、ネットワーク120に接続される。そして、記憶しているプログラムを実行することで、ネットワーク120に接続される他の装置と通信する機能と、ゲートウエイ130を介して、機器140と通信する機能と、音声対話エージェント400を実現する機能とを有する。
図4は、音声対話エージェントサーバ110によって実現される音声対話エージェント400の機能構成を示すブロック図である。
同図に示されるように、音声対話エージェント400は、制御部410と、通信部420と、音声認識処理部430と、対話DB(Date Base:データベース)記憶部440と、音声合成処理部450と、命令生成部460とから構成される。
通信部420は、一例として、プログラムを実行するプロセッサと、通信用LSIとによって実現され、制御部410と、音声認識処理部430と、音声合成処理部450とに接続され、制御部410によって制御される。そして、ネットワーク120に接続される他の装置と通信する機能と、ゲートウエイ130を介して、機器140と通信する機能とを有する。
音声認識処理部430は、一例として、プログラムを実行するプロセッサによって実現され、制御部410と、通信部420とに接続され、制御部410によって制御される。そして、通信部420によって受信された入力音声データに対して音声認識処理を行って、その音声データを文字列(以下、「入力テキスト」とも呼ぶ。)に変換する機能を有する。
音声合成処理部450は、一例として、プログラムを実行するプロセッサによって実現され、制御部410と通信部420とに接続され、制御部410によって制御される。そして、制御部410から送られてきた文字列に対して音声合成処理を行い、音声データに変換する機能を有する。
対話DB記憶部440は、一例として、メモリと、プログラムを実行するプロセッサとによって実現され、制御部410に接続され、対話DB500を記憶する機能を有する。
図5は、対話DB記憶部440に記憶される対話DB500のデータ構成図である。
同図に示される通り、対話DB500は、キーワード510と、対象機器520と、起動アプリ530と、処理内容540と、応答テキスト550とが対応付けられて構成される。
キーワード510は、音声認識処理部430によって変換された入力テキストに含まれると想定される文字列である。
対象機器520は、対応付けられている処理内容540(後述)によって特定される処理を実行させる機器を特定する情報である。
ここで、処理内容540によって特定される処理を実行させる機器に、音声対話エージェント400自身が含まれていてもよい。
起動アプリ530は、対応付けられている処理内容540(後述)によって特定される処理を、対応付けられている対象機器520によって特定される機器に実行させるために、その機器において起動させるアプリケーションプログラムを特定する情報である。
処理内容540は、音声認識処理部430によって変換された入力テキストに、対応付けられているキーワード510が含まれている場合に、対応付けられている対象機器520によって特定される機器に実行させると定められている処理を特定する情報である。
応答テキスト550は、対応付けられている処理内容540によって指定される処理が実行された場合に、その処理結果に基づいて生成されると定められている文字列(以下、「応答テキスト」とも呼ぶ。)を示す情報である。
再び図4に戻って、音声対話エージェント400の説明を続ける。
命令生成部460は、一例として、プログラムを実行するプロセッサによって実現され、制御部410に接続され、制御部410によって制御される。そして、制御部410から、対象機器520と、起動アプリ530と、処理内容540との組が送られてきた場合に、対象機器520によって特定される機器において、起動アプリ530によって特定されるアプリケーションプログラムを起動して、処理内容540によって特定される処理を実行させるための命令群を生成する機能を有する。
制御部410は、一例として、プログラムを実行するプロセッサによって実現され、通信部420と、音声認識処理部430と、対話DB記憶部440と、音声合成処理部450と、命令生成部460とに接続され、通信部420を制御する機能と、音声認識処理部430を制御する機能と、音声合成処理部450を制御する機能と、命令生成部460を制御する機能とに加えて、以下の入力テキスト返信機能と、命令生成機能と、命令実行機能と、第1エージェント処理実現機能とを有する。
入力テキスト返信機能とは、音声認識処理部430によって、通信部420によって受信された入力音声データが入力テキストに変換された場合に、通信部420を制御して、その入力音声データを送信してきた機器140に対して、その入力テキストを返信させる機能である。
命令生成機能とは、音声認識処理部430から入力テキストが送られてきた場合に、(1)対話DB記憶部440に記憶されている対話DB500を参照して、その入力テキストに含まれているキーワード510から、そのキーワード510に対応付けられている、対象機器520と、起動アプリ530と、処理内容540と、応答テキスト550とを読み出して、(2)読み出した、対象機器520と、起動アプリ530と、処理内容540との組を、命令生成部460に送って、命令生成部460に命令群を生成させる機能である。
命令実行機能とは、命令生成部460によって生成された命令群を実行して、その実行結果に基づいて、応答テキスト550によって指定されている応答テキストを生成して、音声合成処理部450に送る機能である。
なお、制御部410は、命令実行機能を実現する際に、必要に応じて、通信部420を用いて、対象機器520によって特定される機器と通信して、その機器に命令群を実行させて、その機器から命令群の実行結果を送信させることで、応答テキストを生成する。
第1エージェント処理実現機能とは、制御部410が、通信部420と、音声認識処理部430と、音声合成処理部450と、命令生成部460とを制御して、音声対話エージェント400に、その特徴的な動作である第1エージェント処理を実行させることで、音声対話エージェント400に、(1)機器から送信された入力音声データを受信し、(2)受信した入力音声データに対して音声認識処理を行って、入力テキストを生成して機器に返信し、(3)生成した入力テキストに基づいて命令群を生成して実行し、(4)実行結果に基づいて応答テキストを生成し、(5)生成した応答テキストを応答音声データに変換して、(6)応答テキストと応答音声データとを機器に返信するという一連の処理を実現させる機能である。
なお、第1エージェント処理は、後程<第1エージェント処理>の項目において、フローチャートを用いて詳細に説明する。
ここで、制御部410は、例えば、音声認識処理部430から、「Aさんの住所は?」という入力テキストが送られてきたとすると、対話DB記憶部440に記憶されている対話DB500を参照して、対象機器520で特定される機器「スマートフォン」に、起動アプリ530で特定されるアプリケーションプログラム「連絡先」を起動させて、処理内容540で特定される「Aさんの住所を調べる」という処理を実行させ、その処理の実行結果に基づいて、「Aさんの住所はXXXXです。」という応答テキストを生成する。
以上のように構成される音声対話システム100の行う動作について、以下図面を参照しながら説明する。
<動作>
音声対話システム100は、その特徴的な動作として、第1機器処理と、第1エージェント処理とを行う。
以下、これらの処理について順に説明する。
<第1機器処理>
第1機器処理は、機器140が行う処理であって、(1)ユーザによって音声入力開始操作がなされると、(2)ユーザからの音声による入力を受け付けて入力音声データを生成し、(3)生成した入力音声データを音声対話エージェントに送信し、(4)音声対話エージェントから返信された応答音声データを受信して、(5)受信した応答音声データに基づく音声を出力する処理である。
図6は、第1機器処理のフローチャートである。
第1機器処理は、機器140が起動されることで開始される。
機器140が起動された時点で、制御部210によって管理されるステートは、音声入力受付不可能状態となる。
第1機器処理が開始されると、制御部210は、音声対話システム100を利用するユーザによってなされる音声入力開始操作が、操作受付部230によって受け付けられるまで待機する(ステップS600:Noを繰り返す。)。そして、音声入力開始操作が受け付けられると(ステップS600:Yes)、制御部210は、ステートを、音声入力受付不可能状態から音声入力受付可能状態に遷移させて(ステップS610)、表示部270に、音声入力受付可能状態である旨を表示させる(ステップS620)。
図11(a)は、機器140が、例えばスマートフォンである場合において、表示部270が、音声入力受付可能状態である旨を表示している様子の例を示す模式図である。
同図において、スマートフォンを構成するタッチパネル1110は、表示部270の一部であって、その右下の領域1120を点滅表示させる(例えば、黒色と白色とを交互に点灯させる)ことで、ステートが音声入力受付可能状態である旨を表示している。
再び図6に戻って、第1機器処理の説明を続ける。
ステップS620の処理が終了すると、機器140は、第1音声入力処理を実行する(ステップS630)。
図7は、第1音声入力処理のフローチャートである。
第1音声入力処理が開始されると、音声入力部220は、ユーザによる音声入力を受け付けて入力音声データを生成する(ステップS700)。そして、ステートが音声入力受付可能状態となってから所定時間T1経過すると(ステップS710:Noを繰り返したのちステップS710:Yes)、制御部210は、ステートを、音声入力受付可能状態から音声入力受付不可能状態に遷移させて(ステップS720)、表示部270に、音声入力受付可能状態である旨の表示を終了させる(ステップS730)。
そして、制御部210は、通信部250を制御して、特定音声対話エージェントサーバによって実現される音声対話エージェント400に対して、音声入力部220によって生成された入力音声データを送信させる(ステップS740)。
ステップS740の処理が終了すると、機器140は、その第1音声入力処理を終了する。
再び図6に戻って、第1機器処理の説明を続ける。
第1音声入力処理が終了すると、制御部210は、ステップS740の処理において送信した入力音声データに応答して音声対話エージェント400から返信される入力テキストが、通信部250によって受信されるまで待機する(ステップS640:Noを繰り返す。)。
ここで、この入力テキストデータは、ステップS740の処理において送信した入力音声データが、音声対話エージェント400によって文字列に変換されたものである。
入力テキストが、通信部250によって受信されると(ステップS640:Yes)、表示部270は、その入力テキストを表示する(ステップS650)。
図11(b)は、機器140が、例えばスマートフォンである場合において、表示部270が、入力テキストを表示している例を示す模式図である。
同図は、入力テキストが、「部屋の温度は?」という文字列である場合の一例である。同図に示されるように、表示部270の一部であるタッチパネル1110に、入力テキストである『「部屋の温度は?」』という文字列が、「あなた」という文字列と共に表示されている。
再び図6に戻って、第1機器処理の説明を続ける。
ステップS650の処理が終了すると、制御部210は、ステップS740の処理において送信した入力音声データに応答して音声対話エージェント400から返信される、応答テキストと応答音声データとが、通信部250によって受信されるまで待機する(ステップS660:Noを繰り返す。)。
応答テキストと応答音声データとが、通信部250によって受信されると(ステップS660:Yes)、表示部270は、その応答テキストを表示して(ステップS670)、音声出力部260は、その応答音声データを音声に変換して出力する(ステップS680)。
図11(c)は、機器140が、例えばスマートフォンである場合において、表示部270が、応答テキストを表示している例を示す模式図である。
同図は、応答テキストが、「どちらの部屋の温度ですか?」という文字列である場合の一例である。同図に示されるように、表示部270の一部であるタッチパネル1110に、応答テキストである『「どちらの部屋の温度ですか?」』という文字列が、「家エージェント」という文字列と共に表示されている。
再び図6に戻って、第1機器処理の説明を続ける。
ステップS680の処理が終了すると、機器140は、その第1機器処理を終了する。
<第1エージェント処理>
第1エージェント処理は、音声対話エージェント400が行う処理であって、(1)機器から送信された入力音声データを受信し、(2)受信した入力音声データに対して音声認識処理を行って、入力テキストを生成して機器に返信し、(3)生成した入力テキストデータに基づいて命令群を生成して実行し、(4)実行結果に基づいて応答テキストを生成し、(5)生成した応答テキストを応答音声データに変換して、(6)応答テキストと応答音声データとを機器に返信する処理である。
図8は、第1エージェント処理のフローチャートである。
第1エージェント処理は、音声対話エージェント400が起動されることで開始される。
第1エージェント処理が開始されると、音声対話エージェント400は、機器140から送信される入力音声データが、通信部420によって受信されるまで待機する(ステップS800:Noを繰り返す。)。そして、入力音声データが受信されると(ステップS800:Yes)、音声対話エージェント400は、第1命令実行処理を実行する(ステップS810)。
図9は、第1命令実行処理のフローチャートである。
第1命令実行処理が開始されると、音声認識処理部430は、通信部420によって受信された入力音声データに対して音声認識処理を行って、入力音声データを文字列である入力テキストに変換する(ステップS900)。
入力テキストに変換されると、制御部410は、通信部420を制御して、その入力音声データを送信してきた機器140に対して、その入力テキストを返信させる(ステップS910)。
そして、制御部410は、(1)対話DB記憶部440に記憶されている対話DB500を参照して、その入力テキストに含まれているキーワード510から、そのキーワード510に対応付けられている、対象機器520と、起動アプリ530と、処理内容540と、応答テキスト550とを読み出して、(2)読み出した、対象機器520と、起動アプリ530と、処理内容540との組を、命令生成部460に送って、命令生成部460に命令群を生成させる(ステップS920)。
命令群が生成されると、制御部410は、生成された命令群を実行(ステップS930)し、その実行結果に基づいて、応答テキスト550によって指定されている応答テキストを生成する(ステップS940)。ここで、制御部410は、必要に応じて、通信部420を用いて、対象機器520によって特定される機器と通信して、その機器に命令群の一部を実行させて、その機器から命令群の実行結果を送信させることで、応答テキストを生成する。
応答テキストが生成されると、音声合成処理部450は、生成された応答テキストに対して音声合成処理を行い、応答音声データを生成する(ステップS950)。
応答音声データが生成されると、制御部410は、通信部420を制御して、入力音声データの送信元である機器140に対して、生成された応答テキストと、生成された応答音声データをと送信させる(ステップS960)。
ステップS960の処理が終了すると、音声対話エージェント400は、その第1命令実行処理を終了する。
再び図8に戻って、第1エージェント処理の説明を続ける。
第1命令実行処理が終了すると、音声対話エージェント400は、再びステップS800の処理に戻って、ステップS800以下の処理を続ける。
上記構成の音声対話システム100の行う動作の具体例について、以下、図面を用いて説明する。
<具体例>
図10は、音声対話システム100を利用するユーザが、機器140(ここでは、仮に、スマートフォンであるとする。)を用いて、音声対話エージェント400と音声を用いた対話を行い、音声対話エージェント400が、その対話の内容が反映された処理を行っている様子を模式的に示す処理手順図である。
ユーザが機器140に対して音声入力開始操作を行うと(ステップS1000、図6のステップS600:Yesに対応)、ステートが音声入力受付可能状態へと遷移して(ステップS1005、図6のステップS610に対応)、機器140は、第1音声入力処理を行う(ステップS1010、図6のステップS630に対応)。
図11(a)は、この第1音声入力処理において、ステートが音声入力受付可能状態となっている期間、スマートフォンである機器140の表示部270の一部であるタッチパネル1110が、領域1120を点滅させることで、ステートが音声入力受付可能状態である旨を表示している様子の例を模式的に示す図である。
再び図10に戻って、具体例の説明を続ける。
この第1音声入力処理において、ユーザが、「部屋の温度は?」との音声を入力したとすると、機器140は、「部屋の温度は?」という入力音声データを、音声対話エージェント400へ送信する(図7のステップS740に対応)。
すると、音声対話エージェント400は、その入力音声データを受信して(図8のステップS800:Yesに対応)、第1命令実行処理を実行する(ステップS1060、図8のステップS810に対応)。
ここで、この第1命令実行処理において、音声対話エージェント400が、「どちらの部屋の温度でしょうか?」という応答音声データを生成したとすると、音声対話エージェント400は、機器140に、「どちらの部屋の温度でしょうか?」という応答音声データを送信する(図9のステップS960に対応)。
すると、機器140は、その応答音声データを受信して(図6のステップS660:Yesに対応)、「どちらの部屋の温度でしょうか?」という音声を出力する(ステップS1015、図6のステップS680に対応)。
ステップS1010の処理において、ステートが音声入力受付可能状態へと遷移してから所定時間T1経過した時点で、ステートが再び音声入力受付不可能状態へと遷移している(図7のステップS720に対応)。このため、機器140から出力された「どちらの部屋の温度でしょうか?」という音声を聞いたユーザは、新たに音声による入力を行うために、機器140に対して新たな音声入力開始操作を行う(ステップS1020、図6のステップS600:Yesに対応)。すると、ステートが音声入力受付可能状態へと遷移して(ステップS1025、図6のステップS610に対応)、機器140は、第1音声入力処理を行う(ステップS1030:図6のステップS630に対応)。
図11(c)は、この第1音声入力処理において、ステートが音声入力受付可能状態となっている期間、スマートフォンである機器140の表示部270の一部であるタッチパネル1110が、領域1120を点滅させることで、ステートが音声入力受付可能状態である旨を表示している様子の例を模式的に示す図である。
再び図10に戻って、具体例の説明を続ける。
この第1音声入力処理において、ユーザが、「リビング。」との音声を入力したとすると、機器140は、「リビング。」という入力音声データを、音声対話エージェント400へ送信する(図7のステップS740に対応)。
すると、音声対話エージェント400は、その入力音声データを受信して(図8のステップS800:Yesに対応)、第1命令実行処理を実行する(ステップS1065、図8のステップS810に対応)。
ここで、この第1命令実行処理において、音声対話エージェント400が、「リビングの温度は28度です。他に何かありますか?」という応答音声データを生成したとすると、音声対話エージェント400は、機器140に、「リビングの温度は28度です。他に何かありますか?」という応答音声データを送信する(図9のステップS960に対応)。
すると、機器140は、その応答音声データを受信して(図6のステップS660:Yesに対応)、「リビングの温度は28度です。他に何かありますか?」という音声を出力する(ステップS1035、図6のステップS680に対応)。
ステップS1010の処理において、ステートが音声入力受付可能状態へと遷移してから所定時間T1経過した時点で、ステートが再び音声入力受付不可能状態へと遷移している(図7のステップS720に対応)。このため、機器140から出力された「リビングの温度は28度です。他に何かありますか?」という音声を聞いたユーザは、新たに音声による入力を行うために、機器140に対して新たな音声入力開始操作を行う(ステップS1040、図6のステップS600:Yesに対応)。すると、ステートが音声入力受付可能状態へと遷移して(ステップS1045、図6のステップS610に対応)、機器140は、第1音声入力処理を行う(ステップS1050:図6のステップS630に対応)。
図12は、この第1音声入力処理において、ステートが音声入力受付可能状態となっている期間、スマートフォンである機器140の表示部270の一部であるタッチパネル1110が、領域1120を点滅させることで、ステートが音声入力受付可能状態である旨を表示している様子の例を模式的に示す図である。
再び図10に戻って、具体例の説明を続ける。
この第1音声入力処理において、ユーザが、「ないよ。ありがとう。」との音声を入力したとすると、機器140は、「ないよ。ありがとう。」という入力音声データを、音声対話エージェント400へ送信する(図7のステップS740に対応)。
すると、音声対話エージェント400は、その入力音声データを受信して(図8のステップS800:Yesに対応)、第1命令実行処理を実行する(ステップS1070、図8のステップS810に対応)。
ここで、この第1命令実行処理において、音声対話エージェント400が、「終了します。」という応答音声データを生成したとすると、音声対話エージェント400は、機器140に、「終了します。」という応答音声データを送信する(図9のステップS960に対応)。
すると、機器140は、その応答音声データを受信して(図6のステップS660:Yesに対応)、「終了します。」という音声を出力する(ステップS1055、図6のステップS680に対応)。
<考察>
上記構成の音声対話システム100によると、音声対話システム100を利用するユーザは、機器140に対して音声入力開始操作を行うことで、機器140の状態を、音声入力受付可能状態にして、音声入力を行う。そして、その後、所定時間T1が経過すれば、ユーザによって、機器140の状態を音声入力受付不可能状態にするための操作が行われなくても、機器140の状態が、音声入力受付不可能状態になる。
このため、音声入力が終了するたびに、機器140の状態を音声入力受付不可能状態にするための操作を行う必要がある音声対話システムに比べて、音声対話システム100は、音声入力に伴ってユーザが行う必要がある操作の回数が低減されている。
<実施の形態2>
<概要>
以下、本発明に係る音声対話方法の一態様、及び本発明に係る機器の一態様として、実施の形態1における音声対話システム100の一部が変形された第1変形音声対話システムについて説明する。
実施の形態1における音声対話システム100は、機器140が、ユーザによって音声入力開始操作がなされると、その操作がなされた時点から所定時間T1が経過するまでの期間、音声入力が可能な状態となる構成の例であった。
これに対して、実施の形態2における第1変形音声対話システムは、各機器が、上記期間に加えて、応答音声データに基づく音声を出力した場合において、その出力を行った時点から所定時間T1が経過するまでの期間にも、音声入力が可能な状態となる構成の例となっている。
以下、この第1変形音声対話システムの詳細について、実施の形態1における音声対話システム100との相違点を中心に、図面を参照しながら説明する。
<構成>
第1変形音声対話システムは、実施の形態1における音声対話システム100から、機器140が、機器1300に変更されるように変形されている。
機器1300は、実施の形態1における機器140から、ハードウエアとしては変更されていないが、実行対象として記憶するソフトウエアの一部が変更されている。そして、このことによって、機器1300は、実施の形態1における機器140から、その機能の一部が変更されるように変形されている。
図13は、機器1300の機能構成を示すブロック図である。
同図に示されるように、機器1300は、実施の形態1における機器140(図2参照)から、制御部210が、制御部1310に変更されるように変形されている。
制御部1310は、実施の形態1における制御部210から、制御部210の有する機能のうち、音声入力部状態管理機能が、以下に述べる第1変形音声入力部状態管理機能に変更され、第1機器処理実現機能が、以下に述べる第2機能処理実現機能に変更されるように変形されている。
第1変形音声入力部状態管理機能とは、実施の形態1における音声入力部状態管理機能と同様に、音声入力受付可能状態と、音声入力受付不可能状態とのいずれかとなる音声入力部220の状態(すなわち、「ステート」)を管理する機能であって、その状態遷移条件の一部が、実施の形態1における音声入力部状態管理機能から変更されている。
図14は、制御部1310によって管理されるステートの状態遷移図である。
同図に示されるように、制御部1310は、ステートが、音声入力受付不可能状態である場合において、(1)操作受付部230によって音声入力開始操作が受け付けられる、又は、音声出力部260によって、応答音声データに基づく音声のうちの所定の音声を除く音声が出力されるまでは、音声入力受付不可能状態を維持し、(2)操作受付部230によって音声入力開始操作が受け付けられる、又は、音声出力部260によって、応答音声データに基づく音声のうちの所定の音声を除く音声が出力されると、ステートを、音声入力受付可能状態へと遷移させる。そして、ステートが、音声入力受付可能状態である場合において、(3)ステートが音声入力受付可能状態へと遷移してから所定時間T1(例えば5秒)経過するまでは、音声入力受付可能状態を維持し、(4)所定時間T1経過すると、ステートを、音声入力受付不可能状態へと遷移させる。
ここで、応答音声データに基づく音声のうちの所定の音声とは、予め定められた、新たな音声入力を必要としない旨を示す音声であり、例えば、「終了します。」という音声である。以下、この音声のことを「対話終了音声」とも呼ぶ。
なお、機器1300が起動された時点では、制御部1310は、ステートを音声入力受付不可能状態として管理を開始する。
再び図13に戻って、制御部1310の説明を続ける。
第2機能御処理実現機能とは、制御部1310が、音声入力部220と、操作受付部230と、通信部250と、音声出力部260と、表示部270と、実行部280とを制御して、機器1300に、その特徴的な動作である第2機器処理を実行させることで、機器1300に、(1)ユーザによって音声入力開始操作がなされると、(2)ユーザからの音声による入力を受け付けて入力音声データを生成し、(3)生成した入力音声データを音声対話エージェントに送信し、(4)音声対話エージェントから返信された応答音声データを受信して、(5)受信した応答音声データに基づく音声を出力し、(6)その音声が対話終了音声でなければ、ユーザによって音声入力開始操作がなされなくても、再び(2)以下の処理を繰り返すという一連の処理を実現させる機能である。
なお、第2機器処理については、後程<第2機器処理>の項目において、フローチャートを用いて詳細に説明する。
以上のように構成される第1変形音声対話システムの行う動作について、以下、図面を参照しながら説明する。
<動作>
第1変形音声対話システムは、その特徴的な動作として、実施の形態1における第1エージェント処理に加えて、実施の形態1における第1機器処理から、その処理の一部が変更された第2機器処理を行う。
以下、この第2機器処理について、第1機器処理からの変更点を中心に説明する。
<第2機器処理>
第2機器処理は、機器1300が行う処理であって、(1)ユーザによって音声入力開始操作がなされると、(2)ユーザからの音声による入力を受け付けて入力音声データを生成し、(3)生成した入力音声データを音声対話エージェントに送信し、(4)音声対話エージェントから返信された応答音声データを受信して、(5)受信した応答音声データに基づく音声を出力し、(6)その音声が対話終了音声でなければ、ユーザによって音声入力開始操作がなされなくても、再び(2)以下の処理を繰り返す処理である。
図15は、第2機器処理のフローチャートである。
第2機器処理は、機器1300が起動されたことで開始される。
機器1300が起動された時点で、制御部1310によって管理されるステートは、音声入力受付不可能状態となる。
同図において、ステップS1500〜ステップS1580の処理は、実施の形態1における第1機器処理(図6参照)のステップS600〜ステップS680の処理と同様の処理である。よって、これらの処理については説明済みである。
ステップS1580の処理が終了すると、制御部1310は、ステップS1580の処理において音声出力部260によって出力された音声が、対話終了音声であるか否かを調べる(ステップS1585)。この処理は、一例として、ステップS1560:Yesの処理において受信された応答テキストが、予め定められた文字列(例えば、「終了します。」という文字列)であるか否かを調べることで実現される。
ステップS1585の処理において、対話終了音声でない場合に(ステップS1585:No)、制御部1310は、ステートを、音声入力受付不可能状態から音声入力受付可能状態に遷移させて(ステップS1590)、表示部270に、音声入力受付可能状態である旨を表示させる(ステップS1595)。
ステップS1595の処理が終了すると、機器1300は、ステップS1530の処理に戻って、ステップS1530以下の処理を繰り返す。
ステップS1585の処理において、対話終了音声である場合に(ステップS1585:Yes)、機器1300は、その第2機器処理を終了する。
上記構成の第1変形音声対話システムが行う動作の具体例について、以下、図面を用いて説明する。
<具体例>
図16は、第1変形音声対話システムを利用するユーザが、機器1300(ここでは、仮に、スマートフォンであるとする。)を用いて、音声対話エージェント400と音声を用いた対話を行い、音声対話エージェント400が、その対話の内容が反映された処理を行っている様子を模式的に示す処理手順図である。
ここでは、対話終了音声が、「終了します。」という音声であるとして説明する。
同図において、ステップS1600〜ステップS1615の処理と、ステップS1630〜ステップS1635の処理と、ステップS1650〜ステップS1655の処理と、ステップS1660〜ステップS1670の処理とは、それぞれ、実施の形態1における具体例(図10参照)の、ステップS1000〜ステップS1015の処理と、ステップS1030〜ステップS1035の処理と、ステップS1050〜ステップS1055の処理と、ステップS1060〜ステップS1070の処理と同様の処理である。よって、これらの処理については説明済みである。
ステップS1615の処理が終了すると、「どちらの部屋の温度でしょうか?」という音声は、対話終了音声でないので(図15のステップS1585:Noに対応)、ステートが音声入力受付可能状態へと遷移して(ステップS1625、図15のステップS1590に対応)、機器1300は、第1音声入力処理を行う(ステップS1630:図15のステップS1530に対応)。
ステップS1635の処理が終了すると、「リビングの温度は28度です。他に何かありますか?」という音声は、対話終了音声でないので(図15のステップS1585:Noに対応)、ステートが音声入力受付可能状態へと遷移して(ステップS1645、図15のステップS1590に対応)、機器1300は、第1音声入力処理を行う(ステップS1650:図15のステップS1530に対応)。
ステップS1635の処理が終了すると、「終了します。」という音声は、対話終了音声なので(図15のステップS1585:Yesに対応)、ステートが音声入力受付可能状態へと遷移されずに、機器1300は、第2機器処理を終了する。
<考察>
上記構成の第1変形音声対話システムによると、機器1300は、音声対話エージェント400から送られてきた応答音声データに基づく音声を出力した場合に、その音声が対話終了音声でなければ、機器1300を利用するユーザによって音声入力操作がなされなくとも、音声入力受付可能状態となる。
このため、ユーザは、機器1300に対して、一旦、音声入力開始操作を行えば、対話終了音声が出力されるまでは、応答音声データに基づく音声が出力されてから所定期間T1が経過するまでの期間において、機器1300に対して新たに音声入力操作を行わなくとも、新たな音声入力を行うことができる。
このように、第1変形音声対話システムは、実施の形態1における音声対話システム100よりも、さらに、音声入力に伴ってユーザが行う必要がある操作の回数が低減されている。
<実施の形態3>
<概要>
以下、本発明に係る音声対話方法の一態様、及び本発明に係る機器の一態様として、実施の形態1における音声対話システム100の一部が変形された第2変形音声対話システムについて説明する。
実施の形態1における音声対話システム100は、機器140が、ユーザによって音声入力開始操作がなされると、その操作がなされた時点から所定時間T1が経過するまでの期間、音声入力が可能な状態となる構成の例であった。
これに対して、実施の形態3における第2変形音声対話システムは、各機器が、ユーザによって音声入力開始操作がなされると、その操作がなされた時点から、対話終了音声を出力するまでの期間、音声入力が可能な状態となる構成の例となっている。
以下、この第2変形音声対話システムの詳細について、実施の形態1における音声対話システム100との相違点を中心に、図面を参照しながら説明する。
<構成>
第2変形音声対話システムは、実施の形態1における音声対話システム100から、機器140が、機器1700に変更されるように変形されている。
機器1700は、実施の形態1における機器140から、ハードウエアとしては変更されていないが、実行対象として記憶するソフトウエアの一部が変更されている。そして、このことによって、機器1700は、実施の形態1における機器140から、その機能の一部が変更されるように変形されている。
図17は、機器1700の機能構成を示すブロック図である。
同図に示されるように、機器1700は、実施の形態1における機器140(図2参照)から、制御部210が、制御部1710に変更されるように変形されている。
制御部1710は、実施の形態1における制御部210から、制御部210の有する機能のうち、音声入力部状態管理機能が、以下に述べる第2変形音声入力部状態管理機能に変更され、第1機器処理実現機能が、以下に述べる第3機能処理実現機能に変更されるように変形されている。
第2変形音声入力部状態管理機能とは、実施の形態1における音声入力部状態管理機能、実施の形態2における第1変形音声入力部状態管理機能と同様に、音声入力受付可能状態と、音声入力受付不可能状態とのいずれかとなる音声入力部220の状態(すなわち、「ステート」)を管理する機能であって、その状態遷移条件の一部が、実施の形態1における音声入力部状態管理機能から変更されている。
図18は、制御部1710によって管理されるステートの状態遷移図である。
同図に示されるように、制御部1710は、ステートが、音声入力受付不可能状態である場合において、(1)操作受付部230によって音声入力開始操作が受け付けられるまでは、音声入力受付不可能状態を維持し、(2)操作受付部230によって音声入力開始操作が受け付けられると、ステートを、音声入力受付可能状態へと遷移させる。そして、ステートが、音声入力受付可能状態である場合において、(3)音声出力部260によって対話終了音声(例えば、「終了します。」という音声)が出力されるまでは、音声入力受付可能状態を維持し、(4)音声出力部260によって対話終了音声が出力されると、ステートを、音声入力受付不可能状態へと遷移させる。
再び図17に戻って、制御部1710の説明を続ける。
第3機能御処理実現機能とは、制御部1710が、音声入力部220と、操作受付部230と、通信部250と、音声出力部260と、表示部270と、実行部280とを制御して、機器1700に、その特徴的な動作である第3機器処理を実行させることで、機器1700に、(1)ユーザによって音声入力開始操作がなされると、(2)ユーザからの音声による入力を受け付けて入力音声データを生成し、(3)生成した入力音声データを音声対話エージェントに送信し、(4)音声対話エージェントから返信された応答音声データを受信して、(5)受信した応答音声データに基づく音声を出力し、(6)その音声が対話終了音声でなければ、ユーザによって音声入力開始操作がなされなくても、再び(2)以下の処理を繰り返すという一連の処理を実現させる機能である。
なお、第3機器処理については、後程<第3機器処理>の項目において、フローチャートを用いて詳細に説明する。
以上のように構成される第2変形音声対話システムの行う動作について、以下、図面を参照しながら説明する。
<動作>
第2変形音声対話システムは、その特徴的な動作として、実施の形態1における第1エージェント処理に加えて、実施の形態1における第1機器処理から、その処理の一部が変更された第3機器処理を行う。
以下、この第3機器処理について、第1機器処理からの変更点を中心に説明する。
<第3機器処理>
第3機器処理は、機器1700が行う処理であって、(1)ユーザによって音声入力開始操作がなされると、(2)ユーザからの音声による入力を受け付けて入力音声データを生成し、(3)生成した入力音声データを音声対話エージェントに送信し、(4)音声対話エージェントから返信された応答音声データを受信して、(5)受信した応答音声データに基づく音声を出力し、(6)その音声が対話終了音声でなければ、ユーザによって音声入力開始操作がなされなくても、再び(2)以下の処理を繰り返す処理である。
図19は、第3機器処理のフローチャートである。
第3機器処理は、機器1700が起動されたことで開始される。
機器1700が起動された時点では、制御部1710によって管理されるステートは、音声入力受付不可能状態となっている。
同図において、ステップS1900〜ステップS1920の処理と、ステップS1940〜ステップS1980の処理とは、それぞれ、実施の形態1における第1機器処理(図6参照)のステップS600〜ステップS620の処理と、ステップS640〜ステップS680の処理と同様の処理である。よって、これらの処理については説明済みである。
ステップS1920の処理が終了すると、機器1700は、第2音声入力処理を実行する(ステップS1930)。
図20は、第2音声入力処理のフローチャートである。
第2音声入力処理が開始されると、音声入力部220は、ユーザによる音声入力を受け付けて入力音声データを生成する(ステップS2000)。
そして、制御部1910は、通信部250を制御して、音声対話エージェント400に対して、音声入力部220によって生成された入力音声データを送信させる(ステップS2040)。
ステップS2040の処理が終了すると、機器1700は、その第2音声入力処理を終了する。
再び図19に戻って、第3機器処理の説明を続ける。
第2音声入力処理が終了すると、機器1900は、ステップS1940の処理に進んで、ステップS1940以下の処理を行う。
ステップS1980の処理が終了すると、制御部1710は、ステップS1980の処理において、音声出力部260によって出力された音声が、対話終了音声であるか否かを調べる(ステップS1985)。この処理は、一例として、ステップS1960:Yesの処理において受信された応答テキストが、予め定められた文字列(例えば、「終了します。」という文字列)であるか否かを調べることで実現される。
ステップS1985の処理において、対話終了音声でない場合に(ステップS1985:No)、機器1900は、ステップS1930の処理に戻って、ステップS1930以下の処理を繰り返す。
ステップS1985の処理において、対話終了音声である場合に(ステップS1585:Yes)、制御部1710は、ステートを、音声入力受付可能状態から音声入力受付不可能状態に遷移させる(ステップS1990)。
ステップS1990の処理が終了すると、機器1900は、その第3機器処理を終了する。
上記構成の第2変形音声対話システムが行う動作の具体例について、以下、図面を用いて説明する。
<具体例>
図21は、第2変形音声対話システムを利用するユーザが、機器1700(ここでは、仮に、スマートフォンであるとする。)を用いて、音声対話エージェント400と音声を用いた対話を行い、音声対話エージェント400が、その対話の内容が反映された処理を行っている様子を模式的に示す処理手順図である。
ここでは、対話終了音声が、「終了します。」という音声であるとして説明する。
同図において、ステップS2100の処理と、ステップS2105の処理と、ステップS2115の処理と、ステップS2135の処理と、ステップS2155の処理と、ステップS2160〜ステップS2170の処理とは、それぞれ、実施の形態1における具体例(図10参照)の、ステップS1000の処理と、ステップS1005の処理と、ステップS1015の処理と、ステップS1035の処理と、ステップS1055の処理と、ステップS1060〜ステップS1070の処理と同様の処理である。よって、これらの処理については説明済みである。
ステップS2105の処理が終了すると、機器1700は、第2音声処理を行う(ステップS2110、図19のステップS1930に対応)。
この第2音声入力処理において、ユーザが、「部屋の温度は?」との音声を入力したとすると、機器1700は、「部屋の温度は?」という入力音声データを、音声対話エージェント400へ送信する(図20のステップS2040に対応)。
ステップS2115の処理が終了すると、「どちらの部屋の温度でしょうか?」という音声は、対話終了音声でないので(図19のステップS1985:Noに対応)、機器1700は、第2音声処理を行う(ステップS2130、図19のステップS1930に対応)。
この第2音声入力処理において、ユーザが、「リビング。」との音声を入力したとすると、機器1700は、「リビング。」という入力音声データを、音声対話エージェント400へ送信する(図20のステップS2040に対応)。
ステップS2135の処理が終了すると、「リビングの温度は28度です。他に何かありますか?」という音声は、対話終了音声でないので(図19のステップS1985:Noに対応)、機器1700は、第2音声処理を行う(ステップS2150、図19のステップS1930に対応)。
この第2音声入力処理において、ユーザが、「ないよ。ありがとう。」との音声を入力したとすると、機器1700は、「ないよ。ありがとう。」という入力音声データを、音声対話エージェント400へ送信する(図20のステップS2040に対応)。
ステップS2135の処理が終了すると、「終了します。」という音声は、対話終了音声なので(図19のステップS1985:Yesに対応)、ステートが音声入力受付可能状態へと遷移されて(図19のステップS1990に対応)、機器1700は、第3機器処理を終了する。
<考察>
上記構成の第2変形音声対話システムによると、機器1700は、一旦、音声入力開始操作がなされると、その操作がなされた時点から、対話終了音声を出力するまでは、音声入力が可能な状態を維持する。
このため、ユーザは、機器1700に対して、一旦、音声入力開始操作を行えば、対話終了音声が出力されるまでは、機器1700に対して新たな音声入力操作を行わなくとも、新たな音声入力を行うことができる。
このように、第2変形音声対話システムは、実施の形態1における音声対話システム100よりも、さらに、音声入力に伴ってユーザが行う必要がある操作の回数が低減されている。
<実施の形態4>
<概要>
以下、本発明に係る音声対話方法の一態様、及び本発明に係る機器の一態様として、実施の形態3における第2変形音声対話システムの一部が変形された第3変形音声対話システムについて説明する。
実施の形態3における第2変形音声対話システムは、機器1700が音声対話エージェントAとの間で通信を開始すると、一連の処理が終了するまでの間、通信対象の音声対話エージェントが、音声対話エージェントAに限定されている構成の例であった。
これに対して実施の形態4における第3変形音声対話システムは、機器が音声対話エージェントAとの間で通信を開始した場合において、第3変形音声対話システムを利用するユーザが、その機器を用いて、他の音声エージェントBとの間で通信を行いたい旨の音声入力を行ったときに、以後、その機器の通信相手は、音声対話エージェントAから、音声対話エージェントBに変更される構成の例となっている。
以下、この第3変形音声対話システムの詳細について、実施の形態3における第2変形音声対話システムとの相違点を中心に、図面を参照しながら説明する。
<構成>
第3変形音声対話システムは、実施の形態3における第2変形音声対話システムから、音声対話エージェント400が、音声対話エージェント2200に変更されるように変形されている。
音声対話エージェント2200は、実施の形態3における音声対話エージェント400と同様に、音声対話エージェントサーバ110によって実現される。
音声対話エージェントサーバ110によって実行される、音声対話エージェント2200を実現するためのソフトウエアの一部が、実施の形態3における音声対話エージェント400を実現するためのソフトウエアから変更されている。そして、このことによって、音声対話エージェント2200は、実施の形態3における音声対話エージェント400から、その機能の一部が変更されるように変形されている。
図22は、音声対話エージェント2200の機能構成を示すブロック図である。
同図に示されるように、音声対話エージェント2200は、実施の形態3における音声対話エージェント400(図4参照)から、対象エージェントDB記憶部2220が追加され、制御部410が、制御部2210に変更されるように変形されている。
対象エージェントDB記憶部2220は、一例として、メモリと、プログラムを実行するプロセッサとによって実現され、制御部2210に接続され、対象エージェントDB2300を記憶する機能を有する。
図23は、対象エージェントDB記憶部2220に記憶される対象エージェントDB2300のデータ構成図である。
同図に示される通り、対象エージェントDB2300は、キーワード2310と、対象エージェント2320と、IPアドレス2330とが対応付けられて構成される。
キーワード2310は、音声認識処理部430によって変換された入力テキストに含まれると想定される文字列である。
対象エージェント2320は、機器140の通信対象となる、音声対話エージェント2200の中の1つ(以下、この1つのことを「追加音声対話エージェント」と呼ぶ。)を特定する情報である。
この例では、対象エージェント2320によって特定される追加音声対象エージェントには、車エージェントと、小売店エージェントと、家エージェントとが含まれる構成の例となっている。
ここで、車エージェントとは、車に搭載された機器について提供されるサービスが比較的充実している音声対話エージェント2200であり、小売店エージェントとは、小売店に配置された機器について提供されるサービスが比較的充実している音声対話エージェント2200であり、家エージェントとは、住宅(家)に配置された機器について提供されるサービスが比較的充実している音声対話エージェント2200であるとしている。
IPアドレス2330は、対応付けられている対象エージェント2320によって特定される追加音声対話エージェントを実現する音声対話エージェントサーバ110についての、ネットワーク120におけるIPアドレスである。
図23に示されるように、1つの対象エージェント2320には、1又は複数のキーワード2310が対応付けられている。一例として、「車エージェント」には、「車内」、「車」、「カー」、「ナビ」といったキーワード2310が対応付けられている。
1つの対象エージェント2320に対して、複数のキーワード2310が対応付けられていることで、音声対話エージェント2200は、入力の曖昧さに対応することができる。
例えば、ユーザは、車エージェントとの間で通信を行いたい場合に、「ナビの音声対話エージェントに接続して。」と音声入力する場合もあるし、「車の音声対話エージェントに接続して。」と音声入力する場合もある。
ここでは、「ナビ」と「車」とが、共に「車エージェント」に対応付けられているため、音声対話エージェント2200は、対象エージェントDB2300を参照することで、どちらの音声入力の場合でも、対象エージェント2320が車エージェントであると特定することができる。
再び図22に戻って、音声対話エージェント2200の説明を続ける。
制御部2210は、実施の形態3における制御部410から、制御部410が有する機能のうち、第1エージェント処理実現機能が、以下に述べる第2エージェント処理実現機能と、以下に述べる第3エージェント処理実現機能とに変更されるように変形されている。
第2エージェント処理実現機能とは、制御部2210が、通信部420と、音声認識処理部430と、音声合成処理部450と、命令生成部460とを制御して、音声対話エージェント2200に、その特徴的な動作である第2エージェント処理を実行させることで、音声対話エージェント2200に、(1)機器から送信された入力音声データを受信し、(2)受信した入力音声データに対して音声認識処理を行って、入力テキストを生成して機器に返信し、(3)生成した入力テキストが、他の音声対話エージェントとの間で通信を行いたい旨を示すものである場合に、機器とその音声対話エージェントとの間の通信を実現させ、(4)そうでない場合に、生成した入力テキストに基づいて命令群を生成して実行し、(5)実行結果に基づいて応答テキストを生成し、(6)生成した応答テキストを応答音声データに変換して、(7)応答テキストと応答音声データとを機器に返信するという一連の処理を実現させる機能である。
なお、第2エージェント処理は、後程<第2エージェント処理>の項目において、フローチャートを用いて詳細に説明する。
第3エージェント処理実現機能とは、制御部2210が、通信部420と、音声認識処理部430と、音声合成処理部450と、命令生成部460とを制御して、音声対話エージェント2200に、その特徴的な動作である第3エージェント処理を実行させることで、音声対話エージェント2200に、(1)他の音声入力エージェントからの要求に応じて機器との通信を開始し、(2)機器から送信された入力音声データを受信し、(3)受信した入力音声データに対して音声認識処理を行って、入力テキストを生成して機器に返信し、(4)生成した入力テキストに基づいて命令群を生成して実行し、(5)実行結果に基づいて応答テキストを生成し、(6)生成した応答テキストを応答音声データに変換して、(7)応答テキストと応答音声データとを機器に返信するという一連の処理を実現させる機能である。
なお、第3エージェント処理は、後程<第3エージェント処理>の項目において、フローチャートを用いて詳細に説明する。
以上のように構成される第3変形音声対話システムの行う動作について、以下、図面を参照しながら説明する。
<動作>
第3変形音声対話システムは、その特徴的な動作として、実施の形態3における第1機器処理に加えて、実施の形態3における第1エージェント処理から、その処理の一部が変更された、第2エージェント処理と第3エージェント処理とを行う。
以下、これら第2エージェント処理と第3エージェント処理とについて、第1エージェント処理からの変更点を中心に説明する。
<第2エージェント処理>
第2エージェント処理は、音声対話エージェント2200が行う処理であって、(1)機器から送信された入力音声データを受信し、(2)受信した入力音声データに対して音声認識処理を行って、入力テキストを生成して機器に返信し、(3)生成した入力テキストが、他の音声対話エージェントとの間で通信を行いたい旨を示すものである場合に、機器とその音声対話エージェントとの間の通信を実現させ、(4)そうでない場合に、生成した入力テキストに基づいて命令群を生成して実行し、(5)実行結果に基づいて応答テキストを生成し、(6)生成した応答テキストを応答音声データに変換して、(7)応答テキストと応答音声データとを機器に返信する処理である。
図24は、第2エージェント処理のフローチャートである。
第2エージェント処理は、音声対話エージェント2200が起動されることで開始される。
第2エージェント処理が開始されると、音声対話エージェント2200は、機器1700から送信される入力音声データが、通信部420によって受信されるまで待機する(ステップS2400:Noを繰り返す。)。そして、入力音声データが受信されると(ステップS2400:Yes)、音声対話エージェント2200は、第2命令実行処理を実行する(ステップS2410)。
図25は、第2命令実行処理のフローチャートである。
同図において、ステップS2500〜ステップS2510の処理と、ステップS2520〜ステップS2560の処理とは、それぞれ、実施の形態3における第1命令実行処理(図9参照)のステップS900〜ステップS910の処理と、ステップS920〜ステップS960の処理と同様の処理である。よって、これらの処理については説明済みである。
ステップS2510の処理が終了すると、制御部2210は、音声認識処理部430によって変換された入力テキストが、他の音声対話エージェントとの通信を要求するものであるか否かを調べる(ステップS2515)。
ステップS2515の処理において、他の音声対話エージェントとの通信を要求するものでない場合に(ステップS2515:No)、音声対話エージェント2200は、ステップS2520の処理に進み、ステップS2520〜ステップS2560の処理を行う。
ステップS2515の処理において、他の音声対話エージェントとの通信を要求するものである場合に(ステップS2515:Yes)、制御部2210は、対象エージェントDB記憶部2220に記憶されている対象エージェントDB2300を参照して(ステップS2517)、通信先として要求される音声対話エージェント2200を特定する。すなわち、音声認識処理部430によって文字列に変換された入力テキストに含まれるキーワード2310に対応付けられた対象エージェント2320によって特定される追加音声対話エージェントを、通信先として要求される音声対話エージェント2200として特定する。
通信先として要求される追加音声対話エージェントが特定されると、制御部2210は、特定された追加音声対象エージェントと、入力音声データの送信元である機器1700との間の通信を開始させる旨を示す所定の信号(以下、この信号を「接続命令」と呼ぶ。)を生成する(ステップS2565)。
接続命令が生成されると、制御部2210は、通信部420を制御して、そのキーワード2310に対応付けられているIPアドレス2330を利用して、追加音声対象エージェントに対して、生成された接続命令を送信させる(ステップS2570)。
その後、制御部2210は、ステップS2570の処理において送信した接続命令に応答して追加音声対話エージェントから返信される接続応答(後述)が、通信部420によって受信されるまで待機する(ステップS2575:Noを繰り返す。)。
接続応答が、通信部420によって受信されると(ステップS2575:Yes)、音声対話エージェント2200は、第1接続応答処理を実行する(ステップS2580)。
図26は、第1接続応答処理のフローチャートである。
第1接続応答処理が開始されると、制御部2210は、追加音声対話エージェントと機器1700との間の通信が可能となった旨を示す、予め定められた応答テキスト(例えば、「『追加音声対話エージェント』に接続しました。」という文字列。)を生成する(ステップS2600)。
ここで、『追加音声対話エージェント』の部分には、対象エージェントDB2300の対象エージェント2320によって特定される音声対話エージェント2200の名称(ここでは、車エージェントと、小売店エージェントと、家エージェントとのうちのいずれか)が挿入されることとする。
応答テキストが生成されると、音声合成処理部450は、生成された応答テキストに対して音声合成処理を行い、応答音声データを生成する(ステップS2610)。
応答音声データが生成されると、制御部2210は、通信部420を制御して、入力音声データの送信元である機器1700に対して、生成された応答テキストと、生成された応答音声データとを送信させる(ステップS2620)。
ステップS2620の処理が終了すると、音声対話エージェント2200は、その第1接続応答処理を終了する。
再び図25に戻って、第2命令実行処理の説明を続ける。
第1接続応答処理が終了すると、音声対話エージェント2200は、追加音声対話エージェントから送信される切断応答(後述)が、通信部420によって受信されるまで待機する(ステップS2585:Noを繰り返す。)。
切断応答が、通信部420によって受信されると(ステップS2585:Yes)、音声対話エージェント2200は、切断応答処理を実行する(ステップS2590)。
図27は切断応答処理のフローチャートである。
切断応答処理が開始されると、制御部2210は、追加音声対話エージェントと機器1700との間の通信が終了した旨を示す、予め定められた応答テキスト(例えば、「『追加音声対話エージェント』との接続を切りました。他に何かありますか?」という文字列。)を生成する(ステップS2700)。
ここで、『追加音声対話エージェント』の部分には、対象エージェントDB2300の対象エージェント2320によって特定される音声対話エージェント2200の名称(ここでは、車エージェントと、小売店エージェントと、家エージェントとのうちのいずれか)が挿入されることとする。
応答テキストが生成されると、音声合成処理部450は、生成された応答テキストに対して音声合成処理を行い、応答音声データを生成する(ステップS2710)。
応答音声データが生成されると、制御部2210は、通信部420を制御して、ステップS2400の処理において入力音声データの送信元である機器1700に対して、生成された応答テキストと、生成された応答音声データとを送信させる(ステップS2720)。
ステップS2720の処理が終了すると、音声対話エージェント2200は、その切断応答処理を終了する。
再び図25に戻って、第2命令実行処理の説明を続ける
切断応答処理が終了した場合、又は、ステップS2560の処理が終了した場合に、音声対話エージェント2200は、その第2命令実行処理を終了する。
再び図24に戻って、第2エージェント処理の説明を続ける。
第2命令実行処理が終了すると、音声対話エージェント2200は、再びステップS2400の処理に戻って、ステップS2400以下の処理を続ける。
<第3エージェント処理>
第3エージェント処理は、音声対話エージェント2200が行う処理であって、(1)他の音声入力エージェントからの要求に応じて機器との通信を開始し、(2)機器から送信された入力音声データを受信し、(3)受信した入力音声データに対して音声認識処理を行って、入力テキストを生成して機器に返信し、(4)生成した入力テキストに基づいて命令群を生成して実行し、(5)実行結果に基づいて応答テキストを生成し、(6)生成した応答テキストを応答音声データに変換して、(7)応答テキストと応答音声データとを機器に返信する処理である。
図28は、第3エージェント処理のフローチャートである。
同図において、ステップS2800〜ステップS2810の処理と、ステップS2820〜ステップS2860の処理とは、それぞれ、実施の形態1における第1命令実行処理(図9参照)のステップS900〜ステップS910の処理と、ステップS920〜ステップS960の処理と同様の処理である。よって、これらの処理については説明済みである。
第3エージェント処理は、音声対話エージェント2200が起動されることで開始される。
第3エージェント処理が開始されると、音声対話エージェント2200は、他の音声対話エージェントから送信される接続命令が、通信部420によって受信されるまで待機する(ステップS2811:Noを繰り返す。)。そして、接続命令が受信されると(ステップS2811:Yes)、制御部2210は、通信部420を制御して、接続命令において通信対象とされる機器1700との間の通信を開始する接続処理を実行する。
ここで、この接続処理には、機器1700が送信する入力音声データの送信先を、接続命令を送信した音声対話エージェント2200から、接続命令を受信した音声対話エージェント2200へと変更させる処理を含んでいる。
接続処理が実行されると、制御部2210は、通信部420を制御して、機器1700との間の通信が開始された旨を示す信号である接続応答を生成して、生成した接続応答を、接続命令の送信元である音声対話エージェントへ送信する(ステップS2813)。
その後、制御部2210は、機器1700から送信される入力音声データが、通信部420によって受信されるまで待機する(ステップS2814:Noを繰り返す)。そして、入力音声データが受信されると(ステップS2814:Yes)、ステップS2800〜ステップS2810の処理を実行する。
ステップS2810の処理が終了すると、制御部2210は、音声認識処理部430によって変換された入力テキストが、自音声対話エージェントとの通信を終了する旨のものであるか否かを調べる(ステップS2815)。
ステップS2815の処理において、自音声対話エージェントとの通信を終了する旨のものでない場合に(ステップS2815:No)、音声対話エージェント2200は、ステップS2820の処理に進んで、ステップS2820〜ステップS2860の処理を行う。そして、ステップS2860の処理が終了すると、音声対話エージェント2200は、再びステップS2814の処理に戻って、ステップS2814以下の処理を行う。
ステップS2815の処理において、自音声対話エージェントとの通信を終了する旨のものである場合に(ステップS2815:Yes)、制御部2210は、通信部420を制御して、機器1700との間の通信を終了する切断処理を実行する。
ここで、この切断処理には、機器1700が送信する入力音声データの送信先を、接続命令を受信した音声対話エージェント2200から、接続命令を送信した音声対話エージェント2200へと変更させる処理を含んでいる。
切断処理が実行されると、制御部2210は、通信部420を制御して、機器1700との間の通信が終了された旨を示す所定の信号である切断応答を生成して、生成した切断応答を、接続命令の送信元である音声対話エージェントへ送信する(ステップS2890)。
ステップS2890の処理が終了すると、音声対話エージェント2200は、ステップS2811の処理に戻って、ステップS2811以下の処理を行う。
上記構成の第3変形音声対話システムが行う動作の具体例について、以下、図面を用いて説明する。
<具体例>
図29は、第3変形音声対話システムを利用するユーザが、機器1700を用いて、音声対話エージェント2200のうちの1つである家エージェントと音声を用いた対話を開始し、その後、家エージェントによって生成された接続命令によって、音声対話エージェント2200のうちの他の1つである車エージェントとの間の通信が開始されて、そのユーザが、車エージェントとの対話を行う様子を模式的に示す処理手順図である。
ここでは、ユーザの利用する機器1700の特定音声対話エージェントサーバが、家エージェントを実現する音声対話エージェントサーバ110であり、対話終了音声が、「終了します。」という音声であるとして説明する。
同図において、ステップS2900〜ステップS2905の処理は、それぞれ、実施の形態3における具体例(図21参照)の、ステップS2100〜ステップS2105の処理と同様の処理である。よって、これらの処理については説明済みである。
ステップS2905の処理が終了すると、機器1700は、第2音声処理を行う(ステップS2906、図19のステップS1930に対応)。
この第2音声入力処理において、ユーザが、「車エージェントに接続して。」との音声を入力したとすると、機器1700は、「車エージェントに接続して。」という入力音声データを、家エージェントに送信する(図20のステップS2040に対応)。
すると、家エージェントは、その入力音声データを受信して(図24のステップS2400:Yesに対応)、第2命令実行処理を実行する(図24のステップS2410に対応)。
第2命令実行処理において、入力テキストが、車エージェントとの通信要求であるので(図25のステップS2515:Yesに対応)、家エージェントは、車エージェントに対して、接続命令を送信する(図25のステップS2570に対応)。
すると、車エージェントは、接続命令を受信し(図28のステップS2811:Yesに対応)、機器1700との間の通信を開始して(図28のステップS2812に対応)、家エージェントに、接続応答を送信する(ステップS2990、図28のステップS2813に対応)。
すると、家エージェントは、接続応答を受信し(図25のステップS2575:Yesに対応)、第1接続応答処理を実行する(ステップS2965、図25のステップS2580に対応)。
ここで、この第1接続応答処理において、音声対話エージェント2200が、「車エージェントに接続しました。」という応答音声データを生成したとすると、音声対話エージェント2200は、機器1700に、「車エージェントに接続しました。」という応答音声データを送信する(図26のステップS2620に対応)。
すると、機器1700は、その応答音声データを受信して(図19のステップS1960:Yesに対応)、「車エージェントに接続しました。」という音声を出力する(ステップS2907、図19のステップS1980に対応)。
そして、「車エージェントに接続しました。」という音声は、対話終了音声でないので(図19のステップS1985:Noに対応)、機器1700は、第2音声処理を行う(ステップS2910、図19のステップS1930に対応)。
この第2音声入力処理において、ユーザが、「車内の温度は?」との音声を入力したとすると、機器1700は、「車内の温度は?」という入力音声データを、車エージェントへ送信する(図20のステップS2040に対応)。
すると、車エージェントは、その入力音声データを受信して(図28のステップS2814:Yesに対応)、その音声データが通信終了を要求するものではないため(図28のステップS2815:Noに対応)、その入力音声データに対応する命令群を生成して実行する(ステップS2994、図28のステップS2830に対応)。
ここで、この命令群の実行において、車エージェントが、「車内の温度は38度です。他に何かありますか?」という応答音声データを生成したとすると、車エージェントは、機器1700に、「車内の温度は38度です。他に何かありますか?」という応答音声データを送信する(図28のステップS2860に対応)。
すると、機器1700は、その応答音声データを受信して(図19のステップS1960:Yesに対応)、「車内の温度は38度です。他に何かありますか?」という音声を出力する(ステップS2915、図19のステップS1980に対応)。
そして、「車内の温度は38度です。他に何かありますか?」という音声は、対話終了音声でないので(図19のステップS1985:Noに対応)、機器1700は、第2音声処理を行う(ステップS2930、図19のステップS1930に対応)。
この第2音声入力処理において、ユーザが、「ないよ。ありがとう。」との音声を入力したとすると、機器1700は、「ないよ。ありがとう。」という入力音声データを、車エージェントへ送信する(図20のステップS2040に対応)。
すると、車エージェントは、その入力音声データを受信して(図28のステップS2814:Yesに対応)、その音声データが通信終了を要求するものであるため(図28のステップS2815:Yesに対応)、機器1700との間の通信を終了して(図28のステップS2870に対応)、家エージェントに切断応答を送信する(ステップS2998、図28のステップS2890に対応)。
すると、家エージェントは、その切断応答を受信して(図25のステップS2585:Yesに対応)、切断応答処理を実行する(ステップS2970、図25のステップS2890の処理に対応)。
ここで、この切断処理において、音声対話エージェント2200が、「車エージェントとの接続を切りました。他に何かありますか?」という応答音声データを生成したとすると、音声対話エージェント2200は、機器1700に、「車エージェントとの接続を切りました。他に何かありますか?」という応答音声データを送信する(図27のステップS2720に対応)。
すると、機器1700は、その応答音声データを受信して(図19のステップS1960:Yesに対応)、「車エージェントとの接続を切りました。他に何かありますか?」という音声を出力する(ステップS2935、図19のステップS1980に対応)。
そして、「車エージェントとの接続を切りました。他に何かありますか?」という音声は、対話終了音声でないので(図19のステップS1985:Noに対応)、機器1700は、第2音声処理を行う(ステップS2950、図19のステップS1930に対応)。
この第2音声入力処理において、ユーザが、「ないよ。ありがとう。」との音声を入力したとすると、機器1700は、「ないよ。ありがとう。」という入力音声データを、家エージェントへ送信する(図20のステップS2040に対応)。
すると、家エージェントは、その入力音声データを受信して(図24のステップS2800:Yesに対応)、第2命令実行処理を実行する(ステップS2975、図24のステップS2410に対応)。
ここで、この第2命令実行処理において、家エージェントが、「終了します。」という応答音声データを生成したとすると、家エージェントは、機器1700に、「終了します。」という応答音声データを送信する(図25のステップS2560に対応)。
すると、機器1700は、その応答音声データを受信して(図19のステップS1960:Yesに対応)、「終了します。」という音声を出力する(ステップS2955、図19のステップS1980に対応)。
「終了します。」という音声は、対話終了音声なので(図19のステップS1985:Yesに対応)、ステートが音声入力受付可能状態へと遷移されて(図19のステップS1990に対応)、機器1700は、第3機器処理を終了する。
<考察>
上記構成の第3変形音声対話システムによると、第3変形音声対話システムを利用するユーザは、音声対話エージェントAと通信している場合において、音声対話エージェントAよりも、音声対話エージェントBに処理を行わせる方が望ましいと考えたときに、通信して処理させる音声対話エージェントを、音声対話エージェントAから音声対話エージェントBに変更して、所望の処理を音声対話エージェントBに実行させることができるようになる。
また、この場合には、音声対話エージェントAは、入力音声を、そのまま音声対話エージェントBに転送することになるので、音声対話エージェントBは、その入力音声そのものに対して音声認識処理を行うことができる。このため、ユーザは、音声対話エージェントBから、より適切なサービスの提供を受けることができるようになる。
<実施の形態5>
<概要>
以下、本発明に係る音声対話方法の一態様、及び本発明に係る機器の一態様として、実施の形態4における第3変形音声対話システムの一部が変形された第4変形音声対話システムについて説明する。
実施の形態4における第3変形音声対話システムは、機器が音声対話エージェントAとの間で通信を開始した場合において、第3変形音声対話システムを利用するユーザが、その機器を用いて、他の音声エージェントBとの間で通信を行いたい旨の音声入力を行ったときに、以後、その機器の通信相手は、音声対話エージェントAから、音声対話エージェントBに変更される構成の例であった。
これに対して実施の形態5における第4変形音声対話システムは、機器が音声対話エージェントAとの間で通信を開始した場合において、その通信内容において所定の条件が満たされるときに、音声対話エージェントAが、ユーザの利用する音声対話エージェントとして、自音声対話エージェントAよりも、他の音声対話エージェントBの方を通信相手とすべきであると判定して、以後、その機器の通信相手が、音声対話エージェントAから、音声対話エージェントBに変更される構成の例となっている。
以下、この第4変形音声対話システムの詳細について、実施の形態4における第3変形音声対話システムとの相違点を中心に、図面を参照しながら説明する。
<構成>
第4変形音声対話システムは、実施の形態4における第3変形音声対話システムから、音声対話エージェント2200が、音声対話エージェント3000に変更されるように変形されている。
音声対話エージェント3000は、実施の形態4における音声対話エージェント2200と同様に、音声対話エージェントサーバ110によって実現される。
音声対話エージェントサーバ110によって実行される、音声対話エージェント3000を実現するためのソフトウエアの一部が、実施の形態3における音声対話エージェント2200を実現するためのソフトウエアから変更されている。そして、このことによって、音声対話エージェント3000は、実施の形態4における音声対話エージェント2200から、その機能の一部が変更されるように変形されている。
図30は、音声対話エージェント3000の機能構成を示すブロック図である。
同図に示されるように、音声対話エージェント3000は、実施の形態4における音声対話エージェント2200(図22参照)から、対象エージェントDB記憶部2220が削除され、利用可能サービスDB記憶部3020が追加され、制御部2210が、制御部3010に変更されるように変形されている。
利用可能サービスDB記憶部3020は、一例として、メモリと、プログラムを実行するプロセッサとによって実現され、制御部3010に接続され、利用可能サービスDB3100を記憶する機能を有する。
図31は、利用可能サービスDB記憶部3020に記憶される利用可能サービスDB3100のデータ構成図である。
同図に示されるように、利用可能サービスDB3100は、キーワード3110と、対象エージェント3120と、処理内容3130と、IPアドレス3140と、利用可否3150とが対応付けられて構成される。
キーワード3110は、音声認識処理部430によって変換された入力テキストに含まれると想定される文字列である。
対象エージェント3120は、機器1700の通信対象となる、追加音声対話エージェントを特定する情報である。
この例では、実施の形態4と同様に、対象エージェント2320によって特定される追加音声対象エージェントには、車エージェントと、小売店エージェントと、家エージェントとが含まれる構成の例となっている。
処理内容3130は、音声認識処理部430によって変換された入力テキストに、対応付けられているキーワード3110が含まれている場合に、対応付けられている対象エージェント3120によって特定される追加音声対話エージェントによって実行される対象となる処理の内容を示す情報である。
IPアドレス3140は、対応付けられている対象エージェント3120によって特定される追加音声対話エージェントを実現する音声対話エージェントサーバ110についての、ネットワーク120におけるIPアドレスである。
利用可否3150は、対応付けられている処理内容3130によって示される内容の処理を、自音声対話エージェントで処理することが可能か否かを示す情報である。
再び図30に戻って、音声対話エージェント3000の説明を続ける。
制御部3010は、実施の形態4における制御部2210から、制御部2210が有する機能のうち、第2エージェント処理実現機能が、以下に述べる第4エージェント処理実現機能に変更されるように変形されている。
第4エージェント処理実現機能とは、制御部3010が、通信部420と、音声認識処理部430と、音声合成処理部450と、命令生成部460とを制御して、音声対話エージェント3000に、その特徴的な動作である第4エージェント処理を実行させることで、音声対話エージェント2200に、(1)機器から送信された入力音声データを受信し、(2)受信した入力音声データに対して音声認識処理を行って、入力テキストを生成して機器に返信し、(3)生成した入力テキストに所定のキーワードが含まれている場合に、機器と、そのキーワードに対応付けられている対象エージェントとの間の通信を実現させ、(4)そうでない場合に、生成した入力テキストに基づいて命令群を生成して実行し、(5)実行結果に基づいて応答テキストを生成し、(6)生成した応答テキストを応答音声データに変換して、(7)応答テキストと応答音声データとを機器に返信するという一連の処理を実現させる機能である。
なお、第4エージェント処理は、後程<第4エージェント処理>の項目において、フローチャートを用いて詳細に説明する。
以上のように構成される第4変形音声対話システムの行う動作について、以下、図面を参照しながら説明する。
<動作>
第4変形音声対話システムは、その特徴的な動作として、実施の形態4における第2機器処理と、第3エージェント処理とに加えて、実施の形態3における第2エージェント処理から、その処理の一部が変更された第4エージェント処理を行う。
以下、この第4エージェント処理について、第2エージェント処理からの変更点を中心に説明する。
<第4エージェント処理>
第4エージェント処理は、音声対話エージェント3000が行う処理であって、(1)機器から送信された入力音声データを受信し、(2)受信した入力音声データに対して音声認識処理を行って、入力テキストを生成して機器に返信し、(3)生成した入力テキストに所定のキーワードが含まれている場合に、機器と、そのキーワードに対応付けられている対象エージェントとの間の通信を実現させ、(4)そうでない場合に、生成した入力テキストに基づいて命令群を生成して実行し、(5)実行結果に基づいて応答テキストを生成し、(6)生成した応答テキストを応答音声データに変換して、(7)応答テキストと応答音声データとを機器に返信する処理である。
図32は、第4エージェント処理のフローチャートである。
第4エージェント処理は、音声対話エージェント3000が起動されることで開始される。
第4エージェント処理が開始されると、音声対話エージェント3000は、機器1700から送信される入力音声データが、通信部420によって受信されるまで待機する(ステップS3200:Noを繰り返す。)。そして、入力音声データが受信されると(ステップS3200:Yes)、音声対話エージェント3000は、第3命令実行処理を実行する(ステップS3210)。
図33は、第3命令実行処理のフローチャートである。
同図において、ステップS3300〜ステップS3310の処理と、ステップS3320〜ステップS3360の処理と、ステップS3365〜ステップS3375の処理と、ステップS3385〜ステップS3390の処理とは、それぞれ、実施の形態4におけるステップS2500〜ステップS2510の処理と、ステップS2520〜ステップS2560の処理と、ステップS2565〜ステップS2575の処理と、ステップS2585〜ステップS2590の処理と同様の処理である。よって、これらの処理については説明済みである。
ステップS3310の処理が終了すると、制御部3010は、利用可能サービスDB記憶部3020に記憶されている利用可能サービスDB3100を参照して(ステップS3312)、入力テキストに対応する処理を、他の音声対話エージェントで実行すべきか否かを判定する(ステップS3315)。すなわち、入力テキストデータに、キーワード3110が含まれている場合において、そのキーワード3110に対応付けられている対象エージェント3120が、自音声対話エージェントでないときに、他の音声対話エージェント(対象エージェント3120によって特定される追加音声対話エージェント)で実行すべきであると判定し、それ以外であれば、他の音声対話エージェントで実行すべきでないと判定する。
ステップS3315の処理において、他の音声対話エージェントで実行すべきでないと判定された場合に(ステップS3315:No)、音声対話エージェント3000は、ステップS3320の処理に進み、ステップS3320〜ステップS3360の処理を行う。
ステップS3315の処理において、他の音声対話エージェントで実行すべきであると判定された場合に(ステップS3315:Yes)、音声対話エージェント3000は、ステップS3365の処理に進み、ステップS3365〜ステップS3375の処理を行う。
ステップS3375の処理において、追加音声対話エージェントから返信される接続応答が、通信部420によって受信されると(ステップS3375:Yes)、音声対話エージェント3000は、第2接続応答処理を実行する(ステップS3380)。
図34は、第2接続応答処理のフローチャートである。
第2接続応答処理が開始されると、制御部3010は、通信部420を制御して、ステップS3200:Yesの処理において受信した入力音声データを、ステップS3315:Yesの処理において特定された追加音声対話エージェントへ転送する(ステップS3400)。
ステップS3400の処理が終了すると、音声対話エージェント3000は、その第2接続応答処理を終了する。
再び図33に戻って、第2命令実行処理の説明を続ける。
第2接続応答処理が終了すると、音声対話エージェント3000は、ステップS3385の処理に進んで、ステップS3385〜ステップS3390の処理を行う。
ステップS3390の処理が終了した場合、又は、ステップS3360の処理が終了した場合に、音声対話エージェント3000は、その第3命令実行処理を終了する。
再び、図32に戻って、第4エージェント処理の説明を続ける。
第3命令実行処理が終了すると、音声対話エージェント3000は、再びステップS3200の処理に戻って、ステップS3200以下の処理を続ける。
上記構成の第4変形音声対話システムが行う動作の具体例について、以下、図面を用いて説明する。
<具体例>
図35は、第4変形音声対話システムを利用するユーザが、機器1700を用いて、音声対話エージェント3000のうちの1つである家エージェントと音声を用いた対話を開始し、その後、家エージェントによって生成された接続命令によって、音声対話エージェント3000のうちの他の1つである車エージェントとの間の通信が開始されて、そのユーザが、車エージェントとの対話を行う様子を模式的に示す処理手順図である。
ここでは、ユーザの利用する機器1700の特定音声対話エージェントサーバが、家エージェントを実現する音声対話エージェントサーバ110であり、対話終了音声が、「終了します。」という音声であるとして説明する。
同図において、ステップS3500〜ステップS3505の処理は、それぞれ、実施の形態4における具体例(図29参照)の、ステップS2900〜ステップS2905の処理と同様の処理である。よって、これらの処理については説明済みである。
ステップS3505の処理が終了すると、機器1700は、第2音声処理を行う(ステップS3506、図19のステップS1930に対応)。
この第2音声入力処理において、ユーザが、「車内の温度は?」との音声を入力したとすると、機器1700は、「車内の温度は?」という入力音声データを、家エージェントに送信する(図20のステップS2040に対応)。
すると、家エージェントは、その入力音声データを受信して(図32のステップS3200:Yesに対応)、第3命令実行処理を実行する(図32のステップS3210に対応)。
第3命令実行処理において、入力テキストに「温度」、「車内」というキーワードが含まれており、対象エージェント3120が、家エージェントでないため(図33のステップS3315:Noに対応)、家エージェントは、車エージェントに対して、接続命令を送信する(図33のステップS3370に対応)。
すると、車エージェントは、接続命令を受信し(図28のステップS2811:Yesに対応)、機器1700との間の通信を開始して(図28のステップS2812に対応)、家エージェントに、接続応答を送信する(ステップS3590、図28のステップS2813に対応)。
すると、家エージェントは、接続応答を受信し(図33のステップS3375:Yesに対応)、第2接続応答処理を実行する(図33のステップS3380に対応)。
第2接続応答処理において、家エージェントは、「車内の温度は?」という入力音声データを、車エージェントへ転送する(図34のステップS3400に対応)。
すると、車エージェントは、その入力音声データを受信して(図28のステップS2814:Yesに対応)、その音声データが通信終了を要求するものではないため(図28のステップS2815:Noに対応)、その入力音声データに対応する命令群を生成して実行する(ステップS3594、図28のステップS2830に対応)。
ここで、この命令群の実行において、車エージェントが、「車内の温度は38度です。他に何かありますか?」という応答音声データを生成したとすると、車エージェントは、機器1700に、「車内の温度は38度です。他に何かありますか?」という応答音声データを送信する(図28のステップS2860に対応)。
すると、機器1700は、その応答音声データを受信して(図19のステップS1960:Yesに対応)、「車内の温度は38度です。他に何かありますか?」という音声を出力する(ステップS3507、図19のステップS1980に対応)。
そして、「車内の温度は38度です。他に何かありますか?」という音声は、対話終了音声でないので(図19のステップS1985:Noに対応)、機器1700は、第2音声処理を行う(ステップS3510、図19のステップS1930に対応)。
この第2音声入力処理において、ユーザが、「エアコンを25度でオンにして。」との音声を入力したとすると、機器1700は、「エアコンを25度でオンにして。」という入力音声データを、車エージェントへ送信する(図20のステップS2040に対応)。
すると、車エージェントは、その入力音声データを受信して(図28のステップS2814:Yesに対応)、その音声データが通信終了を要求するものではないため(図28のステップS2815:Noに対応)、その入力音声データに対応する命令群を生成して実行する(ステップS3594、図28のステップS2830に対応)。
ここで、この命令群の実行において、車エージェントが、「エアコンを25度でオンにしました。他に何かありますか?」という応答音声データを生成したとすると、車エージェントは、機器1700に、「エアコンを25度でオンにしました。他に何かありますか?」という応答音声データを送信する(図28のステップS2860に対応)。
すると、機器1700は、その応答音声データを受信して(図19のステップS1960:Yesに対応)、「エアコンを25度でオンにしました。他に何かありますか?」という音声を出力する(ステップS3525、図19のステップS1980に対応)。
そして、「エアコンを25度でオンにしました。他に何かありますか?」という音声は、対話終了音声でないので(図19のステップS1985:Noに対応)、機器1700は、第2音声処理を行う(ステップS3530、図19のステップS1930に対応)。
この第2音声入力処理において、ユーザが、「ないよ。ありがとう。」との音声を入力したとすると、機器1700は、「ないよ。ありがとう。」という入力音声データを、車エージェントへ送信する(図20のステップS2040に対応)。
すると、車エージェントは、その入力音声データを受信して(図28のステップS2814:Yesに対応)、その音声データが通信終了を要求するものであるため(図28のステップS2815:Yesに対応)、機器1700との間の通信を終了して(図28のステップS2870に対応)、家エージェントに切断応答を送信する(ステップS3598、図28のステップS2890に対応)。
すると、家エージェントは、その切断応答を受信して(図25のステップS2585:Yesに対応)、切断応答処理を実行する(ステップS2970、図25のステップS2890の処理に対応)。
ここで、この切断処理において、音声対話エージェント2200が、「終了します。」という応答音声データを生成したとすると、音声対話エージェント2200は、機器1700に、「終了します。」という応答音声データを送信する(図27のステップS2720に対応)。
すると、機器1700は、その応答音声データを受信して(図19のステップS1960:Yesに対応)、「終了します。」という音声を出力する(ステップS3555、図19のステップS1980に対応)。
「終了します。」という音声は、対話終了音声なので(図19のステップS1985:Yesに対応)、ステートが音声入力受付可能状態へと遷移されて(図19のステップS1990に対応)、機器1700は、第4機器処理を終了する。
<考察>
上記構成の第4変形音声対話システムによると、第3変形音声対話システムを利用するユーザが音声対話エージェントAと通信している場合において、音声対話エージェントAが、音声対話エージェントAよりも音声対話エージェントBの方を通信相手とすべきであると判定した場合には、ユーザの通信相手の音声対話エージェントを、音声対話エージェントAから音声対話エージェントBに変更することができるようになる。
このことによって、ユーザは、各音声対話エージェントにおいてどのようなサービスが提供されているかを知らなくても、より適切な音声対話エージェントからサービスの提供を受けることができるようになる。
また、この場合には、音声対話エージェントAは、入力音声を、そのまま音声対話エージェントBに転送することになるので、音声対話エージェントBは、その入力音声そのものに対して音声認識処理そのものを行うことができる。このため、ユーザは、より適切なサービスの提供を受けることができるようになる。
<実施の形態6>
ここでは、実施の形態1における音声対話システム100が運用される運用形態の一例について例示する。もちろん、実施の形態1における音声対話システム100は、ここで例示する以外の運用形態で運用されても構わない。
図36(A)は、実施の形態1における音声対話システム100が運用される運用形態を模式的に示す模式図である。
図36(A)において、グループ3600は、例えば企業、団体、家庭等であり、その規模を問わない。グループ3600には、複数の機器3601(機器A、機器B等)及びホームゲートウエイ3602が存在する。複数の機器3601には、インターネットと接続可能な機器(例えば、スマートフォン、PC、TV等)もあれば、それ自身ではインターネットと接続不可能な機器(例えば、照明、洗濯機、冷蔵庫等)も存在する。それ自身ではインターネットと接続不可能な機器であっても、ホームゲートウエイ3602を介してインターネットと接続可能となる機器が存在してもよい。またグループ3600には複数の機器3601を使用するユーザ10が存在する。例えば、グループ3600に示す機器のそれぞれが、実施の形態1における機器140に該当する。
データセンタ運営会社3610には、クラウドサーバ3611が存在する。クラウドサーバ3611とはインターネットを介して様々な機器と連携する仮想化サーバである。主に通常のデータベース管理ツール等で扱うことが困難な巨大なデータ(ビッグデータ)等を管理する。データセンタ運営会社3610は、データ管理やクラウドサーバ3611の管理、それらを行うデータセンタの運営等を行っている。データセンタ運営会社3610が行っている役務については詳細を後述する。ここで、データセンタ運営会社3610は、データ管理やクラウドサーバ3611の運営等のみを行っている会社に限らない。例えば複数の機器3601のうちの1つの機器を開発・製造している機器メーカが、併せてデータ管理やクラウドサーバ3611の管理等を行っている場合は、機器メーカがデータセンタ運営会社3610に該当する(図36(B)参照)。また、データセンタ運営会社3610は1つの会社に限らない。例えば機器メーカ及び他の管理会社が共同もしくは分担してデータ管理やクラウドサーバ3611の運営を行っている場合は、両者もしくはいずれか一方がデータセンタ運営会社3610に該当するものとする(図36(C)参照)。例えば、データセンタ運営会社3610で、機器140に紐付けされた音声対話エージェント400(「第1の音声対話エージェント」とも言う。)が提供される。
サービスプロバイダ3620は、サーバ3621を保有している。ここで言うサーバ3621とは、その規模は問わず例えば、個人用PC内のメモリ等も含む。また、サービスプロバイダがサーバ3621を保有していない場合もある。例えば、サービスプロバイダ3620で、第1の音声対話エージェントから接続される他の音声対話エージェント400(第2の音声対話エージェントとも言う。)が提供される。
次に、上記運用形態における情報の流れを説明する。
まず、グループ3600の機器A又は機器Bは、各ログ情報をデータセンタ3610のクラウドサーバ3611に送信する。クラウドサーバ3611は機器A又は機器Bのログ情報を集積する(図36(a))。ここで、ログ情報とは複数の機器3601の、例えば運転状況や動作日時等を示す情報である。例えば、テレビの視聴履歴やレコーダの録画予約情報、洗濯機の運転日時・洗濯物の量、冷蔵庫の開閉日時・開閉回数などであるが、これらのものに限らずあらゆる機器から取得が可能な全ての情報を言う。ログ情報は、インターネットを介して複数の機器3601自体から直接クラウドサーバ3611に提供される場合もある。また複数の機器3601から一旦ホームゲートウエイ3602にログ情報が集積され、ホームゲートウエイ3602からクラウドサーバ3611に提供されてもよい。
次に、データセンタ運営会社3610のクラウドサーバ3611は、集積したログ情報を一定の単位でサービスプロバイダ3620に提供する。ここで、データセンタ運営会社3610が集積した情報を整理してサービスプロバイダ3620に提供することのできる単位でもいいし、サービスプロバイダ3620が要求した単位でもいい。一定の単位と記載したが一定でなくてもよく、状況に応じて提供する情報量が変化する場合もある。前記ログ情報は、必要に応じてサービスプロバイダ3620が保有するサーバ3621に保存される(図36(b))。そして、サービスプロバイダ3620は、ログ情報をユーザに提供するサービスに適合する情報に整理し、ユーザに提供する。提供するユーザは、複数の機器3601を使用するユーザ10でもよいし、外部のユーザ20でもよい。ユーザへのサービス提供方法は、例えば、サービスプロバイダ3620から直接ユーザへ提供されてもよい(図36(e))。また、ユーザへのサービス提供方法は、例えば、データセンタ運営会社3610のクラウドサーバ3611を再度経由して、ユーザに提供されてもよい(図36(c)、(d))。また、データセンタ運営会社3610のクラウドサーバ3611がログ情報をユーザに提供するサービスに適合する情報に整理し、サービスプロバイダ3620に提供してもよい。
なお、ユーザ10とユーザ20とは、別でも同一でもよい。
以下に、上記運用形態において提供され得るサービスの類型について、いくつか例示する。
<サービスの類型1:自社データセンタ型>
図37は、サービスの類型1(自社データセンタ型)を模式的に示す模式図である。
本類型は、サービスプロバイダ3620がグループ3600から情報を取得し、ユーザに対してサービスを提供する類型である。本類型では、サービスプロバイダ3620が、データセンタ運営会社の機能を有している。すなわち、サービスプロバイダ3620が、ビッグデータの管理をするクラウドサーバ3611を保有している。従って、データセンタ運営会社は存在しない。
本類型では、サービスプロバイダ3620は、データセンタ(クラウドサーバ3611)を運営、管理している(3703)。また、サービスプロバイダ3620は、OS(3702)及びアプリケーション(3701)を管理する。サービスプロバイダ3620は、管理するOS(3702)及びアプリケーション(3701)を用いてサービス提供を行う(3704)。
<サービスの類型2:IaaS利用型>
図38は、サービスの類型2(IaaS利用型)を模式的に示す模式図である。ここでIaaSとはインフラストラクチャー・アズ・ア・サービスの略であり、コンピュータシステムを構築及び稼動させるための基盤そのものを、インターネット経由のサービスとして提供するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社3610がデータセンタ(クラウドサーバ3611)を運営、管理している(3703)。また、サービスプロバイダ3620は、OS(3702)及びアプリケーション(3701)を管理する。サービスプロバイダ3620は、管理するOS(3702)及びアプリケーション(3701)を用いてサービス提供を行う(3704)。
<サービスの類型3:PaaS利用型>
図39は、サービスの類型3(PaaS利用型)を模式的に示す模式図である。ここでPaaSとはプラットフォーム・アズ・ア・サービスの略であり、ソフトウエアを構築及び稼動させるための土台となるプラットフォームを、インターネット経由のサービスとして提供するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社3610は、OS(3702)を管理し、データセンタ(クラウドサーバ3611)を運営、管理している(3703)。また、サービスプロバイダ3620は、アプリケーション(3701)を管理する。サービスプロバイダ3620は、データセンタ運営会社3610が管理するOS(3702)及びサービスプロバイダ3620が管理するアプリケーション(3701)を用いてサービス提供を行う(3704)。
<サービスの類型4:SaaS利用型>
図40は、サービスの類型4(SaaS利用型)を模式的に示す模式図である。ここでSaaSとはソフトウエア・アズ・ア・サービスの略である。例えばデータセンタ(クラウドサーバ)を保有しているプラットフォーム提供者が提供するアプリケーションを、データセンタ(クラウドサーバ)を保有していない会社・個人(利用者)がインターネットなどのネットワーク経由で使用できる機能を有するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社3610は、アプリケーション(3701)を管理し、OS(3702)を管理し、データセンタ(クラウドサーバ3611)を運営、管理している(3703)。また、サービスプロバイダ3620は、データセンタ運営会社3610が管理するOS(3702)及びアプリケーション(3701)を用いてサービス提供を行う(3704)。
以上いずれの類型においても、サービスプロバイダ3620がサービス提供行為を行ったものとする。また例えば、サービスプロバイダ3620もしくはデータセンタ運営会社3610は、OS、アプリケーションもしくはビックデータのデータベース等を自ら開発してもよいし、また、第三者に外注させてもよい。
<補足>
以上、本発明に係る音声対話方法の一態様、及び本発明に係る機器の一態様として、実施の形態1〜実施の形態5において、5つの音声対話システムを例示して、また、実施の形態6において、音声対話システムの運用形態を例示して説明したが、以下のように変形することも可能であり、実施の形態1〜実施の形態6において例示した音声対話システム又はその運用形態で用いられた通りの、音声対話方法、及び機器に限られないことはもちろんである。
(1)実施の形態1において、音声対話システム100は、図1に示されるように、音声対話エージェントサーバ110と、ネットワーク120と、ゲートウエイ130と、機器140とから構成されるとして説明した。これに対して、別の一例として、音声対話システムは、音声対話エージェントサーバ110と、ネットワーク120と、ゲートウエイ130と、機器140とに加えて、対象エージェントDB2300を記憶し、音声対話エージェント間の対応付け、接続切り替え等を行う機能を有する仲介サーバ4150とから構成されるとしてもよい。
図41は、仲介サーバ4150を含んで構成される音声対話システム4100の構成を示すシステム構成図である。
図42は、仲介サーバ4150の機能構成を示すブロック図である。
同図に示されるように、仲介サーバ4150は、通信部4220と、制御部4210と、対象エージェントDB記憶部4230とから構成される。
ここで、対象エージェントDB記憶部4230は、実施の形態4における対象エージェントDB記憶部2220と同様に、対象エージェントDB2300を記憶する機能を有する。
また、別の一例として、音声対話システムは、仲介サーバ4150に代えて、利用可能サービスDB3100を記憶し、音声対話エージェント間の対応付け、接続切り替え等を行う機能を有する仲介サーバ4350を含んで構成されるとしてもよい。
図43は、仲介サーバ4350の機能構成を示すブロック図である。
同図に示されるように、仲介サーバ4350は、通信部4320と、制御部4310と、利用可能サービスDB記憶部4330とから構成される。
ここで、利用可能サービスDB記憶部4330は、実施の形態5における利用可能サービスDB3020と同様に、利用可能サービスDB3100を記憶する機能を有する。
(2)実施の形態1において、機器140の表示部270に表示される画像として、図12に示される画像を例示して説明した。
これに対して、他の画像例として、図44(a)〜図44(d)、図45(a)、図45(b)等が考えられる。
図12、図44(a)〜図44(d)、図45(b)の例では、表示される各応答テキストの行頭に、「あなた」、「車エージェント」、「家エージェント」等といった、発話の主体が特定される文字列が表示されている。また、図45(a)では、発話の主体が特定されるアイコン(画像)が表示されている。
図44(a)、図44(b)の例では、現在対話している音声対話エージェントがわかるように、画面の上部に「家エージェントと対話中」、「車エージェントと対話中」といった対話している音声対話エージェントが特定される文字列が表示されている。
図44(d)の例では、現在又は過去に対話している(していた)音声対話エージェントがわかるように、該当する応答テキストの上部に、「家エージェントと対話中」、「車エージェントと対話中」といった対話している(していた)音声対話エージェントを特定する文字列が表示されている。また、図45(b)では、対話している(していた)音声対話エージェントが特定されるアイコン(画像)が表示されている。
また、これらの表示例は、あくまで一例であって、色によってどの音声対話エージェントと対話しているかを示してもよいし、画面の形や、画面を構成する一部の形でどの音声対話エージェントと対話しているかを示してもよい。さらには、発話する主体毎に背景の色や壁紙等を変更してもよい。このように、対話している音声対話エージェント、又は、発話する主体が、ユーザによって識別可能に表示されていればよい。
(3)実施の形態1、及び上記変形例において、対話している音声対話エージェント、又は、発話する主体が、視覚によって識別可能に表示される例について説明した。しかしながら、ユーザによって識別することができれば、必ずしも、対話している音声対話エージェント、又は、発話する主体が、視覚によって識別可能に表示される例に限られない。
例えば、音声によって、対話している音声対話エージェントがわかるように、「家エージェントと対話中です。」と音声出力してもよいし、効果音にて、どの音声対話エージェントと対話しているかがわかるようにしてもよいし、声色、話速、音量等によって、どの音声対話エージェントと対話しているかがわかるようにしてもよい。
(4)実施の形態1において、制御部210によってなされるステートの管理は、図3の状態遷移図で示される態様で管理されるとして説明した。また、実施の形態2において、制御部1310によってなされるステートの管理は、図14の状態遷移図で示される態様で管理されるとして説明した。そして、実施の形態3において、制御部1710によってなされるステートの管理は、図18の状態遷移図で示される態様で管理されるとして説明した。
これらに対して、制御部によってなされるステートの管理は、上記態様による管理に限られず、他の態様によるステートの管理も考えられる。図46〜図50に、制御部によってなされる他の態様によるステートの管理例を示す状態遷移図を示す。
例えば、図48の状態遷移図で示される態様でステートが管理される場合には、ステートが音声入力受付可能状態に遷移してから所定時間が経過していなくても、音声出力部260が、音声対話エージェント110から送信された応答テキストに基づく音声を出力した場合において、その音声が、対話終了音声であるときには、ステートが、音声入力受付不可能状態に遷移される。このため、音声入力部220は、通信部250によって受信された、音声対話エージェント110によって生成された音声信号が、新たな音声入力を必要としない旨を示すものであるときには、音声入力受付可能状態に遷移してから所定時間が経過していなくても、音声入力受付不可能状態となる。
(5)実施の形態1において、表示部270は、一例として、タッチパネルと、タッチパネルコントローラと、プログラムを実行するプロセッサとによって実現され、音声入力受付可能状態である旨の表示を、表示部270の右下の領域1120(図11(a)、図11(c)、図12等参照)を点滅させることで行う構成であるとして説明した。しかしながら、音声入力受付可能状態であることをユーザに認知させることができれば、必ずしも、上記構成の例に限られない。他の例として、表示部270は、LED(Light Emitting Diode)と、プログラムを実行するプロセッサとによって実現され、音声入力受付可能状態である旨の表示を、このLEDを点灯させることで行う構成の例が考えられる。但し、この構成の例では、表示部270は、文字列を表示する手段を有さないため、通信部250によって受信された応答テキストの表示を行わない。
(6)実施の形態1において、通信部250は、通信先の音声対話エージェントサーバ110として、特定の1つを指定されないときには、アドレス記憶部240に記憶されるIPアドレスを参照して、特定音声対話エージェントサーバと通信する構成であると説明した。これに対して、他の一例として、アドレス記憶部240が、特定音声対話エージェントサーバのIPアドレスを記憶しておらず、ユーザによって指定される音声対話エージェントサーバ、又はユーザによって指定される音声対話エージェントを実現する音声対話エージェントサーバと通信する構成の例が考えられる。
(7)実施の形態1において、機器140のそれぞれは、ゲートウエイ130とネットワーク120とを介して、音声対話エージェント110と通信するとして説明した。
これに対して、機器140の中に、ゲートウエイ130を介さずに直接ネットワーク120に接続する機能を有し、ゲートウエイ130を介さずに、音声対話エージェントと通信するものが存在する構成であっても構わない。全ての機器140がゲートウエイを介さずに直接ネットワーク120に接続する場合には、ゲートウエイ130は不要となる。
(8)上記実施の形態及び上記変形例を構成する各要素の一部又は全部は、1つのシステムLSIから構成されているとしてもよい。システムLSIは、複数の構成部を1つのチップに集積して製造された超多機能LSIである。具体的には、マイクロプロセッサ、ROM、RAM等を含んで構成されるコンピュータシステムである。ROM、RAM等にコンピュータプログラムが記憶され、マイクロプロセッサが、これらコンピュータプログラムに従って動作することによって、システムLSIは、その機能を実現する。
(9)上記実施の形態及び上記変形例を構成する各要素の一部又は全部は、装置に着脱可能なIC(Integrated Circuit)カード又はモジュールを含んで構成されるとしてもよい。これらICカード又はモジュールは、マイクロプロセッサ、ROM、RAM等を含んで構成されるコンピュータシステムである。これらICカード又はモジュールは、前述の超多機能LSIを含むとしてもよい。ROM、RAM等にコンピュータプログラムが記憶され、マイクロプロセッサが、これらコンピュータプログラムに従って動作することによって、これらICカード又はモジュールは、その機能を実現する。これらICカード又はモジュールは、耐タンパ性を有するとしてもよい。
(10)上記実施の形態及び上記変形例で利用されるコンピュータプログラム又はデジタル信号を、コンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MD、DVD、DVD−ROM、DVD−RAM、BD、半導体メモリ等に記録してもよい。
また、上記実施の形態及び上記変形例で利用されるコンピュータプログラム又はデジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送してもよい。
上記実施の形態及び上記変形例で利用されるコンピュータプログラム又はデジタル信号を、コンピュータ読み取り可能な記録媒体に記録して移送することによって、又は、ネットワーク等を経由して伝送することで、他のコンピュータシステムでも実施させることができるようになる。
(12)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
(13)以下、さらに、本発明の一態様に係る音声対話方法、及び機器について、それらの構成及びそれらの変形例と各効果について説明する。
(a)本発明の一実施形態に係る音声対話方法は、音声信号生成部と、音声対話エージェント部と、音声出力部と、音声入力制御部とを備える音声対話システムによって行われる音声対話方法であって、前記音声信号生成部が、音声入力を受け付けて、受け付けた音声入力に基づく音声信号を生成し、前記音声対話エージェント部が、前記音声信号生成部によって生成された音声信号に対して音声認識処理を行い、当該音声認識処理の結果に基づく処理を行い、当該処理に係る応答信号を生成し、前記音声出力部が、前記音声対話エージェント部によって生成された応答信号に基づく音声を出力し、前記音声出力部によって前記音声が出力される場合に、前記音声入力制御部が、当該出力から所定期間、前記音声信号生成部を、前記音声入力の受け付けが可能な受付可能状態とすることを特徴とする。
上述の、本発明の一実施形態に係る音声対話方法によると、音声対話エージェント部によって生成された音声が出力されたときには、ユーザは、音声対話システムに対して操作を行わなくても、音声入力を行うことが可能となる。このことによって、対話形式による音声入力に伴ってユーザが行う必要がある操作の回数が、従来よりも低減されることとなる。
(b)また、前記音声対話システムは、表示部を備え、前記音声信号生成部が前記受付可能状態である場合に、前記表示部が、前記音声信号生成部が前記受付可能状態である旨を示す表示を行うとしてもよい。
このようにすることで、ユーザは、音声信号生成部が受付可能状態であるか否かを、目視によって認識することができるようになる。
(c)また、前記音声対話システムは、追加音声対話エージェント部を備え、前記音声対話エージェント部が、前記音声認識処理の結果に基づいて、音声認識処理の結果に基づく処理を、前記音声対話エージェント部と前記追加音声対話エージェント部とのいずれで行うかを決定し、前記音声対話エージェント部は、前記決定において、前記音声対話エージェント部で行うと決定された場合に限って、前記音声認識処理の結果に基づく処理を行い、前記決定において、前記追加音声対話エージェント部で行うと決定された場合に、前記追加音声対話エージェント部が、前記音声信号生成部によって受け付けられた音声に対して音声認識処理を行い、当該音声認識処理の結果に基づく処理を行い、当該処理に係る応答信号を生成し、前記音声出力部が、前記追加音声対話エージェント部によって生成された応答信号に基づく音声を出力するとしてもよい。
このようにすることで、音声対話エージェント部が処理するよりも、追加音声対話エージェント部が処理する方が適切な処理を、追加音声対話エージェント部に処理させることができるようになる。
(d)また、前記表示部は、音声認識処理の結果に基づく処理を行うエージェント部が前記音声対話エージェント部である場合には、音声認識処理の結果に基づく処理を行うエージェント部が前記音声対話エージェント部である旨を示すように前記表示を行い、音声認識処理の結果に基づく処理を行うエージェント部が前記追加音声対話エージェント部である場合には、音声認識処理の結果に基づく処理を行うエージェント部が前記追加音声対話エージェント部である旨を示すように前記表示を行うとしてもよい。
このようにすることで、ユーザは、処理を行うエージェント部が、音声対話エージェント部と追加音声対話エージェント部とのいずれであるかを、目視によって認識することができるようになる。
(e)また、前記音声対話エージェント部は、前記決定において、前記追加音声対話エージェント部で行うと決定された場合に、前記音声対話エージェント部が、前記音声信号生成部によって生成された音声信号を前記追加音声対話エージェント部へ転送し、前記追加音声対話エージェント部が、前記音声対話エージェント部から転送された音声信号に対して前記音声認識処理を行うとしてもよい。
このようにすることで、追加音声対話エージェント部は、音声対話エージェント部から転送された音声信号を利用して、音声認識処理を行うことができるようになる。
(f)また、前記音声信号生成部が前記受付可能状態である場合において、前記音声対話エージェント部によって生成された応答信号が、新たな音声入力の受け付けは必要ない旨を示すものであるときには、前記所定期間であっても、前記音声入力制御部が、前記音声信号生成部を、前記音声入力の受け付けが不可能な受付不可能状態とするとしてもよい。
このようにすることで、例え所定期間であっても、音声入力の受け付けが不要ならば、音声信号生成部を、受付不可能状態とすることができるようになる。
(g)本発明の一実施形態に係る機器は、音声入力を受け付けて、受け付けた音声入力に基づく音声信号を生成する音声信号生成部と、前記音声信号生成部によって生成された音声信号を、外部のサーバに送信する送信部と、前記送信部によって送信された音声信号を受信した前記サーバによって、当該音声信号に基づいて生成されて返信された応答信号を受信する受信部と、前記受信部によって受信された応答信号に基づく音声を出力する音声出力部と、前記音声出力部によって前記音声が出力される場合に、当該出力から所定期間、前記音声信号生成部を、前記音声入力の受け付けが可能な受付可能状態とする音声入力制御部とを備えることを特徴とする。
上述の、本発明の一実施形態に係る機器によると、サーバによって生成された音声が出力されたときには、ユーザは、機器に対して操作を行わなくても、音声入力を行うことが可能となる。このことによって、対話形式による音声入力に伴ってユーザが行う必要がある操作の回数が、従来よりも低減されることとなる。
本発明に係る音声対話方法、及び機器は、ユーザから対話形式で入力された音声に基づいて処理を行う音声対話システムに広く利用することができる。
100 音声対話システム
110 音声対話エージェントサーバ
120 ネットワーク
130 ゲートウエイ
140 機器
210 制御部
220 音声入力部
230 操作受付部
240 アドレス記憶部
250 通信部
260 音声出力部
270 表示部
280 実行部
400 音声対話エージェント
410 制御部
420 通信部
430 音声認識処理部
440 対話DB記憶部
450 音声合成処理部
460 命令生成部

Claims (5)

  1. 音声対話エージェントサーバによって行われる音声対話方法であって、
    前記音声対話エージェントサーバは、前記音声対話エージェントサーバおよび他の音声対話エージェントサーバと1以上のキーワードとを対応付けるエージェント情報を記憶するメモリを備え、
    前記音声対話方法は、
    少なくとも1つのキーワードを含む入力音声信号を受け付け、
    前記入力音声信号に対して音声認識処理を行い、
    前記音声認識処理の結果と前記メモリに記憶されるエージェント情報とに基づいて、当該入力音声信号に基づく処理を、前記音声対話エージェントサーバと前記他の音声対話エージェントサーバとのいずれで行うかを決定し、
    前記決定において、前記音声対話エージェントサーバで行うと決定された場合、前記音声認識処理の結果に基づく処理を行い、当該処理に係る応答音声信号を生成して出力し、
    前記決定において、前記他の音声対話エージェントサーバで行うと決定された場合、受信した前記入力音声信号を前記他の音声対話エージェントサーバへ転送
    前記入力音声信号は機器から送信され、
    前記決定において、前記音声対話エージェントサーバで行うと決定された場合、前記入力音声信号をそのまま前記他の音声対話エージェントサーバへ転送した後、前記他の音声対話エージェントサーバから前記機器との通信終了の信号を受信するまで前記音声入力信号を受け付けない、
    音声対話方法。
  2. 前記決定において、前記音声対話エージェントサーバで行うと決定された場合、前記音声認識処理の結果に基づく処理に係る応答テキスト信号をさらに出力する、
    請求項1記載の音声対話方法。
  3. 前記他の音声対話エージェントサーバは複数であり、
    前記エージェント情報は、前記他の音声対話エージェントサーバを識別する識別子と、前記キーワードとを対応付ける情報であり、
    前記音声認識処理の結果に前記キーワードのいずれかが含まれる場合に、前記エージェント情報において当該キーワードに対応付けられた識別子によって識別される他の音声対話エージェントサーバを、前記入力音声信号に基づく処理を行う他の音声対話エージェントサーバとして決定するように、前記決定を行う
    請求項1記載の音声対話方法。
  4. 前記識別子は、前記他の音声対話エージェントサーバのIPアドレスである、
    請求項記載の音声対話方法。
  5. 音声対話エージェントサーバであって、
    前記音声対話エージェントサーバおよび他の音声対話エージェントサーバと1以上のキーワードとを対応付けるエージェント情報を記憶するメモリと、
    ネットワークと接続する通信部と、
    プロセッサとを備え、
    前記通信部は、少なくとも1つのキーワードを含む入力音声信号を受け付け、
    前記プロセッサは、
    前記入力音声信号に対して音声認識処理を行い、
    前記音声認識処理の結果と前記メモリに記憶されるエージェント情報とに基づいて、当該入力音声信号に基づく処理を、前記音声対話エージェントサーバと前記他の音声対話エージェントサーバとのいずれで行うかを決定し、
    前記決定において、前記音声対話エージェントサーバで行うと決定された場合、前記音声認識処理の結果に基づく処理を行い、当該処理に係る応答音声信号を生成し、前記応答音声信号を前記通信部から出力させ、
    前記決定において、前記他の音声対話エージェントサーバで行うと決定された場合、受信した前記入力音声信号を、前記通信部から前記他の音声対話エージェントサーバへ転送させ、
    前記入力音声信号は機器から送信され、
    前記決定において、前記音声対話エージェントサーバで行うと決定された場合、前記入力音声信号をそのまま前記他の音声対話エージェントサーバへ転送した後、前記他の音声対話エージェントサーバから前記機器との通信終了の信号を受信するまで前記音声入力信号を受け付けない、
    音声対話エージェントサーバ。
JP2018145020A 2013-06-19 2018-08-01 音声対話方法、及び、音声対話エージェントサーバ Active JP6736617B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361836763P 2013-06-19 2013-06-19
US61/836,763 2013-06-19

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015522541A Division JP6389171B2 (ja) 2013-06-19 2014-06-10 音声対話方法、及び機器

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020121084A Division JP7072610B2 (ja) 2013-06-19 2020-07-15 音声対話方法、及び音声対話エージェントサーバ

Publications (2)

Publication Number Publication Date
JP2018189984A JP2018189984A (ja) 2018-11-29
JP6736617B2 true JP6736617B2 (ja) 2020-08-05

Family

ID=52104247

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2015522541A Active JP6389171B2 (ja) 2013-06-19 2014-06-10 音声対話方法、及び機器
JP2018145020A Active JP6736617B2 (ja) 2013-06-19 2018-08-01 音声対話方法、及び、音声対話エージェントサーバ
JP2020121084A Active JP7072610B2 (ja) 2013-06-19 2020-07-15 音声対話方法、及び音声対話エージェントサーバ

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015522541A Active JP6389171B2 (ja) 2013-06-19 2014-06-10 音声対話方法、及び機器

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020121084A Active JP7072610B2 (ja) 2013-06-19 2020-07-15 音声対話方法、及び音声対話エージェントサーバ

Country Status (5)

Country Link
US (2) US9564129B2 (ja)
EP (1) EP3012833B1 (ja)
JP (3) JP6389171B2 (ja)
CN (2) CN108806690B (ja)
WO (1) WO2014203495A1 (ja)

Families Citing this family (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
CN104969289B (zh) 2013-02-07 2021-05-28 苹果公司 数字助理的语音触发器
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
JP6389171B2 (ja) * 2013-06-19 2018-09-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 音声対話方法、及び機器
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) * 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
JP6391887B2 (ja) * 2016-04-11 2018-09-19 三菱電機株式会社 応答生成装置、対話制御システムおよび応答生成方法
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
CN115719592A (zh) * 2016-08-15 2023-02-28 中兴通讯股份有限公司 一种语音信息处理方法和装置
JP2018054790A (ja) * 2016-09-28 2018-04-05 トヨタ自動車株式会社 音声対話システムおよび音声対話方法
CN108279839A (zh) * 2017-01-05 2018-07-13 阿里巴巴集团控股有限公司 基于语音的交互方法、装置、电子设备及操作系统
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
WO2018213415A1 (en) * 2017-05-16 2018-11-22 Apple Inc. Far-field extension for digital assistant services
JP2019057093A (ja) * 2017-09-20 2019-04-11 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2019109567A (ja) * 2017-12-15 2019-07-04 オンキヨー株式会社 電子機器、及び、電子機器の制御プログラム
KR101881744B1 (ko) * 2017-12-18 2018-07-25 주식회사 머니브레인 대화형 ai 에이전트 시스템을 위한 계층적 대화 흐름 관리 모델을 자동으로 구축 또는 갱신하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
JP7133969B2 (ja) * 2018-04-27 2022-09-09 シャープ株式会社 音声入力装置、及び遠隔対話システム
WO2019212569A1 (en) 2018-05-04 2019-11-07 Google Llc Adapting automated assistant based on detected mouth movement and/or gaze
KR102661487B1 (ko) 2018-05-04 2024-04-26 구글 엘엘씨 검출된 제스처 및 시선에 기초하여 자동화된 어시스턴트 기능 호출
JP7263505B2 (ja) 2018-05-04 2023-04-24 グーグル エルエルシー ホットワードを用いない自動アシスタント機能の適応
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US11869496B2 (en) 2018-05-25 2024-01-09 Sony Corporation Information processing device and information processing method, and information processing system
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DE112019003189T5 (de) 2018-06-25 2021-04-08 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und informationsverarbeitungssystem
US10942039B2 (en) * 2018-08-06 2021-03-09 Comcast Cable Communications, Llc Methods and systems for managing communication sessions
WO2020040753A1 (en) * 2018-08-21 2020-02-27 Google Llc Automated assistant invocation of second interactive module using supplemental data provided by first interactive module
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
WO2020105466A1 (ja) * 2018-11-21 2020-05-28 ソニー株式会社 情報処理装置、及び情報処理方法
JP7002823B2 (ja) * 2018-12-06 2022-01-20 アルパイン株式会社 案内音声出力制御システムおよび案内音声出力制御方法
JP6555838B1 (ja) * 2018-12-19 2019-08-07 Jeインターナショナル株式会社 音声問合せシステム、音声問合せ処理方法、スマートスピーカー運用サーバー装置、チャットボットポータルサーバー装置、およびプログラム。
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
JP7175221B2 (ja) * 2019-03-06 2022-11-18 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP7198122B2 (ja) * 2019-03-07 2022-12-28 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
JP7280074B2 (ja) * 2019-03-19 2023-05-23 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
CN110718219B (zh) * 2019-09-12 2022-07-22 百度在线网络技术(北京)有限公司 一种语音处理方法、装置、设备和计算机存储介质
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
JP2021117301A (ja) * 2020-01-23 2021-08-10 トヨタ自動車株式会社 エージェントシステム、端末装置およびエージェントプログラム
JP7264071B2 (ja) * 2020-01-23 2023-04-25 トヨタ自動車株式会社 情報処理システム、情報処理装置、及びプログラム
JP2021117302A (ja) 2020-01-23 2021-08-10 トヨタ自動車株式会社 エージェントシステム、エージェントサーバおよびエージェントプログラム
JP2021117296A (ja) * 2020-01-23 2021-08-10 トヨタ自動車株式会社 エージェントシステム、端末装置およびエージェントプログラム
CN111292716A (zh) 2020-02-13 2020-06-16 百度在线网络技术(北京)有限公司 语音芯片和电子设备
JP2021152589A (ja) * 2020-03-24 2021-09-30 シャープ株式会社 電子機器の制御装置、制御プログラム、制御方法、電子機器
US11043220B1 (en) 2020-05-11 2021-06-22 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
JP7347324B2 (ja) 2020-05-18 2023-09-20 トヨタ自動車株式会社 エージェント連携装置
JP7380415B2 (ja) 2020-05-18 2023-11-15 トヨタ自動車株式会社 エージェント制御装置
JP7310705B2 (ja) * 2020-05-18 2023-07-19 トヨタ自動車株式会社 エージェント制御装置、エージェント制御方法、及びエージェント制御プログラム
JP7380416B2 (ja) 2020-05-18 2023-11-15 トヨタ自動車株式会社 エージェント制御装置
JP7318587B2 (ja) 2020-05-18 2023-08-01 トヨタ自動車株式会社 エージェント制御装置
JP2021182052A (ja) * 2020-05-18 2021-11-25 トヨタ自動車株式会社 エージェント連携装置
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US20220287110A1 (en) * 2021-03-05 2022-09-08 Samsung Electronics Co., Ltd. Electronic device and method for connecting device thereof

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7174299B2 (en) 1995-08-18 2007-02-06 Canon Kabushiki Kaisha Speech recognition system, speech recognition apparatus, and speech recognition method
JP2002116797A (ja) * 2000-10-11 2002-04-19 Canon Inc 音声処理装置、音声処理方法及び記憶媒体
AUPO214096A0 (en) * 1996-09-04 1996-09-26 Telefonaktiebolaget Lm Ericsson (Publ) A telecommunications system and method for automatic call recognition and distribution
JP3873386B2 (ja) 1997-07-22 2007-01-24 株式会社エクォス・リサーチ エージェント装置
US6249720B1 (en) 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
US6229880B1 (en) * 1998-05-21 2001-05-08 Bell Atlantic Network Services, Inc. Methods and apparatus for efficiently providing a communication system with speech recognition capabilities
US6636831B1 (en) * 1999-04-09 2003-10-21 Inroad, Inc. System and process for voice-controlled information retrieval
JP4193300B2 (ja) 1999-08-17 2008-12-10 株式会社エクォス・リサーチ エージェント装置
JP2001319045A (ja) * 2000-05-11 2001-11-16 Matsushita Electric Works Ltd 音声マンマシンインタフェースを用いたホームエージェントシステム、及びプログラム記録媒体
GB2372864B (en) * 2001-02-28 2005-09-07 Vox Generation Ltd Spoken language interface
US7177402B2 (en) * 2001-03-01 2007-02-13 Applied Voice & Speech Technologies, Inc. Voice-activated interactive multimedia information processing system
US7003079B1 (en) * 2001-03-05 2006-02-21 Bbnt Solutions Llc Apparatus and method for monitoring performance of an automated response system
US7039166B1 (en) * 2001-03-05 2006-05-02 Verizon Corporate Services Group Inc. Apparatus and method for visually representing behavior of a user of an automated response system
US7573986B2 (en) * 2001-07-18 2009-08-11 Enterprise Integration Group, Inc. Method and system for interjecting comments to improve information presentation in spoken user interfaces
JP2003241797A (ja) * 2002-02-22 2003-08-29 Fujitsu Ltd 音声対話システム
US7398209B2 (en) 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7228275B1 (en) * 2002-10-21 2007-06-05 Toyota Infotechnology Center Co., Ltd. Speech recognition system having multiple speech recognizers
JP2004233794A (ja) 2003-01-31 2004-08-19 Toshiba Corp 音声認識装置、及び音声認識方法
JP2004239963A (ja) * 2003-02-03 2004-08-26 Mitsubishi Electric Corp 車載制御装置
JP2004240150A (ja) 2003-02-05 2004-08-26 Nippon Telegr & Teleph Corp <Ntt> 音声対話装置、音声対話装置選択方法、プログラム及び記録媒体
JP3678421B2 (ja) * 2003-02-19 2005-08-03 松下電器産業株式会社 音声認識装置及び音声認識方法
US7460652B2 (en) * 2003-09-26 2008-12-02 At&T Intellectual Property I, L.P. VoiceXML and rule engine based switchboard for interactive voice response (IVR) services
US7117051B2 (en) * 2004-03-15 2006-10-03 Tmio, Llc Appliance communication system and method
JP4581441B2 (ja) 2004-03-18 2010-11-17 パナソニック株式会社 家電機器システム、家電機器および音声認識方法
AU2005246437B2 (en) * 2004-05-21 2011-10-06 Voice On The Go Inc. Remote access system and method and intelligent agent therefor
US9224394B2 (en) * 2009-03-24 2015-12-29 Sirius Xm Connected Vehicle Services Inc Service oriented speech recognition for in-vehicle automated interaction and in-vehicle user interfaces requiring minimal cognitive driver processing for same
JP4623278B2 (ja) * 2004-12-22 2011-02-02 日本電気株式会社 音声対話装置、支援装置、生成装置、音声対話方法、支援方法、生成方法およびプログラム
US8880047B2 (en) * 2005-08-03 2014-11-04 Jeffrey C. Konicek Realtime, location-based cell phone enhancements, uses, and applications
US9866697B2 (en) * 2005-08-19 2018-01-09 Nexstep, Inc. Consumer electronic registration, control and support concierge device and method
US20070265831A1 (en) * 2006-05-09 2007-11-15 Itai Dinur System-Level Correction Service
JP2008090545A (ja) 2006-09-29 2008-04-17 Toshiba Corp 音声対話装置および音声対話方法
DE112007002665B4 (de) 2006-12-15 2017-12-28 Mitsubishi Electric Corp. Spracherkennungssystem
US8713542B2 (en) * 2007-02-27 2014-04-29 Nuance Communications, Inc. Pausing a VoiceXML dialog of a multimodal application
US8150020B1 (en) * 2007-04-04 2012-04-03 At&T Intellectual Property Ii, L.P. System and method for prompt modification based on caller hang ups in IVRs
CN101079885B (zh) * 2007-06-26 2010-09-01 中兴通讯股份有限公司 一种提供自动语音识别统一开发平台的系统和方法
WO2009004750A1 (ja) 2007-07-02 2009-01-08 Mitsubishi Electric Corporation 音声認識装置
US8140335B2 (en) * 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US8589161B2 (en) * 2008-05-27 2013-11-19 Voicebox Technologies, Inc. System and method for an integrated, multi-modal, multi-device natural language voice services environment
US8311838B2 (en) * 2010-01-13 2012-11-13 Apple Inc. Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts
DE112011100329T5 (de) * 2010-01-25 2012-10-31 Andrew Peter Nelson Jerram Vorrichtungen, Verfahren und Systeme für eine Digitalkonversationsmanagementplattform
JP2011232619A (ja) * 2010-04-28 2011-11-17 Ntt Docomo Inc 音声認識装置および音声認識方法
JP2013529794A (ja) * 2010-06-24 2013-07-22 本田技研工業株式会社 車載音声認識システム及び車両外音声認識システム間の通信システム及び方法
US9536197B1 (en) * 2011-04-22 2017-01-03 Angel A. Penilla Methods and systems for processing data streams from data producing objects of vehicle and home entities and generating recommendations and settings
JP2013114020A (ja) * 2011-11-29 2013-06-10 Seiko Epson Corp 音声処理装置及び音声処理装置の制御方法
US10276157B2 (en) * 2012-10-01 2019-04-30 Nuance Communications, Inc. Systems and methods for providing a voice agent user interface
US9300718B2 (en) * 2013-04-09 2016-03-29 Avaya Inc. System and method for keyword-based notification and delivery of content
US10546441B2 (en) * 2013-06-04 2020-01-28 Raymond Anthony Joao Control, monitoring, and/or security, apparatus and method for premises, vehicles, and/or articles
JP6389171B2 (ja) * 2013-06-19 2018-09-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 音声対話方法、及び機器

Also Published As

Publication number Publication date
JP2020173477A (ja) 2020-10-22
JP2018189984A (ja) 2018-11-29
CN108806690B (zh) 2023-05-09
CN108806690A (zh) 2018-11-13
JPWO2014203495A1 (ja) 2017-02-23
CN105144285A (zh) 2015-12-09
JP6389171B2 (ja) 2018-09-12
CN105144285B (zh) 2018-11-02
EP3012833A1 (en) 2016-04-27
EP3012833B1 (en) 2022-08-10
JP7072610B2 (ja) 2022-05-20
US9564129B2 (en) 2017-02-07
USRE49014E1 (en) 2022-04-05
WO2014203495A1 (ja) 2014-12-24
EP3012833A4 (en) 2016-06-29
US20160322048A1 (en) 2016-11-03

Similar Documents

Publication Publication Date Title
JP6736617B2 (ja) 音声対話方法、及び、音声対話エージェントサーバ
CN111123721B (zh) 具有结合声波导和散热片的紧凑型家庭助手的设计
EP3392878B1 (en) Voice recognition apparatus and voice recognition method
EP3392879B1 (en) Voice recognition apparatus and voice recognition method
KR101900319B1 (ko) 서비스 연동 수행 방법과 이를 위한 시스템
JP5370432B2 (ja) 管理装置、カラオケシステム及び管理方法
US10803863B2 (en) Artificial intelligence voice recognition apparatus
JP6928882B2 (ja) 情報処理装置、音声認識システム、及び、情報処理方法
WO2014067256A1 (zh) 一种遥控方法、智能终端及智能遥控系统
CN107635214B (zh) 基于蓝牙遥控器的响应方法、装置、系统及可读存储介质
RU2666636C2 (ru) Система и способ управления окружающими устройствами на основе топологии
CN213183580U (zh) 电子设备
KR20190043519A (ko) 음성 인식 장치
JP5344188B2 (ja) 可搬型情報処理端末及び可搬型情報処理端末用プログラム
JP2009515248A (ja) タスクを管理する方法及び装置
KR20190119317A (ko) 이동통신 단말을 이용한 음성 전달시스템 및 제어방법
KR200437797Y1 (ko) 엠피3 재생이 가능한 홈네트워크시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200715

R150 Certificate of patent or registration of utility model

Ref document number: 6736617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150