JP7254689B2 - エージェントシステム、エージェント方法、及びプログラム - Google Patents

エージェントシステム、エージェント方法、及びプログラム Download PDF

Info

Publication number
JP7254689B2
JP7254689B2 JP2019235788A JP2019235788A JP7254689B2 JP 7254689 B2 JP7254689 B2 JP 7254689B2 JP 2019235788 A JP2019235788 A JP 2019235788A JP 2019235788 A JP2019235788 A JP 2019235788A JP 7254689 B2 JP7254689 B2 JP 7254689B2
Authority
JP
Japan
Prior art keywords
instruction
unit
specified
information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019235788A
Other languages
English (en)
Other versions
JP2021105636A (ja
Inventor
将郎 小池
孝浩 田中
智彰 萩原
佐和子 古屋
幸治 石井
昌宏 暮橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019235788A priority Critical patent/JP7254689B2/ja
Priority to CN202011543975.0A priority patent/CN113053372A/zh
Publication of JP2021105636A publication Critical patent/JP2021105636A/ja
Application granted granted Critical
Publication of JP7254689B2 publication Critical patent/JP7254689B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Description

本発明は、エージェントシステム、エージェント方法、及びプログラムに関する。
近年、操作者が手操作により操作対象の機器に対する指示等を入力することに代えて、操作者が発話し、発話に含まれる指示等を音声認識させることにより、音声により簡便に入力操作をできるようにする技術が知られている(例えば、特許文献1参照)。また、操作者の食習慣に係る情報を蓄積し、操作者に対して食事に係る情報を提供する技術が知られている(例えば、特許文献2参照)。
特開2008-14818号公報 特開2014-182075号公報
ここで、操作者は、自身の習慣に応じた簡潔な語句により操作対象の機器に対する指示を発話する場合がある。しかしながら、従来の技術では、操作者の習慣に応じた簡潔な語句により操作対象の機器に対する指示の発話がされても、予め登録された指示でない場合には、指示を認識することが困難であった。
本発明の態様は、このような事情を考慮してなされたものであり、発話による操作者の指示を特定しつつ、操作者の指示を特定できない場合には、操作者の習慣に基づいて操作対象の機器に対する指示を特定することができるエージェントシステム、エージェント方法、及びプログラムを提供することを目的の一つとする。
この発明に係るエージェントシステム、エージェント方法、及びプログラムは、以下の構成を採用した。
(1)この発明の一態様のエージェントシステムは、利用者が発話した音声を示すデータを取得する取得部と、前記取得部により取得された前記データに基づいて前記利用者の発話内容を認識する音声認識部と、前記利用者と自システムとのやり取りに基づいて前記利用者の習慣を推定する推定部と、前記音声認識部により認識された前記発話内容に含まれる指示を特定する指示特定部と、前記指示特定部により特定された前記指示に応じた処理を特定する、又は前記指示特定部により特定された前記指示に応じた処理を特定できない場合には前記推定部により推定された前記習慣に基づいて前記指示に応じた前記処理を特定する、処理特定部と、前記指示特定部により特定された前記指示を示す情報と前記処理特定部により特定された前記処理を示す情報とを、スピーカを含む情報出力装置に音声により出力させる出力制御部と、を備えるものである。
(2)の態様は、上記(1)の態様に係るエージェントシステムにおいて、前記処理特定部は、指示を示す情報と処理を示す情報とが互いに対応付けられた対応情報に基づいて、前記処理を特定し、前記推定部により推定された前記習慣に基づいて前記処理を特定した場合、前記指示特定部により特定された前記指示を示す情報と特定した前記処理を示す情報とにより前記対応情報を更新するものである。
(3)の態様は、上記(2)の態様に係るエージェントシステムにおいて、前記指示特定部は、前記指示特定部により特定された前記発話内容に基づいて特定した指示が、予め定められた所定指示以外の指示である場合、特定した前記指示と前記処理とにより前記対応情報を更新するものである。
(4)の態様は、上記(3)の態様に係るエージェントシステムにおいて、前記所定指示は、目的地の場所、目的地への出発時刻、目的地の到着時刻、目的地の評価、及び目的地のカテゴリのうち、少なくとも一つを指示するものであって、前記処理特定部は、前記指示特定部により特定された前記指示が前記所定指示である場合、前記所定指示に応じた目的地に係る処理を特定し、前記指示特定部により特定された前記指示が前記所定指示ではない場合、前記推定部により推定された前記習慣に基づいて、前記指示に応じた前記処理を特定するものである。
(5)の態様は、上記(2)から(4)のいずれかの態様に係るエージェントシステムにおいて、前記出力制御部は、前記処理特定部により前記対応情報が更新されることを示す情報を、前記情報出力装置に出力させるものである。
(6)の態様は、上記(2)から(5)のいずれかの態様に係るエージェントシステムにおいて、前記指示特定部は、前記指示を示す情報と、前記処理を示す情報とが前記情報出力装置により出力された際に、前記音声認識部により認識された前記発話内容に、前記指示を示す情報を訂正する内容が含まれる場合、前記指示を特定し直し、特定し直した前記指示を示す情報と前記処理を示す情報とにより前記対応情報を更新するものである。
(7)の態様は、上記(2)から(6)のいずれかの態様に係るエージェントシステムにおいて、前記推定部は、前記利用者の習慣に基づき特定された前記処理を示す情報が前記情報出力装置により出力された際に、前記音声認識部により認識された前記発話内容に、前記処理を訂正する内容が含まれる場合、前記利用者の習慣を推定し直すものである。
(8)の態様は、上記(1)から(7)のいずれかの態様に係るエージェントシステムにおいて、前記処理特定部は、更に、前記音声認識部により認識された前記発話内容に含まれる前記利用者の識別情報に基づいて前記処理を特定するものである。
(9)の態様は、上記(1)から(7)のいずれかの態様に係るエージェントシステムにおいて、前記音声認識部により認識された前記発話内容に係る当該発話をした利用者を特定する利用者特定部を、更に備え、前記処理特定部は、前記利用者特定部によって特定された前記利用者毎に、前記処理を特定するものである。
(10)この発明の他の態様のエージェント方法は、コンピュータが、利用者が発話した音声を示すデータを取得し、取得された前記データに基づいて、前記利用者の発話内容を認識し、前記利用者と自システムとのやり取りに基づいて、前記利用者の習慣を推定し、認識された前記発話内容に含まれる指示を特定し、特定された前記指示に応じた処理を特定し、又は特定された前記指示に応じた処理を特定できない場合には、推定された前記習慣に基づいて前記指示に応じた前記処理を特定し、特定された前記指示を示す情報と、特定された前記処理を示す情報とを、スピーカを含む情報出力装置に音声により出力させるものである。
(11)この発明の他の態様のプログラムは、コンピュータに、利用者が発話した音声を示すデータを取得させ、取得された前記データに基づいて、前記利用者の発話内容を認識させ、前記利用者と自システムとのやり取りに基づいて、前記利用者の習慣を推定させ、認識された前記発話内容に含まれる指示を特定させ、特定された前記指示に応じた処理を特定させ、又は特定された前記指示に応じた処理を特定できない場合には、推定された前記習慣に基づいて前記指示に応じた前記処理を特定させ、特定された前記指示を示す情報と、特定された前記処理を示す情報とを、スピーカを含む情報出力装置に音声により出力させるものである。
(1)~(10)の態様によれば、発話による操作者の指示を特定しつつ、指示を特定できない場合には、操作者の習慣に基づいて操作対象の機器に対する指示を特定することができる。
(2)の態様によれば、操作者の習慣に基づいて操作対象の機器に対する指示を特定しやすくすることができる。
(3)の態様によれば、操作者が新たに発話した簡潔な語句を指示として更新することができる。
(4)の態様によれば、操作者の習慣に基づいて操作者の目的地に係る指示を特定することができる。
(5)の態様によれば、簡潔な語句が指示として更新されたことを操作者に通知することができる。
(6)~(7)の態様によれば、適切に簡潔な語句の指示を登録することができる。
(8)の態様によれば、操作者毎に操作者に応じた指示を特定することができる。
実施形態に係るエージェントシステム1の構成の一例を示す図である。 実施形態に係るエージェント装置100の構成の一例を示す図である。 運転席から見た車室内の一例を示す図である。 車両Mを上から見た車室内の一例を示す図である。 実施形態に係るサーバ装置200の構成の一例を示す図である。 回答情報232の内容の一例を示す図である。 乗員の習慣を推定する場面の一例を示す図である。 習慣情報234の内容の一例を示す図である。 簡潔な語句により指示できるように乗員に促す場面の一例を示す図である。 対応情報236の内容の一例を示す図である。 乗員が簡潔な語句により指示する場面の一例を示す図である。 乗員が習慣に基づいて指示を特定する場面の一例を示す図である。 指示を特定し直す場面の一例を示す図である。 乗員により指示が訂正されたことに伴い更新された対応情報236の内容の一例を示す図である。 習慣を推定し直す場面の一例を示す図である。 乗員により習慣が訂正されたことに伴い更新された習慣情報234の内容の一例を示す図である。 実施形態に係るエージェント装置100の一連の処理の流れを示すフローチャートである。 実施形態に係るサーバ装置200の一例の処理の流れを示すフローチャートである。 実施形態に係るサーバ装置200の一例の処理の流れを示すフローチャートである。 合成情報の内容の一例を示す図である。 変形例に係るエージェント装置100Aの構成の一例を示す図である。
以下、図面を参照し、本発明のエージェントシステム、エージェント方法、及びプログラムの実施形態について説明する。
<実施形態>
[システム構成]
図1は、実施形態に係るエージェントシステム1の構成の一例を示す図である。実施形態に係るエージェントシステム1は、例えば、車両Mに搭載されるエージェント装置100と、車両M外に存在するサーバ装置200とを備える。車両Mは、例えば、二輪や三輪、四輪等の車両である。これらの車両の駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせであってよい。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
エージェント装置100とサーバ装置200とは、ネットワークNWを介して通信可能に接続される。ネットワークNWは、LAN(Local Area Network)やWAN(Wide Area Network)等が含まれる。ネットワークNWには、例えば、Wi-FiやBluetooth(登録商標、以下省略)等無線通信を利用したネットワークが含まれてよい。
エージェントシステム1は、複数のエージェント装置100および複数のサーバ装置200により構成されてもよい。以降は、エージェントシステム1が一つのエージェント装置100と、一つのサーバ装置200とを備える場合について説明する。
エージェント装置100は、エージェント機能を用いて車両Mの乗員からの音声を取得し、取得した音声をサーバ装置200に送信する。また、エージェント装置100は、サーバ装置から得られるデータ(以下、エージェントデータ)等に基づいて、乗員と対話したり、画像や映像等の情報を提供したり、車両Mに搭載される車載機器VEや他の装置を制御したりする。乗員は、「利用者」の一例である。以下、エージェント装置100とサーバ装置200が協働して仮想的に出現させるサービス提供主体(サービス・エンティティ)をエージェントと称する。
サーバ装置200は、車両Mに搭載されたエージェント装置100と通信し、エージェント装置100から各種データを取得する。サーバ装置200は、取得したデータに基づいて車両Mの乗員に対する応答として適したエージェントデータを生成し、生成したエージェントデータをエージェント装置100に提供する。
[エージェント装置の構成]
図2は、実施形態に係るエージェント装置100の構成の一例を示す図である。実施形態に係るエージェント装置100は、例えば、通信部102と、マイク(マイクロフォン)106と、スピーカ108と、表示部110と、制御部120と、記憶部150とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等により互いに接続されてよい。なお、図2に示すエージェント装置100の構成はあくまでも一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
通信部102は、NIC(Network Interface controller)等の通信インターフェースを含む。通信部102は、ネットワークNWを介してサーバ装置200等と通信する。
マイク106は、車室内の音声を電気信号化し収音する音声入力装置である。マイク106は、収音した音声のデータ(以下、音声データ)を制御部120に出力する。例えば、マイク106は、乗員が車室内のシートに着座したときの前方付近に設置される。例えば、マイク106は、マットランプ、ステアリングホイール、インストルメントパネル、またはシートの付近に設置される。マイク106は、車室内に複数設置されていてもよい。
スピーカ108は、例えば、車室内のシート付近または表示部110付近に設置される。スピーカ108は、制御部120により出力される情報に基づいて音声を出力する。
表示部110は、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)ディスプレイ等の表示装置を含む。表示部110は、制御部120により出力される情報に基づいて画像を表示する。スピーカ108と、表示部110とを組み合わせたものは、「情報出力装置」の一例である。
図3は、運転席から見た車室内の一例を示す図である。図示の例の車室内には、マイク106A~106Cと、スピーカ108A~108Cと、表示部110A~110Cとが設置される。マイク106Aは、例えば、ステアリングホイールに設けられ、主に運転者が発話した音声を収音する。マイク106Bは、例えば、助手席正面のインストルメントパネル(ダッシュボードまたはガーニッシュ)IPに設けられ、主に助手席の乗員が発話した音声を収音する。マイク106Cは、例えば、インストルメントパネルの中央(運転席と助手席との間)付近に設置される。
スピーカ108Aは、例えば、運転席側のドアの下部に設置され、スピーカ108Bは、例えば、助手席側のドアの下部に設置され、スピーカ108Cは、例えば、表示部110Cの付近、つまり、インストルメントパネルIPの中央付近に設置される。
表示部110Aは、例えば運転者が車外を視認する際の視線の先に虚像を表示させるHUD(Head-Up Display)装置である。HUD装置は、例えば、車両Mのフロントウインドシールド、或いはコンバイナーと呼ばれる光の透過性を有する透明な部材に光を投光することで、乗員に虚像を視認させる装置である。乗員は、主に運転者であるが、運転者以外の乗員であってもよい。
表示部110Bは、運転席(ステアリングホイールに最も近い座席)の正面付近のインストルメントパネルIPに設けられ、乗員がステアリングホイールの間隙から、或いはステアリングホイール越しに視認可能な位置に設置される。表示部110Bは、例えば、LCDや有機EL表示装置等である。表示部110Bには、例えば、車両Mの速度、エンジン回転数、燃料残量、ラジエータ水温、走行距離、その他の情報の画像が表示される。
表示部110Cは、インストルメントパネルIPの中央付近に設置される。表示部110Cは、例えば、表示部110Bと同様に、LCDや有機EL表示装置等である。表示部110Cは、テレビ番組や映画等のコンテンツを表示する。
なお、車両Mには、更に、後部座席付近にマイクとスピーカが設けられてよい。図4は、車両Mを上から見た車室内の一例を示す図である。車室内には、図3で例示したマイクスピーカに加えて、更に、マイク106D、106Eと、スピーカ108D、108Eとが設置されてよい。
マイク106Dは、例えば、助手席ST2の後方に設置された後部座席ST3の付近(例えば、助手席ST2の後面)に設けられ、主に、後部座席ST3に着座する乗員が発話した音声を収音する。マイク106Eは、例えば、運転席ST1の後方に設置された後部座席ST4の付近(例えば、運転席ST1の後面)に設けられ、主に、後部座席ST4に着座する乗員が発話した音声を収音する。
スピーカ108Dは、例えば、後部座席ST3側のドアの下部に設置され、スピーカ108Eは、例えば、後部座席ST4側のドアの下部に設置される。
なお、図1に例示した車両Mは、図3または図4に例示するように、乗員である運転手が操作可能なステアリングホイールを備える車両であるものとして説明したがこれに限られない。例えば、車両Mは、ルーフがない、すなわち車室がない(またはその明確な区分けがない)車両であってもよい。
また、図3または図4の例では、車両Mを運転操作する運転手が座る運転席と、その他の運転操作をしない乗員が座る助手席や後部座席とが一つの室内にあるものとして説明しているがこれに限られない。例えば、車両Mは、ステアリングホイールに代えて、ステアリングハンドルを備えた鞍乗り型自動二輪車両であってもよい。
また、図3または図4の例では、車両Mが、ステアリングホイールを備える車両であるものとして説明しているがこれに限られない。例えば、車両Mは、ステアリングホイールのような運転操作機器が設けられていない自動運転車両であってもよい。自動運転車両とは、例えば、乗員の操作に依らずに車両の操舵または加減速のうち一方または双方を制御して運転制御を実行することである。
図2の説明に戻り、制御部120は、例えば、取得部121と、音声合成部122と、通信制御部123と、出力制御部124と、機器制御部125とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェア(回路部;circuitryを含む)により実現されてもよいし、ソフトウェアとハードウェアの協働により実現されてもよい。プログラムは、予め記憶部150(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることで記憶部150にインストールされてもよい。
記憶部150は、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。記憶部150には、例えば、プロセッサにより参照されるプログラム等と、車載機器情報152が格納される。車載機器情報152は、車両Mに搭載されている車載機器VEの一覧を示す情報である。
取得部121は、マイク106から音声データや、他の情報を取得する。
音声合成部122は、通信部102がサーバ装置200から受信したエージェントデータに音声指示内容が含まれる場合に、音声制御として発話により音声指示された音声データに対応する、人工的な合成音声を生成する。以下、音声合成部122が生成する人工的な合成音声を、エージェント音声とも記載する。
通信制御部123は、取得部121により取得された音声データを通信部102によりサーバ装置200に送信させる。通信制御部123は、サーバ装置200から送信されたエージェントデータを通信部102により受信させる。
出力制御部124は、例えば、エージェントデータに含まれる各種指示に応じて、情報出力装置を制御し、各種情報を情報出力装置に出力させる。例えば、出力制御部124は、エージェントデータに含まれる指示に応じて、音声合成部122によりエージェント音声が生成されると、そのエージェント音声をスピーカ108に出力させる。出力制御部124は、エージェントデータに含まれる指示に応じて、画像データを表示部110に表示させる。なお、出力制御部124は、音声データの認識結果(フレーズ等のテキストデータ)の画像を表示部110に表示させてもよい。
機器制御部125は、例えば、エージェントデータに含まれる各種指示に応じて、車載機器VEを制御する。
なお、出力制御部124と機器制御部125とは、エージェントデータに含まれる各種指示に応じて、車載機器VEを制御するように、一体に構成されてもよい。以下、説明の便宜上、車載機器VEのうち、情報出力装置を制御する処理を出力制御部124が行い、情報出力装置以外の他の車載機器VEを制御する処理を機器制御部125が行うものとして説明する。
[サーバ装置の構成]
図5は、実施形態に係るサーバ装置200の構成の一例を示す図である。実施形態に係るサーバ装置200は、例えば、通信部202と、制御部210と、記憶部230とを備える。
通信部202は、NIC等の通信インターフェースを含む。通信部202は、ネットワークNWを介して各車両Mに搭載されたエージェント装置100等と通信する。
制御部210は、例えば、取得部211と、発話区間抽出部212と、音声認識部213と、推定部214と、指示特定部215と、処理特定部216と、エージェントデータ生成部217と、通信制御部218とを備える。これらの構成要素は、例えば、CPUやGPU等のプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA等のハードウェア(回路部;circuitryを含む)により実現されてもよいし、ソフトウェアとハードウェアの協働により実現されてもよい。プログラムは、予め記憶部230(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることで記憶部230にインストールされてもよい。
記憶部230は、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。記憶部230には、例えば、プロセッサにより参照されるプログラムのほかに、回答情報232、習慣情報234、及び対応情報236等が格納される。以下、回答情報232について説明し、習慣情報234、及び対応情報236の詳細については、後述する。
図6は、回答情報232の内容の一例を示す図である。回答情報232には、例えば、意味情報に、制御部120に実行させる処理(制御)内容が対応付けられている。意味情報とは、例えば、音声認識部213により発話内容全体から認識される意味である。処理内容には、例えば、車載機器VEの制御に関する車載機器制御内容や、エージェント音声を出力する音声の内容と制御内容、表示部110に表示させる表示制御内容等が含まれる。例えば、回答情報232では、「ナビゲーション装置の目的地検索」という意味情報に対して、「ナビゲーション装置に指定した条件に合致する目的地を検索させる」という車載機器制御と、「(検索結果の数)件、見つかりました。」という音声制御内容と、検索結果の位置を示す画像を表示する表示制御内容とが対応付けられている。
図5に戻り、取得部211は、通信部202によりエージェント装置100から送信された、音声データを取得する。
発話区間抽出部212は、取得部121により取得された音声データから、乗員が発話している期間(以下、発話区間と称する)を抽出する。例えば、発話区間抽出部212は、零交差法を利用して、音声データに含まれる音声信号の振幅に基づいて発話区間を抽出してよい。また、発話区間抽出部212は、混合ガウス分布モデル(GMM;Gaussian mixture model)に基づいて、音声データから発話区間を抽出してもよいし、発話区間特有の音声信号をテンプレート化したデータベースとテンプレートマッチング処理を行うことで、音声データから発話区間を抽出してもよい。
音声認識部213は、発話区間抽出部212により抽出された発話区間ごとに音声データを認識し、抽出された音声データをテキスト化することで、発話内容を含むテキストデータを生成する。例えば、音声認識部213は、発話区間の音声信号を、低周波数や高周波数等の複数の周波数帯に分離し、分類した各音声信号をフーリエ変換することで、スペクトログラムを生成する。音声認識部213は、生成したスペクトログラムを、再帰的ニューラルネットワークに入力することで、スペクトログラムから文字列を得る。再帰的ニューラルネットワークは、例えば、学習用の音声から生成したスペクトログラムに対して、その学習用の音声に対応した既知の文字列が教師ラベルとして対応付けられた教師データを利用することで、予め学習されていてよい。そして、音声認識部213は、再帰的ニューラルネットワークから得た文字列のデータを、テキストデータとして出力する。
また、音声認識部213は、自然言語のテキストデータの構文解析を行って、テキストデータを形態素に分け、各形態素からテキストデータに含まれる文言の意味を解釈する。
推定部214は、乗員と、エージェントとのやり取りに基づいて、乗員の習慣を推定する。推定部214は、推定した乗員の習慣に基づいて、習慣情報234を生成(更新)する。推定部214の処理の詳細については、後述する。
指示特定部215は、音声認識部213により認識された乗員の発話内容(音声データ)に含まれる指示を特定する。指示特定部215は、例えば、音声認識部213により解釈された発話内容の意味に基づいて、回答情報232の意味情報を参照し、合致する意味情報の指示を特定する。なお、音声認識部213の認識結果として、「エアコンをつけて」、「エアコンの電源を入れてください」等の意味が解釈された場合、指示特定部215は、上述の意味を標準文字情報「エアコンの起動」等に置き換える。これにより、発話内容の要求に表現揺らぎやテキスト化の文字揺らぎ等があった場合にも要求にあった指示を取得し易くすることができる。
処理特定部216は、指示特定部215により特定された指示に応じた処理であって、車載機器VEに行わせる処理を特定する。処理特定部216は、例えば、回答情報232において指示特定部215に特定された指示に対応付けられている処理内容を、車載機器VEに行わせる処理として特定する。また、処理特定部216は、指示特定部215により特定された指示に応じた処理を特定できなかった場合、推定部214により推定された乗員の習慣に基づいて、指示に応じた処理を特定する。処理特定部216の処理の詳細については、後述する。
エージェントデータ生成部217は、取得した処理内容(例えば、車載機器制御、音声制御、または表示制御のうち少なくとも一つ)に対応する処理を実行させるためのエージェントデータを生成する。
通信制御部218は、エージェントデータ生成部217により生成されたエージェントデータを、通信部202によりエージェント装置100に送信させる。これにより、エージェント装置100は、制御部120により、エージェントデータに対応する制御が実行することができる。
以下、推定部214の処理との詳細と、処理特定部216が乗員の習慣に基づいて処理を特定する処理の詳細について説明する。
[乗員の習慣の推定]
図7は、乗員の習慣を推定する場面の一例を示す図である(なお、この図における「エージェント」は乗員に向けて表示部110に表示されるエージェントを表した画像である)。まず、乗員は、エージェントに対して車載機器VEに行わせる処理を指示する発話CV11を行う。発話CV11は、例えば、「『ねぇ〇〇(エージェント名)』(ウェイクアップワード)、この周辺にある1000円以下のランチを提供している評価3点以上のレストラン(条件1)を検索して?(指示1)」等の言葉である。発話CV11には、車載機器VEであるナビゲーション装置に目的地を検索させる処理を指示する言葉(指示1)と、検索条件を表す言葉(条件1)とが含まれる。これを受けて、サーバ装置200は、ナビゲーション装置に(指示1)を(条件1)により実行させるエージェントデータや、指示に応じた処理の結果を乗員に通知させるエージェントデータを生成する。エージェント装置100は、エージェントデータに基づいて、各種処理を実行する。そして、エージェントは、発話CV11に対応する応答文RP11を回答する。応答文RP11は、例えば、「2件見つかりました。A店とB店どちらに向かいますか?」等の言葉である。
応答文RP11には、乗員の回答を促す言葉が含まれるため、乗員は、応答文RP11に対応する発話CV12を行う。発話CV12は、例えば、「A店(条件2)に向かって。(指示2)」等の言葉である。発話CV12には、車載機器VEであるナビゲーション装置に経路の案内をさせる処理を指示する言葉(指示2)と、経路の案内の条件を表す言葉(条件2)とが含まれる。これを受けて、サーバ装置200は、ナビゲーション装置に(指示2)を(条件2)により実行させるエージェントデータや、指示に応じた処理の結果を乗員に通知させるエージェントデータを生成する。エージェント装置100は、エージェントデータに基づいて、各種処理を実行する。そして、エージェントは、発話CV12に対応する応答文RP12を回答する。応答文RP12は、例えば、「A店までの経路を検索しました。」等の言葉である。
推定部214は、乗員が発話した指示に習慣性があるか(つまり、指示が繰り返しなされているか)を推定する。推定部214は、例えば、乗員の発話内容を示す情報と、指示特定部215により特定された指示を示す情報と、処理特定部216により特定された処理を示す情報と、当該発話、当該指示、又は当該処理が行われた日時を示す情報とが対応付けられた履歴情報(不図示)を参照し、指示を含む発話が、過去に同様のタイミングにされているか否かを判定する。同様のタイミングとは、例えば、同様の曜日、一様に平日、一様に休日、同様の時刻、車両Mの位置が同様の位置、一様に乗車する(或いは、一様に乗車してから所定時間後の)タイミング、一様に降車する(或いは、一様に降車予定時刻から所定時間前の)タイミング等である。図7において、乗員は、平日の午前11時30分頃に、ナビゲーション装置に(条件1)により(指示1)を行わせる発話を習慣的に行っている。推定部214は、例えば、同様のタイミングに所定回数以上、同様の処理を行わせる指示を乗員が発話している場合、当該指示に習慣性があると推定する。
なお、推定部214は、履歴情報に含まれる指示を含む発話の内容と、指示を含む発話の一致の程度に基づいて、当該指示に習慣性があると推定してもよい。この場合、推定部214は、同じような発話(例えば、お決まりの発話等)を所定回数以上している場合、当該指示に習慣性があると推定する。また、推定部214は、目的地の場所、目的地への出発時刻、目的地の到着時刻、目的地の評価、及び目的地のカテゴリ等に基づいて、当該指示に習慣性があると推定してもよい。推定部214は、例えば、口コミサイト等の評価を参照して目的地の評価を特定してもよい。
推定部214は、乗員が発話した指示に習慣性があると推定した場合、習慣化されている内容について習慣情報234を生成する。図8は、習慣情報234の内容の一例を示す図である。習慣情報234は、例えば、習慣性がある指示が行われるタイミングを示す情報と、指示の内容を示す情報と、当該指示に応じて行われた処理の内容を示す情報とが互いに対応付けられたレコードを一以上含む情報である。推定部214は、習慣性があると推定した指示を含む発話が行われたタイミングを特定し、特定したタイミングと、指示特定部215により特定された指示と、処理特定部216により特定された処理とを互いに対応付けてレコードを生成し、習慣情報234を生成(更新)する。
図8において、推定部214は、「平日の午前11時30分頃」というタイミングを示す情報と、処理内容として「ナビゲーション装置にこの周辺にある1000円以下のランチを提供している評価3点以上のレストラン(条件1)に合致する目的地を検索させる(指示1)」車載機器制御と「(検索結果の数)件、見つかりました。」という音声制御内容と検索結果の位置を示す画像を表示する表示制御内容とが互いに対応付けられたレコードを生成し、習慣情報234を生成(更新)する。
[簡潔な語句による指示]
ここで、サーバ装置200は、推定部214により習慣性があると推定された指示について、簡潔な語句により指示できるようにすることを、乗員に促してもよい。図9は、簡潔な語句により指示できるように乗員に促す場面の一例を示す図である。図9に示す場面では、乗員により発話CV11の習慣性のある発話がなされたタイミングにおいて、推定部214が、乗員が発話した指示には習慣性があると推定する。そして、エージェントデータ生成部217は、発話CV11に係る処理が、応答文RP12において完結した後に、推定部214により習慣性があると推定された指示について、予め定められた簡潔な語句により当該指示に応じた処理を実行できるようにすることを促させるエージェントデータを生成する。予め定められた簡潔な語句とは、例えば、「いつもの」、「あれやって」、「ショートカット」等の語句である。以下、予め定められた簡潔な語句が「いつもの」であるものとする。予め定められた簡潔な語句は、「所定指示」の一例である。
エージェント装置100は、エージェントデータに基づいて、各種処理を実行する。そして、エージェントは、応答文RP13を回答する。応答文RP13は、例えば、「平日のこの時間帯に同様の指示をされていますね、…(条件1)で検索する処理(指示1)を、『いつもの』(簡潔な語句の一例)という指示で登録されますか?」等の言葉である。応答文RP13中の「平日のこの時間帯に同様の指示をされていますね」等の言葉は、推定部214により習慣性があると推定されたタイミングに応じた言葉である。図9では、応答文RP13には、乗員の回答を促す言葉が含まれるため、乗員は、応答文RP13に対応する発話CV13を行う。発話CV13は、例えば、「お願い。(指示3)」等の応答文RP13に同意するような言葉である。処理特定部216は、応答文RP13に対して乗員から好適な回答が得られた場合、対応情報236を生成(更新)する。
図10は、対応情報236の内容の一例を示す図である。対応情報236は、予め定められた簡潔な語句を示す情報と、習慣性があると推定された指示に応じて行われる処理内容を示す情報とが互いに対応付けられたレコードが一以上含まれる情報である。推定部214は、簡潔な語句により指示できるようにすることを促して、好適な回答が得られた場合、簡潔な語句を示す意味情報と、簡潔な語句の指示により行われる処理の内容を示す情報とを互いに対応付けたレコードを生成し、習慣情報234を生成(更新)する。図10において、対応情報236は、「いつもの」という意味情報と、「いつもの」と指示した場合に行われる処理として、処理内容として「ナビゲーション装置にこの周辺にある1000円以下のランチを提供している評価3点以上のレストラン(条件1)に合致する目的地を検索させる(指示1)」車載機器制御と「(検索結果の数)件、見つかりました。」という音声制御内容と検索結果の位置を示す画像を表示する表示制御内容とが互いに対応付けられたレコードを生成し、対応情報236を生成(更新)する。
図11は、乗員が簡潔な語句により指示する場面の一例を示す図である。まず、乗員は、エージェントに対して車載機器VEに行わせる処理を指示する発話CV21を行う。発話CV21は、例えば、「『ねぇ〇〇(エージェント名)』(ウェイクアップワード)、いつもの(指示4)お願い。」等の言葉である。これを受けて、指示特定部215は、音声認識部213により認識された乗員の発話内容(音声データ)に含まれる指示として、「いつもの」(指示4)を特定する。処理特定部216は、指示特定部215により特定された指示である「いつもの」(指示4)を検索キーとして対応情報236を検索する。処理特定部216は、検索した結果、「いつもの」(指示4)に対応付けられた処理内容を、車載機器VEに行わせる処理として特定する。
エージェントデータ生成部217は、処理特定部216により特定された処理を車載機器VEに実行させるためのエージェントデータを生成する。エージェント装置100は、エージェントデータに基づいて、各種処理を実行する。そして、エージェントは、発話CV21に対応する応答文RP21を回答する。応答文RP21には、例えば、「この周辺にある1000円以下のランチを提供している評価3点以上のレストラン(条件1)が2件見つかりました。A店とB店どちらに向かいますか?」等の乗員の簡単な語句によってされた指示(の意図)を復唱する言葉と、指示に応じた処理の結果を示す言葉とが含まれる。以降の乗員の発話CVに対応する処理は、上述した処理と同様であるため、説明を省略する。
これにより、エージェントシステム1は、車両Mの乗員の簡潔な語句の発話により、乗員の習慣的な指示に応じた処理を車載機器VEに行わせることができる。また、これにより、エージェントシステム1は、習慣情報234や対応情報236を用いて、乗員の指示を特定することにより、乗員の習慣に基づいて操作対象の車載機器VEに対する指示を特定しやすくすることができる。
[乗員の習慣に基づく指示の特定]
ここで、車両Mの乗員が、未だ処理が対応付けられていない簡潔な語句により指示を行ってしまう場合がある。この場合、処理特定部216は、習慣情報234に基づいて、乗員の指示に応じた処理を特定する。
図12は、乗員が習慣に基づいて指示を特定する場面の一例を示す図である。まず、乗員は、エージェントに対して車載機器VEに行わせる処理を指示する発話CV31を行う。発話CV31は、例えば、「『ねぇ〇〇(エージェント名)』(ウェイクアップワード)、あれやって(指示5)。」等の言葉である。これを受けて、指示特定部215は、音声認識部213により認識された乗員の発話内容(音声データ)に含まれる指示として、「あれやって」(指示5)を特定する。処理特定部216は、指示特定部215により特定された指示である「あれやって」(指示5)を検索キーとして対応情報236を検索する。図10の対応情報236に示されるように、「あれやって」(指示5)という簡潔な語句による指示を示すレコードは、未だ対応情報236のレコードとして登録されていない。また、同様に、回答情報232には、「あれやって」という意味情報が含まれるレコードが登録されていない。したがって、処理特定部216は、回答情報232や対応情報236に基づいて、乗員の指示に対応する処理を特定することができない。
この場合、処理特定部216は、習慣情報234に基づいて、乗員の指示に対応する処理を特定する。処理特定部216は、乗員の発話が行われたタイミングの特徴を特定する。タイミングの特徴とは、例えば、何曜日か、平日と休日とのどちらか、時刻、車両Mの位置、乗車するタイミング(或いは、乗車してから所定時間後のタイミング)であるか、降車するタイミング(或いは、降車予定時刻から所定時間前のタイミング)であるか等である。
図12において、処理特定部216は、乗員の発話が行われたタイミングが平日の午前11:30頃であると特定する。処理特定部216は、特定したタイミングを検索キーとして習慣情報234を検索する。処理特定部216は、検索した結果、特定したタイミングと合致するタイミング、或いは特定したタイミングと合致の程度が高いタイミングに対応付けられた処理内容を特定する。
エージェントデータ生成部217は、処理特定部216により特定された処理を車載機器VEに実行させるためのエージェントデータを生成する。また、エージェントデータ生成部217は、習慣情報234において処理特定部216により特定された処理に対応付けられた指示内容を乗員に確認するためのエージェントデータを生成する。エージェント装置100は、エージェントデータに基づいて、各種処理を実行する。そして、エージェントは、発話CV31に対応する応答文RP31を回答する。応答文RP31には、例えば、「『あれやって(指示5)』が分かりませんでした。とりあえず、Aさんの習慣から、この周辺にある1000円以下のランチを提供している評価3点以上のレストラン(条件1)を検索し、2件見つかりました。A店とB店どちらに向かいますか?」等の乗員の簡単な語句によってされた指示(の意図)を復唱する言葉と、指示に応じた処理の結果を示す言葉とが含まれる。以降の乗員の発話CVに対応する処理は、上述した処理と同様であるため、説明を省略する。
なお、未だ対応情報236のレコードとして登録されていない簡潔な語句の指示について、習慣情報234に基づいて処理特定部216が処理を特定し、特定した指示が乗員に受けられ入れられた場合、処理特定部216は、当該簡潔な語句の指示を示す情報と、処理の内容を示す情報とが互いに対応付けられたレコードを生成し、対応情報236を更新してもよい。また、この時、エージェントデータ生成部217は、新たなレコードを生成して習慣情報234に登録することを乗員に通知するためのエージェントデータを生成し、エージェント装置100の情報出力装置は、エージェントデータに基づいて、乗員に通知を行ってもよい。
これにより、エージェントシステム1は、発話による乗員の指示を特定しつつ、乗員の指示を特定できない場合には、乗員の習慣に基づいて操作対象の車載機器VEに対する指示を特定することができる。また、これにより、エージェントシステム1は、乗員が新たに発話した簡潔な語句を指示として更新することができる。また、これにより、エージェントシステム1は、簡潔な語句が指示として更新されたことを乗員に通知することができる。
[指示の訂正]
ここで、車両Mの乗員は、誤った語句を用いて指示を行ってしまったり、想定していた語句とは異なる語句と指示とを対応付けてしまったりする場合がある。乗員の発話内容に指示を訂正する内容が含まれる場合には、指示特定部215は、指示を特定し直す処理を行う。以下、指示特定部215による指示の訂正に係る処理について説明する。
図13は、指示を特定し直す場面の一例を示す図である。まず、乗員は、エージェントに対して車載機器VEに行わせる処理を指示する発話CV21を行う。発話CV21は、例えば、「『ねぇ〇〇(エージェント名)』(ウェイクアップワード)、いつもの(指示4)お願い。」等の言葉である。これを受けて、指示特定部215は、音声認識部213により認識された乗員の発話内容(音声データ)に含まれる指示として、「いつもの」(指示4)を特定する。処理特定部216は、指示特定部215により特定された指示である「いつもの」(指示4)を検索キーとして対応情報236を検索する。処理特定部216は、検索した結果、「いつもの」(指示4)に対応付けられた処理内容を、車載機器VEに行わせる処理として特定する。
エージェントデータ生成部217は、処理特定部216により特定された処理を車載機器VEに実行させるためのエージェントデータを生成する。エージェント装置100は、エージェントデータに基づいて、各種処理を実行する。そして、エージェントは、発話CV21に対応する応答文RP21を回答する。応答文RP21には、例えば、「この周辺にある1000円以下のランチを提供している評価3点以上のレストラン(条件1)が2件見つかりました。A店とB店どちらに向かいますか?」等の乗員の簡単な語句によってされた指示(の意図)を復唱する言葉と、指示に応じた処理の結果を示す言葉とが含まれる。
ここで、応答文RP21の回答は、乗員が想定していた指示と異なる指示に対応する処理を行う旨の回答である。したがって、乗員は、応答文RP21に応じて、指示を訂正する発話CV51を行う。発話CV51は、例えば、「違うよ(訂正)。朝にお茶できる評価3以上のカフェ(条件3)を検索して?(指示1)」等の言葉である。発話CV51には、応答文RP21において提示した指示を訂正する言葉(この場合、「違うよ」)と、車載機器VEであるナビゲーション装置に目的地を検索させる処理を指示する言葉(指示1)と、検索条件を表す言葉(条件3)とが含まれる。これを受けて、指示特定部215は、例えば、音声認識部213により認識された発話内容の意味に基づいて、ナビゲーション装置に(指示1)を(条件3)により実行させることを指示として特定し直す。
処理特定部216は、指示特定部215により特定し直された指示に応じた処理であって、車載機器VEに行わせる処理を特定し直す。処理特定部216は、例えば、回答情報232において指示特定部215に特定された指示に対応付けられている処理内容を、車載機器VEに行わせる処理として特定する。
なお、処理特定部216は、指示特定部215により指示が特定し直された場合、音声認識部213により認識された乗員の発話内容(音声データ)に基づいて、当該発話内容に含まれる処理(この場合、(指示1)を(条件3)により実行する処理)を特定してもよい。
エージェントデータ生成部217は、処理特定部216により特定された処理を車載機器VEに実行させるためのエージェントデータを生成する。エージェント装置100は、エージェントデータに基づいて、各種処理を実行する。そして、エージェントは、発話CV51に対応する応答文RP52を回答する。応答文RP52は、例えば、「朝にお茶できる評価3以上のカフェ(条件3)が2件見つかりました。C店とD店どちらに向かいますか?」等の言葉である。以降の乗員の発話CVに対応する処理は、上述した処理と同様であるため、説明を省略する。
指示特定部215は、乗員により指示が訂正された場合、当該訂正された指示を示す意味情報と、処理内容とが互いに対応付けられたレコードを対応情報236から削除してもよい。また、処理特定部216は、指示特定部215により特定し直された指示を示す情報と、特定し直された指示に応じた処理を示す情報とを互いに対応付けたレコードを生成し、対応情報236に登録(更新)してもよい。以下、乗員により指示が訂正された場合、処理特定部216がレコードを生成し、対応情報236を更新するものとする。
図14は、乗員により指示が訂正されたことに伴い更新された対応情報236の内容の一例を示す図である。この場合、処理特定部216は、訂正された指示を表す簡潔な語句の意味情報と、指示特定部215により特定し直された指示に応じた処理を示す情報とを互いに対応付けたレコードを生成し、対応情報236に更新する。これにより、対応情報236には、「いつもの」(指示4)という意味情報と、「いつもの」と指示した場合に行われる処理として、処理内容として「朝にお茶できる評価3以上のカフェ(条件3)に合致する目的地を検索させる(指示1)」車載機器制御と「(検索結果の数)件、見つかりました。」という音声制御と検索結果の位置を示す画像を表示する表示制御とが互いに対応付けられたレコードが含まれる。
なお、指示特定部215は、対応情報236において、ある一つの指示に対して複数の処理が対応付けられている場合、習慣情報234とタイミングの特徴とに基づいて、複数の処理のうち、特定したタイミングの特徴と合致するタイミング、或いは特定したタイミングの特徴と合致の程度が高いタイミングに対応付けられた処理内容を特定してもよい。
これにより、エージェントシステム1は、適切に簡潔な語句の指示を乗員に登録させつつ、簡便な方法により乗員に指示を訂正させることができる。
[習慣の訂正]
ここで、推定部214が車両Mの乗員の習慣として推定した内容が誤りである場合がある。この場合、処理特定部216は、誤った習慣に基づいて、乗員の指示に応じた処理を特定してしまう場合がある。乗員の発話内容に習慣を訂正する内容が含まれる場合には、推定部214は、習慣を推定し直す処理を行う。以下、推定部214による習慣の訂正に係る処理について説明する。
図15は、習慣を推定し直す場面の一例を示す図である。まず、乗員は、エージェントに対して車載機器VEに行わせる処理を指示する発話CV21を行う。発話CV21は、例えば、「『ねぇ〇〇(エージェント名)』(ウェイクアップワード)、あれやって(指示5)」等の言葉である。これを受けて、指示特定部215は、音声認識部213により認識された乗員の発話内容(音声データ)に含まれる指示として、「あれやって」(指示5)を特定する。処理特定部216は、指示特定部215により特定された指示である「あれやって」(指示5)を検索キーとして対応情報236を検索する。図10の対応情報236に示されるように、「あれやって」(指示5)という簡潔な語句による指示を示すレコードは、未だ対応情報236のレコードとして登録されていない。また、同様に、回答情報232には、「あれやって」という意味情報が含まれるレコードが登録されていない。したがって、処理特定部216は、回答情報232や対応情報236に基づいて、乗員の指示に対応する処理を特定することができない。
この場合、処理特定部216は、習慣情報234に基づいて、乗員の指示に対応する処理を特定する。処理特定部216は、乗員の発話が行われたタイミングの特徴を特定する。図15において、処理特定部216は、乗員の発話が行われたタイミングが日曜日の午前10:00頃であると特定する。処理特定部216は、特定したタイミングを検索キーとして習慣情報234を検索する。処理特定部216は、検索した結果、特定したタイミングと合致或いは特定したタイミングと合致の程度が高いタイミングに対応付けられた処理内容を特定する。図8に示す習慣情報234には、日曜日の午前10:00頃と合致するタイミングのレコードは存在しないものの、午前10:00頃と合致の程度が高いタイミングのレコードが存在する。したがって、処理特定部216は、「平日の午前11時30分頃」というタイミングを示す情報と、処理内容として「ナビゲーション装置にこの周辺にある1000円以下のランチを提供している評価3点以上のレストラン(条件1)に合致する目的地を検索させる(指示1)」車載機器制御と「(検索結果の数)件、見つかりました。」という音声制御と検索結果の位置を示す画像を表示する表示制御とが互いに対応付けられたレコードを、乗員の指示に応じた処理として特定する。
エージェントデータ生成部217は、処理特定部216により特定された処理を車載機器VEに実行させるためのエージェントデータを生成する。エージェント装置100は、エージェントデータに基づいて、各種処理を実行する。そして、エージェントは、発話CV21に対応する応答文RP31を回答する。応答文RP31には、例えば、「『あれやって(指示5)』が分かりませんでした。とりあえず、Aさんの習慣から、この周辺にある1000円以下のランチを提供している評価3点以上のレストラン(条件1)を検索し、2件見つかりました。A店とB店どちらに向かいますか?」等の乗員の簡単な語句によってされた指示(の意図)を復唱する言葉と、指示に応じた処理の結果を示す言葉とが含まれる。
ここで、応答文RP31の回答は、乗員が想定していた指示と異なる指示に対応する処理を行う旨の回答である。したがって、乗員は、応答文RP31に応じて、指示を訂正する発話CV61を行う。発話CV61は、例えば、「違うよ(訂正)。この曜日のこの時間帯(タイミング)には、朝にお茶できる評価3以上のカフェ(条件3)を検索して?(指示1)」等の言葉である。発話CV61には、応答文RP31において提示した指示の根拠となる習慣を訂正する言葉(この場合、「違うよ」)と、習慣のタイミングの特徴を示す言葉(この場合、「この曜日のこの時間帯」)と、車載機器VEであるナビゲーション装置に目的地を検索させる処理を指示する言葉(指示1)と、検索条件を表す言葉(条件3)とが含まれる。これを受けて、指示特定部215は、例えば、音声認識部213により認識された発話内容の意味に基づいて、ナビゲーション装置に(指示1)を(条件3)により実行させることを指示として特定し直す。
処理特定部216は、指示特定部215により特定し直された指示に応じた処理であって、車載機器VEに行わせる処理を特定し直す。処理特定部216は、例えば、回答情報232において指示特定部215に特定された指示に対応付けられている処理内容を、車載機器VEに行わせる処理として特定する。
推定部214は、乗員により習慣が訂正された場合、当該訂正された習慣に係るレコードを習慣情報234から削除してもよい。また、推定部214は、指示特定部215により特定し直された指示を示す情報と、特定し直された指示に応じて処理特定部216によりと特定された処理を示す情報とを互いに対応付けたレコードを生成し、習慣情報234に登録(更新)してもよい。以下、乗員により指示が訂正された場合、推定部214がレコードを生成し、習慣情報234を更新するものとする。
図16は、乗員により習慣が訂正されたことに伴い更新された習慣情報234の内容の一例を示す図である。この場合、推定部214は、訂正された習慣のタイミングを示す情報と、指示特定部215により特定し直された指示の内容を示す情報と、特定し直された指示に応じて処理特定部216によりと特定された処理を示す情報とを互いに対応付けたレコードを生成し、習慣情報234を更新する。これにより、習慣情報234には、「日曜日の午前10時00分頃」というタイミングを示す情報と、処理内容として「ナビゲーション装置に朝にお茶できる評価3以上のカフェ(条件3)に合致する目的地を検索させる(指示1)」車載機器制御と「(検索結果の数)件、見つかりました。」という音声制御と検索結果の位置を示す画像を表示する表示制御とが互いに対応付けられたレコードが含まれる。
これにより、エージェントシステム1は、適切に簡潔な語句の指示を乗員に登録させつつ、簡便な方法により乗員に指示を訂正させることができる。
[処理フロー]
次に、実施形態に係るエージェントシステム1の処理の流れについてフローチャートを用いて説明する。なお、以下では、エージェント装置100の処理と、サーバ装置200との処理を分けて説明するものとする。また、以下に示す処理の流れは、所定のタイミングで繰り返し実行されてよい。所定のタイミングとは、例えば、音声データからエージェント装置を起動させる特定ワード(例えば、ウェイクアップワード)が抽出されたタイミングや、車両Mに搭載される各種スイッチのうち、エージェント装置100を起動させるスイッチの選択を受け付けたタイミング等である。
図17は、実施形態に係るエージェント装置100の一連の処理の流れを示すフローチャートである。まず、取得部121は、ウェイクアップワードが認識された後に、マイク106により乗員の音声データが収集されたか(つまり、乗員の発話があったか)否かを判定する(ステップS100)。取得部121は、乗員の音声データが収集されるまでの間、待機する。次に、通信制御部123は、サーバ装置200に対して音声データを通信部102に送信させる(ステップS102)。次に、通信制御部123は、通信部102にエージェントデータをサーバ装置200から受信させる(ステップS104)。
出力制御部124や、機器制御部125は、エージェントデータに基づいて車載機器VEを制御し、エージェントデータに含まれる処理を実行する(ステップS106)。例えば、出力制御部124は、音声制御に係るエージェントデータが受信された場合、スピーカ108にエージェント音声を出力させ、表示制御に係るエージェントデータが受信された場合、指示された画像データを表示部110に表示させる。機器制御部125は、エージェントデータが音声制御や表示制御以外の制御(つまり、スピーカ108、及び表示部110以外の車載機器VEに係る制御)である場合、エージェントデータに基づいて各車載機器VEを制御する。
図18~図19は、実施形態に係るサーバ装置200の一例の処理の流れを示すフローチャートである。まず、通信部202は、エージェント装置100から音声データを取得する(ステップS200)。次に、発話区間抽出部212は、音声データに含まれる発話区間を抽出する(ステップS202)。次に、音声認識部213は、抽出された発話区間における音声データから、発話内容を認識する。具体的には、音声認識部213は、音声データをテキストデータにして、最終的にはテキストデータに含まれる文言を認識する(ステップS204)。
指示特定部215は、音声認識部213により認識された発話内容に、指示、又は習慣を訂正する内容が含まれるか否かを判定する(ステップS206)。指示特定部215は、訂正する内容が含まれると判定する場合、処理をステップS224に進める。指示特定部215は、訂正する内容が含まれないと判定する場合、音声認識部213により認識された乗員の発話内容(音声データ)に含まれる指示を特定し、特定された指示が対応情報236に含まれるか否かを判定する(ステップS208)。エージェントデータ生成部217は、指示特定部215により指示が対応情報236に含まれると判定された場合、対応情報236に基づくエージェントデータを生成する(ステップS210)。
具体的には、処理特定部216は、対応情報236のレコードのうち、指示特定部215により特定された指示に対応付けられたレコードを特定し、当該レコードに含まれる処理内容を、乗員の指示に対応する処理として特定する。エージェントデータ生成部217は、処理特定部216により特定された処理を車載機器VEに実行させるためのエージェントデータを生成する。次に、通信制御部218は、通信部202を介して、エージェントデータをエージェント装置100に送信する(ステップS222)。
処理特定部216は、指示特定部215により乗員の発話内容に含まれる指示が、対応情報236に含まれないと判定した場合、回答情報232に基づいて、発話内容の意味情報から、指示に応じた処理を特定できるか否かを判定する(ステップS212)。処理特定部216は、例えば、乗員の指示が簡潔な語句によりなされている場合であって、且つ対応情報236に当該簡潔な語句の指示に処理内容が対応付けられたレコードが存在しない場合に、指示に応じた処理を特定できないと判定する。処理特定部216は、例えば、乗員の指示が、簡潔な語句の指示ではなく、文章によりなされている場合に、指示に応じた処理を特定できると判定する。
エージェントデータ生成部217は、処理特定部216により発話内容の意味情報から指示に応じた処理を特定できると判定された場合、車載機器VEに当該処理を行わせるエージェントデータを生成する(ステップS214)。推定部214は、乗員が発話した指示に習慣性があるか(つまり、指示が繰り返しなされているか)を推定する(ステップS216)。推定部214は、指示に習慣性があると判定した場合、指示特定部215により特定された指示と、処理特定部216により特定された処理と、乗員の発話が行われたタイミングの特徴とに基づいて、習慣情報234を更新する(ステップS218)。推定部214は、指示に習慣性がないと判定した場合、処理をステップS222に進める。
処理特定部216は、発話内容の意味情報から指示に応じた処理を特定できないと判定する場合、習慣情報234に基づいて、指示に応じた処理を特定する(ステップS220)。処理特定部216は、例えば、乗員の発話が行われたタイミングを特定し、習慣情報234に基づいて、特定したタイミングと合致するタイミング、或いは特定したタイミングと合致の程度が高いタイミングに対応付けられた処理内容を、乗員の指示に応じた処理として特定する。エージェントデータ生成部217は、処理特定部216により特定された処理を車載機器VEに行わせるためのエージェントデータを生成し(ステップS221)、処理をステップS222に進める。
指示特定部215は、発話に訂正する内容が含まれると判定する場合、発話が指示を訂正する内容であるか否かを判定する(ステップS224)。指示特定部215は、発話内容が指示を訂正する内容であると判定した場合、音声認識部213により認識された発話内容全体の意味に基づいて、乗員の指示を特定し直す(ステップS226)。処理特定部216は、指示特定部215により特定し直された指示に対応する処理を特定する(ステップS228)。エージェントデータ生成部217は、処理特定部216により特定された処理を車載機器VEに行わせるエージェントデータを生成し(ステップS230)、処理をステップS222に進める。
指示特定部215は、訂正する内容が指示を訂正する内容ではないと判定した場合、発話が習慣を訂正する内容であるか否かを判定する(ステップS232)。指示特定部215は、発話が習慣を訂正する内容ではないと判定した場合、発話に係る指示や処理を特定できず、且つ訂正に係る内容も特定することができなかったものとして、処理を終了する。なお、この場合、エージェントシステム1は、認識できなかったため、再度、乗員の発話を促すような通知を行ってもよい。
指示特定部215は、発話内容が習慣を訂正する内容であると判定した場合、音声認識部213により認識された発話内容全体の意味に基づいて、乗員の指示を特定し直す(ステップS234)。処理特定部216は、指示特定部215により特定し直された指示に対応する処理を特定する(ステップS236)。エージェントデータ生成部217は、処理特定部216により特定された処理を車載機器VEに行わせるエージェントデータを生成する(ステップS238)。推定部214は、指示特定部215により特定し直された指示と、処理特定部216により特定された処理とに基づいて、習慣情報234を更新し(ステップS240)、処理をステップS222に進める。
なお、車両Mの乗員が一意に定まらない場合には、習慣情報234や対応情報236には、乗員を識別可能な識別情報(以下、ユーザID)が含まれていてもよい。例えば、取得部121は、車両Mに乗員が乗車した際に、車両Mが備えるHMI(Human machine Interface)等を用いて乗員からユーザIDを取得するものであってもよく、車両Mの車内に乗員を撮像可能に設けられたカメラが乗員を撮像した画像を画像認識処理することにより乗員を認識し、ユーザIDのデータベースから乗員のユーザIDを取得するものであってもよく、マイク106が収音した音声のデータを生体認証することにより乗員を認識するものであってもよい。乗員が用いる車両Mのスマートキー毎にユーザIDが定められており、車両Mのスマートキーと情報を送受信することにより、ユーザIDを取得するものであってもよい。指示特定部215や、処理特定部216は、ユーザIDが対応付けられた習慣情報234や対応情報236のレコードのうち、取得部121により取得されたユーザIDと合致するユーザIDが対応付けられたレコードに基づいて、乗員の指示や、当該指示に対応付けられた処理を特定する。指示特定部215や、処理特定部216は、ユーザIDが対応付けられた習慣情報234や対応情報236のレコードのうち、取得部121により取得されたユーザIDと合致するユーザIDが対応付けられたレコードを特定する処理において、「利用者特定部」の一例である。
これにより、エージェントシステム1は、より乗員に適した指示に応じて車載機器VEに行わせる処理を特定することができる。
[習慣情報234と対応情報236との合成]
また、上述では、記憶部150には、習慣情報234と対応情報236とがそれぞれ記憶される場合について説明したが、これに限られない。記憶部150には、例えば、習慣情報234と、対応情報236とに代えて、習慣情報234と、対応情報236とを合成した合成情報が記憶されていてもよい。図20は、合成情報の内容の一例を示す図である。合成情報は、例えば、予め定められた簡潔な語句を示す情報と、習慣性があると推定された指示が行われるタイミングを示す情報と、指示の内容を示す情報と、当該指示に応じて行われた処理の内容を示す情報とが互いに対応付けられたレコードを一以上含む情報である。推定部214や、処理特定部216は、上述した処理によって、合成情報を生成(更新)する。また、推定部214は、合成情報に基づいて、習慣を推定し、処理特定部216は、合成情報に基づいて、指示や処理を特定する。これにより、エージェントシステム1は、簡潔な語句(例えば『いつもの』という語句)をタイミングにより使い分け、聞き分けることができる。
[実施形態のまとめ]
以上説明したように、本実施形態のエージェントシステム1は、利用者が発話した音声を示すデータを取得する取得部121と、取得部121により取得されたデータに基づいて、利用者の発話内容を認識する音声認識部213と、利用者とエージェントシステム1(エージェント)とのやり取りに基づいて、利用者の習慣を推定する推定部214と、音声認識部213により認識された発話内容に含まれる指示を特定する指示特定部215と、指示特定部215により特定された指示に応じた処理を特定する、又は指示特定部215により特定された指示に応じた処理を特定できない場合には、推定部214により推定された習慣に基づいて指示に応じた処理を特定する処理特定部216と、指示特定部215により特定された指示を示す情報と、処理特定部216により特定された処理を示す情報とを、スピーカ108を含む情報出力装置に音声により出力させる出力制御部124と、を備える。これにより、本実施形態のエージェントシステム1は、操作者の指示を特定できない場合には、操作者の習慣に基づいて操作対象の機器に対する指示を特定することができる。
<変形例>
上述した実施形態では、車両Mに搭載されたエージェント装置100と、サーバ装置200とが互いに異なる装置であるものとして説明したがこれに限定されるものではない。例えば、エージェント機能に係るサーバ装置200の構成要素は、エージェント装置100の構成要素に含まれてもよい。この場合、サーバ装置200は、エージェント装置100の制御部120により仮想的に実現される仮想マシンとして機能させてもよい。以下、サーバ装置200の構成要素を含むエージェント装置100Aを変形例として説明する。なお、変形例において、上述した実施形態と同様の構成要素については、同様の符号を付するものとし、ここでの具体的な説明は省略する。
図21は、変形例に係るエージェント装置100Aの構成の一例を示す図である。エージェント装置100Aは、例えば、通信部102と、マイク106と、スピーカ108と、表示部110と、制御部120aと、記憶部150aとを備える。制御部120aは、例えば、取得部121と、音声合成部122と、通信制御部123と、出力制御部124と、発話区間抽出部212と、音声認識部213と、推定部214と、指示特定部215と、処理特定部216と、エージェントデータ生成部217とを備える。
また、記憶部150aは、例えば、プロセッサにより参照されるプログラムのほかに、車載機器情報152、回答情報232、及び習慣情報234、対応情報236が含まれる。回答情報232は、サーバ装置200から取得した最新の情報により更新されてもよい。
エージェント装置100Aの処理は、例えば、図17に示すフローチャートのステップS100の処理の後に、図18~図19に示すフローチャートのステップS202~ステップS222の処理を実行し、その後、図17に示すフローチャートのステップS106以降の処理を実行する処理である。
以上説明した変形例のエージェント装置100Aによれば、第1実施形態と同様の効果を奏する他、乗員からの音声を取得するたびに、ネットワークNWを介してサーバ装置200との通信を行う必要がないため、より迅速に発話内容を認識することができる。また、車両Mがサーバ装置200と通信できない状態であっても、エージェントデータを生成して、乗員に情報を提供することができる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…エージェントシステム、100、100A…エージェント装置、102、202…通信部、106、106A、106B、106C、106D、106E…マイク、108、108A、108B、108C、108D、108E…スピーカ、110、110A、110B、110C…表示部、120、120a、210…制御部、121、211…取得部、122…音声合成部、123、218…通信制御部、124…出力制御部、125…機器制御部、150、150a、230…記憶部、152…車載機器情報、200…サーバ装置、212…発話区間抽出部、213…音声認識部、214…推定部、215…指示特定部、216…処理特定部、217…エージェントデータ生成部、232…回答情報、234…習慣情報、236…対応情報、M…車両、VE…車載機器

Claims (11)

  1. 利用者が発話した音声を示すデータを取得する取得部と、
    前記取得部により取得された前記データに基づいて前記利用者の発話内容を認識する音声認識部と、
    前記利用者と自システムとの、過去の前記発話内容を含むやり取りに基づいて前記利用者の習慣を推定する推定部と、
    前記音声認識部により認識された前記発話内容に含まれる指示を特定する指示特定部と、
    前記指示特定部により特定された前記指示に応じた処理を特定する、又は前記指示特定部により特定された前記指示に応じた処理を特定できない場合には前記推定部により推定された前記習慣に基づいて前記指示に応じた前記処理を特定する、処理特定部と、
    前記指示特定部により特定された前記指示を示す情報と前記処理特定部により特定された前記処理を示す情報とを、スピーカを含む情報出力装置に音声により出力させる出力制御部と、
    を備えるエージェントシステム。
  2. 前記処理特定部は、
    指示を示す情報と処理を示す情報とが互いに対応付けられた対応情報に基づいて、前記処理を特定し、
    前記推定部により推定された前記習慣に基づいて前記処理を特定した場合、前記指示特定部により特定された前記指示を示す情報と特定した前記処理を示す情報とにより前記対応情報を更新する、
    請求項1に記載のエージェントシステム。
  3. 前記指示特定部は、前記指示特定部により特定された前記発話内容に基づいて特定した指示が、予め定められた所定指示以外の指示である場合、特定した前記指示と前記処理とにより前記対応情報を更新する、
    請求項2に記載のエージェントシステム。
  4. 前記所定指示は、目的地の場所、目的地への出発時刻、目的地の到着時刻、目的地の評価、及び目的地のカテゴリのうち、少なくとも一つを指示するものであって、
    前記処理特定部は、前記指示特定部により特定された前記指示が前記所定指示である場合、前記所定指示に応じた目的地に係る処理を特定し、前記指示特定部により特定された前記指示が前記所定指示ではない場合、前記推定部により推定された前記習慣に基づいて、前記指示に応じた前記処理を特定する、
    請求項3に記載のエージェントシステム。
  5. 前記出力制御部は、前記処理特定部により前記対応情報が更新されることを示す情報を、前記情報出力装置に出力させる、
    請求項2から4のいずれか一項に記載のエージェントシステム。
  6. 前記指示特定部は、前記指示を示す情報と、前記処理を示す情報とが前記情報出力装置により出力された際に、前記音声認識部により認識された前記発話内容に、前記指示を示す情報を訂正する内容が含まれる場合、前記指示を特定し直し、特定し直した前記指示を示す情報と前記処理を示す情報とにより前記対応情報を更新する、
    請求項2から5のうちいずれか一項に記載のエージェントシステム。
  7. 前記推定部は、前記利用者の習慣に基づき特定された前記処理を示す情報が前記情報出力装置により出力された際に、前記音声認識部により認識された前記発話内容に、前記処理を訂正する内容が含まれる場合、前記利用者の習慣を推定し直す、
    請求項2から6のうちいずれか一項に記載のエージェントシステム。
  8. 前記処理特定部は、更に、前記音声認識部により認識された前記発話内容に含まれる前記利用者の識別情報に基づいて前記処理を特定する、
    請求項1から7のうちいずれか一項に記載のエージェントシステム。
  9. 前記音声認識部により認識された前記発話内容に係る当該発話をした利用者を特定する利用者特定部を、更に備え、
    前記処理特定部は、前記利用者特定部によって特定された前記利用者毎に、前記処理を特定する、
    請求項1から8のうちいずれか一項に記載のエージェントシステム。
  10. コンピュータが、
    利用者が発話した音声を示すデータを取得し、
    取得された前記データに基づいて、前記利用者の発話内容を認識し、
    前記利用者と自システムとの、過去の前記発話内容を含むやり取りに基づいて、前記利用者の習慣を推定し、
    認識された前記発話内容に含まれる指示を特定し、
    特定された前記指示に応じた処理を特定し、又は特定された前記指示に応じた処理を特定できない場合には、推定された前記習慣に基づいて前記指示に応じた前記処理を特定し、
    特定された前記指示を示す情報と、特定された前記処理を示す情報とを、スピーカを含む情報出力装置に音声により出力させる、
    エージェント方法。
  11. コンピュータに、
    利用者が発話した音声を示すデータを取得させ、
    取得された前記データに基づいて、前記利用者の発話内容を認識させ、
    前記利用者と自システムとの、過去の前記発話内容を含むやり取りに基づいて、前記利用者の習慣を推定させ、
    認識された前記発話内容に含まれる指示を特定させ、
    特定された前記指示に応じた処理を特定させ、又は特定された前記指示に応じた処理を特定できない場合には、推定された前記習慣に基づいて前記指示に応じた前記処理を特定させ、
    特定された前記指示を示す情報と、特定された前記処理を示す情報とを、スピーカを含む情報出力装置に音声により出力させる、
    プログラム。
JP2019235788A 2019-12-26 2019-12-26 エージェントシステム、エージェント方法、及びプログラム Active JP7254689B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019235788A JP7254689B2 (ja) 2019-12-26 2019-12-26 エージェントシステム、エージェント方法、及びプログラム
CN202011543975.0A CN113053372A (zh) 2019-12-26 2020-12-23 智能体系统、智能体方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019235788A JP7254689B2 (ja) 2019-12-26 2019-12-26 エージェントシステム、エージェント方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021105636A JP2021105636A (ja) 2021-07-26
JP7254689B2 true JP7254689B2 (ja) 2023-04-10

Family

ID=76508135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019235788A Active JP7254689B2 (ja) 2019-12-26 2019-12-26 エージェントシステム、エージェント方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP7254689B2 (ja)
CN (1) CN113053372A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297185A (ja) 2001-03-29 2002-10-11 Pioneer Electronic Corp 情報処理装置および情報処理方法
JP2005011089A (ja) 2003-06-19 2005-01-13 Fujitsu Ltd 対話装置
JP2005181358A (ja) 2003-12-16 2005-07-07 Victor Co Of Japan Ltd 音声認識合成システム
JP2007327913A (ja) 2006-06-09 2007-12-20 Mitsubishi Electric Corp 施設検索装置
JP2011039185A (ja) 2009-08-07 2011-02-24 Toyota Central R&D Labs Inc 音声対話装置及び音声対話プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090055178A1 (en) * 2007-08-23 2009-02-26 Coon Bradley S System and method of controlling personalized settings in a vehicle
US10095473B2 (en) * 2015-11-03 2018-10-09 Honeywell International Inc. Intent managing system
CN106782526B (zh) * 2016-12-12 2020-12-29 深圳Tcl数字技术有限公司 语音控制方法和装置
CN106992009B (zh) * 2017-05-03 2020-04-24 深圳车盒子科技有限公司 车载语音交互方法、系统及计算机可读存储介质
JP7481082B2 (ja) * 2018-01-11 2024-05-10 トヨタ自動車株式会社 車両制御装置、車両制御方法、及び車両制御プログラム
CN108682419A (zh) * 2018-03-30 2018-10-19 京东方科技集团股份有限公司 语音控制方法及设备、计算机可读存储介质及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297185A (ja) 2001-03-29 2002-10-11 Pioneer Electronic Corp 情報処理装置および情報処理方法
JP2005011089A (ja) 2003-06-19 2005-01-13 Fujitsu Ltd 対話装置
JP2005181358A (ja) 2003-12-16 2005-07-07 Victor Co Of Japan Ltd 音声認識合成システム
JP2007327913A (ja) 2006-06-09 2007-12-20 Mitsubishi Electric Corp 施設検索装置
JP2011039185A (ja) 2009-08-07 2011-02-24 Toyota Central R&D Labs Inc 音声対話装置及び音声対話プログラム

Also Published As

Publication number Publication date
JP2021105636A (ja) 2021-07-26
CN113053372A (zh) 2021-06-29

Similar Documents

Publication Publication Date Title
EP3172729B1 (en) Text rule based multi-accent speech recognition with single acoustic model and automatic accent detection
US11508368B2 (en) Agent system, and, information processing method
JP7133029B2 (ja) エージェント装置、エージェント制御方法、およびプログラム
US10269350B1 (en) Responsive activation of a vehicle feature
CN110286745B (zh) 对话处理系统、具有对话处理系统的车辆及对话处理方法
CN111261154A (zh) 智能体装置、智能体提示方法及存储介质
CN111007968A (zh) 智能体装置、智能体提示方法及存储介质
US20200320997A1 (en) Agent apparatus, agent apparatus control method, and storage medium
CN111724798B (zh) 车载设备控制系统、车载设备控制装置、车载设备控制方法及存储介质
JP2020060861A (ja) エージェントシステム、エージェント方法、およびプログラム
CN111746435B (zh) 信息提供装置、信息提供方法及存储介质
JP7254689B2 (ja) エージェントシステム、エージェント方法、及びプログラム
JP2020144285A (ja) エージェントシステム、情報処理装置、移動体搭載機器制御方法、及びプログラム
JP7178983B2 (ja) エージェント装置、エージェント方法、及びプログラム
CN111762188A (zh) 车辆设备控制装置、车辆设备控制方法及存储介质
CN111717142A (zh) 智能体装置、智能体装置的控制方法及存储介质
US20220208187A1 (en) Information processing device, information processing method, and storage medium
CN111667823B (zh) 智能体装置、智能体装置的控制方法及存储介质
JP7252029B2 (ja) サーバ装置、情報提供方法、およびプログラム
JP7245695B2 (ja) サーバ装置、情報提供システム、および情報提供方法
US20200294502A1 (en) Agent device, method for controlling agent device, and storage medium
JP2020060623A (ja) エージェントシステム、エージェント方法、およびプログラム
JP7003839B2 (ja) エージェント推薦システム
US20220208213A1 (en) Information processing device, information processing method, and storage medium
JP2020166074A (ja) 音声インタフェイスシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230329

R150 Certificate of patent or registration of utility model

Ref document number: 7254689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150