JP2020160108A - エージェント装置、エージェント装置の制御方法、およびプログラム - Google Patents
エージェント装置、エージェント装置の制御方法、およびプログラム Download PDFInfo
- Publication number
- JP2020160108A JP2020160108A JP2019055984A JP2019055984A JP2020160108A JP 2020160108 A JP2020160108 A JP 2020160108A JP 2019055984 A JP2019055984 A JP 2019055984A JP 2019055984 A JP2019055984 A JP 2019055984A JP 2020160108 A JP2020160108 A JP 2020160108A
- Authority
- JP
- Japan
- Prior art keywords
- agent
- unit
- occupant
- service
- agent function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title abstract description 33
- 230000006870 function Effects 0.000 claims description 249
- 230000004044 response Effects 0.000 claims description 118
- 230000004913 activation Effects 0.000 claims description 4
- 239000003795 chemical substances by application Substances 0.000 description 429
- 238000012545 processing Methods 0.000 description 41
- 238000003058 natural language processing Methods 0.000 description 36
- 238000004891 communication Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 25
- 238000011156 evaluation Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 239000008186 active pharmaceutical agent Substances 0.000 description 8
- 238000012790 confirmation Methods 0.000 description 6
- 230000009118 appropriate response Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000001052 transient effect Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/02—Terminal devices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
- Instructional Devices (AREA)
Abstract
Description
(1):この発明の一態様に係るエージェント装置は、それぞれが車両の乗員の発話に応じて、音声による応答を含むサービスを提供する複数のエージェント機能部と、乗員の発話内容に対して前記複数のエージェント機能部のそれぞれが実行したサービスの品質の履歴を示す履歴情報を参照し、前記車両の乗員の発話に対して応答するエージェント機能部を、前記複数のエージェント機能部から選択する選択部と、を備える、エージェント装置である。
(8):本発明の他の態様に係るエージェント装置の制御方法は、コンピュータが、それぞれが車両の乗員の発話に応じて、音声による応答を含むサービスを提供する複数のエージェント機能部を起動し、乗員の発話内容に対して前記複数のエージェント機能部のそれぞれが実行したサービスの品質の履歴を示す履歴情報を参照し、前記車両の乗員の発話に対して応答するエージェント機能部を、前記複数のエージェント機能部から選択するものである。
<全体構成>
図1は、第1実施形態に係るエージェント装置100を含むエージェントシステム1の構成図である。エージェントシステム1は、例えば、エージェント装置100と、複数のエージェントサーバ200−1、200−2、200−3、…とを備える。符号の末尾のハイフン以下数字は、エージェントを区別するための識別子であるものとする。何れのエージェントサーバであるかを区別しない場合、単にエージェントサーバ200と称する場合がある。図1では3つのエージェントサーバ200を示しているが、エージェントサーバ200の数は2つであってもよいし、4つ以上であってもよい。それぞれのエージェントサーバ200は、例えば、互いに異なるエージェントシステムの提供者が運営するものである。したがって、本実施形態におけるエージェントは、互いに異なる提供者により実現されるエージェントである。提供者としては、例えば、自動車メーカー、ネットワークサービス事業者、電子商取引事業者、携帯端末の販売者や製造者が挙げられ、任意の主体(法人、団体、個人等)がエージェントシステムの提供者となり得る。
[車両]
図2は、第1実施形態に係るエージェント装置100の構成と、車両Mに搭載された機器とを示す図である。車両Mには、例えば、一以上のマイク10と、表示・操作装置20と、スピーカユニット30と、ナビゲーション装置40と、車両機器50と、車載通信装置60と、乗員認識装置80と、エージェント装置100とが搭載される。また、スマートフォン等の汎用通信装置70が車室内に持ち込まれ、通信装置として使用される場合がある。これらの装置は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図2に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
図2に戻り、エージェント装置100は、管理部110と、エージェント機能部150−1、150−2、150−3と、ペアリングアプリ実行部152とを備える。管理部110は、例えば、音響処理部112と、エージェントごとWU(Wake Up)判定部114と、表示制御部116と、音声制御部118と、音声認識部120と、自然言語処理部122と、履歴情報生成部124と、選択部126とを備える。何れのエージェント機能部であるか区別しない場合、単にエージェント機能部150と称する。3つのエージェント機能部150を示しているのは、図1におけるエージェントサーバ200の数に対応させた一例に過ぎず、エージェント機能部150の数は、2つであってもよいし、4つ以上であってもよい。図2に示すソフトウェア配置は説明のために簡易に示しており、実際には、例えば、エージェント機能部150と車載通信装置60の間に管理部110が介在してもよいように、任意に改変することができる。
図5は、エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す図である。以下、エージェントサーバ200の構成と共にエージェント機能部150等の動作について説明する。ここでは、エージェント装置100からネットワークNWまでの物理的な通信についての説明を省略する。また、以下では、主にエージェント機能部150−1およびエージェントサーバ200−1を中心として説明するが、他のエージェント機能部やエージェントサーバの組についても、それぞれの詳細な機能が異なる場合はあるものの、ほぼ同様の動作を行う。
以下、履歴情報生成部124が履歴情報164を生成する処理の詳細について説明する。図6は、履歴情報164の内容の一例を示す図である。履歴情報164には、例えば、エージェントが提供可能なサービス(つまり、実行可能な機能)と、当該サービスの品質を示す情報とが、サービスの提供元のエージェント毎にそれぞれ対応付けられたレコードRが含まれるである。サービスの品質には、例えば、コマンドをエージェントサーバ200に送信してから回答が得られるまでに係る時間の程度(以下、応答時間)と、乗員の問合せに対してエージェントサーバ200から得られた回答の情報量と、当該回答の確信度とが含まれる。確信度とは、例えば、コマンドに対する応答結果が、正しい答えであると推定される度合(指標値)である。また、確信度とは、乗員の発話に対する応答が、乗員の要求に合致している、または乗員が期待していた答えであると推定される度合である。なお、サービスの品質を示す情報は、一例であってこれに限らず、上述した以外の情報が含まれてもよい。
以下、選択部126が、履歴情報164に基づいて乗員の発話に対する応答を行うエージェント機能部150を選択する処理の詳細について説明する。選択部126は、乗員の発話よりも前に生成された履歴情報164を参照し、エージェント機能部150−1〜150−3のそれぞれのサービスの品質を比較し、品質が良いエージェント機能部150を、乗員の発話に対する応答を行うエージェント機能部150(エージェント)として選択する。まず、選択部126は、自然言語処理部122によって特定された機能を検索キーとして履歴情報164を検索し、当該機能を実行可能なエージェントを特定する。そして、選択部126は、特定されたエージェントのうち、最もサービス品質が良い機能を提供するエージェント機能部150を、乗員の発話に対する応答を行うエージェント機能部150として選択する。選択部126は、例えば、サービスの品質を示す評価指標が複数存在する場合、全ての評価指標を総合してエージェント機能部150を選択してもよく、複数の評価指標のうち、一以上の(任意の)評価指標に基づいて、エージェント機能部150を選択してもよい。
図9は、第1実施形態に係るエージェント装置100の動作の一連の流れを示すフローチャートである。本フローチャートの処理は、例えば、所定時間間隔毎、又は所定のタイミングによって繰り返し実行される。
以上説明したように、本実施形態のエージェント装置100によれば、車両Mの乗員の発話に応じて、音声による応答を含むサービスを提供する複数のエージェント機能部150と、乗員の発話に含まれる音声コマンドを認識する認識部(音声認識部120、自然言語処理部122)と、認識部により認識された音声コマンドを実行して乗員の発話に対応するエージェント機能部150であり、サービスの品質が良いエージェント機能部150を、複数のエージェント機能部150から選択する選択部126と、を備えることにより、より適切な応答結果を提供することができる。
以下、第2実施形態について説明する。第2実施形態では、サービスの品質が良いことが既に確定しているエージェントが存在する場合について説明する。なお、上述した実施形態と同様の構成については、同一の符号を付して説明を省略する。
図14は、選択部126が確定エージェント情報166を生成する処理の一連の流れを示すフローチャートである。本フローチャートの処理は、例えば、所定時間間隔毎、又は所定のタイミングによって繰り返し実行させる。
以上説明したように、本実施形態のエージェント装置100Aによれば、車両Mの乗員の発話に応じて、音声による応答を含むサービスを提供する複数のエージェント機能部150と、乗員の発話に含まれる音声コマンドを認識する認識部(音声認識部120、自然言語処理部122)と、認識部により認識された音声コマンドを実行して乗員の発話に対応するエージェント機能部150であり、サービスの品質が良いエージェント機能部150を、複数のエージェント機能部150から選択する選択部126と、を備え、選択部126が確定エージェント情報166に基づいて、最もサービスの品質が良いことが既に確定しているエージェントを選択することにより、より適切な応答結果を提供することができる。
なお、上述した実施形態では、音声認識部120、及び自然言語処理部122をエージェント装置100、及び100Aが備える場合について説明したが、これに限られない。音声認識部120、及び自然言語処理部122に相当する機能は、エージェントサーバ200に供えられるものであってもよい。この場合、エージェント装置100、及び100Aは、音響処理部112によって音響処理が行われた音声ストリームをエージェントサーバ200に供給し、音声認識部120、及び自然言語処理部122に相当する機能によって、乗員の発話中(つまり、音声ストリーム)に含まれるコマンド(機能)を特定し、選択部126に供給する。選択部126は、エージェントサーバ200によって供給された機能に係る情報に基づいて、処理を実行する。
Claims (9)
- それぞれが車両の乗員の発話に応じて、音声による応答を含むサービスを提供する複数のエージェント機能部と、
乗員の発話内容に対して前記複数のエージェント機能部のそれぞれが実行したサービスの品質の履歴を示す履歴情報を参照し、前記車両の乗員の発話に対して応答するエージェント機能部を、前記複数のエージェント機能部から選択する選択部と、
を備えるエージェント装置。 - 前記履歴情報には、実行されたサービスの内容、提供元のエージェント機能部、及びサービスの品質を示す情報を含むレコードが含まれ、
前記選択部は、前記乗員の発話を示す情報と実行されたサービスが合致するレコードの中で、前記サービスの品質が良いレコードに対応する前記エージェント機能部を、前記車両の乗員の発話に対して応答するエージェント機能部として選択する、
請求項1に記載のエージェント装置。 - 出力部を用いて前記乗員に各種情報を通知する通知制御部を更に備え、
前記選択部は、前記履歴情報に基づいて、ある発話に対してサービスを提供する前記エージェント機能部を動的に選択する状態から固定的に選択する状態に移行し、
前記通知制御部は、前記選択部が固定的に選択すると確定した前記エージェント機能部に関して、前記出力部を用いて前記乗員に通知する、
請求項1又は請求項2に記載のエージェント装置。 - 前記通知制御部は、前記乗員の発話と、前記サービスの提供との間に、前記選択部が固定的に選択すると確定した前記エージェント機能部に関して、前記出力部を用いて前記乗員に通知する、
請求項3に記載のエージェント装置。 - 前記通知制御部は、前記サービスの提供の後に、前記選択部が固定的に選択すると確定した前記エージェント機能部に関して、前記出力部を用いて前記乗員に通知する、
請求項3又は請求項4に記載のエージェント装置。 - 前記複数のエージェント機能部には、起動に用いられるフレーズがそれぞれ設定され、
前記選択部は、前記乗員の発話に前記フレーズが含まれていても、前記乗員の発話のうちフレーズ以外の部分が要求するサービスを提供する前記エージェント機能部が確定している場合、当該確定している前記エージェント機能部を、前記車両の乗員の発話に対して応答するエージェント機能部として選択する、
請求項3から請求項5のうちいずれか一項に記載のエージェント装置。 - 前記複数のエージェント機能部には、起動に用いられるフレーズがそれぞれ設定され、
前記選択部は、前記乗員の発話に前記フレーズが含まれていない場合に、前記エージェント機能部を選択する、
請求項1から請求項5のうちいずれか一項に記載のエージェント装置。 - コンピュータが、
それぞれが車両の乗員の発話に応じて、音声による応答を含むサービスを提供する複数のエージェント機能部を起動し、
乗員の発話内容に対して前記複数のエージェント機能部のそれぞれが実行したサービスの品質の履歴を示す履歴情報を参照し、
前記車両の乗員の発話に対して応答するエージェント機能部を、前記複数のエージェント機能部から選択する、
エージェント装置の制御方法。 - コンピュータに、
それぞれが車両の乗員の発話に応じて、音声による応答を含むサービスを提供する複数のエージェント機能部を起動させ、
乗員の発話内容に対して前記複数のエージェント機能部のそれぞれが実行したサービスの品質の履歴を示す履歴情報を参照させ、
前記車両の乗員の発話に対して応答するエージェント機能部を、前記複数のエージェント機能部から選択させる、
プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019055984A JP7274901B2 (ja) | 2019-03-25 | 2019-03-25 | エージェント装置、エージェント装置の制御方法、およびプログラム |
CN202010198716.2A CN111739524B (zh) | 2019-03-25 | 2020-03-19 | 智能体装置、智能体装置的控制方法及存储介质 |
US16/826,490 US11355114B2 (en) | 2019-03-25 | 2020-03-23 | Agent apparatus, agent apparatus control method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019055984A JP7274901B2 (ja) | 2019-03-25 | 2019-03-25 | エージェント装置、エージェント装置の制御方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020160108A true JP2020160108A (ja) | 2020-10-01 |
JP7274901B2 JP7274901B2 (ja) | 2023-05-17 |
Family
ID=72643068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019055984A Active JP7274901B2 (ja) | 2019-03-25 | 2019-03-25 | エージェント装置、エージェント装置の制御方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11355114B2 (ja) |
JP (1) | JP7274901B2 (ja) |
CN (1) | CN111739524B (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018067402A1 (en) * | 2016-10-03 | 2018-04-12 | Google Inc. | Selection of computational agent for task performance |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4645310B2 (ja) | 2005-06-02 | 2011-03-09 | 株式会社デンソー | エージェントキャラクタ表示を利用した表示システム |
US9318108B2 (en) * | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
JP2008090545A (ja) * | 2006-09-29 | 2008-04-17 | Toshiba Corp | 音声対話装置および音声対話方法 |
JP5312771B2 (ja) * | 2006-10-26 | 2013-10-09 | 株式会社エム・シー・エヌ | クエリに応答して、関連性のある広告を決定する技術 |
US20140275834A1 (en) * | 2013-03-15 | 2014-09-18 | Commercial Vehicle Group, Inc. | Health monitoring |
JP6411017B2 (ja) * | 2013-09-27 | 2018-10-24 | クラリオン株式会社 | サーバ、及び、情報処理方法 |
JP6621613B2 (ja) * | 2015-08-10 | 2019-12-18 | クラリオン株式会社 | 音声操作システム、サーバー装置、車載機器および音声操作方法 |
JP6686226B2 (ja) * | 2016-04-18 | 2020-04-22 | グーグル エルエルシー | 適切なエージェントの自動化アシスタント呼び出し |
US10115400B2 (en) * | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US10311856B2 (en) * | 2016-10-03 | 2019-06-04 | Google Llc | Synthesized voice selection for computational agents |
US10748531B2 (en) * | 2017-04-13 | 2020-08-18 | Harman International Industries, Incorporated | Management layer for multiple intelligent personal assistant services |
-
2019
- 2019-03-25 JP JP2019055984A patent/JP7274901B2/ja active Active
-
2020
- 2020-03-19 CN CN202010198716.2A patent/CN111739524B/zh active Active
- 2020-03-23 US US16/826,490 patent/US11355114B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018067402A1 (en) * | 2016-10-03 | 2018-04-12 | Google Inc. | Selection of computational agent for task performance |
JP2019535037A (ja) * | 2016-10-03 | 2019-12-05 | グーグル エルエルシー | コンピュータによるエージェントのための合成音声の選択 |
Also Published As
Publication number | Publication date |
---|---|
US11355114B2 (en) | 2022-06-07 |
CN111739524B (zh) | 2024-03-08 |
CN111739524A (zh) | 2020-10-02 |
JP7274901B2 (ja) | 2023-05-17 |
US20200321001A1 (en) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020147214A (ja) | エージェント装置、システム、エージェント装置の制御方法、およびプログラム | |
JP2020144260A (ja) | 車載エージェントシステム、車載エージェントシステムの制御方法、およびプログラム | |
JP7340943B2 (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
CN111717142A (zh) | 智能体装置、智能体装置的控制方法及存储介质 | |
JP2020144274A (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
JP2020131805A (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
JP2020144264A (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
JP2020160833A (ja) | 情報提供装置、情報提供方法、およびプログラム | |
JP2020144275A (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
JP2020160135A (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
US11797261B2 (en) | On-vehicle device, method of controlling on-vehicle device, and storage medium | |
JP7175221B2 (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
US11437035B2 (en) | Agent device, method for controlling agent device, and storage medium | |
US11542744B2 (en) | Agent device, agent device control method, and storage medium | |
US20200320997A1 (en) | Agent apparatus, agent apparatus control method, and storage medium | |
JP2020152298A (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
JP7274901B2 (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
JP2020160848A (ja) | サーバ装置、情報提供システム、情報提供方法、およびプログラム | |
JP2020160133A (ja) | エージェントシステム、エージェントシステムの制御方法、およびプログラム | |
JP2020154994A (ja) | エージェントシステム、エージェントサーバ、エージェントサーバの制御方法、およびプログラム | |
JP2020142758A (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
JP7280074B2 (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
CN111559317B (zh) | 智能体装置、智能体装置的控制方法及存储介质 | |
JP7297483B2 (ja) | エージェントシステム、サーバ装置、エージェントシステムの制御方法、およびプログラム | |
JP2020160132A (ja) | エージェント装置、エージェント装置の制御方法、プログラム、エージェントサーバ、およびエージェントサーバの制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230502 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7274901 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |