JPWO2020070878A1 - エージェント装置、エージェント制御方法、およびプログラム - Google Patents

エージェント装置、エージェント制御方法、およびプログラム Download PDF

Info

Publication number
JPWO2020070878A1
JPWO2020070878A1 JP2020551052A JP2020551052A JPWO2020070878A1 JP WO2020070878 A1 JPWO2020070878 A1 JP WO2020070878A1 JP 2020551052 A JP2020551052 A JP 2020551052A JP 2020551052 A JP2020551052 A JP 2020551052A JP WO2020070878 A1 JPWO2020070878 A1 JP WO2020070878A1
Authority
JP
Japan
Prior art keywords
agent
voice
unit
function unit
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020551052A
Other languages
English (en)
Other versions
JP7133029B2 (ja
Inventor
大志 杉原
大志 杉原
関口 敦
敦 関口
侑紀 松浦
侑紀 松浦
英輔 相馬
英輔 相馬
航 遠藤
航 遠藤
亮介 田中
亮介 田中
俊克 倉持
俊克 倉持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JPWO2020070878A1 publication Critical patent/JPWO2020070878A1/ja
Application granted granted Critical
Publication of JP7133029B2 publication Critical patent/JP7133029B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/265
    • B60K35/29
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0217Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for loud-speakers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0247Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for microphones or earphones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • B60K2360/148
    • B60K2360/182
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/405Non-uniform arrays of transducers or a plurality of uniform arrays with different transducer spacing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • H04R5/023Spatial or constructional arrangements of loudspeakers in a chair, pillow
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

車室内の音声を収集するマイクと、前記車室内に音声を出力するスピーカと、機能が異なる複数のエージェント機能部と、を備え、前記複数のエージェント機能部のそれぞれは、前記マイクにより収集された音声の意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成し、生成したエージェント音声を前記スピーカに出力させ、前記マイクにより収集された音声の内容に基づいて、前記乗員と対話する主体となるエージェント機能部が切り替わる、エージェント装置。

Description

本発明は、エージェント装置、エージェント制御方法、およびプログラムに関する。
従来、車両の乗員と対話を行いながら、乗員の要求に応じた運転支援に関する情報や車両の制御、その他のアプリケーション等を提供するエージェントに関する技術が知られている(例えば、特許文献1参照)。
特開2006−335231号公報
しかしながら、乗員の要求は多様であるため、一つのエージェントのみでは対応できない場合があった。また、複数のエージェントを用いた場合であっても、乗員が呼び出した一つのエージェントが起動している場合には、他のエージェント装置は停止状態となるため、エージェント間での連携が充分に行えない場合があった。その結果、乗員への適切な支援ができない場合があった。
本発明の態様は、このような事情を考慮してなされたものであり、乗員に、より適切な支援を行うことができるエージェント装置、エージェント制御方法、およびプログラムを提供することを目的の一つとする。
この発明に係るエージェント装置、エージェント制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係るエージェント装置は、車室内の音声を収集するマイクと、前記車室内に音声を出力するスピーカと、機能が異なる複数のエージェント機能部と、を備え、前記複数のエージェント機能部のそれぞれは、前記マイクにより収集された音声の意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成し、生成したエージェント音声を前記スピーカに出力させ、前記マイクにより収集された音声の内容に基づいて、前記乗員と対話する主体となるエージェント機能部が切り替わる、エージェント装置である。
(2):上記(1)の態様において、前記複数のエージェント機能部のそれぞれは、前記生成したエージェント音声の音像が所定の位置に定位されるように、前記エージェント音声を前記スピーカに出力させるものである。
(3):上記(1)または(2)の態様において、前記マイクにより収集された音声の意味に基づいて、前記乗員と対話する主体を切り替えるマスタエージェント機能部を更に備え、前記複数のエージェント機能部は、前記マスタエージェント機能部による切り替え制御によって、前記乗員と対話する主体となるものが切り替わるものである。
(4):上記(3)の態様において、前記マスタエージェント機能部と、前記複数のエージェント機能部のうち一つが、一体に動作するものである。
(5):上記(3)または(4)の態様において、前記複数のエージェント機能部のそれぞれが実行可能な機能に関する機能情報を記憶する記憶部を、更に備え、前記マスタエージェント機能部は、前記音声の意味に基づいて、前記機能情報を参照し、前記音声の意味に対応する機能を実現可能なエージェント機能部に切り替えるものである。
(6):上記(3)〜(5)のうち何れか一つの態様において、前記車両に搭載された機器に対する制御は、前記複数のエージェント機能部のうち、特定のエージェント機能部により実行されるものである。
(7):上記(3)〜(5)のうち何れか一つの態様において、画像を表示する表示部を、更に備え、前記複数のエージェント機能部は、前記乗員とのコミュニケーションを行う擬人化されたエージェント画像を生成し、前記マスタエージェント機能部は、前記複数のエージェント機能部により生成されたエージェント画像を前記表示部に表示させるとともに、前記乗員と対話する主体が切り替わる場合に、前記エージェント画像の表示態様を変更させるのである。
(8):上記(3)〜(7)のうち何れか一つの態様において、前記マイクを前記車室内に複数備え、前記複数のマイクは、前記車室内における所定距離以内の位置に設置されるものである。
(9):上記(8)の態様において、前記複数のマイクからの入力のうちの一つは、前記マスタエージェント機能部に割り当てられるものである。
(10):上記(8)または(9)の態様において、前記マスタエージェント機能部に割り当てられるマイクは、他のマイクよりも高性能である。
(11):上記(8)〜(10)のうち何れか一つの態様において、前記マスタエージェント機能部は、割り当てられたマイクからの音声を常時入力するものである。
(12):上記(8)〜(11)のうち何れか一つの態様において、前記複数のマイクにより収集したそれぞれの音声は、前記マスタエージェント機能部の音声入力インターフェースに入力が可能である。
(13):この発明の他の一態様に係るエージェント制御方法は、コンピュータが、機能が異なる複数のエージェント機能部のそれぞれに、車室内の音声を収集するマイクにより収集された音声の意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成させ、生成したエージェント音声を、前記車室内に音声を出力するスピーカに出力させ、前記マイクにより収集された音声の内容に基づいて、前記乗員と対話する主体となるエージェント機能部が切り替わる、エージェント制御方法である。
(14):この発明の他の一態様に係るプログラムは、コンピュータに、機能が異なる複数のエージェント機能部のそれぞれに、車室内の音声を収集するマイクにより収集された音声の意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成させ、生成したエージェント音声を、前記車室内に音声を出力するスピーカに出力させ、前記マイクにより収集された音声の内容に基づいて、前記乗員と対話する主体となるエージェント機能部が切り替えさせる、プログラムである。
(1)〜(14)によれば、乗員に、より適切な支援を行うことができる。
第1の実施形態に係るエージェント装置を含むエージェントシステム1の構成図である。 車両Mに設置されるマイク、表示部、およびスピーカを模式的に示す図である。 後部座席付近のスピーカの位置を説明するための図である。 機能情報テーブル172の内容の一例を示す図である。 音像が定位する位置を移動させることについて説明するための図である。 サーバ装置200の機能構成の一例を示す図である。 サーバ装置200Aが備える回答情報DB244Aの内容の一例を示す図である。 サーバ装置200Bが備える回答情報DB244Bの内容の一例を示す図である。 第1の場面において、エージェント装置100により実行される処理について説明するための図である。 第2の場面において、エージェント装置100により実行される処理について説明するための図である。 第3の場面において、エージェント装置100により実行される処理について説明するための図である。 第4の場面において、エージェント装置100により実行される処理について説明するための図である。 エージェント装置100による一連の処理の流れの一例を示すフローチャートである。 第2の実施形態に係るエージェント装置を含むエージェントシステム2の構成図である。 第3の実施形態に係るエージェント装置を含むエージェントシステム3の構成図である。
以下、図面を参照し、本発明のエージェント装置、エージェント制御方法、およびプログラムの実施形態について説明する。また、以下では、エージェント装置の一例として、車両(以下、車両M)に搭載され、対話型エージェント機能を備えたエージェント装置について説明する。対話型エージェント機能とは、例えば、車両Mの乗員と対話をしながら、乗員の要求に基づく各種情報の提供や車両内の機器の制御等を行うことで乗員を支援する機能である。対話型エージェント機能は、例えば、乗員の音声を認識する音声認識処理(音声をテキスト化する処理)に加え、自然言語機能(テキストの構造や意味を理解する処理)、対話制御処理、検索処理等を統合的に利用して実現される。これらの処理の一部または全部は、AI(Artificial Intelligence)技術によって実現される。また、これらの処理を行う構成の一部または全部は、車両Mと通信可能なサーバ装置(外部装置)に設けられてもよい。
(第1の実施形態)
[全体構成]
図1は、第1の実施形態に係るエージェント装置を含むエージェントシステム1の構成図である。エージェントシステム1は、例えば、エージェント装置100と、サーバ装置200とを備える。エージェント装置100とサーバ装置200とは、例えば、インターネットやWAN(Wide Area Network)、LAN(Local Area Network)等のネットワークNWによりデータの送受信が可能な状態で接続されている。図1に示すサーバ装置200A〜200Cは、例えば、後述するサブエージェント機能部154A〜154Cに対応するものである。以下、サーバ装置200A〜200Cのそれぞれを区別しない場合には「サーバ装置200」と称して説明する。他の名称についても同様とする。
エージェント装置100は、車両Mの乗員と対話を行い、乗員からの音声等による質問等の要求に対して、サーバ装置200にリクエストを行い、サーバ装置200から得られた回答を、所定の出力態様で乗員に提示することで、乗員への支援を行う。乗員とは、例えば、運転席に着座する乗員(以下、運転者)であるが、これに加えて助手席や後部座席に着座する乗員(同乗者)でもよい。所定の出力態様とは、例えば、音声出力、画像出力等の態様である。また、エージェント装置100は、乗員からの音声による指示に応答して、車載機器または家庭機器等に対する制御を実行する。
エージェント装置100は、例えば、通信装置110と、操作部120と、車載機器130と、ナビゲーション装置140と、エージェント制御装置150とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい
通信装置110は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)等を利用してサーバ装置200や他車両、乗員が所持する端末装置等と通信する。サーバ装置200との間の通信は、ネットワークNWにより仲介される。通信装置110は、例えば、エージェント制御装置150から入力された音声を含む情報をサーバ装置200に送信する。また、通信装置110は、サーバ装置200により生成された対話情報および出力制御情報を受信する。対話情報には、例えば、後述する音声の出力制御に関する情報が含まれる。出力制御情報には、例えば、画像等の表示制御に関する情報、その他の各種機器制御に関する情報等が含まれる。
操作部120は、乗員からの操作を受け付ける。操作部120は、例えば、音声入力部122を備える。音声入力部122は、車室内に存在する乗員の音声を収集する。音声入力部122は、例えば、複数のマイク124を備える。複数のマイク124は、性能が異なるマイクであってもよい。マイクの性能には、例えば、感度、指向性、周波数特性、強度が含まれる。以下では、二つのマイク124Aおよび124Bを用いて説明するものとし、マイク124Aの方がマイク124Bよりも高性能であるものとする。それぞれのマイクにより収集された音声(音声ストリーム)は、後述するマスタエージェント機能部152が備える音声入力インターフェース(音声入力IF)152aに入力される。また、操作部120は、スイッチやボタン、キー、タッチパネル等を備えてもよい。
車載機器130は、エージェント制御装置150が制御する対象の一例である。車載機器130は、例えば、表示部132と、スピーカ134と、アンプ(AMP)136と、ミキサー138と、車両制御機器139とを備える。
表示部132は、車室内のシートに着座する乗員の前方付近に設置される。また、スピーカ134は、車室内のシート付近または表示部132付近に設置される。表示部132およびスピーカ134は、車室内に複数設置されてよい。
図2は、車両Mに設置されるマイク、表示部、およびスピーカを模式的に示す図である。図2に示す車両Mの車室内には、マイク124A〜124B、表示部132A〜132Dと、スピーカ134A〜134Fとが設置されている。
マイク124Aおよび124Bは、インストルメントパネルIPの任意の箇所に、所定距離以内の位置で設置される。所定距離以内の位置で設置されることで、マイク124Aおよび124Bの両方から、ほぼ同様の音声を入力することができる。また、マイク124Aおよび124Bは、ステアリングホイールやシートに設置されてもよい。
表示部132Aは、例えば、HUD(Head-Up Display)装置である。HUD装置は、風景に重畳させて画像を視認させる装置であり、一例として、車両Mのフロントウインドシールドやコンバイナーに画像を含む光を投光することで、運転者に虚像を視認させる装置である。表示部132Aには、例えば、ナビゲーション装置140により実行されるナビゲーション処理に対応する画像や、エージェント制御装置150により生成される画像等が表示される。
表示部132Bは、インストルメントパネルIPにおける運転席(例えば、ステアリングホイールに最も近い座席)の正面付近に設けられ、運転者がステアリングホイールの間隙から、或いはステアリングホイール越しに視認可能な位置に設置される。表示部132Bは、例えば、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)表示装置等である。表示部132Bには、例えば、車両Mの速度、エンジン回転数、燃料残量、ラジエータ水温、走行距離、その他の情報の画像や、エージェント制御装置150により生成される画像等が表示される。
表示部132Cは、インストルメントパネルIPの中央付近に設置される。表示部132Cは、例えば、表示部132Bと同様に、LCDや有機EL表示装置等である。表示部132Cには、例えば、ナビゲーション装置140により実行されるナビゲーション処理に対応する画像、エージェント制御装置150により生成される画像等が表示される。また、表示部132Cは、テレビ番組を表示したり、DVDを再生したり、ダウンロードされた映画等のコンテンツを表示してもよい。
表示部132Dは、インストルメントパネルIPにおける助手席(運転席の隣りの座席)の正面付近に設けられる。表示部132Dには、例えば、テレビ番組やサーバ装置200からダウンロードされた映画等のコンテンツ画像、その他のアプリケーションの実行に基づいて生成される画像、エージェント制御装置150により生成される画像等が表示される。なお、車室内には、上述した表示部に加えて、車外カメラによって取得した車両Mの側後方の画像を表示する表示部(電子ミラー)が設置されていてもよい。
エージェント制御装置150は、例えば、乗員からのリクエストに対する回答結果を、表示部132A〜132Dのうち少なくとも一つに表示させる。例えば、エージェント制御装置150は、運転者の質問に対する回答結果を表示する場合に、表示部132Aまたは132Bに表示させることで、運転者に車両前方を監視させながら回答結果を視認させ易くすることができる。また、エージェント制御装置150は、表示部132Cや132Dに回答結果を表示させることで、運転者だけでなく、他の同乗者にも回答結果を認識させ易くすることができる。どの表示部132に表示させるかについては、例えば、回答結果の内容や、車両状況(走行中または停止中)に基づいて決定されてもよく、乗員の指示に基づいて決定されてもよい。
スピーカ134Aおよび134Bは、例えば、車両Mの左右の前方の窓柱(いわゆるAピラー)に設置される。また、スピーカ134Cは、運転席側のドアの下部に設置され、スピーカ134Dは、助手席側のドアの下部に設置される。スピーカ134Eは、表示部132C付近、つまり、インストルメントパネルIPの中央付近に設置される。スピーカ134Fは、車室内の天井の中央部付近に設置される。
また、車両Mには、後部座席付近にスピーカが設けられていてもよい。図3は、後部座席付近のスピーカの位置を説明するための図である。図3の例では、図2に示すスピーカ134A〜134Fの他に、運転席ST1と助手席ST2の後方に設置された後部座席ST3付近にスピーカ134Gおよび134Hが設けられている。具体的には、スピーカ134Gおよび134Hは、左右の方向ドアの下部に設けられる。また、スピーカ134は、車両Mの前方ドアと後方ドアとの間に設けられる窓柱(いわゆるBピラー)に設けられてもよく、後部座席の後方に設けられてもよい。
AMP136は、音声制御部158による制御によりスピーカ134から出力される音の大きさを調整する。例えば、AMP136は、基準となる音の大きさ(最大強度)に対し、0〜100%の間で音の調節を可能とする。また、AMP136は、例えば、ミキサー138を備える。ミキサー138は、入力された複数の音を合成する機能を備える。また、ミキサー138は、スピーカ134が複数存在する場合に、それぞれのスピーカに出力する音を分配する機能を備える。エージェント制御装置150は、スピーカ134A〜134Hのうち、少なくとも一つのスピーカから音声を出力させる。
また、車両制御機器139は、車両Mまたは車室内の状態を制御するための機器であり、例えば、エアコン(Air Conditioner)、室内灯を点灯または消灯させる照明装置、座席の位置やリクライニング角度を自動で変化させるシート駆動装置、サイドウインドシールドを開閉させるパワーウインドユニットである。また、車載機器130には、ナビゲーション装置140が含まれてよい。
ナビゲーション装置140は、例えば、GNSS(Global Navigation Satellite System)衛星から受信した信号に基づいて、車両Mの位置を特定する。また、ナビゲーション装置140は、特定された車両Mの位置(或いは入力された任意の位置)から、操作部120や表示部132を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、地図情報142を参照して決定する。地図情報142は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。地図情報142は、道路の曲率やPOI(Point Of Interest)情報等を含んでもよい。また、地図情報142は、例えば、車線の中央の情報あるいは車線の境界の情報、車線の種別の情報等を含んでもよい。また、地図情報142には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報等が含まれてよい。地図情報142は、通信装置110が他装置と通信することにより、随時、アップデートされてよい。
また、ナビゲーション装置140は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置140は、通信装置110を介してサーバ装置200或いはナビゲーションサーバに現在位置と目的地を送信し、サーバ装置200やナビゲーションサーバから地図上経路と同等の経路を取得してもよい。また、ナビゲーション装置140は、エージェント制御装置150により実行されるナビゲーション用のアプリケーション(ナビアプリ)の機能によって、上述したナビゲーション装置140の機能が実現されてもよい。また、ナビゲーション装置140は、地図上経路に基づいて、表示部132による地図画像表示やスピーカ134による音声出力によって、経路案内を行ってもよい。
[エージェント制御装置]
エージェント制御装置150は、例えば、マスタエージェント機能部152と、複数のサブエージェント機能部(エージェント機能部の一例)154と、表示制御部156と、音声制御部158と、機器制御部160と、記憶部170とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)等のコンピュータプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め記憶部170に格納されていてもよいし、DVDやCD−ROM等の着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることで記憶部170にインストールされてもよい。以下では、複数のサブエージェント機能部154の一例として、三つのサブエージェント機能部154A〜154Cを用いるものとする。
記憶部170は、例えば、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。記憶部170には、例えば、機能情報テーブル172、プロセッサによって読み出されて実行されるプログラム、その他の情報等が格納される。機能情報テーブル172の内容については、後述する。
[マスタエージェント機能部]
マスタエージェント機能部152は、マイク124Aおよび124Bから音声を入力することができる音声入力インターフェース152aを備える。また、サブエージェント機能部154A〜154Cは、それぞれマイク124Bから音声を入力することができる音声入力インターフェース154Aa〜154Caを備える。つまり、マイク124Aは、音声入力インターフェース152aに割り当てられ、マイク124Bは、乗員の要求に対する処理状態に応じてマスタエージェント機能部152またはサブエージェント機能部154A〜154Cのうち、何れか一つに切り替え可能に割り当てられる。マイク124Bよりも高性能であるマイク124Aをマスタエージェント機能部152に割り当てることで、マスタエージェント機能部152は、マイク124Bよりも音質のよい音声を入力することができる。
マスタエージェント機能部152は、音声入力インターフェース152aにより入力された音声(音声ストリーム)から音声の意味を認識する。具体的に説明すると、まず、マスタエージェント機能部152は、入力された音声ストリームにおける音声波形の振幅と零交差に基づいて音声区間を検出する。また、マスタエージェント機能部152は、混合ガウス分布モデル(GMM;Gaussian mixture model) に基づくフレーム単位の音声識別および非音声識別に基づく区間検出を行ってもよい。
次に、マスタエージェント機能部152は、検出した音声区間における音声を認識し、認識した音声を文字情報としてテキスト化する。そして、マスタエージェント機能部152は、テキスト化された文字情報に対する自然言語処理を実行し、文字情報の意味を認識する。自然言語処理には、形態素解析、構文解析、意味解析、文脈解析等が含まれる。形態素解析は、例えば、文字情報を、意味を持つ最小の表現要素の単位に分割し、分割した単位(形態素)ごとの品詞等を解析する。構文解析は、例えば、形態素解析により得られた形態素をもとに、文の構造を解析する。意味解析は、例えば、構文解析により得られた構文をもとに、意味を持つまとまりを判別する。文脈解析は、例えば、文単位で意味を認識する。
次に、マスタエージェント機能部152は、認識した意味に基づいて、ワードまたはコマンドを認識する。例えば、入力された音声が「ねえ!」や「おーい!」等の任意のエージェント(対話型エージェント)を呼び出すワードや、サブエージェント機能部154A〜154Cのそれぞれによって実現されるエージェントを指定して呼び出すワード(例えば、ウェイクワード)を認識する。
また、マスタエージェント機能部152は、認識した意味に対応するコマンドを生成する。例えば、認識結果として、「エアコンをつけて」、「エアコンの電源を入れてください」等の意味が認識された場合、マスタエージェント機能部152は、標準文字情報「エアコンの起動」に置き換えたコマンドを生成する。これにより、リクエストの音声に文字揺らぎがあった場合にも要求にあった制御を実行し易くすることができる。また、マスタエージェント機能部152は、例えば、確率を利用した機械学習処理等の人工知能処理を用いて文字情報の意味を認識したり、認識結果に基づくコマンドを生成してもよい。
また、マスタエージェント機能部152は、認識したワードやコマンドに基づいて、乗員との対話を行うサブエージェントを決定する。例えば、任意のエージェントを呼び出すワードを認識した場合、予め指定されたエージェント(例えば、サブエージェント機能部154Aによって実現されるエージェントA)に決定する。また、マスタエージェント機能部152は、特定のエージェントを指定するワードが認識された場合に、認識されたワードで指定されたエージェントに決定する。また、マスタエージェント機能部152は、認識したコマンドに基づいて、記憶部170に記憶された機能情報テーブル172を参照し、コマンドに対応付けられる機能を実現可能なエージェントを、乗員との対話を行うエージェントとして決定してもよい。
図4は、機能情報テーブル172の内容の一例を示す図である。機能情報テーブル172は、機能情報に、エージェント識別情報が対応付けられている。機能情報には、例えば、車載機器制御、店舗検索、経路案内、交通情報通知、ラジオ制御、家庭機器制御、商品注文が含まれる。また、エージェント情報には、例えば、サブエージェント機能部154A〜154Cによって実現されるエージェントA〜Cが含まれる。また、図4の例では、エージェントが実現可能な機能に「1」が格納され、実現不可能な機能に「0」が格納されているが、他の識別情報を用いてもよい。
例えば、マスタエージェント機能部152は、認識したコマンドが「エアコンの起動」である場合に、コマンドに対応する制御である車載機器制御が実行可能なエージェントを、機能情報テーブル172を参照して決定する。図4の例において、マスタエージェント機能部152は、エアコンの起動が実行可能なエージェントがエージェントAであることを取得し、乗員と対話するエージェントをエージェントAに決定する。なお、店舗検索のように、複数のエージェントが実行可能な機能の場合、マスタエージェント機能部152は、機能ごとに予め決められた優先順位に基づいてエージェントを決定してもよい。
また、マスタエージェント機能部152は、特定のエージェントを呼び出すウェイクワードを認識した場合、ウェイクワードに基づいて乗員との対話を行うエージェントを決定してもよい。
マスタエージェント機能部152は、決定したエージェントに対応するサブエージェント機能部154を乗員と対話可能な状態にさせる。そのため、マスタエージェント機能部152は、マイク124Bからの音声を、乗員と対話するサブエージェント機能部154の音声入力インターフェースに割り当てる。これにより、マスタエージェント機能部152により対話可能な状態となったサブエージェント機能部154は、音声入力インターフェースにより入力したマイク124Bからの音声に基づいて、乗員からのリクエストを取得したり、乗員と対話を行ったりすることができる。
また、マスタエージェント機能部152は、所定のサブエージェント機能部154が乗員と対話可能な状態であっても、マイク124Aにより収集された音声を常時入力する。これにより、マスタエージェント機能部152は、例えば、サブエージェント機能部154Aと乗員との対話内容を把握することができるとともに、より適切な回答を得る可能性がある他のサブエージェント機能部154を選定し、選定された他のサブエージェント機能部154に切り替えるといった制御を行うことができる。これにより、複数のエージェントの連携性を向上させることができるとともに、乗員へのより適切な支援を実現することができる。
また、マスタエージェント機能部152は、サブエージェント機能部154が対話可能な状態でない場合に、マイク124Aおよび124Bの両方から音声を入力することができるため、より高性能な音声を入力することができる。また、マスタエージェント機能部152は、マイク124Aおよび124Bの両方の音声の位相差に基づいて、車室内のどの方向から音声が聞こえているかを認識することができる。
また、マスタエージェント機能部152は、サブエージェント機能部154A〜154Cのそれぞれが出力する音声の出力位置や、画像の表示位置等を調整する。マスタエージェント機能部152における音声の出力位置や画像の表示位置の調整の詳細については、後述する。
[サブエージェント機能部]
サブエージェント機能部154は、音声入力インターフェースから入力した音声を含む情報を、ネットワークNWを介してサーバ装置200に送信し、送信した音声に対応する対話情報や出力制御情報を取得する。また、サブエージェント機能部154は、入力した音声を含む情報をサーバ装置200に送信する場合に、車両Mの状態(例えば、車両Mの位置や周囲環境)に関する情報を送信してもよい。
サブエージェント機能部154は、取得した対話情報に音声制御が含まれる場合に、音声制御部158に音声の生成や音声制御を実行させる。また、サブエージェント機能部154は、取得した出力制御情報に表示制御が含まれる場合に、表示制御部156に画像の生成や表示制御を実行させる。また、サブエージェント機能部154は、取得した出力制御情報に車両制御機器139に対する制御が含まれる場合に、機器制御部160に対象の機器に対する制御を実行させる。また、サブエージェント機能部154は、マスタエージェント機能部152からの指示により、画像の生成や音声の生成を行ってもよい。
なお、サブエージェント機能部154は、マイク124Bからの音声や、通信装置110から得られる対話情報および出力制御情報の入力をAPI(Application Programming Interface)によって受け付け、受け付けた入力に基づく処理を実行する機能部(表示制御部156、音声制御部158、および機器制御部160)を選択し、選択した機能部に、APIを介して処理を実行させてもよい。
表示制御部156は、サブエージェント機能部154の制御により、車内で乗員とのコミュニケーションを行う擬人化されたエージェントの画像(以下、エージェント画像と称する)を生成し、生成したエージェント画像を表示部132に表示させる。エージェント画像は、例えば、乗員に対して話しかける態様の画像である。エージェント画像は、例えば、少なくとも観者(乗員)によって表情や顔向きが認識される程度の顔画像を含む。例えば、エージェント画像は、顔領域の中に目や鼻に擬したパーツが表されており、顔領域の中のパーツの位置に基づいて表情や顔向きが認識されるものである。また、エージェント画像は、立体的に感じられ、観者によって三次元空間における頭部画像を含むことでエージェントの顔向きが認識されたり、本体(胴体や手足)の画像を含むことで、エージェントの動作や振る舞い、姿勢等が認識されるものであってもよい。また、エージェント画像は、アニメーション画像であってもよい。
また、表示制御部156は、出力制御情報に含まれる画像を、サブエージェント機能部154により指示された表示部132に表示させるための表示態様(例えば、画像サイズ、画像フォーマット)に変換し、変換した画像を指示された表示部132に表示させる。
音声制御部158は、サブエージェント機能部154の制御により、対話情報に含まれるエージェント画像が乗員に話しかける音声(以下、エージェント音声と称する)や、エージェント音声以外の音声(例えば、ラジオや音楽、映像等のコンテンツに対する音声)をスピーカ134から出力させる。このとき、音声制御部158は、複数のスピーカ134を用いて、エージェント画像の表示位置に対応する位置にエージェント音声の音像を定位させる制御を行ってもよい。エージェント画像の表示位置に対応する位置とは、例えば、エージェント画像がエージェント音声を喋っていると乗員が感じると予測される位置であり、具体的には、エージェント画像の表示位置付近(例えば、2〜3[cm]以内)の位置である。また、音像が定位するとは、例えば、乗員の左右の耳に伝達される音の大きさを調節することにより、乗員が感じる音源の空間的な位置を定めることである。音像は、例えば、音源が元々保有している音特性や、車室内環境の情報、頭部伝達関数(HRTF;Head-related transfer function)に基づいて定まる。このような原理を利用して、音像を所定の位置に定位させることができる。
図5は、音像が定位する位置を移動させることについて説明するための図である。図5では、説明を簡略化するために、上述したスピーカ134C〜134Eを用いるが、車室内に設けられたスピーカ134A〜134Hを用いて音像を定位させる位置を空間的に移動させることができる。例えば、図5に示す三次元座標(X、Y、Z)で定められる空間位置MP1に音像を定位させる場合、AMP136は、音声制御部158により生成された音声に基づいて、所定の出力対象の音声に対し、スピーカ134Cから最大強度の5%の出力を行い、スピーカ134Dから最大強度の80%の出力を行い、スピーカ134Eから最大強度の15%の出力を行った場合、乗員P1の位置からは、図5に示す空間位置MP1に音像が定位しているように感じることになる。
また、AMP136は、出力対象の音声に対し、スピーカ134Cから最大強度の45%の出力を行い、スピーカ134Dから最大強度の45%の出力を行い、スピーカ134Eから最大強度の45%の出力を行った場合、乗員P1の位置からは、図4に示す空間位置MP2に音像が定位しているように感じることができる。このように、車室内に設けられる複数のスピーカとそれぞれのスピーカから出力される音の大きさを調整することで、音像が定位される位置を変化させることができる。以下、音像が定位される空間上の位置MPを「音像位置MP」と称するものとする。
機器制御部160は、出力制御情報に含まれる機器制御情報に基づいて、車両制御機器139の制御を実行する。車両制御機器139の制御とは、例えば、エアコンのオン/オフ、温度調整、室内灯の点灯/消灯、リクライニング角度の調整、サイドウインドシールドの開閉等である。
[サーバ装置]
次に、サーバ装置200の概略構成について図を用いて説明する。なお、図1に示すサーバ装置200A〜200Cは、サブエージェント機能部154A〜154Cごとに設けられているが、それぞれの概略構成については、後述する回答情報DBの内容を除いて略同様であるため、「サーバ装置200」として纏めて説明する。
図6は、サーバ装置200の機能構成の一例を示す図である。サーバ装置200は、例えば、通信部210と、認識部220と、対話生成部230と、記憶部240とを備える。これらの構成要素は、例えば、CPU等のコンピュータプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPU等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め記憶部240に格納されていてもよいし、DVDやCD−ROM等の着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることで記憶部240にインストールされてもよい。
記憶部240は、例えば、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。記憶部240は、例えば、パーソナルプロファイル242、回答情報DB244、その他の情報等が格納される。
通信部210は、例えば、セルラー網やWi−Fi網、Bluetooth、DSRC等を利用して、ネットワークNWを介してエージェント装置100と通信する。通信部210は、エージェント装置100から送信された音声(例えば、音声ストリーム)を含む情報を受信する。また、通信部210は、対話生成部230により生成された音声を含む対話情報や、画像または機器への出力制御情報をエージェント装置100に送信する。
認識部220は、例えば、通信部210により受信した音声ストリームから音声の意味を認識する。具体的には、認識部220は、エージェント装置100から送信された音声ストリームにおける音声波形の振幅や零交差等に基づいて音声区間を検出する。また、認識部220は、GMMに基づくフレーム単位の音声・非音声識別に基づく区間検出を行ってもよい。また、認識部220は、検出した音声区間における音声を認識し、音声を文字情報としてテキスト化する。また、認識部220は、認識された音声から発話者の特徴を特定してもよい。発話者の特徴には、例えば、性別や年齢、運転者であるか、同乗者であるかの情報が含まれる。
また、認識部220は、音声から得られる特徴情報を用いて、記憶部240に記憶されたパーソナルプロファイル242と照合を行ってもよい。パーソナルプロファイル242には、例えば、音声の特徴情報に、個人情報が対応付けられている。音声の特徴情報とは、例えば、声の高さ、イントネーション、リズム(音の高低のパターン)、ポーズ等の喋り方の特徴や、メル周波数ケプストラム係数(Mel Frequency Cepstrum Coefficients)等による特徴量に関する情報である。音声の特徴情報は、例えば、乗員の初期登録時に所定の単語や文章等を乗員に発声させ、発声させた音声を認識することで得られる情報である。個人情報には、例えば、氏名、住所、年齢、趣味、過去のサーバ装置200の使用履歴が含まれる。氏名、住所、年齢、趣味は、乗員の初期登録時に音声の特徴情報とともに設定され、その後、設定変更等により適宜更新がなされる。認識部220は、音声から得られる特徴情報と、記憶部240に記憶されたパーソナルプロファイル242の特徴情報とを照合して、合致した特徴情報に対応付けられた個人情報を認識する。
また、認識部220は、テキスト化された文字情報に対する自然言語処理を実行し、文字情報の意味を認識する。自然言語処理には、形態素解析、構文解析、意味解析、文脈解析等が含まれる。また、認識部220は、認識した意味に対応するコマンドを生成する。
また、対話生成部230は、認識部220から入力されたコマンドを用いて記憶部240に記憶された回答情報DB244のコマンドを参照し、合致するコマンドに対応する制御内容を取得する。なお、回答情報DB244は、サブエージェント機能部154A〜154Cが実行可能な機能によって異なる。以下では、サーバ装置200Aおよびサーバ装置200Bのそれぞれが備える回答情報DBについて説明する。
図7は、サーバ装置200Aが備える回答情報DB244Aの内容の一例を示す図である。回答情報DB244Aには、例えば、コマンド情報に、サブエージェント機能部154Aに実行させる制御内容が対応付けられている。回答情報DB244Bの制御内容には、例えば、車載機器に対する機器制御(起動、停止)に関する情報や、エージェント音声の出力制御、表示部132に表示させる画像制御等が含まれる。回答情報DB244Aに含まれる内容は、上述した図4に示す機能情報テーブル172における実行可能な機能に対応付けられている。図7に示す「エアコンの起動」や「エアコンの停止」、「車内灯の点灯」のコマンドに対する制御は、車載機器制御機能に含まれる制御である。また、「Aまでの距離は?」のコマンドに対する制御は、経路案内機能に含まれる制御である。また、「近くにあるレストランは?」のコマンドに対する制御は、店舗検索機能に含まれる制御である。
図8は、サーバ装置200Bが備える回答情報DB244Bの内容の一例を示す図である。回答情報DB244Bには、例えば、コマンド情報に、サブエージェント機能部154Bに実行させる制御内容が対応付けられている。回答情報DB244Bには、エージェント音声の出力制御、表示部132に表示させる画像制御、アプリ実行制御等が含まれる。例えば、図8に示す「ラジオをつけて」のコマンドに対する制御は、ラジオ制御機能に含まれる制御である。このように、サーバ装置200は、それぞれの特性や分野ごとに対応した回答情報DB244を備えることで、多種の情報の中から乗員の要求にあった情報を提供することができる。
対話生成部230は、コマンドに対応付けられた制御内容を取得する。例えば、コマンドが「エアコンの起動」である場合、対話生成部230は、車両Mに搭載されたエアコンを起動させる機器制御の制御内容と、「エアコンを起動しました。」という音声を出力する音声制御の制御内容と、車室内温度および設定温度を表示する表示制御の制御内容とを取得する。
また、コマンドが「A駅までの距離は?」である場合、対話生成部230は、「ここから***[km]です。」という音声を出力する音声制御の制御内容と、A駅までの経路画像を表示するという表示制御の制御内容とを取得する。この場合、対話生成部230は、エージェント装置100から送信された車両Mの位置情報に基づいて、記憶部240または外部装置に記憶された地図情報(不図示)を参照し、車両Mの位置からA駅までの走行距離を導出する。そして、対話生成部230は、取得した音声制御の制御内容である「ここから***[km]です。」の「***」の部分に、導出した走行距離を代入して最終的な音声情報を生成してもよい。
また、対話生成部230は、取得した制御内容に基づいて乗員と対話するための対話情報および出力制御情報を生成する。例えば、対話生成部230は、対話情報として、回答情報DB244から得られた内容(文字情報)に対する音声情報(音声ストリーム)を生成する。音声情報には、例えば、エージェント音声やその他の音声が含まれる。また、対話生成部230は、エージェント音声の内容に対応するエージェント画像を生成してもよい。また、対話生成部230は、出力制御情報として、乗員に提示する画像や映像、文字情報等を生成したり、機器制御に対する制御情報を生成する。例えば、回答情報DB244により得られる回答が「表示制御:A駅までの経路画像を表示」である場合、対話生成部230は、地図情報を参照して、車両Mの位置からA駅までの経路画像を生成する。
また、対話生成部230は、認識部220により音声に対する個人情報が得られている場合に、個人情報に基づいて、音声で乗員の名前を呼んだり、乗員の話し方に似せた話し方にした音声情報を生成してもよい。また、対話生成部230は、パーソナルプロファイルから得られる乗員の趣味に関する情報を取得し、取得した情報を対話情報に含めてもよい。対話生成部230は、生成された対話情報および出力制御情報を、通信部210を介してエージェント装置100に送信する。
[エージェント装置により実行される処理の詳細]
次に、エージェント装置100により実行される処理の詳細について、異なる場面ごとに説明する。以下では、エージェント装置100により出力されるエージェント画像が、表示部132Aに表示されるものとして説明する。
<第1の場面>
図9は、第1の場面において、エージェント装置100により実行される処理について説明するための図である。第1の場面は、例えば、マスタエージェント機能部152により、乗員の音声から任意のエージェントを呼び出すワードが認識された場面である。なお、第1の場面においては、マイク124Aおよびマイク124Bのそれぞれで入力された音声が、マスタエージェント機能部152の音声入力インターフェース152aに入力されているものとする。
第1の場面において、マスタエージェント機能部152は、任意のエージェントを呼び出すワードが認識された場合、サブエージェント機能部154A〜154Cのそれぞれにエージェント画像EIA〜EICを生成させる。このとき、マスタエージェント機能部152は、それぞれのエージェント画像の表示態様を変更する。例えば、任意のエージェントを呼び出すワードを認識された場合、マスタエージェント機能部152は、予め指定されたサブエージェント機能部154AのエージェントAを、乗員と対話するエージェントとして決定する。そして、マスタエージェント機能部152は、表示制御部156により生成されるサブエージェント機能部154A〜154Cに対応するエージェント画像EIA〜EICのうち、対話を行うエージェント画像EIAを他のエージェントEIBおよびEICよりも、乗員から見て手前に表示させる。なお、マスタエージェント機能部152は、画像空間上でのエージェント画像EIA〜EICの位置関係に応じて、各エージェント画像の大きさを調整してもよい。
図9に示すように、乗員と対話可能なエージェントに対応するエージェント画像EIA〜EICを表示部132に表示することで、乗員に複数のエージェントがいることを容易に把握させることができる。また、対話するエージェント画像EIAを乗員から見て手前に表示させることで、対話するエージェントを直感的に把握し易くすることができる。
また、マスタエージェント機能部152は、マイク124Bで収集された音声を、サブエージェント機能部154Aの音声入力インターフェース154Aaに入力させる。これにより、マイク124Bで収集された音声に基づいて、サブエージェント機能部154Aのエージェントと乗員との間で対話を行わせることができるとともに、マイク124Aから常時入力される音声に基づいて、マスタエージェント機能部152における機能を継続させる。
サブエージェント機能部154Aは、表示部132Aに表示されたエージェント画像EIAの表示位置に対応付けて、音声制御部158に、エージェント音声の音像位置MPAを調整させる。図9の例では、サーバ装置200から取得した対話情報に含まれる「何かリクエストはありますか?」というエージェント音声が、エージェント画像EIAの表示位置付近から聞こえるように音像位置MPAが調整されている。
<第2の場面>
図10は、第2の場面において、エージェント装置100により実行される処理について説明するための図である。第2の場面は、例えば、乗員から「エアコンの起動」に対応するリクエストを含む音声が入力され、入力されたリクエストに対応する制御を実行した場面である。また、第2の場面は、上述した第1の場面以降の連続する場面であるものとする。
第2の場面において、マスタエージェント機能部152は、乗員の音声された認識されたコマンド「エアコンの起動」に基づいて、機能情報テーブル172のコマンド情報を参照し、車載機器制御が実現可能なエージェントA(サブエージェント機能部154A)を、乗員と対話するエージェントに決定する。このとき、マスタエージェント機能部152は、決定したエージェントAのエージェント画像EIAを他のエージェント画像EIBおよびEICよりも手前に表示させるが、第1の場面において、すでにエージェント画像EIAが手前に表示されているため、図9に示すエージェント画像の表示態様は継続される。
また、第2の場面において、サブエージェント機能部154Aは、サーバ装置200から取得した出力制御情報に基づいて、機器制御を実行する。また、サブエージェント機能部154Aは、出力制御情報に含まれる表示制御に基づいて、車両Mに搭載された車両センサ(不図示)により検出された車室内温度と、エアコンで設定されている設定温度を取得し、取得した車室内温度および設定温度に関する文字情報CIを表示部132に表示させる。図10の例において、サブエージェント機能部154Aは、表示制御部156の制御により、車室内温度が32[℃]で、設定温度が28[℃]であることを示す文字情報CIを表示部132Aに表示させている。
また、サブエージェント機能部154Aは、機器制御が実行された場合、対話情報に含まれる音声制御内容に基づいて、エージェント画像EIAの表示位置付近に、エージェント音声の音像位置MPAを定位させ「エアコンを起動しました。」というエージェント音声を出力させる。
なお、サブエージェント機能部154Aは、乗員のリクエストに対する制御内容に基づいて、エージェント画像EIAの表情やエージェント音声のトーン等を変化させてもよい。例えば、乗員のリクエストに対する制御が実行できた場合、サブエージェント機能部154Aは、喜んだ表情のエージェント画像を表示させたり、エージェント音声のトーンを基準のトーンよりも高く出力させる。また、乗員のリクエストに対する制御が実行できなかった場合、サブエージェント機能部154Aは、悲しい表情のエージェント画像を表示させたり、エージェント音声のトーンを基準のトーンよりも低く出力させる。
なお、エージェント画像やエージェント音声の変化は、リクエストに応えたエージェントであってもよく、その他のエージェントでもよい。図10の例では、乗員のリクエストに応えたサブエージェント機能部154Aのエージェント画像EIAと、リクエストに応えていないサブエージェント機能部154Bのエージェント画像EIBの表情が、微笑みの表情に変化している。このような表情を変化させた画像の生成は、マスタエージェント機能部152から指示を受けたサブエージェント機能部154により実行される。
<第3の場面>
図11は、第3の場面において、エージェント装置100により実行される処理について説明するための図である。第3の場面は、例えば、エージェントAが実行できない機能制御について乗員からリクエストがあった場面である。
第3の場面において、マスタエージェント機能部152は、乗員の音声された認識されたリクエストに対応するコマンドに基づいて、機能情報テーブル172のコマンド情報を参照し、コマンドに対応する機能が実現可能なエージェント(図11の例では、エージェントB)を、乗員と対話するエージェントとして決定する。このとき、マスタエージェント機能部152は、乗員と対話を行う主体をサブエージェント機能部154Aからサブエージェント機能部154Bに切り替えるタイミングで、エージェント画像EIBを他のエージェント画像EIAおよびEICよりも手前に表示されるように表示態様を変更する。
また、マスタエージェント機能部152は、エージェント画像EIAとエージェント画像EIBの表示位置を入れ替える場合、対話するエージェントが切り替わったことを示すエージェント音声を、対象のサブエージェント機能部154に生成させてもよい。例えば、図11に示すように、乗員と対話する主体がエージェントAからエージェントBに切り替わる場合、マスタエージェント機能部152は、エージェントAから「そのリクエストは、エージェントBがお応えします。」等のエージェント音声を出力させ、エージェントBから「私がお応えします。」等のエージェント音声を出力させる。この場合、マスタエージェント機能部152は、エージェントAに対するエージェント音声の音像位置MPAをエージェント画像EIAの表示位置付近に定位させ、エージェントBに対するエージェント音声の音像位置MPBをエージェント画像EIBの表示位置付近に定位させる。これにより、エージェント間で円滑な連携が行われているという感覚を乗員に感じさせることができる。
また、マスタエージェント機能部152は、マイク124Bが収集した音声の入力を、サブエージェント機能部154Aの音声入力インターフェース154Aaからサブエージェント機能部154Bの音声入力インターフェース154Baに切り替える。これにより、エージェントBと乗員との間で対話等を実現することができる。
<第4の場面>
図12は、第4の場面において、エージェント装置100により実行される処理について説明するための図である。第4の場面は、例えば、第3の場面において、エージェントBによる乗員への支援が終了した場面である。
第4の場面において、マスタエージェント機能部152は、乗員と対話する主体をエージェントAに戻す制御を行う。具体的には、マスタエージェント機能部152は、エージェント画像EIAを他のエージェント画像EIBおよびEICよりも手前に表示させるとともに、マイク124Bが収集した音声の入力を、サブエージェント機能部154Bの音声入力インターフェース154Baからサブエージェント機能部154Aの音声入力インターフェース154Aaに切り替える。
また、マスタエージェント機能部152は、エージェント画像EIAとエージェント画像EIBの表示位置を入れ替える場合、対話するエージェントが切り替わったことを示すエージェント音声を出力してもよい。例えば、図12に示すように、乗員と対話する主体がエージェントBからエージェントAに切り替わる場合、マスタエージェント機能部152は、エージェントAからエージェントBに対して「ありがとね!」等のエージェント音声を出力させ、エージェントBからエージェントAに対して「また呼んでね!」等のエージェント音声を出力させる。この場合、マスタエージェント機能部152は、エージェント音声の音像位置MPAおよびMPBを、エージェント画像EIAおよびEIBの表示位置付近に定位させる。このように、エージェント間での疑似的な会話を出力させることで、エージェント間で、より円滑な連携が行われているという感覚を乗員に感じさせることができる。
このように、マスタエージェント機能部152は、複数のエージェントに対して、自動的に乗員と対話する主体を切り替える制御を行うことで、複数のエージェントによる、より適切な支援を行うことができる。
また、マスタエージェント機能部152は、店舗検索のように一つのリクエストに対して、複数のエージェントで情報提示が可能である場合に、乗員がウェイクワードで指定したエージェントだけでなく、他のエージェントが代わって情報提示を行わせることができる。したがって、より最適な情報を乗員に提供させることができる。また、マスタエージェント機能部152は、複数のエージェントの機能を管理することで、例えば、エージェントCに商品注文をさせている状態で、エージェントAによりエアコンの起動制御を行わせることができる。
[処理フロー]
以下、第1の実施形態のエージェント装置100による一連の処理の流れを、フローチャートを用いて説明する。図13は、エージェント装置100による一連の処理の流れの一例を示すフローチャートである。なお、図13では、主にマスタエージェント機能部152による処理の流れについて説明するための図である。図13の処理は、所定のタイミングで繰り返し実行されてもよい。
まず、マスタエージェント機能部152は、マイク124により収集された音声を音声入力インターフェース152aにより入力し、入力された音声の意味を認識する(ステップS100)。次に、マスタエージェント機能部152は、認識された音声の意味から、予め設定された複数のサブエージェント機能部154のうち、乗員と対話する主体となるサブエージェント機能部154を決定する(ステップS102)。次に、マスタエージェント機能部152は、決定したサブエージェント機能部154を対話可能な状態にする(ステップS104)。
次に、マスタエージェント機能部152は、決定したサブエージェント機能部154にリクエストに対応する制御を実行させる(ステップS106)。また、マスタエージェント機能部152は、他のリクエストを認識したか否かを判定する(ステップS108)。他のリクエストを認識した場合、マスタエージェント機能部152は、乗員との対話を行っているサブエージェント機能部154で、そのリクエストに対する機能が実行可能か否かを判定する(ステップS110)。実行可能である場合には、ステップS106の処理に戻る。
また、実行可能でない場合、マスタエージェント機能部152は、複数のサブエージェント機能部154のうち、実行可能な他のサブエージェント機能部を決定する(ステップS112)。次に、マスタエージェント機能部152は、乗員と対話する主体を、決定したサブエージェント機能部に切り替え(ステップS114)、ステップS106の処理に戻る。また、ステップS108の処理において、他のリクエストを認識していない場合、本フローチャートの処理は終了する。
以上説明した第1の実施形態によれば、乗員に、より適切な支援を行うことができる。具体的には、第1の実施形態によれば、複数のエージェントが実行可能な機能を管理することで、乗員の要望に対して、より適切なエージェントに切り替えて対話をさせることができる。
(第2の実施形態)
次に、第2の実施形態に係るエージェント装置の構成について説明する。第2の実施形態では、第1の実施形態のエージェント装置100と比較して、エージェント制御装置150にマスタエージェント機能部と複数のサブエージェント機能部のうち一つとが一体に動作するマスタ/サブエージェント機能部を備える点で異なる。したがって、以下では、主にマスタ/サブエージェント機能部の構成を中心に説明する。
図14は、第2の実施形態に係るエージェント装置を含むエージェントシステム2の構成図である。第2の実施形態におけるエージェント装置100#は、例えば、通信装置110と、操作部120と、車載機器130と、ナビゲーション装置140と、エージェント制御装置150#とを備える。また、エージェント制御装置150#は、例えば、マスタ/サブエージェント機能部151と、サブエージェント機能部154Bおよび154Cと、表示制御部156と、音声制御部158と、機器制御部160と、記憶部170とを備える。
マスタ/サブエージェント機能部151は、例えば、音声入力インターフェース151aを備える。また、マスタ/サブエージェント機能部151は、例えば、第1の実施形態におけるマスタエージェント機能部152およびサブエージェント機能部154Aの機能を備える。したがって、マスタ/サブエージェント機能部151により提供されるエージェントAは、他のエージェントを管理するマスタエージェントとして機能する。
例えば、エージェントAは、マイク124Aから音声入力インターフェース151aに常時入力される音声に基づいて、他のエージェントへの切り替え等を円滑に行うことができる。更に、エージェントAは、例えば、他のエージェント(例えば、エージェントBまたはエージェントC)が乗員と対話している最中であっても、エージェントAの呼び出しに即座に対応することができると共に、他のエージェントと同時に店舗検索等を行い、エージェント間で調整して、より適切な情報を乗員に提示することができる。また、エージェントAに車載機器を制御する機能を備えることで、乗員から車載機器を制御するコマンドが入力された場合に、他のエージェントを仲介せずに迅速に対応することができる。
上述した第2の実施形態によれば、第1の実施形態と同様の効果を奏する他、特定のエージェントをマスタエージェントとして常駐させることで、他のエージェントとの連携の管理や出力内容の調整等を行うことができる。
(第3の実施形態)
次に、第3の実施形態に係るエージェント装置の構成について説明する。第3の実施形態では、第1の実施形態のエージェントシステム1と比較して、サーバ装置200の機能をエージェント制御装置内に設ける点で異なる。したがって、以下では、主にエージェント制御装置の構成を中心に説明する。
図15は、第3の実施形態に係るエージェント装置を含むエージェントシステム3の構成図である。第3の実施形態におけるエージェント装置100##は、例えば、通信装置110と、操作部120と、車載機器130と、ナビゲーション装置140と、エージェント制御装置150##とを備える。また、エージェント制御装置150##は、例えば、マスタエージェント機能部152と、サブエージェント機能部154A#〜154C#と、表示制御部156と、音声制御部158と、機器制御部160と、記憶部170#とを備える。
記憶部170#には、機能情報テーブル172と、パーソナルプロファイル174と、回答情報DB176とを備える。パーソナルプロファイル174は、第1の実施形態のパーソナルプロファイル242に相当する。また、回答情報DB176は、第1の実施形態の回答情報DB244に相当する。なお、回答情報DB176は、サブエージェント機能部154A#〜154C#ごとに設けられていてもよい。
また、サブエージェント機能部154A#は、例えば、音声入力インターフェース154Aaと、認識部154Abと、対話生成部154Acとを備える。同様に、サブエージェント機能部154B#は、例えば、音声入力インターフェース154Baと、認識部154Bbと、対話生成部154Bcとを備える。サブエージェント機能部154C#は、例えば、音声入力インターフェース154Caと、認識部154Cbと、対話生成部154Ccとを備える。それぞれの認識部および対話生成部は、第1の実施形態のサーバ装置200に設けられた認識部220および対話生成部230に相当する。
第3の実施形態により、サブエージェント機能部154A#〜154#Cは、サーバ装置200との通信を行うことなく、認識部154Ab〜154Cbにより音声を含む情報を認識し、対話生成部154Ac〜対話生成部154Ccにより回答情報DB176を参照して対話情報や出力制御情報を生成することができる。また、サブエージェント機能部154A#〜154#Cは、パーソナルプロファイル174を参照して、乗員の嗜好に基づく対話情報や出力制御情報を生成することができる。
上述した第3の実施形態によれば、サブエージェント機能部154A#〜154C#に、認識部および対話生成部の機能を備えることで、サーバ装置200との通信を行う必要がなく、乗員からのリクエストに対する迅速な情報提供を行うことができる。なお、上述した第1〜第3の実施形態は、他の実施形態の構成の一部または全部を組み合わせてもよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。例えば、上述した実施形態のサーバ装置200の構成要素のうち一部または全部は、エージェント装置100内に設けられてもよい。また、上述した実施形態のエージェント装置の構成要素のうち一部または全部は、サーバ装置200内に設けられてもよい。
1…エージェントシステム、100…エージェント装置、110…通信装置、120…操作部、122…音声入力部、124A、124B…マイク、130…車載機器、132…表示部、134…スピーカ、139…車両制御機器、140…ナビゲーション装置、150…エージェント制御装置、151…マスタ/サブエージェント機能部、152…マスタエージェント機能部、154…サブエージェント機能部、156…表示制御部、158…音声制御部、160…機器制御部、170、240…記憶部、172…機能情報テーブル、174、242…パーソナルプロファイル、176、244…回答情報DB、200…サーバ装置、210…通信部、220…認識部、230…対話生成部

Claims (14)

  1. 車室内の音声を収集するマイクと、
    前記車室内に音声を出力するスピーカと、
    機能が異なる複数のエージェント機能部と、を備え、
    前記複数のエージェント機能部のそれぞれは、前記マイクにより収集された音声の意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成し、生成したエージェント音声を前記スピーカに出力させ、前記マイクにより収集された音声の内容に基づいて、前記乗員と対話する主体となるエージェント機能部が切り替わる、
    エージェント装置。
  2. 前記複数のエージェント機能部のそれぞれは、前記生成したエージェント音声の音像が所定の位置に定位されるように、前記エージェント音声を前記スピーカに出力させる、
    請求項1に記載のエージェント装置。
  3. 前記マイクにより収集された音声の意味に基づいて、前記乗員と対話する主体を切り替えるマスタエージェント機能部を更に備え、
    前記複数のエージェント機能部は、前記マスタエージェント機能部による切り替え制御によって、前記乗員と対話する主体となるものが切り替わる、
    請求項1または2に記載のエージェント装置。
  4. 前記マスタエージェント機能部と、前記複数のエージェント機能部のうち一つが、一体に動作する、
    請求項3記載のエージェント装置。
  5. 前記複数のエージェント機能部のそれぞれが実行可能な機能に関する機能情報を記憶する記憶部を、更に備え、
    前記マスタエージェント機能部は、前記音声の意味に基づいて、前記機能情報を参照し、前記音声の意味に対応する機能を実現可能なエージェント機能部に切り替える、
    請求項3または4に記載のエージェント装置。
  6. 前記車両に搭載された機器に対する制御は、前記複数のエージェント機能部のうち、特定のエージェント機能部により実行される、
    請求項3から5のうち何れか1項に記載のエージェント装置。
  7. 画像を表示する表示部を、更に備え、
    前記複数のエージェント機能部は、前記乗員とのコミュニケーションを行う擬人化されたエージェント画像を生成し、
    前記マスタエージェント機能部は、前記複数のエージェント機能部により生成されたエージェント画像を前記表示部に表示させるとともに、前記乗員と対話する主体が切り替わる場合に、前記エージェント画像の表示態様を変更させる、
    請求項3から5のうち何れか1項に記載のエージェント装置。
  8. 前記マイクを前記車室内に複数備え、
    前記複数のマイクは、前記車室内における所定距離以内の位置に設置される、
    請求項3から7のうち何れか1項に記載のエージェント装置。
  9. 前記複数のマイクからの入力のうちの一つは、前記マスタエージェント機能部に割り当てられる、
    請求項8に記載のエージェント装置。
  10. 前記マスタエージェント機能部に割り当てられるマイクは、他のマイクよりも高性能である、
    請求項8または9に記載のエージェント装置。
  11. 前記マスタエージェント機能部は、割り当てられたマイクからの音声を常時入力する、
    請求項8から10のうち何れか1項に記載のエージェント装置。
  12. 前記複数のマイクにより収集したそれぞれの音声は、前記マスタエージェント機能部の音声入力インターフェースに入力が可能である、
    請求項8から11のうち何れか1項に記載のエージェント装置。
  13. コンピュータが、
    機能が異なる複数のエージェント機能部のそれぞれに、車室内の音声を収集するマイクにより収集された音声の意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成させ、
    生成したエージェント音声を、前記車室内に音声を出力するスピーカに出力させ、
    前記マイクにより収集された音声の内容に基づいて、前記乗員と対話する主体となるエージェント機能部が切り替わる、
    エージェント制御方法。
  14. コンピュータに、
    機能が異なる複数のエージェント機能部のそれぞれに、車室内の音声を収集するマイクにより収集された音声の意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成させ、
    生成したエージェント音声を、前記車室内に音声を出力するスピーカに出力させ、
    前記マイクにより収集された音声の内容に基づいて、前記乗員と対話する主体となるエージェント機能部が切り替えさせる、
    プログラム。
JP2020551052A 2018-10-05 2018-10-05 エージェント装置、エージェント制御方法、およびプログラム Active JP7133029B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/037392 WO2020070878A1 (ja) 2018-10-05 2018-10-05 エージェント装置、エージェント制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2020070878A1 true JPWO2020070878A1 (ja) 2021-09-02
JP7133029B2 JP7133029B2 (ja) 2022-09-07

Family

ID=70054619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020551052A Active JP7133029B2 (ja) 2018-10-05 2018-10-05 エージェント装置、エージェント制御方法、およびプログラム

Country Status (4)

Country Link
US (1) US11798552B2 (ja)
JP (1) JP7133029B2 (ja)
CN (1) CN112805182B (ja)
WO (1) WO2020070878A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154994A (ja) * 2019-03-22 2020-09-24 本田技研工業株式会社 エージェントシステム、エージェントサーバ、エージェントサーバの制御方法、およびプログラム
JP7338493B2 (ja) * 2020-01-29 2023-09-05 トヨタ自動車株式会社 エージェント装置、エージェントシステム及びプログラム
JP2021123133A (ja) * 2020-01-31 2021-08-30 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP7318587B2 (ja) * 2020-05-18 2023-08-01 トヨタ自動車株式会社 エージェント制御装置
CN111816189B (zh) * 2020-07-03 2023-12-26 斑马网络技术有限公司 一种车辆用多音区语音交互方法及电子设备
JP2022102306A (ja) * 2020-12-25 2022-07-07 トヨタ自動車株式会社 エージェント表示方法、プログラム、及びエージェント表示システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020888A (ja) * 1998-07-07 2000-01-21 Aqueous Reserch:Kk エージェント装置
JP2002163054A (ja) * 2000-11-29 2002-06-07 Sanyo Electric Co Ltd ユーザ支援方法、装置およびシステム
JP2002199499A (ja) * 2000-12-22 2002-07-12 Sony Corp 車載装置、自動車及び情報処理方法
JP2006188098A (ja) * 2004-12-28 2006-07-20 Pioneer Electronic Corp 対話装置、対話方法、対話プログラムおよびコンピュータに読み取り可能な記録媒体
JP2006284454A (ja) * 2005-04-01 2006-10-19 Fujitsu Ten Ltd 車載用エージェントシステム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4645310B2 (ja) 2005-06-02 2011-03-09 株式会社デンソー エージェントキャラクタ表示を利用した表示システム
JP2009124540A (ja) * 2007-11-16 2009-06-04 Toyota Motor Corp 車両用通話装置、通話方法
US8344870B2 (en) * 2008-10-07 2013-01-01 Cisco Technology, Inc. Virtual dashboard
US20170235361A1 (en) * 2016-01-20 2017-08-17 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Interaction based on capturing user intent via eye gaze
CN107888653A (zh) * 2016-09-30 2018-04-06 本田技研工业株式会社 发话装置、沟通装置和移动体
US10481858B2 (en) * 2017-12-06 2019-11-19 Harman International Industries, Incorporated Generating personalized audio content based on mood
US11037555B2 (en) * 2017-12-08 2021-06-15 Google Llc Signal processing coordination among digital voice assistant computing devices
US20190196779A1 (en) * 2017-12-21 2019-06-27 Harman International Industries, Incorporated Intelligent personal assistant interface system
US20190311713A1 (en) * 2018-04-05 2019-10-10 GM Global Technology Operations LLC System and method to fulfill a speech request
US11144278B2 (en) * 2018-05-07 2021-10-12 Google Llc Verifying operational statuses of agents interfacing with digital assistant applications
US10904306B2 (en) * 2018-05-07 2021-01-26 Spotify Ab Personal media streaming appliance system
US10198877B1 (en) * 2018-05-23 2019-02-05 Google Llc Providing a communications channel between instances of automated assistants
JP7322076B2 (ja) * 2018-08-21 2023-08-07 グーグル エルエルシー 自動アシスタントを起動させるための動的および/またはコンテキスト固有のホットワード
EP3642837B1 (en) * 2018-08-23 2024-03-13 Google LLC Regulating assistant responsiveness according to characteristics of a multi-assistant environment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020888A (ja) * 1998-07-07 2000-01-21 Aqueous Reserch:Kk エージェント装置
JP2002163054A (ja) * 2000-11-29 2002-06-07 Sanyo Electric Co Ltd ユーザ支援方法、装置およびシステム
JP2002199499A (ja) * 2000-12-22 2002-07-12 Sony Corp 車載装置、自動車及び情報処理方法
JP2006188098A (ja) * 2004-12-28 2006-07-20 Pioneer Electronic Corp 対話装置、対話方法、対話プログラムおよびコンピュータに読み取り可能な記録媒体
JP2006284454A (ja) * 2005-04-01 2006-10-19 Fujitsu Ten Ltd 車載用エージェントシステム

Also Published As

Publication number Publication date
CN112805182A (zh) 2021-05-14
JP7133029B2 (ja) 2022-09-07
CN112805182B (zh) 2024-01-12
US20220005470A1 (en) 2022-01-06
WO2020070878A1 (ja) 2020-04-09
US11798552B2 (en) 2023-10-24

Similar Documents

Publication Publication Date Title
JP7133029B2 (ja) エージェント装置、エージェント制御方法、およびプログラム
JP7068986B2 (ja) エージェントシステム、エージェント制御方法、およびプログラム
US11176948B2 (en) Agent device, agent presentation method, and storage medium
CN110968048B (zh) 智能体装置、智能体控制方法以及存储介质
CN111007968A (zh) 智能体装置、智能体提示方法及存储介质
JP2020149106A (ja) エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム
JP7274404B2 (ja) 情報提供装置、情報提供方法、およびプログラム
JP2020060861A (ja) エージェントシステム、エージェント方法、およびプログラム
CN111559328B (zh) 智能体装置、智能体装置的控制方法及存储介质
CN111746435B (zh) 信息提供装置、信息提供方法及存储介质
JP2020152183A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
US11518398B2 (en) Agent system, agent server, method of controlling agent server, and storage medium
CN111724778B (zh) 车载装置、车载装置的控制方法及存储介质
CN111667823B (zh) 智能体装置、智能体装置的控制方法及存储介质
US20200320997A1 (en) Agent apparatus, agent apparatus control method, and storage medium
CN111752235A (zh) 服务器装置、智能体装置、信息提供方法及存储介质
JP2020142721A (ja) エージェントシステム、車載機器の制御方法、及びプログラム
US11518399B2 (en) Agent device, agent system, method for controlling agent device, and storage medium
JP2020160848A (ja) サーバ装置、情報提供システム、情報提供方法、およびプログラム
CN111559317B (zh) 智能体装置、智能体装置的控制方法及存储介质
JP2020060623A (ja) エージェントシステム、エージェント方法、およびプログラム
CN111824174A (zh) 智能体装置、智能体装置的控制方法及存储介质

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20201209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220826

R150 Certificate of patent or registration of utility model

Ref document number: 7133029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150