JP2020162003A - エージェント装置、エージェント装置の制御方法、およびプログラム - Google Patents

エージェント装置、エージェント装置の制御方法、およびプログラム Download PDF

Info

Publication number
JP2020162003A
JP2020162003A JP2019059875A JP2019059875A JP2020162003A JP 2020162003 A JP2020162003 A JP 2020162003A JP 2019059875 A JP2019059875 A JP 2019059875A JP 2019059875 A JP2019059875 A JP 2019059875A JP 2020162003 A JP2020162003 A JP 2020162003A
Authority
JP
Japan
Prior art keywords
vehicle
agent
connection state
terminal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019059875A
Other languages
English (en)
Other versions
JP7340943B2 (ja
Inventor
賢吾 内木
Kengo Uchiki
賢吾 内木
佐和子 古屋
Sawako Furuya
佐和子 古屋
善史 我妻
Yoshifumi Wagatsuma
善史 我妻
基嗣 久保田
Mototsugu Kubota
基嗣 久保田
裕貴 中山
Yuki Nakayama
裕貴 中山
俊克 倉持
Toshikatsu Kuramochi
俊克 倉持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019059875A priority Critical patent/JP7340943B2/ja
Priority to US16/824,876 priority patent/US20200319634A1/en
Priority to CN202010210387.9A priority patent/CN111746434A/zh
Publication of JP2020162003A publication Critical patent/JP2020162003A/ja
Application granted granted Critical
Publication of JP7340943B2 publication Critical patent/JP7340943B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/48Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for in-vehicle communication
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Navigation (AREA)
  • Computer And Data Communications (AREA)
  • Stored Programmes (AREA)
  • Mobile Radio Communication Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】より安心できるサポートを行うことができるエージェント装置、エージェント装置の制御方法、およびプログラムを提供する。【解決手段】エージェント装置(100)は、車両(M)に搭載され、ユーザの発話に応じて、音声による応答を含むサービスを提供する車載エージェント機能部(150)と、車載通信装置(60)を介して前記車載エージェント機能部をネットワーク(NW)に接続させる車載通信部(152)と、汎用端末(MT)を介して前記車載エージェント機能部を前記ネットワークに接続させる端末通信部(154)と、前記車載エージェント機能部が前記ネットワークに接続される状態を、前記車載通信部を介して実現する第1接続状態と、前記端末通信部を介して実現する第2接続状態と、から選択する。【選択図】図1

Description

本発明は、エージェント装置、エージェント装置の制御方法、およびプログラムに関する。
従来、車両の乗員と対話を行いながら、乗員の要求に応じた運転支援に関する情報や車両の制御、その他のアプリケーション等を提供するエージェント機能に関する技術が開示されている(例えば、特許文献1参照)。
特開2006−335231号公報
エージェント機能による情報は、例えば、少なくとも一部を無線通信によって車両とネットワークとの間で送受信されるが、無線通信の状態は常に安定している訳ではなく、また通信に係る契約その他の規約も通信態様によって様々である。このため、一つの通信手段のみ利用する場合、予期せぬ不都合が生じる場合があり、ユーザが安心して利用することができない場合がある。
本発明は、このような事情を考慮してなされたものであり、より安心できるサポートを行うことができるエージェント装置、エージェント装置の制御方法、およびプログラムを提供することを目的の一つとする。
この発明に係るエージェント装置、エージェント装置の制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係るエージェント装置は、車両に搭載され、ユーザの発話に応じて、音声による応答を含むサービスを提供する車載エージェント機能部と、車載通信装置を介して前記車載エージェント機能部をネットワークに接続させる車載通信部と、汎用端末を介して前記車載エージェント機能部を前記ネットワークに接続させる端末通信部と、前記車載エージェント機能部が前記ネットワークに接続される状態を、前記車載通信部を介して実現する第1接続状態と、前記端末通信部を介して実現する第2接続状態と、から選択するものである。
(2):上記(1)の態様において、前記汎用端末には、ユーザの発話に応じて、前記汎用端末のハードウェアを利用して発声による応答を含むサービスを提供する端末エージェント機能部が実装されており、前記端末通信部は、前記汎用端末の端末エージェント機能部を介して前記車載エージェント機能部を前記ネットワークに接続させるものである。
(3):上記(2)の態様において、前記車載エージェント機能部と前記端末エージェント機能部とは、前記車両内または互いの親サーバを介して通信可能であるものである。
(4):上記(3)の態様において、前記車載エージェント機能部と前記端末エージェント機能部とは、近距離無線通信によって情報を授受するものである。
(5):上記(1)から(4)のいずれかの態様において、前記第2接続状態が選択されている場合、ネットワークを介して提供された情報が、前記端末通信部を介して前記車載エージェント機能部に提供されるものである。
(6):上記(1)から(5)のいずれかの態様において、前記第1接続状態及び前記第2接続状態のうち電波強度の強い方を選択するものである。
(7):上記(1)から(5)のいずれかの態様において、前記車両の所在地に応じて、前記第1接続状態及び前記第2接続状態のいずれかを選択するものである。
(8):上記(1)から(5)のいずれかの態様において、前記第1接続状態による通信量に基づいて、前記第1接続状態及び前記第2接続状態のいずれかを選択するものである。
(9):上記(8)の態様において、前記第1接続状態による通信量が所定通信量を超えた場合、前記第2接続状態を選択するものである。
(10):上記(1)から(5)のいずれかの態様において、ユーザの指定に基づいて、前記第1接続状態及び前記第2接続状態を選択するものである。
(11):上記(1)から(10)のいずれかの態様において、前記車載エージェント機能部が前記ネットワークに接続される状態が前記第1接続状態と前記第2接続状態のいずれであるかを提示するものである。
(12):上記(1)から(11)のいずれかの態様において、前記車載エージェント機能部が前記ネットワークに接続される状態として、前記第2接続状態を選択する場合、ユーザに前記汎用端末の充電を促すものである。
(13):この発明の他の態様に係るエージェント装置の制御方法は、コンピュータが、車両に搭載された車載エージェント機能部及び汎用端末に実装された端末エージェント機能部を起動し、車載通信装置を介して前記車載エージェント機能部をネットワークに接続可能とし、汎用端末を介して前記車載エージェント機能部をネットワークに接続可能とし、前記車載エージェント機能部が前記ネットワークに接続される状態を、車載通信部を介して実現する第1接続状態と端末通信部を介して実現する第2接続状態とを選択するものである。
(14):この発明の他の態様に係るプログラムは、コンピュータに、車両に搭載された車載エージェント機能部及び汎用端末に実装された端末エージェント機能部を起動する処理と、車載通信装置を介して前記車載エージェント機能部をネットワークに接続することを可能とする処理と、汎用端末を介して前記車載エージェント機能部をネットワークに接続することを可能とする処理と、前記車載エージェント機能部が前記ネットワークに接続される状態を、車載通信部を介して実現する第1接続状態と端末通信部を介して実現する第2接続状態とを選択させる処理と、を実行させるものである。
(1)〜(14)によれば、より安心できるサポートを行うことができる。
エージェント装置100を含むエージェントシステム1の構成図である。 第1実施形態に係るエージェント装置100の構成と、車両Mに搭載された機器とを示す図である。 表示・操作装置20の配置例を示す図である。 スピーカユニット30の配置例を示す図である。 音像が定位する位置が定まる原理について説明するための図である。 車載エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す図である。 端末エージェント装置300を含む汎用通信端末MTの構成の一例を示す図である。 エージェント装置100において実行される処理の流れの一例を示すフローチャートである。 エージェント装置100において実行される処理の流れの一例を示すフローチャートである。 エージェント装置100において実行される処理の流れの一例を示すフローチャートである。 エージェント装置100において実行される処理の流れの一例を示すフローチャートである。 エージェント装置100において実行される処理の流れの一例を示すフローチャートである。 エージェント装置100とエージェントサーバとの間における情報の送受信の状態の一例を説明する図である。
以下、図面を参照し、本発明のエージェント装置、エージェント装置の制御方法、およびプログラムの実施形態について説明する。エージェント装置は、エージェントシステムの一部または全部を実現する装置である。以下では、エージェント装置の一例として、車両(以下、車両M)に搭載され、複数種類のエージェント機能を備えたエージェント装置について説明する。エージェント機能とは、例えば、車両Mのユーザである乗員と対話をしながら、乗員の発話の中に含まれる要求(コマンド)に基づく各種の情報提供を行ったり、ネットワークサービスを仲介したりする機能である。複数種類のエージェントはそれぞれに果たす機能、処理手順、制御、出力態様・内容がそれぞれ異なってもよい。また、エージェント機能の中には、車両内の機器(例えば運転制御や車体制御に関わる機器)の制御等を行う機能を有するものがあってよい。
エージェント機能は、例えば、乗員の音声を認識する音声認識機能(音声をテキスト化する機能)に加え、自然言語処理機能(テキストの構造や意味を理解する機能)、対話管理機能、他装置を検索し、或いは自装置が保有する所定のデータベースを検索するネットワーク検索機能等を統合的に利用して実現される。これらの機能の一部または全部は、AI(Artificial Intelligence)技術によって実現されてよい。また、これらの機能を行うための構成の一部(特に、音声認識機能や自然言語処理解釈機能)は、車両Mの車載通信装置または車両Mに持ち込まれた汎用通信端末MTと通信可能なエージェントサーバ(外部装置)、例えば車載エージェントサーバ200または端末エージェントサーバ400に搭載されてもよい。以下の説明では、構成の一部がエージェントサーバに搭載されており、エージェント装置とエージェントサーバが協働してエージェントシステムを実現することを前提とする。また、エージェント装置とエージェントサーバが協働して仮想的に出現させるサービス提供主体(サービス・エンティティ)をエージェントと称する。
<全体構成>
図1は、エージェント装置100を含むエージェントシステム1の構成図である。エージェントシステム1は、例えば、エージェント装置100と、車載エージェントサーバ200、と、端末エージェントサーバ400と、を備える。車載エージェントサーバ200と端末エージェントサーバ400は、互いに異なるエージェントシステムの提供者が運営するものである。従って、本発明におけるエージェントは、互いに異なるエージェントシステムの提供者が運営するものである。エージェント装置100は、車載エージェントサーバ200を有するエージェントシステムの提供者が提供し、端末エージェント装置300は、端末エージェントサーバ400をエージェントシステムの提供者が提供する。車載エージェントサーバ200は、車載エージェント機能部150の親サーバであり、端末エージェントサーバ400は、端末エージェント機能部350(図7参照)の親サーバである。エージェントシステムの提供者としては、例えば、自動車メーカー、ネットワークサービス事業者、電子商取引事業者、携帯端末の販売者や製造者などが挙げられ、任意の主体(法人、団体、個人等)がエージェントシステムの提供者となり得る。
エージェント装置100は、ネットワークNWを介して車載エージェントサーバ200と通信する。ネットワークNWは、例えば、インターネット、セルラー網、Wi−Fi網、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、電話回線、無線基地局などのうち一部または全部を含む。ネットワークNWには、各種ウェブサーバ500が接続されている。エージェント装置100、車載エージェントサーバ200、端末エージェント装置300、及び端末エージェントサーバ400は、いずれもネットワークNWを介して各種ウェブサーバ500からウェブページを取得することができる。
エージェント装置100は、車両Mの乗員と対話を行い、乗員からの音声を車載エージェントサーバ200に送信し、車載エージェントサーバ200から得られた回答を、音声出力や画像表示の形で乗員に提示する。エージェント装置100は、乗員との対話による音声の情報を端末エージェント装置300に送信する。端末エージェント装置300は、ネットワークNWを介して端末エージェントサーバ400と通信する。端末エージェント装置300は、汎用端末に搭載される。端末エージェント装置300は、汎用通信端末MTのユーザと対話を行い、乗員からの音声を端末エージェントサーバ400に送信し、端末エージェントサーバ400から得られた回答を、音声出力や画像表示の形でユーザに提示する。さらに、端末エージェント装置300は、エージェント装置100により送信された音声の情報を端末エージェントサーバ400に送信し、端末エージェントサーバ400から得られた回答の情報をエージェント装置100に送信する。なお、汎用通信端末MTがユーザにより車両Mに持ち込まれた場合、例えば、汎用通信端末MTのユーザが車両Mの乗員となる。
<第1実施形態>
[車両]
図2は、第1実施形態に係るエージェント装置100の構成と、車両Mに搭載された機器とを示す図である。車両Mには、例えば、一以上のマイク10と、表示・操作装置20と、スピーカユニット30と、ナビゲーション装置40と、車両機器50と、車載通信装置60と、乗員認識装置80と、電波強度測定装置92と、通信量計測装置94と、エージェント装置100とが搭載される。また、汎用通信端末MTが車室内に持ち込まれ、通信装置として使用される。これらの装置は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図2に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
マイク10は、車室内で発せられた音声を収集する収音部である。表示・操作装置20は、画像を表示すると共に、入力操作を受付可能な装置(或いは装置群)である。表示・操作装置20は、例えば、タッチパネルとして構成されたディスプレイ装置を含む。表示・操作装置20は、更に、HUD(Head Up Display)や機械式の入力装置を含んでもよい。スピーカユニット30は、例えば、車室内の互いに異なる位置に配設された複数のスピーカ(音出力部)を含む。表示・操作装置20は、エージェント装置100とナビゲーション装置40とで共用されてもよい。これらの詳細については後述する。
ナビゲーション装置40は、ナビHMI(Human machine Interface)と、GPS(Global Positioning System)などの位置測位装置と、地図情報を記憶した記憶装置と、経路探索などを行う制御装置(ナビゲーションコントローラ)とを備える。マイク10、表示・操作装置20、およびスピーカユニット30のうち一部または全部がナビHMIとして用いられてもよい。ナビゲーション装置40は、位置測位装置によって特定された車両Mの位置から、乗員によって入力された目的地まで移動するための経路(ナビ経路)を探索し、経路に沿って車両Mが走行できるように、ナビHMIを用いて案内情報を出力する。経路探索機能は、ネットワークNWを介してアクセス可能なナビゲーションサーバにあってもよい。この場合、ナビゲーション装置40は、ナビゲーションサーバから経路を取得して案内情報を出力する。なお、エージェント装置100は、ナビゲーションコントローラを基盤として構築されてもよく、その場合、ナビゲーションコントローラとエージェント装置100は、ハードウェア上は一体に構成される。ナビゲーション装置40は、車両Mの所在地及び記憶装置に格納された地図情報をエージェント装置100に送信する。地図情報には、各地点における車載通信装置60の電波強度(以下、車両電波強度)の分布を示す電波強度マップの情報が含まれている。ナビゲーション装置40は、所定のタイミング、例えば、車両Mの所在地の電波強度の分布が変わったタイミングで、エージェント装置100に車両Mの所在地の情報及び地図情報を送信する。なお、ナビゲーション装置40は、車両Mの所在地の情報及び地図情報に代えてまたは加えて、車両Mの所在地における電波強度の情報を送信してもよい。
車両機器50は、例えば、エンジンや走行用モータなどの駆動力出力装置、エンジンの始動モータ、ドアロック装置、ドア開閉装置、窓、窓の開閉装置及び窓の開閉制御装置、シート、シート位置の制御装置、ルームミラー及びその角度位置制御装置、車両内外の照明装置及びその制御装置、ワイパーやデフォッガー及びそれぞれの制御装置、方向指示灯及びその制御装置、空調装置、走行距離やタイヤの空気圧の情報や燃料の残量情報などの車両情報装置などを含む。
車載通信装置60は、例えば、セルラー網やWi−Fi網を利用してネットワークNWにアクセス可能な無線通信装置である。
乗員認識装置80は、例えば、着座センサ、車室内カメラ、画像認識装置などを含む。着座センサは座席の下部に設けられた圧力センサ、シートベルトに取り付けられた張力センサなどを含む。車室内カメラは、車室内に設けられたCCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラである。画像認識装置は、車室内カメラの画像を解析し、座席ごとの乗員の有無、顔向きなどを認識する。
電波強度測定装置92は、車載電波強度を測定する装置である。電波強度測定装置92は、測定した電波強度の情報をエージェント装置100に送信する。通信量計測装置94は、車載通信装置60の通信量を計測する装置である。通信量計測装置94は、計測した通信量の情報をエージェント装置100に送信する。
図3は、表示・操作装置20の配置例を示す図である。表示・操作装置20は、例えば、第1ディスプレイ22と、第2ディスプレイ24と、操作スイッチASSY26とを含む。表示・操作装置20は、更に、HUD28を含んでもよい。
車両Mには、例えば、ステアリングホイールSWが設けられた運転席DSと、運転席DSに対して車幅方向(図中Y方向)に設けられた助手席ASとが存在する。第1ディスプレイ22は、インストルメントパネルにおける運転席DSと助手席ASとの中間辺りから、助手席ASの左端部に対向する位置まで延在する横長形状のディスプレイ装置である。第2ディスプレイ24は、運転席DSと助手席ASとの車幅方向に関する中間あたり、且つ第1ディスプレイの下方に設置されている。例えば、第1ディスプレイ22と第2ディスプレイ24は、共にタッチパネルとして構成され、表示部としてLCD(Liquid Crystal Display)や有機EL(Electroluminescence)、プラズマディスプレイなどを備えるものである。操作スイッチASSY26は、ダイヤルスイッチやボタン式スイッチなどが集積されたものである。表示・操作装置20は、乗員によってなされた操作の内容をエージェント装置100に出力する。第1ディスプレイ22または第2ディスプレイ24が表示する内容は、エージェント装置100によって決定されてよい。
図4は、スピーカユニット30の配置例を示す図である。スピーカユニット30は、例えば、スピーカ30A〜30Hを含む。スピーカ30Aは、運転席DS側の窓柱(いわゆるAピラー)に設置されている。スピーカ30Bは、運転席DSに近いドアの下部に設置されている。スピーカ30Cは、助手席AS側の窓柱に設置されている。スピーカ30Dは、助手席ASに近いドアの下部に設置されている。スピーカ30Eは、右側後部座席BS1側に近いドアの下部に設置されている。スピーカ30Fは、左側後部座席BS2側に近いドアの下部に設置されている。スピーカ30Gは、第2ディスプレイ24の近傍に設置されている。スピーカ30Hは、車室の天井(ルーフ)に設置されている。
係る配置において、例えば、専らスピーカ30Aおよび30Bに音を出力させた場合、音像は運転席DS付近に定位することになる。また、専らスピーカ30Cおよび30Dに音を出力させた場合、音像は助手席AS付近に定位することになる。また、専らスピーカ30Eに音を出力させた場合、音像は右側後部座席BS1付近に定位することになる。また、専らスピーカ30Fに音を出力させた場合、音像は左側後部座席BS2付近に定位することになる。また、専らスピーカ30Gに音を出力させた場合、音像は車室の前方付近に定位することになり、専らスピーカ30Hに音を出力させた場合、音像は車室の上方付近に定位することになる。これに限らず、スピーカユニット30は、ミキサーやアンプを用いて各スピーカの出力する音の配分を調整することで、車室内の任意の位置に音像を定位させることができる。
[エージェント装置]
図2に戻り、エージェント装置100は、管理部110と、車載エージェント機能部150と、車載通信部152と、端末通信部154とを備える。管理部110は、例えば、音響処理部112と、WU(Wake Up)判定部114と、表示制御部116と、音声制御部118と、取得部120と、選択部122と、情報提供部124と、記憶部126と、を備える。図2に示すソフトウェア配置は説明のために簡易に示しており、実際には、例えば、車載エージェント機能部150と車載通信装置60の間に管理部110が介在してもよいように、任意に改変することができる。
エージェント装置100の各構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。記憶部126は、前述した記憶装置により実現される。
管理部110は、OS(Operating System)やミドルウェアなどのプログラムが実行されることで機能する。
管理部110の音響処理部112は、エージェント装置100に対して予め設定されているウエイクアップワードを認識するのに適した状態になるように、入力された音に対して音響処理を行う。
WU判定部114は、エージェント装置100に対して予め定められているウエイクアップワードを認識する。WU判定部114は、音響処理が行われた音声(音声ストリーム)から音声の意味を認識する。まず、WU判定部114は、音声ストリームにおける音声波形の振幅と零交差に基づいて音声区間を検出する。WU判定部114は、混合ガウス分布モデル(GMM;Gaussian mixture model)に基づくフレーム単位の音声識別および非音声識別に基づく区間検出を行ってもよい。
次に、WU判定部114は、検出した音声区間における音声をテキスト化し、文字情報とする。そして、WU判定部114は、テキスト化した文字情報がウエイクアップワードに該当するか否かを判定する。ウエイクアップワードであると判定した場合、WU判定部114は、車載エージェント機能部150を起動させる。なお、WU判定部114に相当する機能が車載エージェントサーバ200に搭載されてもよい。この場合、管理部110は、音響処理部112によって音響処理が行われた音声ストリームを車載エージェントサーバ200に送信し、車載エージェントサーバ200がウエイクアップワードであると判定した場合、車載エージェントサーバ200からの指示に従って車載エージェント機能部150が起動する。なお、車載エージェント機能部150は、常時起動しており且つウエイクアップワードの判定を自ら行うものであってよい。この場合、管理部110がWU判定部114を備える必要はない。
表示制御部116は、車載エージェント機能部150からの指示に応じて第1ディスプレイ22または第2ディスプレイ24に画像を表示させる。以下では、第1ディスプレイ22を使用するものとする。表示制御部116は、車載エージェント機能部150の制御により、例えば、車室内で乗員とのコミュニケーションを行う擬人化されたエージェントの画像(以下、エージェント画像と称する)を生成し、生成したエージェント画像を第1ディスプレイ22に表示させる。エージェント画像は、例えば、乗員に対して話しかける態様の画像である。エージェント画像は、例えば、少なくとも観者(乗員)によって表情や顔向きが認識される程度の顔画像を含んでよい。例えば、エージェント画像は、顔領域の中に目や鼻に擬したパーツが表されており、顔領域の中のパーツの位置に基づいて表情や顔向きが認識されるものであってよい。また、エージェント画像は、立体的に感じられ、観者によって三次元空間における頭部画像を含むことでエージェントの顔向きが認識されたり、本体(胴体や手足)の画像を含むことで、エージェントの動作や振る舞い、姿勢等が認識されるものであってもよい。また、エージェント画像は、アニメーション画像であってもよい。
音声制御部118は、車載エージェント機能部150からの指示に応じて、スピーカユニット30に含まれるスピーカのうち一部または全部に音声を出力させる。音声制御部118は、複数のスピーカユニット30を用いて、エージェント画像の表示位置に対応する位置にエージェント音声の音像を定位させる制御を行ってもよい。エージェント画像の表示位置に対応する位置とは、例えば、エージェント画像がエージェント音声を喋っていると乗員が感じると予測される位置であり、具体的には、エージェント画像の表示位置付近(例えば、2〜3[cm]以内)の位置である。また、音像が定位するとは、例えば、乗員の左右の耳に伝達される音の大きさを調節することにより、乗員が感じる音源の空間的な位置を定めることである。
図5は、音像が定位する位置が定まる原理について説明するための図である。図5では、説明を簡略化するために、上述したスピーカ30B、30D、および30Gを用いる例を示しているが、スピーカユニット30に含まれる任意のスピーカが使用されてよい。音声制御部118は、各スピーカに接続されたアンプ(AMP)32およびミキサー34を制御して音像を定位させる。例えば、図5に示す空間位置MP1に音像を定位させる場合、音声制御部118は、アンプ32およびミキサー34を制御することにより、スピーカ30Bに最大強度の5%の出力を行わせ、スピーカ30Dに最大強度の80%の出力を行わせ、スピーカ30Gに最大強度の15%の出力を行わせる。この結果、乗員Pの位置からは、図5に示す空間位置MP1に音像が定位しているように感じることになる。
また、図5に示す空間位置MP2に音像を定位させる場合、音声制御部118は、アンプ32およびミキサー34を制御することにより、スピーカ30Bに最大強度の45%の出力を行わせ、スピーカ30Dに最大強度の45%の出力を行わせ、スピーカ30Gに最大強度の45%の出力を行わせる。この結果、乗員Pの位置からは、図5に示す空間位置MP2に音像が定位しているように感じることになる。このように、車室内に設けられる複数のスピーカとそれぞれのスピーカから出力される音の大きさを調整することで、音像が定位される位置を変化させることができる。なお、より詳細には、音像の定位する位置は、音源が元々保有している音特性や、車室内環境の情報、頭部伝達関数(HRTF;Head-related transfer function)に基づいて定まるため、音声制御部118は、予め官能試験などで得られた最適な出力配分でスピーカユニット30を制御することで、音像を所定の位置に定位させる。
取得部120は、表示・操作装置20、車載通信部152、端末通信部154、電波強度測定装置92、通信量計測装置94により送信される各種の情報を取得する。取得部120は、取得した情報を記憶部126に格納する。
選択部122は、取得部120により取得した各種の情報を記憶部126から読み出し、読み出した情報に基づいて、エージェント装置100の接続状態を、第1接続状態と、第2接続状態とから選択する。第1接続状態及び第2接続状態は、いずれも、車載エージェント機能部150がネットワークNWに接続される状態であるエージェント装置100の接続状態の一態様である。第1接続状態は、車載通信部152を介して車載エージェント機能部150とネットワークNWとの接続が実現される接続状態であり、第2接続状態は、端末通信部154を介して車載エージェント機能部150とネットワークNWとの接続が実現される接続状態である。第2接続状態が選択されている場合、端末エージェントサーバ400によりネットワークNWを介して提供された情報が、端末通信部154を介して車載エージェント機能部150に提供される。選択部122は、選択した接続状態の情報を記憶部126に格納するとともに車載エージェント機能部150に出力する。車載エージェント機能部150は、選択部122により選択された接続状態でネットワークNWに接続される。
情報提供部124は、記憶部126に格納されているエージェント装置100の接続状態の情報を読み出し、読み出したエージェント装置100の接続状態の情報を表示制御部116及び音声制御部118に出力する。表示制御部116は、出力されたエージェント装置100の接続状態の情報に基づいて、表示・操作装置20を制御し、現在の接続状態を第1ディスプレイ22または第2ディスプレイ24に表示させる。例えば、エージェント装置100の接続状態が第1接続状態であるとき、表示制御部116は、接続先の車載エージェントサーバ200を示す文字や記号等を第1ディスプレイ22または第2ディスプレイ24に表示させる。エージェント装置100の接続状態が第2接続状態であるとき、表示制御部116は、接続先の端末エージェントサーバ400を示す文字や記号等を第1ディスプレイ22または第2ディスプレイ24に表示させる。音声制御部118は、例えば、現在の接続状態をスピーカユニット30に出力させる。こうして、情報提供部124は、接続状態の情報を乗員に提示する。
車載エージェント機能部150は、音声による応答を含むサービスを提供するための車載用のアプリケーションプログラム(以下、車載エージェントアプリ)が実行されることで、車載エージェントサーバ200と協働してエージェントを出現させ、車両の乗員の発話に応じて、音声による応答を含むサービスを提供する。車載エージェント機能部150には、車両機器50を制御する権限が付与されたものが含まれてよい。
車載エージェント機能部150は、ネットワークNWに接続可能とされており、選択部122により選択された第1接続状態または第2接続状態でネットワークNWに接続される。車載エージェント機能部150は、エージェント装置100の接続状態をユーザに指定させるための指定要求指示の情報を管理部110に出力する。管理部110は、車載エージェント機能部150により出力される指定要求指示の情報に基づいて、表示制御部116において、接続状態を指定する情報を表示・操作装置20に表示させる。表示・操作装置20は、表示された接続状態を指定する情報に対する指定結果の情報を選択部122に出力する。選択部122は、例えば、表示・操作装置20により指定結果の情報が出力された場合に、出力された指定結果の情報に基づいて、エージェント装置100の接続状態を選択する。
車載通信部152は、エージェント装置100の接続状態が第1接続状態であるときの車載エージェント機能部150と車載通信装置60とを接続する。車載通信部152は、車載通信装置60を介して車載エージェント機能部150をネットワークNWに接続させる。車載通信部152は、車載エージェント機能部150により出力される情報を車載通信装置60に送信する。車載通信部152は、車載通信装置60により送信される情報を車載エージェント機能部150に出力する。
端末通信部154は、ペアリングアプリを実行することにより、例えば、Bluetooth(登録商標)などの近距離無線通信によって汎用通信端末MTとペアリングを行い、車載エージェント機能部150と汎用通信端末MTとを接続させる。端末通信部154は、汎用通信端末MTの端末エージェント機能部350(図7参照)を介して車載エージェント機能部150をネットワークNWに接続させる。端末通信部154は、エージェント装置100の接続状態が第2接続状態であるときの車載エージェント機能部150と汎用通信端末MTとを接続する。端末通信部154は、車載エージェント機能部150により出力される情報を汎用通信端末MTに送信する。端末通信部154は、汎用通信端末MTにより送信される情報、例えば応答情報を車載エージェント機能部150に出力する。なお、車載エージェント機能部150は、USB(Universal Serial Bus)などを利用した有線通信によって汎用通信端末MTに接続されるようにしてもよい。
[車載エージェントサーバ]
図6は、車載エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す図である。以下、車載エージェントサーバ200の構成と共に車載エージェント機能部150等の動作について説明する。ここでは、エージェント装置100からネットワークNWまでの物理的な通信についての説明を省略する。
車載エージェントサーバ200は、通信部210を備える。通信部210は、例えばNIC(Network Interface Card)などのネットワークインターフェースである。更に、車載エージェントサーバ200は、例えば、音声認識部220と、自然言語処理部222と、対話管理部224と、ネットワーク検索部226と、応答文生成部228とを備える。これらの構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
車載エージェントサーバ200は、記憶部250を備える。記憶部250は、車載エージェントサーバ200に含まれる上記の各種記憶装置により実現される。記憶部250には、パーソナルプロファイル252、辞書DB(データベース)254、知識ベースDB256、応答規則DB258などのデータやプログラムが格納される。パーソナルプロファイル252、辞書DB(データベース)254、知識ベースDB256、応答規則DB258などのデータやプログラムは、車載エージェントアプリに対応するものであり、エージェント装置100が備える記憶部126に格納されていてもよい。
エージェント装置100において、車載エージェント機能部150は、音声ストリーム、或いは圧縮や符号化などの処理を行った音声ストリームを、車載エージェントサーバ200に送信する。車載エージェント機能部150は、ローカル処理(車載エージェントサーバ200を介さない処理)が可能な音声コマンドを認識した場合は、音声コマンドで要求された処理を行ってよい。ローカル処理が可能な音声コマンドとは、エージェント装置100が備える記憶部126を参照することで回答可能な音声コマンドであったり、車両機器50を制御する音声コマンド(例えば、空調装置をオンにするコマンドなど)であったりする。従って、車載エージェント機能部150は、車載エージェントサーバ200が備える機能の一部を有してもよい。
音声ストリームを取得すると、音声認識部220が音声認識を行ってテキスト化された文字情報を出力し、自然言語処理部222が文字情報に対して辞書DB254を参照しながら意味解釈を行う。辞書DB254は、文字情報に対して抽象化された意味情報が対応付けられたものである。辞書DB254は、同義語や類義語の一覧情報を含んでもよい。音声認識部220の処理と、自然言語処理部222の処理は、段階が明確に分かれるものではなく、自然言語処理部222の処理結果を受けて音声認識部220が認識結果を修正するなど、相互に影響し合って行われてよい。
自然言語処理部222は、例えば、認識結果として、「今日の天気は」、「天気はどうですか」等の意味が認識された場合、標準文字情報「今日の天気」に置き換えたコマンドを生成する。これにより、リクエストの音声に文字揺らぎがあった場合にも要求にあった対話をし易くすることができる。また、自然言語処理部222は、例えば、確率を利用した機械学習処理等の人工知能処理を用いて文字情報の意味を認識したり、認識結果に基づくコマンドを生成してもよい。
対話管理部224は、自然言語処理部222の処理結果(コマンド)に基づいて、パーソナルプロファイル252や知識ベースDB256、応答規則DB258を参照しながら車両Mの乗員に対する発話の内容を決定する。パーソナルプロファイル252は、乗員ごとに保存されている乗員の個人情報、趣味嗜好、過去の対話の履歴などを含む。知識ベースDB256は、物事の関係性を規定した情報である。応答規則DB258は、コマンドに対してエージェントが行うべき動作(回答や機器制御の内容など)を規定した情報である。
また、対話管理部224は、音声ストリームから得られる特徴情報を用いて、パーソナルプロファイル252と照合を行うことで、乗員を特定してもよい。この場合、パーソナルプロファイル252には、例えば、音声の特徴情報に、個人情報が対応付けられている。音声の特徴情報とは、例えば、声の高さ、イントネーション、リズム(音の高低のパターン)等の喋り方の特徴や、メル周波数ケプストラム係数(Mel Frequency Cepstrum Coefficients)等による特徴量に関する情報である。音声の特徴情報は、例えば、乗員の初期登録時に所定の単語や文章等を乗員に発声させ、発声させた音声を認識することで得られる情報である。
対話管理部224は、コマンドが、ネットワークNWを介して検索可能な情報を要求するものである場合、ネットワーク検索部226に検索を行わせる。ネットワーク検索部226は、ネットワークNWを介して各種ウェブサーバ500にアクセスし、所望の情報を取得する。「ネットワークNWを介して検索可能な情報」とは、例えば、車両Mの周辺にあるレストランの一般ユーザによる評価結果であったり、その日の車両Mの位置に応じた天気予報であったりする。
応答文生成部228は、対話管理部224により決定された発話の内容が車両Mの乗員に伝わるように、応答文を生成し、エージェント装置100に送信する。応答文生成部228は、乗員がパーソナルプロファイルに登録された乗員であることが特定されている場合に、乗員の名前を呼んだり、乗員の話し方に似せた話し方にした応答文を生成してもよい。
車載エージェント機能部150は、応答文を取得すると、音声合成を行って音声を出力するように音声制御部118に指示する。また、車載エージェント機能部150は、音声出力に合わせてエージェントの画像を表示するように表示制御部116に指示する。このようにして、仮想的に出現したエージェントが車両Mの乗員に応答するエージェント機能が実現される。
[汎用通信端末]
図7は、端末エージェント装置300を含む汎用通信端末MTの構成の一例を示す図である。汎用通信端末MTは、例えば、スマートフォンやタブレットなどのユーザが携帯する通信装置であり、マイク332と、タッチパネル334と、スピーカ336と、端末エージェント装置300とを備える。汎用通信端末MTには、音声による応答を含むサービスをサポートする汎用のアプリケーションプログラム(汎用エージェントアプリ)がインストールされている。汎用通信端末MTは、汎用エージェントサプリが起動することにより端末エージェント装置300として機能し、汎用エージェントアプリやブラウザなどのUA(User Agent)が動作し、音声による応答を含むサービスをサポートする。汎用通信端末MTにインストールされた汎用エージェントアプリは、エージェント装置100に含まれる車載エージェントアプリとは異なる種類のアプリである。
マイク332は、例えば汎用通信端末MTの筐体における外側表面の端部に設けられ、汎用通信端末MTに向けて発せられた音声を収集する収音部である。タッチパネル334は、例えば汎用通信端末MTの筐体における外側正面に設けられ、種々の情報を表示するとともにユーザの操作を受け付ける装置である。スピーカ336は、例えば汎用通信端末MTの筐体における外側表面の端部に設けられ、汎用通信端末MTより音声を出力する装置である。
端末エージェント装置300は、管理部310と、端末エージェント機能部350と、端末実装通信部352と、対車両通信部354と、端末電波強度測定部392と、端末通信量計測部394とを備える。管理部310は、OS(Operating System)やミドルウェアなどのプログラムが実行されることで機能する。管理部310は、エージェント装置100の管理部110と同様の音響処理部、WU判定部、及び各種制御部を備える。管理部310は、音響処理部において端末エージェント装置300に対して予め設定されているウエイクアップワードを認識するのに適した状態になるように、入力された音に対して音響処理を行い、WU判定部、及び各種制御部におけるWU判定や音響処理、表示制御、音声制御などの各種処理を行う。なお、端末エージェント装置のWU判定に用いられるWUワードは、エージェント装置100のWU判定に用いられるWUワードと異なるものでもよいし、同一のものでもよい。
端末エージェント機能部350は、端末エージェント装置300に実装される。端末エージェント機能部350は、端末エージェントサーバ400と協働してエージェントを出現させ、ユーザの発話に応じて、音声による応答を含むサービスを提供する。さらに、端末エージェント機能部350は、端末エージェントサーバ400と協働し、エージェント装置100により送信される情報に応じた音声による応答などの応答情報を生成する。車載エージェント機能部150と端末エージェント機能部350とは、車両M内で通信可能である。車載エージェント機能部150と端末エージェント機能部350とは、互いの親サーバを介して通信可能となるようにしてもよい。
端末実装通信部352は、例えば、セルラー網やWi−Fi網を利用してネットワークNWにアクセス可能な機能を備える。端末実装通信部352は、端末エージェント機能部350により生成される情報を端末エージェントサーバ400に送信し、端末エージェントサーバ400により送信される情報を受信する。
対車両通信部354は、例えば、Bluetooth(登録商標)などの近距離無線通信を利用可能な機能を備える。対車両通信部354は、エージェント装置100により送信される情報を受信し、端末エージェント機能部350等により生成される情報等をエージェント装置100に送信する。車載エージェント機能部150と端末エージェント機能部350とは、近距離無線通信によって情報を授受する。
端末電波強度測定部392は、汎用通信端末MTの周囲における汎用通信端末MTの電波強度(以下、端末電波強度)を測定する機能を有する。端末電波強度測定部392は、測定した電波強度の情報を管理部310に出力する。端末通信量計測部394は、汎用通信端末MTの通信量を計測する機能を有する。端末通信量計測部394は、計測した通信量の情報を管理部310に出力する。管理部310は、出力された電波強度の情報及び通信量の情報を、それぞれ端末強度及び端末通信量の情報としてエージェント装置100に送信する。
[端末エージェントサーバ]
端末エージェントサーバ400は、例えば、車載エージェントサーバ200と同様の構成を有するが、記憶部に記憶されるパーソナルプロファイル、辞書DB、知識ベースDB、応答規則DBなどのデータやプログラムは、汎用エージェントアプリに対応するものである。端末エージェントサーバ400は、音声ストリーム、或いは圧縮や符号化などの処理を行った音声ストリームを、端末エージェントサーバ400に送信した場合に車載エージェント機能部150がこれらの情報を、車載エージェントサーバ200に送信した場合と同様の処理を行う。端末エージェントサーバ400は、発話の内容を決定し、決定した発話の内容がユーザに伝わるように、応答文を生成し、端末エージェント装置300に送信する。
端末エージェント装置300は、応答文を受信すると、端末エージェント機能部350は、音声合成を行って音声を出力するように管理部310に指示する。あるいは、端末エージェント装置300は、受信した応答文に基づいて応答情報を生成し、生成した応答情報を、対車両通信部354により車両Mに搭載されたエージェント装置100に送信する。エージェント装置100は、応答情報を受信すると、車載エージェント機能部150により、音声合成を行って、応答文を音声により出力するように音声制御部118に指示する。
[エージェント装置における処理]
次に、エージェント装置100における処理の一例について説明する。エージェント装置100は、車両Mの乗員が対話を開始した際に車載エージェントサーバ200と通信を開始し、または、車載エージェント機能部150により出力される情報を汎用通信端末MTに送信する。汎用通信端末MTの端末エージェント装置300は、端末エージェントサーバ400と通信を開始し、回答を取得してエージェント装置100に提供する。エージェント装置100は、車載エージェントサーバ200または端末エージェントサーバ400から得られた回答を、音声出力や画像表示の形で乗員に提示する。
図8は、エージェント装置100において実行される処理の流れの一例を示すフローチャートである。エージェント装置100において、WU判定部114は、乗員が発声した音声の音声区間を検出し、検出した音声区間をテキスト化した文字情報がウエイクアップワード(WUワード)であるか否かを判定する(ステップS100)。
テキスト化した文字情報がウエイクアップワードであると判定した場合、選択部122は、エージェント装置100の接続状態を、第1接続状態と、第2接続状態と、から選択する(ステップS110)。エージェント装置100の接続状態は、車両Mの所在地、電波強度、通信量等の情報に基づいて選択する。エージェント装置100の接続状態の選択は、種々の方法で行うことができる。エージェント装置100の接続状態の選択については、後に順次説明する。選択部122は、エージェント装置100の接続状態を選択することにより、エージェント装置100が音声ストリームを送信するエージェントサーバを、車載エージェントサーバ200または端末エージェントサーバ400に決定する。
第1接続状態のときの接続先となるエージェントサーバは車載エージェントサーバ200であり、第2接続状態のときの接続先となるエージェントサーバは端末エージェントサーバ400である。例えば、選択部122が第1接続状態を選択すると、音声ストリームを送信するエージェントサーバは車載エージェントサーバ200となり、選択部122が第2接続状態を選択すると、音声ストリームを送信するエージェントサーバは端末エージェントサーバ400となる。
続いて、情報提供部124は、エージェント装置100の接続状態の情報をユーザに提示する(ステップS120)。例えば、情報提供部124は、エージェント装置100の接続状態の情報を表示制御部116及び音声制御部118に出力する。表示制御部116は、出力されたエージェント装置100の接続状態の情報に基づいて、表示・操作装置20を制御し、現在の接続状態に応じた接続先のエージェントサーバのマークや名称等を第1ディスプレイ22または第2ディスプレイ24に表示させる。また、音声制御部118は、現在の接続状態に応じた接続先のエージェントサーバの名称等の音声をスピーカユニット30に出力させる。
続いて、情報提供部124は、エージェント装置100の接続状態が第2接続状態であるか否かを判定する(ステップS130)。エージェント装置100の接続状態が第2接続状態であると判定した場合、情報提供部124は、汎用通信端末MTの充電を促進する情報を乗員に提示する(ステップS140)。例えば、情報提供部124は、汎用通信端末MTの充電を促進する情報を表示制御部116及び音声制御部118に出力する。表示制御部116は、出力された汎用通信端末MTの充電の促進の情報に基づいて、表示・操作装置20を制御し、汎用通信端末MTの充電を促す情報を第1ディスプレイ22または第2ディスプレイ24に表示させる。また、音声制御部118は、汎用通信端末MTの充電を促す音声をスピーカユニット30に出力させる。エージェント装置100の接続状態が第2接続状態でないと判定した場合、エージェント装置100は、そのままステップS140に進む。
続いて、車載エージェント機能部150は、乗員との対話があったか否かを判定する(ステップS150)。乗員との対話があったと判定した場合、車載エージェント機能部150は、選択部122が決定した接続状態のときの接続先となるエージェントサーバに宛てて音声ストリームを送信する(ステップS160)。
音声ストリームを車載エージェントサーバ200に宛てて送信する場合には、エージェント装置100は、車載通信装置60を用いて、直接車載エージェントサーバ200に送信する。音声ストリームを端末エージェントサーバ400に宛てて送信する場合には、エージェント装置100は、音声ストリームを一旦汎用通信端末MTに送信し、汎用通信端末MTの端末エージェント装置300が端末エージェントサーバ400に音声ストリームを送信する。このように、エージェント装置100は、音声ストリームを端末エージェントサーバ400に送信する場合には、汎用通信端末MTを介して送信する。
続いて、エージェント装置100は、接続先のエージェントサーバにより送信される応答文を受信したか否を判定する(ステップS170)。接続先のエージェントサーバにより送信される応答文を受信していないと判定した場合、エージェント装置100は、応答文を受信するまでステップS170の処理を繰り返す。なお、ステップS170を繰り返している間、相応の応答時間を経過しても応答文を受信しない場合には、そのまま図8に示す処理を終了するようにしてもよい。
接続先のエージェントサーバにより応答文を受信したと判定した場合、情報提供部124は、応答文に応じた応答情報を生成して表示制御部116及び音声制御部118に出力し、応答文をユーザに提供する(ステップS180)。続いて、ステップS150に戻り、車載エージェント機能部150は、乗員との対話があったか否かを判定する処理を繰り返す。
ステップS150において、乗員との対話がなかったと判定した場合、車載エージェント機能部150は、対話がなかった時間を計測し、計測した時間が終了判定時間以上となったか否かを判定する(ステップS190)。終了判定時間は任意の時間に設定することができる。例えば、5秒や10秒などの短時間でもよいし、30秒や1分、更には30分などの長時間としてもよい。
終了判定時間を経過していないと判定した場合、エージェント装置100は、ステップS150に戻り、車載エージェント機能部150は、乗員との対話があったか否かを判定する処理を繰り返す。終了判定時間を経過していないと判定したエージェント装置100は、図8に示す処理を終了する。
[エージェント装置100の接続状態の選択の態様]
次に、エージェント装置100の接続状態の選択の態様について説明する。図9〜図12は、いずれもエージェント装置100において実行される処理の流れの一例を示すフローチャートである。図9〜図12では、主に、図8のステップS120において実行される接続状態の選択の一例について説明する。なお、以下の各接続態様の選択は、それぞれを組み合わせて行うようにしてもよい。
[エージェント装置100の接続状態の選択の態様(1)]
まず、エージェント装置100の接続状態の選択のうち、第1の態様について説明する。第1の態様では、エージェント装置100は、ネットワークNWに接続される状態として、第1接続状態及び第2接続状態のうち電波強度の強い方を選択する。
取得部120は、電波強度測定装置92により送信される車両電波強度を取得する(ステップS210)。続いて、取得部120は、端末電波強度測定部392が測定し、汎用通信端末MTにより送信される端末電波強度を取得する(ステップS220)。選択部122は、取得部120が取得した車両電波強度と端末電波強度を比較し、車両電波強度の方が強いか否かを判定する(ステップS230)。
その結果、車両電波強度の方が強いと判定した場合、選択部122は、エージェント装置100の接続状態として第1接続状態を選択する(ステップS240)。一方、車両電波強度の方が強くない(車両電波強度は端末電波強度以下である)と判定した場合、選択部122は、エージェント装置100の接続状態として第2接続状態を選択する(ステップS250)。こうして、エージェント装置100は、図9に示す処理を終了する。
このように、エージェント装置100の接続状態の選択の第1の態様では、選択部122は、車両電波強度と端末電波強度を比較した比較結果に基づいてエージェント装置100の接続状態を選択する。具体的には、選択部122は、車両電波強度と端末電波強度を比較して、電波強度の高い方のエージェントサーバにエージェント装置100が接続される接続状態を選択する。このため、強い電波強度でエージェントサーバと接続できるので、安定したサービスの提供に寄与することができる。
[エージェント装置100の接続状態の選択の態様(2)]
次に、エージェント装置100の接続状態の選択のうち、第2の態様について説明する。第2の態様では、エージェント装置100は、車載エージェント機能部150がネットワークNWに接続される状態として、車両Mの所在地に応じて、第1接続状態及び第2接続状態のいずれかを選択する。
取得部120は、ナビゲーション装置40により送信される車両Mの所在地の情報及び地図情報に含まれる電波強度マップを取得する(ステップS310)。続いて、取得部120は、車両Mの所在地の情報を電波強度マップに参照し、車両Mの所在地の電波強度を取得する(ステップS320)。
続いて、選択部122は、車両Mの所在地の電波強度が所定電波強度を超えるか否かを判定する(ステップS330)。所定電波強度は、予め設定された任意の電波強度であり、所定電波強度は、どのような値に設定してもよく、例えば0に設定してもよいし、0を超える数値に設定してもよい。また、所定の条件、例えば時刻や地理的条件等に基づいて、所定電波強度が変動するようにしてもよい。
その結果、車両Mの所在地の電波強度が所定電波強度を超えると判定した場合、選択部122は、エージェント装置100の接続状態として第1接続状態を選択する(ステップS340)。一方、車両Mの所在地の電波強度が所定電波強度を超えない(車両Mの所在地の電波強度が所定電波強度以下である)と判定した場合、選択部122は、エージェント装置100の接続状態として第2接続状態を選択する(ステップS350)。こうして、エージェント装置100は、図10に示す処理を終了する。
このように、エージェント装置100の接続状態の選択の第2の態様では、選択部122は、車両Mの所在地の電波強度に基づいてエージェント装置100の接続状態を選択する。具体的には、選択部122は、車両Mの所在地の電波強度が所定電波強度を超えるか否かにより、エージェントサーバにエージェント装置100が接続される接続状態を選択する。このため、強い電波強度でエージェントサーバと接続できるので、安定したサービスの提供に寄与することができる。
なお、車両Mの所在地の電波強度が所定電波強度を超えるか否かの判定に代えてまたは加えて、車両Mの所在地の電波強度と端末電波強度の比較結果に基づいてエージェント装置100の接続状態を選択してもよい。また、例えば汎用通信端末MTが端末電波強度マップを記憶しており、車両電波強度マップ及び端末電波強度マップのそれぞれに車両Mの所在地を参照して取得される電波強度の比較結果に基づいてエージェント装置100の接続状態を選択してもよい。また、車両電波強度と、端末電波強度マップに車両Mの所在地を参照して取得される電波強度の比較結果に基づいてエージェント装置100の接続状態を選択してもよい。
[エージェント装置100の接続状態の選択の態様(3)]
次に、エージェント装置100の接続状態の選択のうち、第3の態様について説明する。第3の態様では、エージェント装置100は、第1接続状態による通信量に基づいて、車載エージェント機能部150がネットワークNWに接続される状態として、第1接続状態及び第2接続状態のいずれかを選択する。さらには、エージェント装置100は、第1接続状態による通信量が所定通信量を超えた場合、車載エージェント機能部150がネットワークNWに接続される状態として、第2接続状態を選択する。
取得部120は、通信量計測装置94により送信される車載通信装置60の通信量の情報を取得する(ステップS410)。
続いて、選択部122は、車載通信装置60の通信量が所定通信量を超えたか否かを判定する(ステップS420)。所定通信量は、予め設定された任意の通信量であり、所定通信量は、どのような値に設定してもよい。例えば、所定通信量は、ユーザがエージェントシステムの提供者との間で交わす契約に基づく通信量と同一の量であってもよいし、この通信量より少ない量であってもよい。
その結果、車載通信装置60の通信量が所定通信量を超えたと判定した場合、選択部122は、エージェント装置100の接続状態として第1接続状態を選択する(ステップS430)。一方、車載通信装置60の通信量が所定通信量を超えない(車載通信装置60の通信量が所定通信量以下である)と判定した場合、選択部122は、エージェント装置100の接続状態として第2接続状態を選択する(ステップS440)。こうして、エージェント装置100は、図11に示す処理を終了する。
このように、エージェント装置100の接続状態の選択の第3の態様では、選択部122は、車載通信装置60の通信量に基づいてエージェント装置100の接続状態を選択する。具体的には、選択部122は、車載通信装置60の通信量が所定通信量を超えたか否かにより、エージェントサーバにエージェント装置100が接続される接続状態を選択する。このため、車両Mにおける通信量を抑制できるとともに、通信量が限界値を超えた車両Mの通信を防止することができる。
なお、車両Mの所在地の電波強度が所定電波強度を超えるか否かの判定に代えてまたは加えて、汎用通信端末MTにおける端末エージェントサーバ400との間の通信量との比較結果に基づいてエージェント装置100の接続状態を選択してもよい。また、例えば、汎用通信端末MTにおける端末エージェントサーバ400との間の通信量と所定通信量との比較結果に基づいてエージェント装置100の接続状態を選択してもよい。
[エージェント装置100の接続状態の選択の態様(4)]
次に、エージェント装置100の接続状態の選択のうち、第4の態様について説明する。第4の態様では、エージェント装置100は、車載エージェント機能部150がネットワークNWに接続される状態として、ユーザの指定に基づいて、第1接続状態及び第2接続状態を選択する。
取得部120は、表示・操作装置20により送信される指定結果の情報を取得する(ステップS510)。続いて、選択部122は、取得部120により取得された指定結果の情報が指定する接続状態が第1接続状態であるか第2接続状態であるかを判定する(ステップS520)。
その結果、取得部120により取得された指定結果の情報が指定する接続状態が第1接続状態であると判定した場合、選択部122は、エージェント装置100の接続状態として第1接続状態を選択する(ステップS530)。一方、取得部120により取得された指定結果の情報が指定する接続状態が、第2接続状態であると判定した場合、選択部122は、エージェント装置100の接続状態として第2接続状態を選択する(ステップS540)。こうして、エージェント装置100は、図12に示す処理を終了する。
このように、エージェント装置100の接続状態の選択の第4の態様では、選択部122は、取得部120により取得された指定結果の情報が指定する接続状態に基づいてエージェント装置100の接続状態を選択する。指定結果の情報が指定する接続状態は、乗員が指定した接続状態であるので、選択部122は、乗員の指定に基づいてエージェントサーバにエージェント装置100が接続される接続状態を選択する。このため、ユーザの意図するエージェントからのサービスの提供受けることができる。
上記第1の実施形態によれば、エージェント装置100は、車載通信部152を介して実現する第1接続状態または端末通信部154を介して実現する第2接続状態でとエージェントサーバの間で情報の送受信を行う。このため、通信手段を複数、ここでは二つ利用するため、一つの通信手段に不都合が生じたとしても、他の通信手段による通信を行うことができるので、ユーザがより安心できるサポートを行うことができる。
また、第2接続状態では、エージェント装置100は、汎用通信端末MTを介してエージェントサーバと情報の送受信を行う。このため、エージェント装置100を搭載する車両Mの通信量をより少なくすることができる。したがって、車両Mの通信量の限界値を低めに設定することができる。
また、エージェント装置100は、接続状態が第1接続状態であるか第2接続状態であるかを、接続先のエージェントサーバの名称等によってユーザに提示している。このため、ユーザは、利用中のエージェントを認識することができるので、例えば使用を望むエージェントを容易に判別することができる。また、エージェント装置100は、第2接続状態であるときには、汎用通信端末MTの充電を促進する。このため、第2接続状態を継続することにより汎用通信端末MTの充電不足を抑制することができる。
<第2実施形態>
以下、第2実施形態について説明する。第2実施形態の汎用通信端末MTには、エージェント装置100が備える車載エージェントアプリと同種のアプリ(以下、車載エージェント同種アプリ)であり、エージェント装置100にログインするユーザIDと同じユーザIDでログイン可能なアプリがインストールされている。ユーザは、例えばエージェント装置100にログインした場合も、端末エージェント装置300においてログインした場合も、同じエージェントサーバ(車載エージェントサーバ200)によって、共通したアカウントでサービスを受けることができる。汎用通信端末MTは、車載エージェントアプリ同種アプリが起動することにより、端末エージェント装置300として機能する。図13は、エージェント装置100とエージェントサーバとの間における情報の送受信の状態の一例を説明する図である。
第1実施形態のエージェントシステム1では、図13に実線で示すように、エージェント装置100は、車載エージェントサーバ200との間で直接情報の送受信を行うか、汎用通信端末MTを介して端末エージェントサーバ400との間で情報の送受信を行っていた。これに対して、第2実施形態のエージェントシステム1では、図13に破線で示すように、エージェント装置100は、車載エージェントサーバ200との間で直接情報の送受信を行うか、汎用通信端末MTを介して車載エージェントサーバ200との間で情報の送受信を行う。
汎用通信端末MTを介して車載エージェントサーバ200との間で情報の送受信を行う場合、エージェント装置100は、汎用通信端末MTにインストールされた車載エージェントアプリ同種アプリを介して、車載エージェントサーバ200により送信される情報を受け取る。第2実施形態のエージェントシステム1では、汎用エージェントアプリ及び端末エージェントサーバ400は不要であるので、汎用通信端末MTがエージェント機能を備えない場合でも、汎用通信端末MTを介して、エージェント装置100と車載エージェントサーバ200との間の情報の送受信を行うことができる。
以上の第2実施形態のエージェント装置100を搭載した車両Mは、汎用通信端末MTを介して、車載エージェントサーバ200と情報の送受信を行ってエージェントによるサービスを受けられるようにすることもできる。したがって、ユーザがより安心できるサポートを行うことができるとともに、通信量を少なくしながら、車載エージェントアプリを利用したサービスを受けることができる。
なお、上記の各実施形態では、車載エージェントサーバは1つのみであるが、車載エージェントサーバが複数あってもよい。この場合、エージェント装置100には、複数のエージェントサーバのそれぞれに対応するエージェント機能部が設けられていればよい。複数のエージェント機能部の中には、例えば、車載通信装置60や汎用通信端末MTに対して専用に接続されるエージェント機能部が設けられていてもよい。また、複数のエージェント機能部の中には、例えば、車両機器50を制御する権限が付与されているものと付与されていないものとが含まれるようにしてもよい。
また、選択部122は、第1接続状態と第2接続状態を選択するにあたり、第1接続状態と第2接続状態のいずれかを優先的に選択し、何らかの条件が成立した場合に、優先されていない接続状態を選択するようにしてもよい。例えば、選択部122は、第1接続状態を優先的に選択し、車両Mの通信量が所定通信量を超えた場合に第2接続状態を選択するようにしてもよい。また、例えば、第2接続状態としやすい環境、例えばユーザ(乗員)が汎用通信端末MTの通信量を定額無制限で使用できる場合には、選択部122は、第2接続状態を優先的に選択するようにしてもよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…エージェントシステム
10…マイク
20…表示・操作装置
22…第1ディスプレイ
24…第2ディスプレイ
30…スピーカユニット
40…ナビゲーション装置
50…車両機器
60…車載通信装置
80…乗員認識装置
92…電波強度測定装置
94…通信量計測装置
100…エージェント装置
110…管理部
112…音響処理部
114…WU判定部
116…表示制御部
118…音声制御部
120…取得部
122…選択部
124…情報提供部
126…記憶部
150…車載エージェント機能部
152…車載通信部
154…端末通信部
200…車載エージェントサーバ
300…端末エージェント装置
350…端末エージェント機能部
352…端末実装通信部
354…対車両通信部
400…端末エージェントサーバ
M…車両
MP…汎用通信端末

Claims (14)

  1. 車両に搭載され、ユーザの発話に応じて、音声による応答を含むサービスを提供する車載エージェント機能部と、
    車載通信装置を介して前記車載エージェント機能部をネットワークに接続させる車載通信部と、
    汎用端末を介して前記車載エージェント機能部を前記ネットワークに接続させる端末通信部と、
    前記車載エージェント機能部が前記ネットワークに接続される状態を、前記車載通信部を介して実現する第1接続状態と、前記端末通信部を介して実現する第2接続状態と、から選択する、
    エージェント装置。
  2. 前記汎用端末には、ユーザの発話に応じて、前記汎用端末のハードウェアを利用して発声による応答を含むサービスを提供する端末エージェント機能部が実装されており、
    前記端末通信部は、前記汎用端末の端末エージェント機能部を介して前記車載エージェント機能部を前記ネットワークに接続させる、
    請求項1に記載のエージェント装置。
  3. 前記車載エージェント機能部と前記端末エージェント機能部とは、前記車両内または互いの親サーバを介して通信可能である、
    請求項2に記載のエージェント装置。
  4. 前記車載エージェント機能部と前記端末エージェント機能部とは、近距離無線通信によって情報を授受する、
    請求項3に記載のエージェント装置。
  5. 前記第2接続状態が選択されている場合、ネットワークを介して提供された情報が、前記端末通信部を介して前記車載エージェント機能部に提供される、
    請求項1から4のうちいずれか1項に記載のエージェント装置。
  6. 前記第1接続状態及び前記第2接続状態のうち電波強度の強い方を選択する、
    請求項1から5のうちいずれか1項に記載のエージェント装置。
  7. 前記車両の所在地に応じて、前記第1接続状態及び前記第2接続状態のいずれかを選択する、
    請求項1から5のうちいずれか1項に記載のエージェント装置。
  8. 前記第1接続状態による通信量に基づいて、前記第1接続状態及び前記第2接続状態のいずれかを選択する、
    請求項1から5のうちいずれか1項に記載のエージェント装置。
  9. 前記第1接続状態による通信量が所定通信量を超えた場合、前記第2接続状態を選択する、
    請求項8に記載のエージェント装置。
  10. ユーザの指定に基づいて、前記第1接続状態及び前記第2接続状態を選択する、
    請求項1から5のうちいずれか1項に記載のエージェント装置。
  11. 前記車載エージェント機能部が前記ネットワークに接続される状態が前記第1接続状態と前記第2接続状態のいずれであるかを提示する、
    請求項1から10のうちいずれか1項に記載のエージェント装置。
  12. 前記車載エージェント機能部が前記ネットワークに接続される状態として、前記第2接続状態を選択する場合、ユーザに前記汎用端末の充電を促す、
    請求項1から11のうちいずれか1項に記載のエージェント装置。
  13. コンピュータが、
    車両に搭載された車載エージェント機能部及び汎用端末に実装された端末エージェント機能部を起動し、
    車載通信装置を介して前記車載エージェント機能部をネットワークに接続可能とし、
    汎用端末を介して前記車載エージェント機能部をネットワークに接続可能とし、
    前記車載エージェント機能部が前記ネットワークに接続される状態を、車載通信部を介して実現する第1接続状態と端末通信部を介して実現する第2接続状態とを選択する、
    エージェント装置の制御方法。
  14. コンピュータに、
    車両に搭載された車載エージェント機能部及び汎用端末に実装された端末エージェント機能部を起動する処理と、
    車載通信装置を介して前記車載エージェント機能部をネットワークに接続することを可能とする処理と、
    汎用端末を介して前記車載エージェント機能部をネットワークに接続することを可能とする処理と、
    前記車載エージェント機能部が前記ネットワークに接続される状態を、車載通信部を介して実現する第1接続状態と端末通信部を介して実現する第2接続状態とを選択させる処理と、
    を実行させるプログラム。
JP2019059875A 2019-03-27 2019-03-27 エージェント装置、エージェント装置の制御方法、およびプログラム Active JP7340943B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019059875A JP7340943B2 (ja) 2019-03-27 2019-03-27 エージェント装置、エージェント装置の制御方法、およびプログラム
US16/824,876 US20200319634A1 (en) 2019-03-27 2020-03-20 Agent device, method of controlling agent device, and storage medium
CN202010210387.9A CN111746434A (zh) 2019-03-27 2020-03-23 智能体装置、智能体装置的控制方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019059875A JP7340943B2 (ja) 2019-03-27 2019-03-27 エージェント装置、エージェント装置の制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020162003A true JP2020162003A (ja) 2020-10-01
JP7340943B2 JP7340943B2 (ja) 2023-09-08

Family

ID=72640031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019059875A Active JP7340943B2 (ja) 2019-03-27 2019-03-27 エージェント装置、エージェント装置の制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US20200319634A1 (ja)
JP (1) JP7340943B2 (ja)
CN (1) CN111746434A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113687757A (zh) * 2020-05-18 2021-11-23 丰田自动车株式会社 智能体控制装置、智能体控制方法以及非临时性的记录介质
JP7487650B2 (ja) 2020-12-01 2024-05-21 トヨタ自動車株式会社 制御装置、制御システムおよびプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005179948A (ja) * 2003-12-17 2005-07-07 Nissan Motor Co Ltd キーレスエントリシステムおよびその端末充電報知方法
JP2009535917A (ja) * 2006-04-28 2009-10-01 マイクロソフト コーポレーション 保護された無線仮想専用ネットワーク・サービスの提供
JP2010511362A (ja) * 2006-10-11 2010-04-08 ジョンソン コントロールズ テクノロジー カンパニー 無線ネットワーク選択
JP2013005151A (ja) * 2011-06-15 2013-01-07 Fujitsu Ltd 情報通信機器、情報通信方法、および情報通信プログラム
JP2014036340A (ja) * 2012-08-08 2014-02-24 Yazaki Energy System Corp 車両用通信装置
JP2018060192A (ja) * 2016-09-30 2018-04-12 本田技研工業株式会社 発話装置およびコミュニケーション装置
JP2018059721A (ja) * 2016-09-30 2018-04-12 本田技研工業株式会社 駐車位置探索方法、駐車位置探索装置、駐車位置探索プログラム及び移動体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9420431B2 (en) * 2011-03-08 2016-08-16 General Motors Llc Vehicle telematics communication for providing hands-free wireless communication
US20140309852A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Automatic vehicle diagnostic detection and communication
US10911964B2 (en) * 2016-05-09 2021-02-02 Honeywell International Inc. Methods and apparatus for providing network connectivity data for a computing device onboard a vehicle
JP6951879B2 (ja) * 2017-06-28 2021-10-20 シャープ株式会社 通信システム、制御装置、車両、通信方法およびプログラム
JP6787269B2 (ja) * 2017-07-21 2020-11-18 トヨタ自動車株式会社 音声認識システム及び音声認識方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005179948A (ja) * 2003-12-17 2005-07-07 Nissan Motor Co Ltd キーレスエントリシステムおよびその端末充電報知方法
JP2009535917A (ja) * 2006-04-28 2009-10-01 マイクロソフト コーポレーション 保護された無線仮想専用ネットワーク・サービスの提供
JP2010511362A (ja) * 2006-10-11 2010-04-08 ジョンソン コントロールズ テクノロジー カンパニー 無線ネットワーク選択
JP2013005151A (ja) * 2011-06-15 2013-01-07 Fujitsu Ltd 情報通信機器、情報通信方法、および情報通信プログラム
JP2014036340A (ja) * 2012-08-08 2014-02-24 Yazaki Energy System Corp 車両用通信装置
JP2018060192A (ja) * 2016-09-30 2018-04-12 本田技研工業株式会社 発話装置およびコミュニケーション装置
JP2018059721A (ja) * 2016-09-30 2018-04-12 本田技研工業株式会社 駐車位置探索方法、駐車位置探索装置、駐車位置探索プログラム及び移動体

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113687757A (zh) * 2020-05-18 2021-11-23 丰田自动车株式会社 智能体控制装置、智能体控制方法以及非临时性的记录介质
JP2021182191A (ja) * 2020-05-18 2021-11-25 トヨタ自動車株式会社 エージェント制御装置、エージェント制御方法及びエージェント制御プログラム
JP7226393B2 (ja) 2020-05-18 2023-02-21 トヨタ自動車株式会社 エージェント制御装置、エージェント制御方法及びエージェント制御プログラム
CN113687757B (zh) * 2020-05-18 2024-02-13 丰田自动车株式会社 智能体控制装置、智能体控制方法以及非临时性的记录介质
JP7487650B2 (ja) 2020-12-01 2024-05-21 トヨタ自動車株式会社 制御装置、制御システムおよびプログラム

Also Published As

Publication number Publication date
CN111746434A (zh) 2020-10-09
JP7340943B2 (ja) 2023-09-08
US20200319634A1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
JP2020144663A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020147214A (ja) エージェント装置、システム、エージェント装置の制御方法、およびプログラム
US20200319634A1 (en) Agent device, method of controlling agent device, and storage medium
JP2020149106A (ja) エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム
JP2020144264A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
CN111559328A (zh) 智能体装置、智能体装置的控制方法及存储介质
CN111739525A (zh) 智能体装置、智能体装置的控制方法及存储介质
JP2020154994A (ja) エージェントシステム、エージェントサーバ、エージェントサーバの制御方法、およびプログラム
US11437035B2 (en) Agent device, method for controlling agent device, and storage medium
CN111667823B (zh) 智能体装置、智能体装置的控制方法及存储介质
US11797261B2 (en) On-vehicle device, method of controlling on-vehicle device, and storage medium
JP2020152298A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020160848A (ja) サーバ装置、情報提供システム、情報提供方法、およびプログラム
JP2020142721A (ja) エージェントシステム、車載機器の制御方法、及びプログラム
JP2020160133A (ja) エージェントシステム、エージェントシステムの制御方法、およびプログラム
JP2020157853A (ja) 車載エージェントシステム、車載エージェントシステムの制御方法、およびプログラム
JP2020157808A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
CN111559317B (zh) 智能体装置、智能体装置的控制方法及存储介质
JP2020144712A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP7297483B2 (ja) エージェントシステム、サーバ装置、エージェントシステムの制御方法、およびプログラム
US11518399B2 (en) Agent device, agent system, method for controlling agent device, and storage medium
JP2021026124A (ja) 音声対話装置、音声対話方法、及びプログラム
JP2020160132A (ja) エージェント装置、エージェント装置の制御方法、プログラム、エージェントサーバ、およびエージェントサーバの制御方法
JP2020160108A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
CN111824174A (zh) 智能体装置、智能体装置的控制方法及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230829

R150 Certificate of patent or registration of utility model

Ref document number: 7340943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150