JP7211856B2 - エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム - Google Patents

エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム Download PDF

Info

Publication number
JP7211856B2
JP7211856B2 JP2019043700A JP2019043700A JP7211856B2 JP 7211856 B2 JP7211856 B2 JP 7211856B2 JP 2019043700 A JP2019043700 A JP 2019043700A JP 2019043700 A JP2019043700 A JP 2019043700A JP 7211856 B2 JP7211856 B2 JP 7211856B2
Authority
JP
Japan
Prior art keywords
vehicle
information
agent
user
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019043700A
Other languages
English (en)
Other versions
JP2020149106A (ja
Inventor
正樹 栗原
昌宏 暮橋
俊克 倉持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019043700A priority Critical patent/JP7211856B2/ja
Priority to CN202010154973.6A priority patent/CN111681651B/zh
Priority to US16/810,897 priority patent/US11532303B2/en
Publication of JP2020149106A publication Critical patent/JP2020149106A/ja
Application granted granted Critical
Publication of JP7211856B2 publication Critical patent/JP7211856B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3641Personalized guidance, e.g. limited guidance on previously travelled routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Artificial Intelligence (AREA)
  • Economics (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラムに関する。
従来、車両の利用者と対話を行いながら、利用者の要求に応じた運転支援に関する情報や車両の制御、その他のアプリケーション等を提供するエージェント機能に関する技術が開示されている(例えば、特許文献1参照)。
特開2006-335231号公報
近年では、エージェント機能を車両に搭載することについて実用化が進められているが、車両ごとに搭載されたエージェント機能におけるサービスの提供について十分に検討されていなかった。このため、従来の技術では、エージェン機能のサービスの提供について利用者の満足度が低い場合があった。
本発明は、このような事情を考慮してなされたものであり、利用者の満足度を向上させることができるエージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラムを提供することを目的の一つとする。
この発明に係るエージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係るエージェント装置は、第1車両の利用者の発話を取得する取得部と、前記取得部により取得された第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行う第1エージェント機能部と、を備え、前記第1エージェント機能部は、前記第1車両で利用できる、少なくとも前記第1エージェント機能部を含む一以上のエージェント機能部と、第2車両で利用できる一以上のエージェント機能部との間で提供可能なサービスに差異がある場合、前記差異に関する情報を提供するエージェント装置である。
(2):上記(1)の態様において、前記第1エージェント機能部は、前記第2車両に含まれ、前記第2車両において前記第1エージェント機能部と共通するサービス名で提供される第2エージェント機能部との間で提供可能なサービスに差異がある場合、差異に関する情報を提供するものである。
(3):上記(2)の態様において、前記第1エージェント機能部は、前記第2エージェント機能部で提供可能であるが、前記第1エージェント機能部で提供できないサービスに関する情報を前記差異に関する情報として提供するものである。
(4):上記(2)または(3)の態様において、前記第1エージェント機能部は、前記第1エージェント機能部で提供可能であるが、前記第2エージェント機能部で提供できないサービスに関する情報を前記差異に関する情報として提供するものである。
(5):上記(1)の態様において、前記第1エージェント機能部は、第2車両において前記第1エージェント機能部と共通するサービス名で提供される第2エージェント機能部が前記利用者に提供したことがあるサービスと、前記第1エージェント機能部が前記利用者に提供可能なサービスとに差異がある場合、前記差異に関する情報を提供するものである。
(6):上記(3)または(5)の態様において、前記第1エージェント機能部は、自身が提供できないサービスのリクエストを取得した場合に、前記差異に関する情報を提供するものである。
(7):上記(1)から(6)のいずれかの態様において、前記利用者が乗車した第1車両に関する第1車両情報と、前記利用者が前記第1車両を利用する前に利用した前記第2車両に関する第2車両情報とに基づいて、前記差異が存在するか否かを判定する判定部と、更に備え、前記第1エージェント機能部は、前記判定部の判定結果に基づいて、前記差異に関する情報を提供するものである。
(8):上記(1)から(7)のいずれかの態様において、前記第1エージェント機能部は、前記利用者の発話によって、前記第2車両の特定機能が実行されることで提供されるサービスと同様のサービスの提供がリクエストされ、前記第1車両において前記リクエストに応えることができない場合、前記差異に関する情報を提供するものである。
(9):上記(8)の態様において、前記第1車両の特定機能が実行されることで提供されるサービスを含む第1車両情報と、前記利用者の発話に応じて前記第2車両の特定機能が実行されたことで提供されたサービスを含む第2車両情報と、に基づいて、前記第1車両の特定機能と前記第2車両の特定機能との差異が存在するか否かを判定する判定部を、更に備え、前記第1エージェント機能部は、前記判定部の判定結果に基づいて、前記差異に関する情報を提供するものである。
(10):上記(1)から(9)のいずれかの態様において、前記第1エージェント機能部は、前記第1車両で利用される地図の情報鮮度が、前記第2車両で利用される地図の情報鮮度よりも低い場合、前記差異に関する情報を提供するものである。
(11):上記(10)の態様において、前記第1車両で利用される地図の情報鮮度に関する情報を含む第1車両情報と、前記第2車両で利用される地図の情報鮮度に関する情報を含む第2車両情報とに基づいて、地図の情報鮮度に差異が存在するか否かを判定する判定部を、更に備え、前記第1エージェント機能部は、前記判定部の判定結果に基づいて、前記差異に関する情報を提供するものである。
(12):上記(1)から(11)のいずれかの態様において、前記第1エージェント機能部は、前記第1車両で利用できる、前記取得部により取得された前記第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別と、前記第2車両で利用できる、前記取得部により取得された前記第2車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別と、が異なる場合、前記差異に関する情報を提供する、
請求項1から11のうちいずれか1項に記載のエージェント装置。
(13):上記(12)の態様において、前記第1車両で利用できる前記エージェント機能部の種別を含む第1車両情報と、前記第2車両で利用できる前記エージェント機能部の種別とを含む第2車両情報とに基づいて、前記種別の差異が存在するか否かを判定する判定部を、更に備え、前記第1エージェント機能部は、前記判定部の判定結果に基づいて、前記差異に関する情報を提供するものである。
(14):上記(1)から(13)のいずれかの態様において、前記第1エージェント機能部は、自身が受け持つタスクと、前記第2車両において前記第1エージェント機能部と共通するサービス名で提供される第2エージェント機能部が受け持つタスクとが異なる場合、前記受け持つタスクの差異に関する情報を提供するものである。
(15):上記(14)の態様において、前記第1車両において前記第1エージェント機能部が受け持つタスクを含む第1車両情報と、前記第2エージェント機能部が受け持つタスクを含む第1車両情報とに基づいて、前記受け持つタスクの差異が存在するか否かを判定する判定部を、更に備え、前記第1エージェント機能部は、前記判定部の判定結果に基づいて、前記受け持つタスクの差異に関する情報を提供するものである。
(16):上記(1)から(15)のいずれかの態様において、前記第1エージェント機能部は、前記第1車両の特定タスクを受け持ち、前記取得部により取得された前記第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別と、前記第2車両の前記特定タスクを受け持ち、前記取得部により取得された前記第2車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別と、が異なる場合、前記種別の差異に関する情報を提供するものである。
(17):上記(16)の態様において、前記第1車両の特定タスクを受け持つ前記エージェント機能部の種別を含む第1車両情報と、前記第2車両の前記特定タスクを受け持つ前記エージェント機能部の種別を含む第2車両情報とに基づいて、前記種別の差異が存在するか否かを判定する判定部を、更に備え、前記第1エージェント機能部は、前記判定部の判定結果に基づいて、前記差異に関する情報を提供するものである。
(18):この発明の他の一態様に係るエージェント装置は、第1車両の利用者の発話を取得する取得部と、前記取得部により取得された第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行う第1エージェント機能部と、を備え、前記第1エージェント機能部は、第2車両において前記第1エージェント機能部と共通するサービス名で提供される第2エージェント機能部との間で提供可能なサービスに差異がある場合、前記差異に関する情報を提供するエージェント装置である。
(19):この発明の他の一態様に係るエージェント装置は、第1車両の利用者の発話を取得する取得部と、前記取得部により取得された第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行う第1エージェント機能部と、を備え、前記第1エージェント機能部は、第2車両において前記第1エージェント機能部と共通するサービス名で提供される第2エージェント機能部が前記利用者に提供したことがあるサービスと、前記第1エージェント機能部が前記利用者に提供可能なサービスとに差異がある場合、前記差異に関する情報を提供するエージェント装置である。
(20):上記(1)から(19)のいずれかの態様において、エージェント装置は、車両に搭載されるものである。
(21):この発明の一態様に係るエージェントシステムは、上記(1)から(6)のうちいずれかの態様のエージェント装置と、前記エージェント装置により送信された情報に応じて、前記利用者が乗車した第1車両に関する第1車両情報と、前記利用者が前記第1車両を利用する前に利用した前記第2車両に関する第2車両情報とに基づいて、前記差異が存在するか否かを判定する判定部、および前記判定部により差異が存在すると判定された場合、前記差異に基づく特定情報を前記エージェント装置に送信する送信制御部を含む、サーバ装置と、を備え、前記第1エージェント機能部は、前記送信制御部により送信された特定情報に基づいて、前記差異に関する情報を提供するエージェントシステムである。
(22):上記(21)の態様において、前記判定部は、前記第1車両の特定機能が実行されることで提供されるサービスを含む第1車両情報と、前記利用者の発話に応じて前記第2車両の特定機能が実行されたことで提供されたサービスを含む第2車両情報とに基づいて、前記第1車両の特定機能と前記第2車両の特定機能との差異が存在するか否かを判定し、前記送信制御部は、前記判定部により前記特定機能に差異が存在すると判定された場合、前記特定機能の差異に基づく特定情報を前記エージェント装置に送信し、前記第1エージェント機能部は、前記送信制御部により送信された特定情報に基づいて、前記差異に関する情報を提供するものである。
(23):上記(21)または(22)の態様において、前記判定部は、前記第1車両で利用される地図の情報鮮度に関する情報を含む第1車両情報と、前記第2車両で利用される地図の情報鮮度に関する情報を含む第2車両情報とに基づいて、地図の情報鮮度に差異が存在するか否かを判定し、前記送信制御部は、前記判定部により差異が存在すると判定された場合、前記地図の情報鮮度の差異に基づく特定情報を前記エージェント装置に送信し、前記第1エージェント機能部は、前記送信制御部により送信された特定情報に基づいて、前記差異に関する情報を提供するものである。
(24):上記(21)から(23)のいずれかの態様において、前記判定部は、前記第1車両で利用できる、前記取得部により取得された第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別を含む第1車両情報と、前記第2車両で利用できる、前記取得部により取得された第2車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別を含む第2車両情報とに基づいて、前記差異が存在するか否かを判定し、前記送信制御部は、前記判定部により種別に差異が存在すると判定された場合、前記差異に基づく特定情報を前記エージェント装置に送信し、前記第1エージェント機能部は、前記送信制御部により送信された特定情報に基づいて、前記差異に関する情報を提供するものである。
(25):上記(21)から(24)のいずれかの態様において、前記判定部は、前記第1車両において前記第1エージェント機能部が受け持つタスクを含む第1車両情報と、前記第2車両において前記第1エージェント機能部と共通するサービス名で提供される第2エージェント機能部が受け持つタスクを含む第1車両情報とに基づいて、受け持つタスクに関する差異が存在するか否かを判定し、前記送信制御部は、前記判定部により差異が存在すると判定された場合、前記タスクの差異に基づく特定情報を前記エージェント装置に送信し、前記第1エージェント機能部は、前記送信制御部により送信された特定情報に基づいて、前記受け持つタスクの差異に関する情報を提供するものである。
(26):上記(21)から(25)のいずれかの態様において、前記判定部は、前記第1車両の特定タスクを受け持つ、前記取得部により取得された前記第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別と、前記第2車両の前記特定タスクを受け持つ、前記取得部により取得された前記第2車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別と、に基づいて、前記種別の差異が存在するか否かを判定し、前記送信制御部は、前記判定部により差異が存在すると判定された場合、前記種別の差異に基づく特定情報を前記エージェント装置に送信し、前記第1エージェント機能部は、前記送信制御部により送信された特定情報に基づいて、前記種別の差異に関する情報を提供するものである。
(27):この発明の一態様に係るサーバ装置は、第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行う第1エージェント機能部により送信された情報に応じて前記第1エージェント機能部が提供するサービスに関する情報、および第2車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行う第2エージェント機能部により送信された情報に応じて前記第2エージェント機能部が提供するサービスに関する情報を生成する第1提供部と、前記利用者が利用する前記第1車両に関する第1車両情報と、前記第1車両を利用する前に前記利用者が利用した前記第2車両に関する第2車両情報とに基づいて、前記第1エージェント機能部と前記第2エージェント機能部との間で提供可能なサービスに差異がある場合、前記差異に関する情報を前記第1車両に提供する第2提供部とを備えるサーバ装置である。
(28):この発明の一態様に係るエージェント装置の制御方法は、コンピュータが、第1車両の利用者の発話を取得し、前記取得した第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行う第1エージェント機能部が、前記第1車両で利用できる、少なくとも前記第1エージェント機能部を含む一以上のエージェント機能部と、第2車両で利用できる一以上のエージェント機能部との間で提供可能なサービスに差異がある場合、前記差異に関する情報を提供するものである。
(29):この発明の一態様に係るプログラムは、コンピュータに、第1車両の利用者の発話を取得させ、前記取得した第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行う第1エージェント機能部が、前記第1車両で利用できる、少なくとも前記第1エージェント機能部を含む一以上のエージェント機能部と、第2車両で利用できる一以上のエージェント機能部との間で提供可能なサービスに差異がある場合、前記差異に関する情報を提供させるものである。
(1)~(26)、(28)、(29)によれば、第1エージェント機能部が、第1車両と第2車両との間で提供可能なサービスに差異がある場合、差異に関する情報を提供することにより、利用者の満足度が向上する。
(27)によれば、サーバ装置は、第1車両と第2車両との間で提供可能なサービスに差異がある場合、差異に関する情報を提供することを支援することができるため、利用者の満足度が向上に貢献することができる。
エージェント装置100を含むエージェントシステム1の構成図である。 第1実施形態に係るエージェント装置100の構成と、車両Mに搭載された機器とを示す図である。 表示・操作装置20の配置例を示す図である。 スピーカユニット30の配置例を示す図である。 音像が定位する位置が定まる原理について説明するための図である。 エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す図である。 エージェントサーバ200に提供される応答情報の概要について説明するための図である。 情報処理サーバ300の機能構成の一例を示す図である。 特定処理の概要について説明するための図である。 第2車両M2とエージェントサーバ200とにより実行される処理の一例を示すフローチャートである。 履歴情報260の内容の一例を示す図である。 汎用通信装置70と情報処理サーバ300とにより実行される処理の流れの一例を示すフローチャートである。 予約管理情報322の一例を示す図である。 第1車両M1において差異に関する情報が出力される処理の流れを示すフローチャートである。 車両情報262の内容の一例を示す図である。 エージェントサーバ200に提供される応答情報の概要(その1)について説明するための図である。 差異に関する情報が提供される場面の一例を示す図(その1)である。 差異に関する情報が提供される場面の一例を示す図(その2)である。 差異に関する情報が提供される場面の一例を示す図(その3)である。 差異に関する情報が提供される場面の一例を示す図(その4)である。 差異に関する情報が提供される場面の一例を示す図(その5)である。 第2実施形態に係るエージェント装置100Aの構成と、車両Mに搭載された機器とを示す図である。 第2実施形態の第2車両M2において差異に関する情報が出力される処理の流れを示すフローチャートである。
以下、図面を参照し、本発明のエージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラムの実施形態について説明する。
<第1実施形態>
エージェント装置は、エージェントシステムの一部または全部を実現する装置である。以下では、エージェント装置の一例として、車両(以下、第1車両M1、または第2車両M2)に搭載され、複数種類のエージェント機能を備えたエージェント装置について説明する。第1車両M1と第2車両M2とを区別しない場合は、車両Mと称する場合がある。エージェント機能とは、例えば、車両Mの利用者と対話をしながら、利用者の発話の中に含まれる要求(コマンド)に基づく各種の情報提供を行ったり、ネットワークサービスを仲介したりする機能である。複数種類のエージェントはそれぞれに果たす機能、処理手順、制御、出力態様・内容がそれぞれ異なってもよい。また、エージェント機能の中には、車両内の機器(例えば運転制御や車体制御に関わる機器)の制御等を行う機能を有するものがあってよい。
エージェント機能は、例えば、利用者の音声を認識する音声認識機能(音声をテキスト化する機能)に加え、自然言語処理機能(テキストの構造や意味を理解する機能)、対話管理機能、ネットワークを介して他装置を検索し、或いは自装置が保有する所定のデータベースを検索するネットワーク検索機能等を統合的に利用して実現される。これらの機能の一部または全部は、AI(Artificial Intelligence)技術によって実現されてよい。また、これらの機能を行うための構成の一部(特に、音声認識機能や自然言語処理解釈機能)は、車両Mの車載通信装置または車両Mに持ち込まれた汎用通信装置と通信可能なエージェントサーバ(外部装置)に搭載されてもよい。以下の説明では、構成の一部がエージェントサーバに搭載されており、エージェント装置とエージェントサーバが協働してエージェントシステムを実現することを前提とする。また、エージェント装置とエージェントサーバが協働して仮想的に出現させるサービス提供主体(サービス・エンティティ)をエージェントと称する。
<全体構成>
図1は、エージェント装置100を含むエージェントシステム1の構成図である。エージェントシステム1は、例えば、汎用通信装置70と、エージェント装置100-1、100-2と、複数のエージェントサーバ200-1、200-2、200-3、…と、情報処理サーバ300とを備える。エージェント装置100-1と、100-2とを区別しない場合は、単にエージェント装置100と称する場合がある。エージェントサーバ200の符号の末尾のハイフン以下の数字は、エージェントを区別するための識別子であるものとする。いずれのエージェントサーバであるかを区別しない場合、単にエージェントサーバ200と称する場合がある。図1では3つのエージェントサーバ200を示しているが、エージェントサーバ200の数は2つであってもよいし、4つ以上であってもよい。それぞれのエージェントサーバ200は、互いに異なるエージェントシステムの提供者が運営するものである。従って、本発明におけるエージェントは、互いに異なる提供者により実現されるエージェントである。提供者としては、例えば、自動車メーカー、ネットワークサービス事業者、電子商取引事業者、携帯端末の販売者などが挙げられ、任意の主体(法人、団体、個人等)がエージェントシステムの提供者となり得る。
エージェント装置100は、ネットワークNWを介してエージェントサーバ200と通信する。ネットワークNWは、例えば、インターネット、セルラー網、Wi-Fi網、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、電話回線、無線基地局などのうち一部または全部を含む。ネットワークNWには、各種ウェブサーバ500が接続されており、エージェントサーバ200またはエージェント装置100は、ネットワークNWを介して各種ウェブサーバ500からウェブページを取得することができる。
エージェント装置100は、車両Mの利用者と対話を行い、利用者からの音声をエージェントサーバ200に送信し、エージェントサーバ200から得られた回答を、音声出力や画像表示の形で利用者に提示する。
[車両]
図2は、第1実施形態に係るエージェント装置100の構成と、車両Mに搭載された機器とを示す図である。車両Mには、例えば、一以上のマイク10と、表示・操作装置20と、スピーカユニット30と、ナビゲーション装置40と、車両機器50と、車載通信装置60と、利用者認識装置80と、ICカードリーダ90と、エージェント装置100とが搭載される。また、スマートフォンなどの汎用通信装置70が車室内に持ち込まれ、通信装置として使用される場合がある。これらの装置は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図2に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
マイク10は、車室内で発せられた音声を収集する収音部である。表示・操作装置20は、画像を表示すると共に、入力操作を受付可能な装置(或いは装置群)である。表示・操作装置20は、例えば、タッチパネルとして構成されたディスプレイ装置を含む。表示・操作装置20は、更に、HUD(Head Up Display)や機械式の入力装置を含んでもよい。スピーカユニット30は、例えば、車室内の互いに異なる位置に配設された複数のスピーカ(音出力部)を含む。表示・操作装置20は、エージェント装置100とナビゲーション装置40とで共用されてもよい。これらの詳細については後述する。
ナビゲーション装置40は、ナビHMI(Human machine Interface)と、GPS(Global Positioning System)などの位置測位装置と、地図情報を記憶した記憶装置と、経路探索などを行う制御装置(ナビゲーションコントローラ)とを備える。マイク10、表示・操作装置20、およびスピーカユニット30のうち一部または全部がナビHMIとして用いられてもよい。ナビゲーション装置40は、位置測位装置によって特定された車両Mの位置から、利用者によって入力された目的地まで移動するための経路(ナビ経路)を探索し、経路に沿って車両Mが走行できるように、ナビHMIを用いて案内情報を出力する。経路探索機能は、ネットワークNWを介してアクセス可能なナビゲーションサーバにあってもよい。この場合、ナビゲーション装置40は、ナビゲーションサーバから経路を取得して案内情報を出力する。なお、エージェント装置100は、ナビゲーションコントローラを基盤として構築されてもよく、その場合、ナビゲーションコントローラとエージェント装置100は、ハードウェア上は一体に構成される。
車両機器50は、例えば、エンジンや走行用モータなどの駆動力出力装置、エンジンの始動モータ、ドアロック装置、ドア開閉装置、窓、窓の開閉装置及び窓の開閉制御装置、シート、シート位置の制御装置、ルームミラー及びその角度位置制御装置、車両内外の照明装置及びその制御装置、ワイパーやデフォッガー及びそれぞれの制御装置、方向指示灯及びその制御装置、空調装置、走行距離やタイヤの空気圧の情報や燃料の残量情報などの車両情報装置などを含む。
車載通信装置60は、例えば、セルラー網やWi-Fi網を利用してネットワークNWにアクセス可能な無線通信装置である。
利用者認識装置80は、例えば、着座センサ、車室内カメラ、画像認識装置などを含む。着座センサは座席の下部に設けられた圧力センサ、シートベルトに取り付けられた張力センサなどを含む。車室内カメラは、車室内に設けられたCCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラである。画像認識装置は、車室内カメラの画像を解析し、座席ごとの利用者の有無、顔向きなどを認識する。
例えば、利用者認識装置80は、車室内カメラによって撮像された特定画像を用いて、利用者を識別する。例えば、利用者認識装置80は、特定画像から利用者の特徴量を抽出し、抽出した特徴量の分布と、参照情報に記憶された特徴量の分布とを比較して、抽出した特徴量の分布に合致する特徴量の分布を参照情報から取得する。そして、利用者認識装置80は、参照情報において、取得した特徴量の分布に対応付けられた識別情報を取得することで利用者を識別する。
特徴量とは、例えば、特定画像から抽出された輝度値や輝度勾配に基づく情報である。
参照情報は、例えば、不図示の記憶装置に記憶されている。参照情報は、特徴量の分布と識別情報とが互いに対応付けられた情報である。なお、利用者は、表示・操作装置20またはスピーカユニット30に対して所定の動作を行うことによって、利用者認識装置80に利用者を識別させてもよい。所定の動作とは、例えば、利用者の識別情報を入力する動作や、所定の音声を入力する動作等である。
ICカードリーダ90は、通信部や情報処理部等を備える。利用者によりICカードが所定の提示面に翳されると、通信部がICカードと通信する。情報処理部は、通信部が取得した情報からICカードの記憶部に記憶されたICカード識別情報を取得し、取得した情報を管理部110に提供する。
図3は、表示・操作装置20の配置例を示す図である。表示・操作装置20は、例えば、第1ディスプレイ22と、第2ディスプレイ24と、操作スイッチASSY26とを含む。表示・操作装置20は、更に、HUD28を含んでもよい。
車両Mには、例えば、ステアリングホイールSWが設けられた運転席DSと、運転席DSに対して車幅方向(図中Y方向)に設けられた助手席ASとが存在する。第1ディスプレイ22は、インストルメントパネルにおける運転席DSと助手席ASとの中間辺りから、助手席ASの左端部に対向する位置まで延在する横長形状のディスプレイ装置である。第2ディスプレイ24は、運転席DSと助手席ASとの車幅方向に関する中間あたり、且つ第1ディスプレイ22の下方に設置されている。例えば、第1ディスプレイ22と第2ディスプレイ24は、共にタッチパネルとして構成され、表示部としてLCD(Liquid Crystal Display)や有機EL(Electroluminescence)、プラズマディスプレイなどを備えるものである。操作スイッチASSY26は、ダイヤルスイッチやボタン式スイッチなどが集積されたものである。表示・操作装置20は、利用者によってなされた操作の内容をエージェント装置100に出力する。第1ディスプレイ22または第2ディスプレイ24が表示する内容は、エージェント装置100によって決定されてよい。
図4は、スピーカユニット30の配置例を示す図である。スピーカユニット30は、例えば、スピーカ30A~30Hを含む。スピーカ30Aは、運転席DS側の窓柱(いわゆるAピラー)に設置されている。スピーカ30Bは、運転席DSに近いドアの下部に設置されている。スピーカ30Cは、助手席AS側の窓柱に設置されている。スピーカ30Dは、助手席ASに近いドアの下部に設置されている。スピーカ30Eは、右側後部座席BS1側に近いドアの下部に設置されている。スピーカ30Fは、左側後部座席BS2側に近いドアの下部に設置されている。スピーカ30Gは、第2ディスプレイ24の近傍に設置されている。スピーカ30Hは、車室の天井(ルーフ)に設置されている。
係る配置において、例えば、専らスピーカ30Aおよび30Bに音を出力させた場合、音像は運転席DS付近に定位することになる。また、専らスピーカ30Cおよび30Dに音を出力させた場合、音像は助手席AS付近に定位することになる。また、専らスピーカ30Eに音を出力させた場合、音像は右側後部座席BS1付近に定位することになる。また、専らスピーカ30Fに音を出力させた場合、音像は左側後部座席BS2付近に定位することになる。また、専らスピーカ30Gに音を出力させた場合、音像は車室の前方付近に定位することになり、専らスピーカ30Hに音を出力させた場合、音像は車室の上方付近に定位することになる。これに限らず、スピーカユニット30は、ミキサーやアンプを用いて各スピーカの出力する音の配分を調整することで、車室内の任意の位置に音像を定位させることができる。
[エージェント装置]
図2に戻り、エージェント装置100は、管理部110と、エージェント機能部150-1、150-2、150-3と、ペアリングアプリ実行部152とを備える。管理部110は、例えば、音響処理部112と、エージェントごとWU(Wake Up)判定部114と、識別部115と、表示制御部116と、音声制御部118とを備える。いずれのエージェント機能部であるかを区別しない場合、単にエージェント機能部150と称する。3つのエージェント機能部150を示しているのは、図1におけるエージェントサーバ200の数に対応させた一例に過ぎず、エージェント機能部150の数は、2つであってもよいし、4つ以上であってもよい。図2に示すソフトウェア配置は説明のために簡易に示しており、実際には、例えば、エージェント機能部150と車載通信装置60の間に管理部110が介在してもよいし、任意に改変することができる。
エージェント装置100の各構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
管理部110は、OS(Operating System)やミドルウェアなどのプログラムが実行されることで機能する。
管理部110の音響処理部112は、エージェントごとに予め設定されているウエイクアップワードを認識するのに適した状態になるように、入力された音に対して音響処理を行う。
エージェントごとWU判定部114は、エージェント機能部150-1、150-2、150-3のそれぞれに対応して存在し、エージェントごとに予め定められているウエイクアップワードを認識する。エージェントごとWU判定部114は、音響処理が行われた音声(音声ストリーム)から音声の意味を認識する。まず、エージェントごとWU判定部114は、音声ストリームにおける音声波形の振幅と零交差に基づいて音声区間を検出する。エージェントごとWU判定部114は、混合ガウス分布モデル(GMM;Gaussian mixture model)に基づくフレーム単位の音声識別および非音声識別に基づく区間検出を行ってもよい。
次に、エージェントごとWU判定部114は、検出した音声区間における音声をテキスト化し、文字情報とする。そして、エージェントごとWU判定部114は、テキスト化した文字情報がウエイクアップワードに該当するか否かを判定する。ウエイクアップワードであると判定した場合、エージェントごとWU判定部114は、対応するエージェント機能部150を起動させる。なお、エージェントごとWU判定部114に相当する機能がエージェントサーバ200に搭載されてもよい。この場合、管理部110は、音響処理部112によって音響処理が行われた音声ストリームをエージェントサーバ200に送信し、エージェントサーバ200がウエイクアップワードであると判定した場合、エージェントサーバ200からの指示に従ってエージェント機能部150が起動する。なお、各エージェント機能部150は、常時起動しており且つウエイクアップワードの判定を自ら行うものであってよい。この場合、管理部110がエージェントごとWU判定部114を備える必要はない。
エージェント機能部150は、対応するエージェントサーバ200と協働してエージェントを出現させ、車両Mの利用者の発話に応じて、音声による応答を含むサービスを提供する。エージェント機能部150には、車両機器50を制御する権限が付与されたものが含まれてよい。また、エージェント機能部150には、ペアリングアプリ実行部152を介して汎用通信装置70と連携し、エージェントサーバ200と通信するものであってよい。例えば、エージェント機能部150-1には、車両機器50を制御する権限が付与されている。エージェント機能部150-1は、車載通信装置60を介してエージェントサーバ200-1と通信する。エージェント機能部150-2は、車載通信装置60を介してエージェントサーバ200-2と通信する。エージェント機能部150-3は、ペアリングアプリ実行部152を介して汎用通信装置70と連携し、エージェントサーバ200-3と通信する。
ペアリングアプリ実行部152は、例えば、Bluetooth(登録商標)によって汎用通信装置70とペアリングを行い、エージェント機能部150-3と汎用通信装置70とを接続させる。なお、エージェント機能部150-3は、USB(Universal Serial Bus)などを利用した有線通信によって汎用通信装置70に接続されるようにしてもよい。以下、エージェント機能部150-1とエージェントサーバ200-1が協働して出現させるエージェントをエージェント1、エージェント機能部150-2とエージェントサーバ200-2が協働して出現させるエージェントをエージェント2、エージェント機能部150-3とエージェントサーバ200-3が協働して出現させるエージェントをエージェント3と称する場合がある。
識別部115は、ICカードリーダ90により取得された情報と、情報処理サーバ300により送信された情報とに基づいて、利用者の車両Mの利用を許可するか否かを判定する。
表示制御部116は、エージェント機能部150による指示に応じて第1ディスプレイ22または第2ディスプレイ24に画像を表示させる。以下では、第1ディスプレイ22を使用するものとする。表示制御部116は、一部のエージェント機能部150の制御により、例えば、車室内で利用者とのコミュニケーションを行う擬人化されたエージェントの画像(以下、エージェント画像と称する)を生成し、生成したエージェント画像を第1ディスプレイ22に表示させる。エージェント画像は、例えば、利用者に対して話しかける態様の画像である。エージェント画像は、例えば、少なくとも観者(利用者)によって表情や顔向きが認識される程度の顔画像を含んでよい。例えば、エージェント画像は、顔領域の中に目や鼻に擬したパーツが表されており、顔領域の中のパーツの位置に基づいて表情や顔向きが認識されるものであってよい。また、エージェント画像は、観者によって、立体的に感じられ、三次元空間における頭部画像を含むことでエージェントの顔向きが認識される画像である。エージェント画像は、エージェントの動作や振る舞い、姿勢等が認識され本体(胴体や手足)の画像を含むものであってもよい。また、エージェント画像は、アニメーション画像であってもよい。
音声制御部118は、エージェント機能部150による指示に応じて、スピーカユニット30に含まれるスピーカのうち一部または全部に音声を出力させる。音声制御部118は、複数のスピーカユニット30を用いて、エージェント画像の表示位置に対応する位置にエージェント音声の音像を定位させる制御を行ってもよい。エージェント画像の表示位置に対応する位置とは、例えば、エージェント画像がエージェント音声を喋っていると利用者が感じると予測される位置であり、具体的には、エージェント画像の表示位置付近(例えば、2~3[cm]以内)の位置である。また、音像が定位するとは、例えば、利用者の左右の耳に伝達される音の大きさが調節されることにより、利用者が感じる音源の空間的な位置が定められることである。
図5は、音像が定位する位置が定まる原理について説明するための図である。図5では、説明を簡略化するために、上述したスピーカ30B、30D、および30Gを用いる例を示しているが、スピーカユニット30に含まれる任意のスピーカが使用されてよい。音声制御部118は、各スピーカに接続されたアンプ(AMP)32およびミキサー34を制御して音像を定位させる。例えば、図5に示す空間位置MP1に音像を定位させる場合、音声制御部118は、アンプ32およびミキサー34を制御することにより、スピーカ30Bに最大強度の5%の出力を行わせ、スピーカ30Dに最大強度の80%の出力を行わせ、スピーカ30Gに最大強度の15%の出力を行わせる。この結果、利用者Pの位置からは、図5に示す空間位置MP1に音像が定位しているように感じることになる。
また、図5に示す空間位置MP2に音像を定位させる場合、音声制御部118は、アンプ32およびミキサー34を制御することにより、スピーカ30Bに最大強度の45%の出力を行わせ、スピーカ30Dに最大強度の45%の出力を行わせ、スピーカ30Gに最大強度の45%の出力を行わせる。この結果、利用者Pの位置からは、図5に示す空間位置MP2に音像が定位しているように感じることになる。このように、車室内に設けられる複数のスピーカとそれぞれのスピーカから出力される音の大きさを調整することで、音像が定位される位置を変化させることができる。なお、より詳細には、音像の定位する位置は、音源が元々保有している音特性や、車室内環境の情報、頭部伝達関数(HRTF;Head-related transfer function)に基づいて定まるため、音声制御部118は、予め官能試験などで得られた最適な出力配分でスピーカユニット30を制御することで、音像を所定の位置に定位させる。
[エージェントサーバ]
図6は、エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す図である。以下、エージェントサーバ200の構成と共にエージェント機能部150等の動作について説明する。ここでは、エージェント装置100からネットワークNWまでの物理的な通信についての説明を省略する。
エージェントサーバ200は、通信部210を備える。通信部210は、例えばNIC(Network Interface Card)などのネットワークインターフェースである。更に、エージェントサーバ200は、例えば、音声認識部220と、自然言語処理部222と、対話管理部224と、ネットワーク検索部226と、応答文生成部228と、情報管理部230と、判定部232とを備える。これらの構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
エージェントサーバ200は、記憶部250を備える。記憶部250は、上記の各種記憶装置により実現される。記憶部250には、パーソナルプロファイル252、辞書DB(データベース)254、知識ベースDB256、応答規則DB258、履歴情報260、車両情報262などのデータやプログラムが格納される。履歴情報260および車両情報262の詳細は後述する。
エージェント装置100において、エージェント機能部150は、音声ストリーム、或いは圧縮や符号化などの処理を行った音声ストリームを、エージェントサーバ200に送信する。エージェント機能部150は、ローカル処理(エージェントサーバ200を介さない処理)が可能な音声コマンドを認識した場合は、音声コマンドで要求された処理を行ってよい。ローカル処理が可能な音声コマンドとは、エージェント装置100が備える記憶部(不図示)を参照することで回答可能な音声コマンドであったり、エージェント機能部150-1の場合は車両機器50を制御する音声コマンド(例えば、空調装置をオンにするコマンドなど)であったりする。従って、エージェント機能部150は、エージェントサーバ200が備える機能の一部を有してもよい。
エージェント装置100は、音声ストリームを取得すると、音声認識部220が音声認識を行ってテキスト化された文字情報を出力し、自然言語処理部222が文字情報に対して辞書DB254を参照しながら意味解釈を行う。辞書DB254は、文字情報に対して抽象化された意味情報が対応付けられたものである。辞書DB254は、同義語や類義語の一覧情報を含んでもよい。音声認識部220の処理と、自然言語処理部222の処理は、段階が明確に分かれるものではなく、自然言語処理部222の処理結果を受けて音声認識部220が認識結果を修正するなど、相互に影響し合って行われてよい。
自然言語処理部222は、例えば、認識結果として、「今日の天気は」、「天気はどうですか」等の意味が認識された場合、標準文字情報「今日の天気」に置き換えたコマンドを生成する。これにより、リクエストの音声に文字揺らぎがあった場合にも要求にあった対話をし易くすることができる。また、自然言語処理部222は、例えば、確率を利用した機械学習処理等の人工知能処理を用いて文字情報の意味を認識したり、認識結果に基づくコマンドを生成したりしてもよい。
対話管理部224は、自然言語処理部222の処理結果(コマンド)に基づいて、パーソナルプロファイル252や知識ベースDB256、応答規則DB258を参照しながら車両Mの利用者に対する発話の内容を決定する。パーソナルプロファイル252は、利用者ごとに保存されている利用者の個人情報、趣味嗜好、過去の対話の履歴などを含む。知識ベースDB256は、物事の関係性を規定した情報である。応答規則DB258は、コマンドに対してエージェントが行うべき動作(回答や機器制御の内容など)を規定した情報である。
また、対話管理部224は、音声ストリームから得られる特徴情報を用いて、パーソナルプロファイル252と照合を行うことで、利用者を特定してもよい。この場合、パーソナルプロファイル252には、例えば、音声の特徴情報に、個人情報が対応付けられている。音声の特徴情報とは、例えば、声の高さ、イントネーション、リズム(音の高低のパターン)等の喋り方の特徴や、メル周波数ケプストラム係数(Mel Frequency Cepstrum Coefficients)等による特徴量に関する情報である。音声の特徴情報は、例えば、利用者の初期登録時に所定の単語や文章等を利用者に発声させ、発声させた音声を認識することで得られる情報である。
対話管理部224は、コマンドが、ネットワークNWを介して検索可能な情報を要求するものである場合、ネットワーク検索部226に検索を行わせる。ネットワーク検索部226は、ネットワークNWを介して各種ウェブサーバ500にアクセスし、所望の情報を取得する。「ネットワークNWを介して検索可能な情報」とは、例えば、車両Mの周辺にあるレストランの一般ユーザによる評価結果であったり、その日の車両Mの位置に応じた天気予報であったりする。
応答文生成部228は、対話管理部224により決定された発話の内容が車両Mの利用者に伝わるように、応答文を生成し、生成した応答文をエージェント装置100に送信する。応答文生成部228は、利用者がパーソナルプロファイルに登録された利用者であることが特定されている場合に、利用者の名前を呼んだり、利用者の話し方に似せた話し方にした応答文を生成したりしてもよい。なお、対話管理部224が、利用者に音楽を提供すると決定した場合、応答文生成部228の処理は省略され、ネットワーク検索部226の検索結果に基づいて得られた楽曲の情報がエージェント機能部150に提供される。以下、応答文と、楽曲などの利用者に提供される情報とを区別しない場合は、「応答情報」と称する場合がある。
エージェント機能部150は、応答文を取得すると、音声合成を行って音声を出力するように音声制御部118に指示する。また、エージェント機能部150は、音声出力に合わせてエージェントの画像を表示するように表示制御部116に指示する。このようにして、仮想的に出現したエージェントが車両Mの利用者に応答するエージェント機能が実現される。
情報管理部230は、エージェント装置100が取得した情報や、自装置がエージェント装置100に提供した情報を管理する。また、情報管理部230は、車両Mにより送信された情報を管理したり、車両Mに送信した情報を管理したりする。情報管理部230は、例えば、判定部232の判定結果をエージェント装置100に送信する。
判定部232は、エージェント装置100により送信された情報に応じて、利用者が乗車した第1車両M1に関する第1車両情報と、利用者が第1車両M1を利用する前に利用した第2車両M2に関する第2車両情報とに基づいて、第1車両M1のエージェント機能部150と第2車両M2のエージェント機能部150との間で提供可能なサービスに差異が存在するか否かを判定する。この処理の詳細については後述する。
[エージェントサーバの処理]
図7は、エージェントサーバ200に提供される応答情報の概要について説明するための図である。エージェントサーバ200-1、200-2、および200-3のそれぞれが有する基本的な機能構成と処理内容とは同等であるが、それぞれが有する情報や、機能部が処理に用いるアルゴリズム等は異なる場合がある。このため、利用者がエージェント装置100を介してエージェントーバ200に所定の発話を入力した場合、エージェントサーバ200がエージェント装置100に提供する応答情報の内容は、同一の場合もあれば、類似している場合もあれば、異なっている場合もある。
例えば、各エージェントサーバ200が利用するアルゴリズムが同様であっても、各エージェントサーバ200の記憶部250に記憶された情報が異なる場合、応答情報は異なることがある。また、例えば、各エージェントサーバ200の記憶部250に記憶された情報が同一であっても、エージェントサーバ200が利用するアルゴリズムが異なる場合、応答情報は異なることがある。
例えば、図7に示すように、利用者が「AAAまでの経路を教えて」とエージェント機能部150-1~150-3に問い合わせをした場合、エージェント機能部150-1、150-2は同じ応答を行い、エージェント機能部150―3は、他のエージェント機能部と異なる応答を行うことがある。
上述したように、車両Mに搭載されたエージェント機能部150の種別や特性によって提供されるサービスが異なることがある。例えば、第1車両M1と、第2車両M2とに搭載されるエージェントが異なれば提供されるサービスが異なる。
以下の処理において、一例として、第2車両M2が自家用車であり、第1車両M1がカーシェアリングサービスにおいて利用される車両Mであるものとして説明する。なお、第1車両M1は、例えば、レンタカーや、利用者以外が所有する車両Mであってもよい。
[情報管理装置の処理]
図8は、情報処理サーバ300の機能構成の一例を示す図である。情報処理サーバ300は、例えば、通信部302と、予約管理部304と、記憶部320とを備える。通信部302は、汎用通信装置70や、車両M、エージェントサーバ200等と通信する通信インタフェースである。予約管理部304は、汎用通信装置70により送信された情報に基づいて、車両Mの利用に関する予約を行う。記憶部320には、例えば、予約管理情報322が記憶されている。予約管理情報322の詳細については後述する。
[特定処理の概要]
図9は、特定処理の概要について説明するための図である。(1)第2車両M2が、第2車両M2を利用する利用者U1の識別情報をエージェントサーバ200に送信する。(2)第2車両M2を利用した後、利用者U1が、利用者U1の識別情報を用いてカーシェアリングサービスの予約を行う(第1車両M1の利用予約を行う)。これにより、情報処理サーバ300が第1車両M1の予約を行う。(3)情報処理サーバ300が、利用者U1が第1車両M1を利用する利用時間および利用者U1の識別情報を、第1車両M1を送信する。
(4)次に、利用者U1が、予め提供されたICカードを第1車両M1のICカードリーダ90に翳すと、第1車両M1が利用者U1の認証を行って、利用者U1の利用を許可する。(5)次に、第1車両M1が、認証に用いられたIC識別情報を情報処理サーバ300に送信する。(6)次に、情報処理サーバ300が、IC識別情報に対応する利用者の識別情報をエージェントサーバ200に送信する。(7)次に、エージェントサーバ200が、記憶部250に記憶された情報を参照して、第1車両M1と第2車両M2との差異に関する情報を第1車両M1に送信する。第1車両M1のエージェントは、エージェントサーバ200により送信された情報に基づいて、差異に関する情報を利用者U1に提供する。以下、各処理について具体的に説明する。
[第2車両とエージェントサーバとによる実行される処理]
図10は、第2車両M2とエージェントサーバ200とにより実行される処理の一例を示すフローチャートである。以下、例えば、エージェントサーバ200―1と、第2車両M2のエージェント機能部150-1とにより実行される処理である。第2車両M2に搭載された構成については、符号の後に(M2)を付し、第1車両M1に搭載された構成については、符号の後に(M1)を付す。
まず、エージェント装置100(M2)が起動したか否かを判定する(ステップS100)。第2車両M2のエージェント装置100(M2)が起動すると、エージェント装置100(M2)が、第2車両M2に乗車している利用者U1の識別情報を取得する(ステップS102)。識別情報は、利用者認識装置80により取得された情報である。次に、エージェント装置100(M2)は、エージェントサーバ200に、ステップS102で取得した利用者U1の識別情報および第2車両M2の識別情報をエージェントサーバ200に送信する(ステップS104)。
エージェントサーバ200は、ステップS104で送信された情報を取得し、取得した情報を記憶部250に記憶させる(ステップS200)。
次に、エージェント装置100(M2)は、利用者U1の発話を取得したか否かを判定する(ステップS106)。利用者U1の発話を取得した場合、エージェント装置100のエージェント機能部150-1(M2)が利用者U1の発話の内容をエージェントサーバ200に送信する(ステップS108)。
エージェントサーバ200は、ステップS108で送信された発話の内容を取得し、発話の内容に応じた応答情報を生成し、生成した応答情報をエージェント機能部150-1(M2)に送信する(ステップS202)。そして、エージェント機能部150-1は、応答情報を利用者U1に提供する(ステップS110)。次に、エージェントサーバ200は、ステップS108で送信された発話の内容、発話の内容に応じて生成した応答情報、ステップS104で送信された利用者U1の識別情報、およびステップS104で送信された車両の識別情報を対応付けて記憶部250に記憶させる(ステップS204)。この情報は履歴情報260である。
図11は、履歴情報260の内容の一例を示す図である。履歴情報260は、車両の識別情報に対して、利用者の識別情報、利用者がエージェントサーバ200に提供した情報、またはエージェントが利用者に提供した情報が対応付けられた情報である。また、履歴情報260は、利用者の識別情報、発話の内容、および発話を取得した日時が互いに対応付けられた情報、または利用者の識別情報、応答情報の内容、および応答情報を出力した日時が互いに対応付けられた情報である。
このように、履歴情報260が生成されることにより、第2車両M2とは異なる第1車両M1に、第2車両M2を乗車した日とは異なる日に利用者U1が乗車した場合であっても、過去の情報が加味された応答情報が利用者U1に提供される。また、後述するように、第2車両M2とは異なる第1車両M1に、利用者U1が乗車した際に、過去の情報が加味された応答情報が利用者U1に提供される(図16参照)。
なお、エージェントサーバ200は、他のエージェントサーバ200に記憶された履歴情報260を参照してもよい。例えば、エージェントサーバ200-1は、エージェントサーバ200-2の記憶部250-2に記憶された履歴情報260-2をエージェントサーバ200―2から取得し、取得した履歴情報260-2を参照して、利用者にサービスを提供してもよい。
また、エージェント1が起動した場合に、自動で他のエージェントが起動してもよい。この場合、利用者によって直近に利用されたエージェントに対応するエージェントサーバ200に記憶された履歴情報260が、所定のエージェントサーバ200に参照され、そのエージェントサーバ200が、利用者にサービスを提供してもよい。
[第1車両の予約処理]
図12は、汎用通信装置70と情報処理サーバ300とにより実行される処理の流れの一例を示すフローチャートである。まず、汎用通信装置70が、利用者U1の操作に基づいて入力された予約情報を情報処理サーバ300に送信する(ステップS300)。予約情報は、例えば、第1車両M1を利用する時間帯や利用者U1の識別情報、利用者U1が利用する第2車両M2の識別情報等である。
情報処理サーバ300は、ステップS300で送信された予約情報を取得し、取得した予約情報に基づいて予約管理情報322を生成する(ステップS400)。情報処理サーバ300の記憶装置には利用者U1の識別情報およびIC識別情報が対応付けられた情報が記憶されている。情報処理サーバ300は、この情報を参照して予約管理情報322を生成する。
図13は、予約管理情報322の一例を示す図である。予約管理情報322は、第1車両M1の識別情報、利用時間、予約者(利用者U1)の識別情報、およびICカードの識別情報が互いに対応付けられた情報である。IC(Integrated Circuit)カードの識別情報とは、カーシェアリングサービスを利用する利用者がカーシェアリングサービスの車両Mを用いる際に認証に使用するICカードである。
次に、情報処理サーバ300は、予約が確定したことを示す情報を汎用通信装置70に送信する(ステップS402)。次に、汎用通信装置70は、予約が確定したことを示す情報を受信し、受信した情報を汎用通信装置70の表示部に表示させる(ステップS302)。これにより本フローチャートの1ルーチンの処理は終了する。
このように、予約者である利用者U1の識別情報とICカードの識別情報が対応付けられた予約管理情報322が生成される。また、これにより、利用者U1は、予約した車両Mを利用することができる。
[差異に関する情報の提供(概要1)]
エージェント機能部150(M1)は、第1車両M1で利用される、少なくともエージェント機能部150(M1)を含む一以上のエージェント機能部150(例えばエージェント機能部150-1~150-3)と、第2車両M2で利用される一以上のエージェント機能部150(例えば150-1~150-3)との間で提供可能なサービスに差異がある場合、差異に関する情報を提供する。
「差異」とは、利用者に提供可能なサービスの差異である。提供可能なサービスの差異とは、車両Mの仕様の差異や、車両Mが有する機能の差異、車両Mが利用可能な情報の差異などに起因するエージェントが提供するサービスの差異を含む。また、「差異」は、エージェントが受け持つタスクの差異や、車両Mが有するエージェントの差異、これらの差異に起因するエージェントが提供するサービスの差異を含んでもよい。差異に関する情報を提供の詳細について、後述する[差異に関する情報の提供(その1)~(その5)]で説明する。
[差異に関する情報の提供(概要2)]
エージェント機能部150(M1)は、第2車両M2においてエージェント機能部150(M1)と共通するサービス名で提供されるエージェント機能部150(M2)との間で提供可能なサービスに差異がある場合、差異に関する情報を提供してもよい。例えば、エージェント機能部150(M1)は、エージェントサーバ200により提供された情報に基づいて、差異に関する情報を提供する。この処理の詳細については、後述する[差異に関する情報の提供(その1)、(その2)、(その4)]で説明する。この場合の「差異」とは、例えば、同一のエージェントが異なる車両で利用される場合に、車両の仕様、性能、車両が利用可能な情報に依存して、同一のエージェントが提供するサービスの差異を含む。
「共通するサービス名」とは、エージェント機能(音声認識アシスタント機能)のサービス名が共通していることや、初期出荷時においてエージェント機能部を起動させるウエイクアップワード(エージェントの名称)が共通していること、エージェント装置100にサービスを提供する管理者が共通していることである。例えば、共通するサービス名で使用されるとは、応答情報をエージェント機能部150に提供するエージェントサーバ200(またはエージェントサーバ200の管理者)が共通していることである。例えば、「AA」というサービス名および名称でエージェントが提供されている場合、呼び名を変える機能によって、名称「AA」が名称「BB」に変更された場合であっても、サービス名は「AA」である。
「差異に関する情報」とは、例えば、エージェント機能部150(M2)が提供可能であるが、エージェント機能部150(M1)で提供できないサービスに関する情報である。例えば、エージェント機能部150(M2)が「サービスA」、「サービスB」を提供可能であり、エージェント機能部150(M1)が「サービスA」を提供できない場合、エージェント機能部150(M1)は、「サービスA」を提供できないことを示す応答情報を利用者に提供する。
例えば、第1車両M1の地図の情報鮮度が、第2車両M2の地図の情報鮮度よりも低い場合、第2車両M2では「車線変更のタイミング」を利用者に提供することができるが、第1車両M1では「車線変更のタイミング」を利用者に提供できない場合がある。第1車両M1の地図には車線の情報が含まれていないためである。この場合、第1車両M1では、「車線変更のタイミング」を通知するサービスは提供できないことを示す情報を利用者に提供される。
また、「差異に関する情報」とは、例えば、エージェント機能部150(M1)が提供可能であるが、エージェント機能部150(M2)が提供できないサービスに関する情報であってもよい。例えば、エージェント機能部150(M1)が「サービスA」、「サービスB」を提供可能であり、エージェント機能部150(M2)が「サービスA」を提供できない場合、エージェント機能部150(M1)は、「サービスA」を提供できることを示す応答情報を利用者に提供する。
例えば、第1車両M1には、所定の重低音を出力することが可能なスピーカやアンプが搭載され、第2車両M2には、上記のスピーカやアンプが搭載されていない場合、第1車両M1では、「重低音の音楽を楽しむことができる」ことを示す情報が利用者に提供される。
エージェント機能部150(M1)は、第2車両M2においてエージェント機能部150(M1)と共通する名称で使用されるエージェント機能部150(M2)が利用者に提供したことがあるサービスと、エージェント機能部150(M1)が上記の利用者に提供可能なサービスとに差異がある場合、差異に関する情報を利用者に提供してもよい。
例えば、エージェント機能部150(M2)が「サービスA」、「サービスB」を利用者に提供したことがあり、エージェント機能部150(M1)が利用者に「サービスA」を提供可能である場合、エージェント機能部150(M1)は、「サービスB」を提供できないことを示す応答情報、または「サービスA」は提供可能であることを示す情報を利用者に提供する。
エージェント機能部150(M1)は、自身が提供できないサービスのリクエストを取得した場合に、差異に関する情報を提供してもよい。例えば、エージェント機能部150(M1)は、「サービスA」を提供できない場合、「サービスA」の提供をリクエストされると、「サービスA」を提供できないことを示す応答情報を利用者に提供する。この場合、エージェント機能部150(M1)は、第2車両M2では利用できるが、第1車両M1では、「サービスA」は利用できないことを示す情報を利用者に提供してもよい。
[差異に関する情報が出力される処理]
図14は、第1車両M1において差異に関する情報が出力される処理の流れを示すフローチャートである。本処理では、エージェント1に着目して説明する。まず、情報処理サーバ300は、予約管理情報322を参照して、利用者が予約した第1車両M1に利用者U1のIC識別情報、および利用者U1が第1車両M1を利用する時間帯を送信する(ステップS500)。これにより、第1車両M1は、第1車両M1が利用される時間帯、およびIC識別情報を記憶装置に記憶する。
次に、第1車両M1のICカードリーダ90が、ICカードの情報を取得したか否を判定する(ステップS600)。例えば、利用者U1により第1車両M1のICカードリーダ90にICカードが翳されると、ICカードリーダ90は、ICカードリーダの識別情報を取得する。
次に、識別部115が、ICカードを翳した利用者U1が第1車両M1を利用可能であるか否かを判定する(ステップS602)。例えば、ステップS600で取得されたIC識別情報と、ステップS500で送信されたIC識別情報とが一致し、且つステップS600でIC識別情報が取得された時刻がステップS500で送信されたIC識別情報に対応付けられた時間帯に含まれる場合、識別部115は、利用者U1は第1車両M1を利用可能であると判定する。この場合、第1車両M1は、識別部115の指示に基づいてドアロックを解錠状態にする。利用者U1は、第1車両M1に乗車して、第1車両M1内に収納された鍵を用いて第1車両M1を始動させることができる。
利用者U1が第1車両M1を利用可能であると判定された場合、第1車両M1は、利用を許可したことを示す情報を情報処理サーバ300に送信する(ステップS604)。次に、情報処理サーバ300は、ステップ604で送信された情報を取得すると、予約管理情報322において、ステップS500で送信したIC識別情報に対応付けらえた利用者U1の識別情報をエージェントサーバ200に送信する(ステップS502)。
エージェントサーバ200は、ステップS502で送信された利用者U1の識別情報を取得し、履歴情報260を参照して、取得した識別情報に対応付けられた利用者U1が利用した第2車両M2を認識する(ステップ700)。なお、本実施形態では、一例として利用者U1が利用した第2車両M2を特定するものとして説明するが、これらに代えて(加えて)、利用者U1の利用とは関係がない利用者U1に対応付けられた車両Mが認識されてもよい。この場合、例えば、エージェントサーバ200の記憶部250には、利用者U1の識別情報と第2車両M2の識別情報とが対応付けられた情報が記憶されている。
次に、第1車両M1が、エージェント1が起動したか否かを判定する(ステップS606)。エージェント1が起動した場合、第1車両M1は、エージェント1が起動したことを示す情報、および第1車両M1の識別情報をエージェントサーバ200に送信する(ステップS608)。
次に、エージェントサーバ200の判定部232は、車両情報262を参照して、第1車両M1と第2車両M2との差異に関する情報を出力するか否かを判定する(ステップS702)。車両情報262は、車両Mの識別情報に対して、車両Mに関する情報が対応付けられた情報である。車両Mに関する情報は、利用者U1に提供可能なサービスの差異を判定するための情報である。
図15は、車両情報262の内容の一例を示す図である。車両に関する情報には、車両Mが利用する地図のバージョンや、自動運転機能の可否、運転支援機能の可否、車両Mで利用できるエージェンの種別等の情報である。また、車両情報262には、エージェントごとに受け持つタスクが対応付けられている。受け持つタスクに関する説明等については、図20、図21で後述する。以下、車両情報262に含まれる情報のうち、第1車両M1に関する情報を「第1車両情報(図中、264)」と称し、第2車両M2に関する情報を「第2車両情報(図中、266)」と称する場合がある。例えば、エージェントサーバ200は、車両情報262において第1車両M1の所定の項目と第2車両M2の所定の項目とを比較して、これらの項目の内容に差異が存在するか否かを判定する。例えば、図15の例では、自動運転機能に関する項目において差異が存在する。
差異に関する情報を出力すると判定した場合、エージェントサーバ200は、差異に関する情報を第1車両M1に送信する(ステップS704)。第1車両M1のエージェント機能部150は、ステップS704で送信された情報に基づいて、差異に関する情報を出力した後(ステップS610)、[発話に対して応答情報を提供する処理]を実行する。差異に関する情報を出力しないと判定した場合、ステップS610の処理をスキップして、[発話に対して応答情報を提供する処理]を実行する(図16参照)。
これにより、第1車両M1と第2車両M2とにおいて提供可能なサービスの差異が存在する場合、差異に関する情報が利用者に出力される。この結果、利用者は、提供可能なサービスの差異を認識することができ、提供されないサービスの提供をリクエストしたり、提供されないサービスの提供を期待したりすることが抑制されたりする。この結果、利用者の満足度が向上する。
なお、エージェントサーバ200が、利用者U1の識別情報の識別情報を取得する手法については上記の実施形態の例に限定されない。例えば、第1車両M1と利用者U1が保持する汎用通信装置70とが通信することにより、第1車両M1が利用者U1の識別情報の識別情報を取得し、取得した識別情報をエージェントサーバ200に送信してもよい。
[発話に対して応答情報を提供する処理]
図16は、エージェントサーバ200(200-1)に提供される応答情報の概要(その1)について説明するための図である。エージェントサーバ200は、記憶部250に記憶させた履歴情報260を参照して、エージェント機能部150により送信された情報に対して応答情報を生成し、生成した応答情報をエージェント機能部150に提供する。
例えば、時刻Tで、第2車両M2の利用者U1が「AAAまでの経路を教えて」と発話し、第2車両M2に搭載されたエージェント機能部150(M2)がエージェントサーバ200の応答情報に基づいて「〇〇道路をまっすぐだよ」と応答したものとする。
時刻T+1で、第1車両M1の利用者U1が「この前言ったお店までの経路教えて」と発話すると、エージェントサーバ200は、時刻Tの発話および応答情報を参照して、応答情報を生成する。そして、第1車両M1に搭載されたエージェント機能部150(M1)は、例えば、エージェントサーバ200の応答情報である「AAAだよね。〇〇道路をまっすぐだよ」を利用者U1に提供する。第2車両M2の利用者U1は、第1車両M1の利用者U1と同じ利用者である。
上述したように、第1車両M1と、第2車両M2とにサービス名が共通する(同一種別)のエージェントが搭載されている場合、エージェントサーバ200は、共通の履歴情報260を参照して、応答情報を提供するため、異なる車両において過去の情報が参照された応答情報が利用者に提供される。この結果、利用者の満足度が向上する。
[差異に関する情報の提供(その1)]
エージェント機能部150(M)は、利用者の発話によって、第2車両M2の特定機能が実行されることで提供されるサービスと同様のサービスの提供がリクエストされ、第1車両M1においてリクエストに応えることができない場合、差異に関する情報を提供する。
「特定機能」とは、車両Mが実行可能な機能である。特定機能は、例えば、車両Mに搭載された空調装置に関する機能や、エンターテインメントを利用者に提供する機能(映画やテレビ放送、音楽の提供)、目的地までの経路の案内機能、車両Mの挙動に関する機能等である。車両Mの挙動に関する機能とは、自動運転機能や、追従走行機能、自動駐車機能、自動レーンキープ機能などである。エージェントサーバ200は、各車両が実行可能な特定機能に関する情報を保持している。
図17は、差異に関する情報が提供される場面の一例を示す図(その1)である。例えば、第2車両M2では自動運転機能が実行可能であり、第1車両M1では自動運転機能が実行不可能であるものとする。この場合、エージェントサーバ200は、過去に第2車両M2に乗車した利用者U1が第1車両M1に乗車した際に、自動運転機能が実行不可能であることを示す情報をエージェント機能部150(M1)に提供する。そして、エージェント機能部150(M1)は、自動運転機能が実行不可能であることを示す情報を利用者U1に提供する。例えば、エージェント機能部150(M1)は、「この車にはオートレーンチェンジ機能は付いてないからね」などの情報を利用者U1に提供する。
このように、利用者U1は、第2車両M2で実行可能であったが、第1車両M1で実行不可能であることを容易に認識することができるため、利用者U1の利便性が向上する。ひいては利用者の満足度が向上する。
[差異に関する情報の提供(その2)]
エージェント機能部150(M1)は、第1車両M1で利用される地図の情報鮮度が、第2車両M2で利用される地図の情報鮮度よりも低い場合、鮮度の差異に関する情報を利用者U1に提供する。
「地図の情報鮮度」とは、例えば、地図に含まれる情報の鮮度である。例えば鮮度が高いほど、現在に近い過去の情報が地図に含まれている。例えば、地図は、更新されバージョンアップするが、このバージョンが高いほど情報鮮度が高い。例えば、地図の情報鮮度が低い場合、地図の情報鮮度が高い場合によりも提供する情報が正確でなかったり、精度が低かったりする。また、情報鮮度が低い場合、自動運転などの特定機能の実行が制限されたり、実行が不可能になったりする場合がある。また、地図の情報鮮度が低い場合、地図の情報鮮度が高い場合によりも、ナビゲーション装置40を利用した経路案内において利用者に提供する情報が、詳細でなかったり、利用者の満足度が低い情報であったりすることがある。エージェントサーバ200は、各車両が搭載している、または利用する地図の情報鮮度に関する情報を保持している。また、エージェントサーバ200は、地図の情報鮮度に関する情報を車両が取得してもよい。
図18は、差異に関する情報が提供される場面の一例を示す図(その2)である。例えば、第1車両M1で利用される地図は、第2車両M2で利用される地図よりも情報鮮度が低いものとする。この場合、エージェントサーバ200は、過去に第2車両M2に乗車した利用者U1が第1車両M1に乗車した際に、第1車両M1の地図の情報鮮度が第2車両M2の地図の情報鮮度よりも低いことを示す情報をエージェント機能部150(M1)に提供する。
そして、エージェント機能部150(M1)は、第1車両M1の地図の情報鮮度が第2車両M2の地図の情報鮮度よりも低いことを示す情報を利用者U1に提供する。第2車両M2に乗車した際に、利用者U1が「AAAまでの経路を教えて」とエージェントに問い合わせ、エージェントが「〇〇をまっすぐだよ」と応答した。第2車両M2の乗車後に、第1車両M1に利用者U1が乗車した際に、例えば、エージェントは、「この前言ったAAAは第1車両M1の地図のバージョンが古いから更新されていないよい。」と応答する。利用者U1は、第1車両M1の地図の情報鮮度が低ため、第1車両M1により提供される情報は制限された情報であることを認識することができる。
なお、上記例では、エージェント機能部150は、エージェントサーバ200と連携して応答情報を利用者に提供するものとしたが、エージェント機能部150は、エージェントサーバ200と連携せずに応答情報を利用者に提供してもよい。この場合、エージェント機能部150は、例えば、ナビゲーション装置40と連携したり、地図情報を参照して応答情報を利用者に提供したりする。
このように、利用者U1は、第1車両M1の地図の情報鮮度が低いことを容易に認識することができるため、利用者U1の利便性が向上する。ひいては利用者の満足度が向上する。
[差異に関する情報の提供(その3)]
エージェント機能部150(M1)は、第1車両M1で利用できる、第1車両M1の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部150の種別と、第2車両M2で利用できる、第2車両M2の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部150(M2)の種別と、が異なる場合、種別の差異に関する情報を利用者に提供する。
エージェント機能部150またはエージェントの種別が異なるとは、例えば、エージェントのサービス名が異なることや、応答情報を提供するエージェントサーバ200の種別が異なることである。エージェントサーバ200が異なるとは、エージェントサーバ200を管理する管理者が異なることであり、物理的にエージェントサーバ200が異なっていても管理者が同一の場合は、異なるに含まれない。例えば、エージェント1、2、3は、異なる種別のエージェントである。
図19は、差異に関する情報が提供される場面の一例を示す図(その3)である。例えば、第1車両M1で利用可能なエージェントは、エージェント1、2であり、第2車両M2で利用可能なエージェントは、エージェント1、2、3であるものとする。この場合、エージェントサーバ200は、過去に第2車両M2に乗車した利用者U1が第1車両M1に乗車した際に、エージェント3は存在しないことを示す情報をエージェント機能部150(M1)に提供する。そして、エージェント機能部150(M1)は、エージェント3は存在しないことを示す情報を利用者U1に提供する。
第2車両M2の乗車後に、第1車両M1に利用者U1が乗車した際に、例えば、エージェント1または2は、「第2車両M2にエージェント3はいないから、エージェント1、または2が対応するよ。」と応答する。利用者U1は、例えば第2車両M2で利用していたエージェント3が存在しないことを認識することができ、エージェント1、2からサービスの提供を受けることを認識することができる。
このように、利用者U1は、車両M1で利用可能なエージェントを容易に認識することができるため、利用者U1の利便性が向上する。ひいては利用者の満足度が向上する。
[差異に関する情報の提供(その4)]
エージェント機能部150(M1)は、自身が受け持つタスクと、エージェント機能部(M2)が受け持つタスクとが異なる場合、差異に関する情報を提供する。
受け持つタスクとは、例えば、自身が提供するサービスである。例えば、タスクとは、経路案内や、目的地周辺のPOI(Point Of Interesting)の情報、音楽の提供、利用者U1との会話、車両の挙動に関する制御などである。
図20は、差異に関する情報が提供される場面の一例を示す図(その4)である。例えば、第2車両M2でエージェント1は、タスクA、Bを受け持っていたが、第1車両M1ではエージェント1はタスクBを受け持っているものとする。この場合、エージェントサーバ200は、過去に第2車両M2に乗車した利用者U1が第1車両M1に乗車した際に、第2車両M2と第1車両M1とで受け持つタスクが異なることを示す情報をエージェント機能部150(M1)に提供する。例えば、エージェントサーバ200は、第1車両M1ではタスクBを受け持っていることを示す情報をエージェント機能部150(M1)に提供する。そして、エージェント機能部150(M1)は、エージェント1がタスクBを受け持っていることを示す情報を利用者U1に提供する。
第2車両M2の乗車後に、第1車両M1に利用者U1が乗車した際に、例えば、エージェント1は、「この車両ではタクスBを受け持つよ」と伝える。例えばエージェント1が受け持っていたタスクが第1車両M1と第2車両M2とで異なることを、利用者U1は容易に認識することができる。
このように、利用者U1は、過去に乗車した車両と現在乗車している車両とにおいてエージェント1が受け持つタスクが変更されたことを容易に認識することができるため、利用者U1の利便性が向上する。ひいては利用者の満足度が向上する。
[差異に関する情報の提供(その5)]
エージェント機能部150(M1)は、第1車両M1の特定タスクを受け持ち、第1車両M1の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別と、第2車両M2の特定タスクを受け持ち、第2車両M2の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部150(M2)の種別と、が異なる場合、種別の差異に関する情報を提供する。
図21は、差異に関する情報が提供される場面の一例を示す図(その5)である。例えば、第2車両M2でエージェント1がタスクAを受け持っていたが、第1車両M1ではエージェント2がタスクAを受け持っているものとする。この場合、エージェントサーバ200は、利用者U1が第1車両M1に乗車した際に、タスクAはエージェント2が受け持っていることを示す情報をエージェント機能部150(M1)に提供する。そして、エージェント機能部150(M1)は、エージェント2がタスクAを受け持っていることを示す情報を利用者U1に提供する。
第2車両M2の乗車後に、利用者U1が第1車両M1に乗車した際に、例えば、エージェント2は、「目的地までの案内(タスクA)はエージェント1でなくエージェント2が受け持つから、エージェント2が目的地まで案内するよ」と伝える。利用者U1は、例えば第2車両M2で利用していたエージェント1でなくエージェント2がタスクAを受け持つことを認識することができる。なお、この場合、エージェント1がエージェント2を起動させてもよいし、利用者にエージェント2の起動を促してもよい。
このように、利用者U1は、過去に乗車した車両において所定のタスクを受け持っていたエージェントが変更されたことを容易に認識することができるため、利用者の利便性が向上する。ひいては利用者の満足度が向上する。
なお、上記の例(例えば[差異に関する情報の提供(その1)~(その5)])において、第1車両M1のエージェント機能部150で提供可能であるが、第2車両M2のエージェント機能部150で提供できないサービスに関する情報が利用者に提供されてもよいし、第2車両M2のエージェント機能部150が提供したことがあるサービスと、第1車両M1のエージェント機能部150が利用者に提供可能なサービスとの差異に関する情報が利用者に提供されてもよい。また、第1車両M1のエージェント機能部は、自身が提供できないサービスのリクエストを取得した場合に、差異に関する情報を提供してもよい。
例えば、利用者が、普段乗りなれている車両に乗車した後に、カーシェアリングサービスなどで利用される車両に乗車した場合、提供されるサービスに差異が生じる場合がある。利用者は、差異に関する情報を自動で認識することができるため、利用者の利便性が向上し、利用者の満足度が向上する。
以上説明した第1実施形態によれば、エージェント装置100は、第1車両M1で利用される、エージェント機能部150-1~150-3(M1)と、第2車両M2で利用される一以上のエージェント機能部150-1から150-3(M2)との間で提供可能なサービスに差異がある場合、差異に関する情報を提供することにより、利用者の満足度を向上させることができる。
<第2実施形態>
以下、第2実施形態について説明する。第2実施形態では、エージェント機能部150-1~150-3(M1)と、第2車両M2で利用される一以上のエージェント機能部150-1から150-3(M2)との間で提供可能なサービスに差異があるか否かの判定がエージェント装置100において行われる。以下、第1実施形態との相違点を中心に説明する。
図22は、第2実施形態に係るエージェント装置100Aの構成と、車両Mに搭載された機器とを示す図である。エージェント装置100Aは、管理部110に代えて、管理部110Aを備える。また、エージェント装置100Aは、更に記憶部130を備える。管理部110Aは、第1実施形態の管理部110の機能構成に加え、情報管理部120と、判定部122とを備える。記憶部130には、第1車両情報132と、第2車両情報134とが記憶されている。第2車両情報134は、エージェントサーバ200が提供した情報である。
情報管理部120は、情報処理サーバ300や車両Mにより送信された情報を管理したり、自装置で処理された情報を情報処理サーバ300や車両Mに送信したりする。例えば、情報管理部120は、判定部122の判定結果に基づいて、第1車両M1のエージェント機能部150と第2車両M2のエージェント機能部との間で提供可能なサービスの差異に関する情報をエージェント装置100に提供する。
判定部122は、エージェント装置100により送信された情報に応じて、利用者が乗車した第1車両M1に関する第1車両情報と、利用者が第1車両M1を利用する前に利用した第2車両M2に関する第2車両情報とに基づいて、第1車両M1のエージェント機能部150と第2車両M2のエージェント機能部との間で提供可能なサービスに差異が存在するか否かを判定する。
図23は、第2実施形態の第2車両M2において差異に関する情報が出力される処理の流れを示すフローチャートである。図23のステップS500、S502、S600~S608、S610、S700の処理は、図14の同じステップ番号の処理と同様の処理のため、説明を省略する。
ステップS606でエージェント1が起動した場合、第1車両M1は、エージェント1が起動したことを示す情報、および第1車両M1の識別情報をエージェントサーバ200に送信する(ステップS608)。次に、エージェントサーバ200は、ステップS608で送信された情報を取得すると、第2車両情報を第1車両M1に送信する(ステップS701)。ステップS701で送信された情報は、第1車両M1の情報管理部120により取得され、記憶部130に記憶される。
第1車両M1の判定部122が、記憶部130に記憶された、第1車両情報132と、第2車両情報134とに基づいて、差異に関する情報を出力するか否かを判定する(ステップS609)。差異に関する情報を出力すると判定した場合、ステップS610の処理に進み、差異に関する情報を出力しないと判定した場合、ステップS610の処理はスキップされる。
以上説明した第2実施形態によれば、第1実施形態と同様の効果を奏する。
なお、上記の各実施形態では、利用者Uが第1車両M1および第2車両M2を利用した場合の処理について説明したが、複数の利用者(利用者U1および利用者U2)が、第2第2車両M2を利用した後、いずれかの利用者(例えば利用者U1)が第1車両M1を利用した場合、上記の差異に関する情報が利用者に提供されてもよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1‥エージェントシステム、20‥表示・操作装置、30‥スピーカユニット、100、100A、100B‥エージェント装置、110‥管理部、115‥識別部、130‥記憶部、122‥判定部、150‥エージェント機能部、200‥エージェントサーバ、230‥情報管理部、260‥履歴情報、262‥車両情報、300‥情報処理サーバ

Claims (27)

  1. 第1車両の利用者の発話を取得する取得部と、
    前記取得部により取得された第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行う第1エージェント機能部と、を備え、
    前記第1エージェント機能部は、前記第1車両で利用できる、少なくとも前記第1エージェント機能部を含む一以上のエージェント機能部と、第2車両で利用できる一以上のエージェント機能部との間で提供可能なサービスに差異がある場合、前記差異に関する情報を前記第1車両の利用者に提供する、
    エージェント装置。
  2. 前記第1エージェント機能部は、前記第2車両に含まれ、前記第2車両において前記第1エージェント機能部と共通するサービス名で提供される第2エージェント機能部との間で提供可能なサービスに差異がある場合、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項1に記載のエージェント装置。
  3. 前記第1エージェント機能部は、前記第2エージェント機能部で提供可能であるが、前記第1エージェント機能部で提供できないサービスに関する情報を前記差異に関する情報として前記第1車両の利用者に提供する、
    請求項2に記載のエージェント装置。
  4. 前記第1エージェント機能部は、前記第1エージェント機能部で提供可能であるが、前記第2エージェント機能部で提供できないサービスに関する情報を前記差異に関する情報として前記第1車両の利用者に提供する、
    請求項2または3に記載のエージェント装置。
  5. 前記第1エージェント機能部は、第2車両において前記第1エージェント機能部と共通するサービス名で提供される第2エージェント機能部が前記利用者に提供したことがあるサービスと、前記第1エージェント機能部が前記利用者に提供可能なサービスとに差異がある場合、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項1に記載のエージェント装置。
  6. 前記第1エージェント機能部は、自身が提供できないサービスのリクエストを取得した場合に、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項3または5に記載のエージェント装置。
  7. 前記利用者が乗車した第1車両に関する第1車両情報と、前記利用者が前記第1車両を利用する前に利用した前記第2車両に関する第2車両情報とに基づいて、前記差異が存在するか否かを判定する判定部と、更に備え
    前記第1エージェント機能部は、前記判定部の判定結果に基づいて、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項1から6のうちいずれか1項に記載のエージェント装置。
  8. 前記第1エージェント機能部は、前記利用者の発話によって、前記第2車両の特定機能が実行されることで提供されるサービスと同様のサービスの提供がリクエストされ、前記第1車両において前記リクエストに応えることができない場合、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項1から7のうちいずれか1項に記載のエージェント装置。
  9. 前記第1車両の特定機能が実行されることで提供されるサービスを含む第1車両情報と、前記利用者の発話に応じて前記第2車両の特定機能が実行されたことで提供されたサービスを含む第2車両情報と、に基づいて、前記第1車両の特定機能と前記第2車両の特定機能との差異が存在するか否かを判定する判定部を、更に備え、
    前記第1エージェント機能部は、前記判定部の判定結果に基づいて、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項8に記載のエージェント装置。
  10. 前記第1エージェント機能部は、前記第1車両で利用される地図の情報鮮度が、前記第2車両で利用される地図の情報鮮度よりも低い場合、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項1から9のうちいずれか1項に記載のエージェント装置。
  11. 前記第1車両で利用される地図の情報鮮度に関する情報を含む第1車両情報と、前記第2車両で利用される地図の情報鮮度に関する情報を含む第2車両情報とに基づいて、地図の情報鮮度に差異が存在するか否かを判定する判定部を、更に備え、
    前記第1エージェント機能部は、前記判定部の判定結果に基づいて、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項10に記載のエージェント装置。
  12. 前記第1エージェント機能部は、
    前記第1車両で利用できる、前記取得部により取得された前記第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別と、
    前記第2車両で利用できる、前記取得部により取得された前記第2車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別と、が異なる場合、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項1から11のうちいずれか1項に記載のエージェント装置。
  13. 前記第1車両で利用できる前記エージェント機能部の種別を含む第1車両情報と、前記第2車両で利用できる前記エージェント機能部の種別とを含む第2車両情報とに基づいて、前記種別の差異が存在するか否かを判定する判定部を、更に備え、
    前記第1エージェント機能部は、前記判定部の判定結果に基づいて、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項12に記載のエージェント装置。
  14. 前記第1エージェント機能部は、自身が受け持つタスクと、前記第2車両において前記第1エージェント機能部と共通するサービス名で提供される第2エージェント機能部が受け持つタスクとが異なる場合、前記受け持つタスクの差異に関する情報を前記第1車両の利用者に提供する、
    請求項1から13のうちいずれか1項に記載のエージェント装置。
  15. 前記第1車両において前記第1エージェント機能部が受け持つタスクを含む第1車両情報と、前記第2エージェント機能部が受け持つタスクを含む第1車両情報とに基づいて、前記受け持つタスクの差異が存在するか否かを判定する判定部を、更に備え、
    前記第1エージェント機能部は、前記判定部の判定結果に基づいて、前記受け持つタスクの差異に関する情報を前記第1車両の利用者に提供する、
    請求項14に記載のエージェント装置。
  16. 前記第1エージェント機能部は、
    前記第1車両の特定タスクを受け持ち、前記取得部により取得された前記第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別と、
    前記第2車両の前記特定タスクを受け持ち、前記取得部により取得された前記第2車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別と、が異なる場合、前記種別の差異に関する情報を前記第1車両の利用者に提供する、
    請求項1から15のうちいずれか1項に記載のエージェント装置。
  17. 前記第1車両の特定タスクを受け持つ前記エージェント機能部の種別を含む第1車両情報と、前記第2車両の前記特定タスクを受け持つ前記エージェント機能部の種別を含む第2車両情報とに基づいて、前記種別の差異が存在するか否かを判定する判定部を、更に備え、
    前記第1エージェント機能部は、前記判定部の判定結果に基づいて、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項16に記載のエージェント装置。
  18. 車両に搭載される、
    請求項1から17のうちいずれか1項に記載のエージェント装置。
  19. 請求項1から6のうちいずれか1項に記載のエージェント装置と、
    前記エージェント装置により送信された情報に応じて、前記利用者が乗車した第1車両に関する第1車両情報と、前記利用者が前記第1車両を利用する前に利用した前記第2車両に関する第2車両情報とに基づいて、前記差異が存在するか否かを判定する判定部、および
    前記判定部により差異が存在すると判定された場合、前記差異に基づく特定情報を前記エージェント装置に送信する送信制御部を含む、サーバ装置と、を備え、
    前記第1エージェント機能部は、前記送信制御部により送信された特定情報に基づいて、前記差異に関する情報を前記第1車両の利用者に提供する、
    エージェントシステム。
  20. 前記判定部は、前記第1車両の特定機能が実行されることで提供されるサービスを含む第1車両情報と、前記利用者の発話に応じて前記第2車両の特定機能が実行されたことで提供されたサービスを含む第2車両情報とに基づいて、前記第1車両の特定機能と前記第2車両の特定機能との差異が存在するか否かを判定し、
    前記送信制御部は、前記判定部により前記特定機能に差異が存在すると判定された場合、前記特定機能の差異に基づく特定情報を前記エージェント装置に送信し、
    前記第1エージェント機能部は、前記送信制御部により送信された特定情報に基づいて、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項19に記載のエージェントシステム。
  21. 前記判定部は、前記第1車両で利用される地図の情報鮮度に関する情報を含む第1車両情報と、前記第2車両で利用される地図の情報鮮度に関する情報を含む第2車両情報とに基づいて、地図の情報鮮度に差異が存在するか否かを判定し、
    前記送信制御部は、前記判定部により差異が存在すると判定された場合、前記地図の情報鮮度の差異に基づく特定情報を前記エージェント装置に送信し、
    前記第1エージェント機能部は、前記送信制御部により送信された特定情報に基づいて、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項19または20に記載のエージェントシステム。
  22. 前記判定部は、前記第1車両で利用できる、前記取得部により取得された第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別を含む第1車両情報と、前記第2車両で利用できる、前記取得部により取得された第2車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別を含む第2車両情報とに基づいて、前記差異が存在するか否かを判定し、
    前記送信制御部は、前記判定部により種別に差異が存在すると判定された場合、前記差異に基づく特定情報を前記エージェント装置に送信し、
    前記第1エージェント機能部は、前記送信制御部により送信された特定情報に基づいて、前記差異に関する情報を前記第1車両の利用者に提供する、
    請求項19から21のうちいずれか1項に記載のエージェントシステム。
  23. 前記判定部は、前記第1車両において前記第1エージェント機能部が受け持つタスクを含む第1車両情報と、前記第2車両において前記第1エージェント機能部と共通するサービス名で提供される第2エージェント機能部が受け持つタスクを含む第1車両情報とに基づいて、受け持つタスクに関する差異が存在するか否かを判定し、
    前記送信制御部は、前記判定部により差異が存在すると判定された場合、前記タスクの差異に基づく特定情報を前記エージェント装置に送信し、
    前記第1エージェント機能部は、前記送信制御部により送信された特定情報に基づいて、前記受け持つタスクの差異に関する情報を前記第1車両の利用者に提供する、
    請求項19から22のうちいずれか1項に記載のエージェントシステム。
  24. 前記判定部は、
    前記第1車両の特定タスクを受け持つ、前記取得部により取得された前記第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別と、
    前記第2車両の前記特定タスクを受け持つ、前記取得部により取得された前記第2車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行うエージェント機能部の種別と、に基づいて、前記種別の差異が存在するか否かを判定し、
    前記送信制御部は、前記判定部により差異が存在すると判定された場合、前記種別の差異に基づく特定情報を前記エージェント装置に送信し、
    前記第1エージェント機能部は、前記送信制御部により送信された特定情報に基づいて、前記種別の差異に関する情報を前記第1車両の利用者に提供する、
    請求項19から23のうちいずれか1項に記載のエージェントシステム。
  25. 第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行う第1エージェント機能部により送信された情報に応じて前記第1エージェント機能部が提供するサービスに関する情報、および第2車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行う第2エージェント機能部により送信された情報に応じて前記第2エージェント機能部が提供するサービスに関する情報を生成する第1提供部と、
    前記利用者が利用する前記第1車両に関する第1車両情報と、前記第1車両を利用する前に前記利用者が利用した前記第2車両に関する第2車両情報とに基づいて、前記第1エージェント機能部と前記第2エージェント機能部との間で提供可能なサービスに差異がある場合、前記差異に関する情報を前記第1車両に提供する第2提供部と、
    を備えるサーバ装置。
  26. コンピュータが、
    第1車両の利用者の発話を取得し、
    前記取得した第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行う第1エージェント機能部が、前記第1車両で利用できる、少なくとも前記第1エージェント機能部を含む一以上のエージェント機能部と、第2車両で利用できる一以上のエージェント機能部との間で提供可能なサービスに差異がある場合、前記差異に関する情報を前記第1車両の利用者に提供する、
    エージェント装置の制御方法。
  27. コンピュータに、
    第1車両の利用者の発話を取得させ、
    前記取得した第1車両の利用者の発話に応じて、音声による応答を含むサービスを提供するための処理を行う第1エージェント機能部が、前記第1車両で利用できる、少なくとも前記第1エージェント機能部を含む一以上のエージェント機能部と、第2車両で利用できる一以上のエージェント機能部との間で提供可能なサービスに差異がある場合、前記差異に関する情報を前記第1車両の利用者に提供させる、
    プログラム。
JP2019043700A 2019-03-11 2019-03-11 エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム Active JP7211856B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019043700A JP7211856B2 (ja) 2019-03-11 2019-03-11 エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム
CN202010154973.6A CN111681651B (zh) 2019-03-11 2020-03-06 智能体装置、智能体系统、服务器装置、智能体装置的控制方法及存储介质
US16/810,897 US11532303B2 (en) 2019-03-11 2020-03-06 Agent apparatus, agent system, and server device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019043700A JP7211856B2 (ja) 2019-03-11 2019-03-11 エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020149106A JP2020149106A (ja) 2020-09-17
JP7211856B2 true JP7211856B2 (ja) 2023-01-24

Family

ID=72431999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043700A Active JP7211856B2 (ja) 2019-03-11 2019-03-11 エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US11532303B2 (ja)
JP (1) JP7211856B2 (ja)
CN (1) CN111681651B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11436864B2 (en) * 2020-07-14 2022-09-06 Micron Technology, Inc. Driver recognition to control vehicle systems
JP7264139B2 (ja) * 2020-10-09 2023-04-25 トヨタ自動車株式会社 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム
KR20220097694A (ko) * 2020-12-30 2022-07-08 현대자동차주식회사 자동 주차 프로세스의 진행도를 표시하는 차량 및 동작 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020888A (ja) 1998-07-07 2000-01-21 Aqueous Reserch:Kk エージェント装置
JP2001056225A (ja) 1999-08-17 2001-02-27 Equos Research Co Ltd エージェント装置
JP2005313886A (ja) 1997-07-22 2005-11-10 Equos Research Co Ltd エージェント装置
JP2006335231A (ja) 2005-06-02 2006-12-14 Denso Corp エージェントキャラクタ表示を利用した表示システム
JP2013216258A (ja) 2012-04-11 2013-10-24 Denso Corp 車両用操作説明支援装置
JP2019034684A (ja) 2017-08-21 2019-03-07 住友電気工業株式会社 車載機器制御システム、管理サーバ、車載通信装置、コンピュータプログラム、および車載機器制御方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060258342A1 (en) * 2005-04-21 2006-11-16 Kenny Fok Methods and apparatus for providing wireless device-centric control of an external computing device
JP5056784B2 (ja) * 2009-03-24 2012-10-24 株式会社デンソー 音声認識システム
JP5950225B2 (ja) * 2012-01-10 2016-07-13 クラリオン株式会社 サーバ装置、車載端末、情報通信方法および情報配信システム
JP6026318B2 (ja) * 2013-02-27 2016-11-16 クラリオン株式会社 プログラム拡張システム、それに使用されるサーバ、プログラム拡張方法、および、プログラム管理プログラム
US10266280B2 (en) * 2014-06-23 2019-04-23 Sikorsky Aircraft Corporation Cooperative safe landing area determination
JP6323249B2 (ja) * 2014-08-11 2018-05-16 株式会社デンソー 情報処理システム、端末装置、及びプログラム
KR102249392B1 (ko) * 2014-09-02 2021-05-07 현대모비스 주식회사 사용자 맞춤형 서비스를 위한 차량 기기 제어 장치 및 방법
JP6641614B2 (ja) * 2015-06-22 2020-02-05 本田技研工業株式会社 地図情報更新装置、および地図情報更新システム
US10502577B2 (en) * 2016-06-30 2019-12-10 Here Global B.V. Iterative map learning based on vehicle on-board sensor data
US10783883B2 (en) * 2016-11-03 2020-09-22 Google Llc Focus session at a voice interface device
US10679608B2 (en) * 2016-12-30 2020-06-09 Google Llc Conversation-aware proactive notifications for a voice interface device
WO2019006033A1 (en) * 2017-06-27 2019-01-03 Drive.Ai Inc METHOD FOR DETECTING AND MANAGING VARIATIONS ALONG ROAD SURFACES FOR AUTONOMOUS VEHICLES
KR102511817B1 (ko) * 2017-10-27 2023-03-17 폭스바겐 악티엔게젤샤프트 이동식 서비스 차량을 공유 사용하기 위한 장치 및 방법
JP7000842B2 (ja) * 2017-12-21 2022-01-19 トヨタ自動車株式会社 情報処理システム、鍵情報管理装置、鍵情報管理方法、鍵情報管理プログラム
US11059494B1 (en) * 2018-02-15 2021-07-13 State Farm Mutual Automobile Insurance Company System and method for transferring preferences for autonomous driving
US10853629B2 (en) * 2018-02-20 2020-12-01 Direct Current Capital LLC Method for identifying a user entering an autonomous vehicle
US10816968B2 (en) * 2018-05-08 2020-10-27 GM Global Technology Operations LLC System and method for access to restricted areas by an autonomous vehicle
US11267415B2 (en) * 2018-06-06 2022-03-08 Denso International America, Inc. Vehicle recommendation and translation system for setting personalized parameters within vehicles of mobility sharing environments
US10501055B1 (en) * 2018-11-15 2019-12-10 Didi Research America, Llc Passenger and vehicle mutual authentication
US11200892B1 (en) * 2018-12-10 2021-12-14 Amazon Technologies, Inc. Speech-enabled augmented reality user interface
KR20210103503A (ko) * 2018-12-18 2021-08-23 그랩택시 홀딩스 피티이. 엘티디. 통신 서버 장치 및 그 동작을 위한 방법
US11192430B2 (en) * 2019-02-25 2021-12-07 Toyota Research Institute, Inc. Controlling sunshades in an autonomous vehicle
US11151628B2 (en) * 2019-03-01 2021-10-19 Capital One Services, Llc Proximity-based vehicle comparison

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005313886A (ja) 1997-07-22 2005-11-10 Equos Research Co Ltd エージェント装置
JP2000020888A (ja) 1998-07-07 2000-01-21 Aqueous Reserch:Kk エージェント装置
JP2001056225A (ja) 1999-08-17 2001-02-27 Equos Research Co Ltd エージェント装置
JP2006335231A (ja) 2005-06-02 2006-12-14 Denso Corp エージェントキャラクタ表示を利用した表示システム
JP2013216258A (ja) 2012-04-11 2013-10-24 Denso Corp 車両用操作説明支援装置
JP2019034684A (ja) 2017-08-21 2019-03-07 住友電気工業株式会社 車載機器制御システム、管理サーバ、車載通信装置、コンピュータプログラム、および車載機器制御方法

Also Published As

Publication number Publication date
US20200320999A1 (en) 2020-10-08
CN111681651B (zh) 2024-01-02
US11532303B2 (en) 2022-12-20
JP2020149106A (ja) 2020-09-17
CN111681651A (zh) 2020-09-18

Similar Documents

Publication Publication Date Title
JP7266432B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP7211856B2 (ja) エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム
JP7340943B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP7239359B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP7274903B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP7266418B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
CN111660966A (zh) 智能体装置、智能体装置的控制方法及存储介质
US11437035B2 (en) Agent device, method for controlling agent device, and storage medium
US11797261B2 (en) On-vehicle device, method of controlling on-vehicle device, and storage medium
CN111661065B (zh) 智能体装置、智能体装置的控制方法及存储介质
JP7175221B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP7239365B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP7252029B2 (ja) サーバ装置、情報提供方法、およびプログラム
JP7245695B2 (ja) サーバ装置、情報提供システム、および情報提供方法
JP2020154994A (ja) エージェントシステム、エージェントサーバ、エージェントサーバの制御方法、およびプログラム
JP2020160133A (ja) エージェントシステム、エージェントシステムの制御方法、およびプログラム
CN111559317B (zh) 智能体装置、智能体装置的控制方法及存储介质
JP7169921B2 (ja) エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム
JP7297483B2 (ja) エージェントシステム、サーバ装置、エージェントシステムの制御方法、およびプログラム
JP7274901B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP7280074B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
CN111824174A (zh) 智能体装置、智能体装置的控制方法及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230112

R150 Certificate of patent or registration of utility model

Ref document number: 7211856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150