JP2020077135A - 制御装置、エージェント装置及びプログラム - Google Patents

制御装置、エージェント装置及びプログラム Download PDF

Info

Publication number
JP2020077135A
JP2020077135A JP2018209285A JP2018209285A JP2020077135A JP 2020077135 A JP2020077135 A JP 2020077135A JP 2018209285 A JP2018209285 A JP 2018209285A JP 2018209285 A JP2018209285 A JP 2018209285A JP 2020077135 A JP2020077135 A JP 2020077135A
Authority
JP
Japan
Prior art keywords
unit
agent
user
request
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018209285A
Other languages
English (en)
Inventor
顕至 大熊
Akito Okuma
顕至 大熊
▲ウェイ▼峰 章
Wei Feng Zhang
▲ウェイ▼峰 章
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018209285A priority Critical patent/JP2020077135A/ja
Priority to CN201911059025.8A priority patent/CN111144539A/zh
Priority to US16/675,218 priority patent/US20200143810A1/en
Publication of JP2020077135A publication Critical patent/JP2020077135A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/148Instrument input by voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • B60K2360/56Remote control arrangements using mobile devices
    • B60K2360/573Mobile devices controlling vehicle functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 例えば、周囲に他人が存在する場合、ユーザによっては、起動ワードを発話することにためらいを感じることがある。【解決手段】 制御装置が、ユーザの音声により示される要求を取得し、当該要求に応じた処理を実行する要求処理装置のユーザインタフェースとして機能するエージェント装置を制御する。制御装置が、ユーザの注視点を特定する注視点特定部と、注視点が、(i)ユーザへの情報の伝達に利用されるエージェントの一部、又は、(ii)エージェントの画像を表示若しくは投影する画像出力部の一部に位置する場合、エージェント装置の状態を、エージェントを介した応答処理を開始するための起動要求を処理するスタンバイ状態から、エージェントを介して起動要求以外の要求を処理する起動状態に変更することを決定する状態決定部とを備える。【選択図】図1

Description

本発明は、制御装置、エージェント装置及びプログラムに関する。
擬人化されたエージェントを介したユーザとのインタラクションに基づいて、各種の処理を実行するエージェント装置が知られている。(例えば、特許文献1〜2を参照されたい)。
[先行技術文献]
[特許文献]
[特許文献1] 特開平05−199996号公報
[特許文献2] 特開2006−189394号公報
エージェント装置は、スタンバイ状態において事前に設定された起動ワードを待ち受ける。そして、起動ワードが認識されたことに応じて、対話エンジンが起動し、音声認識処理が開始される。しかしながら、例えば、周囲に他人が存在する場合、ユーザによっては、起動ワードを発話することにためらいを感じることがある。
本発明の第1の態様においては、制御装置が提供される。上記の制御装置は、例えば、エージェント装置を制御する。上記のエージェント装置は、例えば、要求処理装置のユーザインタフェースとして機能する。上記の要求処理装置は、例えば、ユーザの音声により示される要求を取得し、当該要求に応じた処理を実行する。上記の制御装置は、例えば、ユーザの注視点を特定する注視点特定部を備える。上記の制御装置は、例えば、注視点が、(i)ユーザへの情報の伝達に利用されるエージェントの一部、又は、(ii)エージェントの画像を表示若しくは投影する画像出力部の一部に位置する場合、エージェント装置の状態を、エージェントを介した応答処理を開始するための起動要求を処理するスタンバイ状態から、エージェントを介して起動要求以外の要求を処理する起動状態に変更することを決定する状態決定部を備える。
上記の制御装置において、エージェントは、顔を有してよい。上記の制御装置において、状態決定部は、注視点がエージェントの顔の一部に位置する場合、エージェント装置の状態を、スタンバイ状態から起動状態に変更することを決定してよい。上記の制御装置において、顔の一部は、目であってよい。上記の制御装置は、ユーザにメッセージを伝達することを決定するメッセージ制御部を備えてよい。上記の制御装置において、メッセージ制御部は、注視点がエージェントの顔の一部に位置する場合、ユーザの発話を促すためのメッセージを伝達することを決定してよい。
上記の制御装置において、エージェントは、顔を有してよい。上記の制御装置は、エージェントの顔又は視線の向きを制御する顔制御部を備えてよい。上記の制御装置において、顔制御部は、注視点の位置が予め定められた方向変更条件を満足する場合、エージェントの顔又は視線がユーザの方向を向くように、エージェントの顔又は視線の向きを制御してよい。
上記の制御装置は、(i)エージェント又は(ii)画像出力部と、ユーザとの相対位置を示す相対位置情報を取得する相対位置情報取得部を備えてよい。上記の制御装置において、顔制御部は、相対位置情報に基づいて、エージェントの顔又は視線の向きを決定してよい。
本発明の第2の態様においては、エージェント装置が提供される。上記のエージェント装置は、例えば、要求処理装置のユーザインタフェースとして機能する。上記の要求処理装置は、例えば、ユーザの音声により示される要求を取得し、当該要求に応じた処理を実行する。上記のエージェント装置は、例えば、上記の制御装置を備える。上記のエージェント装置は、例えば、(i)エージェントとして機能するロボット、又は、(ii)画像出力部を備える。
本発明の第3の態様においては、プログラムが提供される。上記のプログラムを格納する非一時的コンピュータ可読媒体が提供されてもよい。上記のプログラムは、コンピュータを、上記の制御装置として機能させるためのプログラムであってよい。上記のプログラムは、コンピュータに、上記の制御装置における情報処理方法を実行させるためのプログラムであってよい。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
対話型エージェントシステム100のシステム構成の一例を概略的に示す。 車両110の内部構成の一例を概略的に示す。 入出力制御部272の内部構成の一例を概略的に示す。 イベント検出部340の内部構成の一例を概略的に示す。 起動イベント検出部430の内部構成の一例を概略的に示す。 応答管理部350の内部構成の一例を概略的に示す。 エージェント情報格納部360の内部構成の一例を概略的に示す。 支援サーバ120の内部構成の一例を概略的に示す。 要求決定部842の内部構成の一例を概略的に示す。 応答情報生成部846の内部構成の一例を概略的に示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。なお、図面において、同一または類似の部分には同一の参照番号を付して、重複する説明を省く場合がある。
[対話型エージェントシステム100の概要]
図1は、対話型エージェントシステム100のシステム構成の一例を概略的に示す。本実施形態において、対話型エージェントシステム100は、車両110と、支援サーバ120とを備える。本実施形態において、車両110は、応答システム112と、通信システム114とを有する。
対話型エージェントシステム100は、要求処理装置の一例であってよい。車両110又は車両110に搭載された情報出力機器は、エージェント装置の一例であってよい。応答システム112は、エージェント装置の一例であってよい。支援サーバ120は、中継装置の一例であってよい。
本実施形態において、車両110及び支援サーバ120は、通信ネットワーク10を介して、互いに情報を送受することができる。また、車両110と、車両110のユーザ20が利用する通信端末30とが、通信ネットワーク10を介して情報を送受してもよく、支援サーバ120と、通信端末30とが、通信ネットワーク10を介して情報を送受してもよい。
本実施形態において、通信ネットワーク10は、有線通信の伝送路であってもよく、無線通信の伝送路であってもよく、無線通信の伝送路及び有線通信の伝送路の組み合わせであってもよい。通信ネットワーク10は、無線パケット通信網、インターネット、P2Pネットワーク、専用回線、VPN、電力線通信回線などを含んでもよい。通信ネットワーク10は、(i)携帯電話回線網などの移動体通信網を含んでもよく、(ii)無線MAN(例えば、WiMAX(登録商標)である。)、無線LAN(例えば、WiFi(登録商標)である。)、Bluetooth(登録商標)、Zigbee(登録商標)、NFC(Near Field Communication)などの無線通信網を含んでもよい。
本実施形態において、ユーザ20は、車両110の利用者であってよい。ユーザ20は、車両110の運転者であってもよく、当該運転者の同乗者であってもよい。ユーザ20は、車両110の所有者であってもよく、車両110の占有者であってもよい。車両110の占有者は、車両110のレンタルサービス又はシェアサービスの利用者であってもよい。
本実施形態において、通信端末30は、車両110及び支援サーバ120の少なくとも一方と情報を送受することができればよく、その詳細については特に限定されない。通信端末30としては、パーソナルコンピュータ、携帯端末などが例示される。携帯端末としては、携帯電話、スマートフォン、PDA、タブレット、ノートブック・コンピュータ又はラップトップ・コンピュータ、ウエアラブル・コンピュータなどが例示される。
通信端末30は、1又は複数の通信方式に対応していてもよい。通信方式としては、移動体通信方式、無線MAN方式、無線LAN方式、無線PAN方式などが例示される。移動体通信方式としては、GSM(登録商標)方式、3G方式、LTE方式、4G方式、5G方式などが例示される。無線MAN方式としては、WiMAX(登録商標)が例示される。無線LAN方式としては、WiFi(登録商標)が例示される。無線PAN方式としては、Bluetooth(登録商標)、Zigbee(登録商標)、NFC(Near Field Communication)などが例示される。
本実施形態において、対話型エージェントシステム100は、ユーザ20の音声及びジェスチャの少なくとも一方により示される要求を取得し、当該要求に応じた処理を実行する。ジェスチャとしては、身振り、手振り、仕草、顔の向き、視線の向き、顔の表情などが例示される。また、対話型エージェントシステム100は、上記の処理の結果をユーザ20に伝達する。対話型エージェントシステム100は、対話型エージェントシステム100のインタフェースとして機能するエージェントと、ユーザ20との間の対話型のインストラクションを介して、上記の要求の取得及び結果の伝達を実行してよい。
エージェントは、ユーザ20への情報の伝達に利用される。ユーザ20と、エージェントとのインタラクションにより、言語情報だけでなく、非言語情報も伝達され得る。これにより、より円滑な情報伝達が達成され得る。エージェントは、ソフトウエアエージェントであってもよく、ハードウエアエージェントであってもよい。なお、エージェントは、AIアシスタントと称される場合もある。
ソフトウエアエージェントは、コンピュータにより実現される擬人化エージェントであってよい。上記のコンピュータは、通信端末30及び車両110の少なくとも一方に搭載されたコンピュータであってよい。擬人化エージェントは、例えば、コンピュータの表示装置又は投影装置上に表示又は投影され、ユーザ20とコミュニケーションを図ることができる。擬人化エージェントは、音声により、ユーザ20とコミュニケーションを図ってもよい。ハードウエアエージェントは、ロボットであってよい。ロボットは、ヒューマノイド型のロボットであってもよく、ペット型のロボットであってもよい。
エージェントは、顔を有してもよい。「顔」には、人間又は動物の顔だけでなく、顔の同等物が含まれてもよい。顔の同等物は、顔と同様の機能を有するものであってよい。顔の機能としては、感情を伝達する機能、注視点を示す機能などが例示される。
エージェントは、目を有してもよい。「目」には、人間又は動物の眼だけでなく、眼の同等物が含まれてもよい。眼の同等物は、眼と同様の機能を有するものであってよい。眼の機能としては、感情を伝達する機能、注視点を示す機能などが例示される。
なお、「対話」には、言語情報によるコミュニケーションだけでなく、非言語情報によるコミュニケーションが含まれてよい。言語情報によるコミュニケーションとしては、(i)会話、(ii)手話、(iii)ジェスチャと、当該ジェスチャによる伝達内容とが予め定義されたサイン又はサイン音などが例示される。非言語情報によるコミュニケーションとしては、身振り、手振り、仕草、顔の向き、視線の向き、顔の表情などが例示される。
本実施形態において、対話型エージェントシステム100は、支援サーバ120に実装された対話エンジン(図示されていない。クラウド型対話エンジンと称される場合がある。)を利用して、ユーザ20の要求に対して応答する。なお、他の実施形態において、対話型エージェントシステム100は、応答システム112に実装された対話エンジン(図示されていない。ローカル型対話エンジンと称される場合がある。)と、支援サーバ120に実装されたクラウド型対話エンジンとを備えてもよい。
ローカル型対話エンジン及びクラウド型対話エンジンは、物理的に異なる対話エンジンであってよい。ローカル型対話エンジン及びクラウド型対話エンジンは、性能の異なる対話エンジンであってよい。一実施形態において、ローカル型対話エンジンが認識できる要求の種類の数は、クラウド型対話エンジンが認識できる要求の種類の数よりも少ない。他の実施形態において、ローカル型対話エンジンが処理できる要求の種類の数は、クラウド型対話エンジンが認識できる処理の種類の数よりも少ない。
対話型エージェントシステム100は、車両110及び支援サーバ120の間の通信状態に基づいて、ローカル型対話エンジン及びクラウド型対話エンジンの何れの対話エンジンを利用するかを決定してもよい。例えば、通信状態が比較的良好である場合、対話型エージェントシステム100は、クラウド型対話エンジンを利用して、ユーザ20の要求に応答する。一方、通信状態が比較的不良である場合、対話型エージェントシステム100は、ローカル型対話エンジンを利用して、ユーザ20の要求に応答する。これにより、車両110及び支援サーバ120の間の通信状態に応じて、ローカル型対話エンジンと、クラウド型対話エンジンとが切り替えられ得る。
対話型エージェントシステム100は、応答システム112の状態に基づいて、エージェントの様態を決定してよい。これにより、応答システム112の状態に応じて、エージェントの様態が切り替わり得る。応答システム112の状態としては、(i)応答システム112が停止している状態(OFF状態と称される場合がある)、(ii)応答システム112が作動している状態(ON状態と称される場合がある)であって、対話エンジンによる応答処理を開始するための要求(起動要求と称される場合がある。)を待ち受けている状態(スタンバイ状態と称される場合がある。)、(iii)ON状態であって、対話エンジンによる応答処理が実行されている状態(起動状態と称される場合がある。)などが例示される。
スタンバイ状態は、起動要求を受け付け、当該起動要求を処理するための状態であってもよい。起動状態は、エージェントを介して起動要求以外の要求を処理するための状態であってもよい。
起動要求は、エージェントを起動させるための要求であってもよく、エージェントを介した応答処理を開始するための要求であってもよく、対話エンジンの音声認識機能又はジェスチャ認識機能を起動又は有効化するための要求であってもよい。起動要求は、応答システム112の状態を、スタンバイ状態から起動状態に変更するための要求であってよい。起動要求は、起動ワード、トリガーフレーズなどと称される場合がある。起動要求は、音声に限定されない。起動要求は、予め定められたジェスチャであってもよく、起動要求を入力するための操作がなされたことであってもよい。
上記の応答システム112の状態の少なくとも1つは、さらに細分化されていてもよい。例えば、対話エンジンによる応答処理が実行されている状態は、ローカル型対話エンジンがユーザ20の要求を処理している状態と、クラウド型対話エンジンがユーザ20の要求を処理している状態とに細分化され得る。これにより、例えば、対話型エージェントシステム100は、ローカル型対話エンジンがユーザ20の要求を処理している場合と、クラウド型対話エンジンがユーザ20の要求を処理している場合とで、エージェントの様態を切り替えることができる。
エージェントの様態としては、エージェントとして利用されるキャラクタの種類、当該キャラクタの外観、当該キャラクタの声、及び、インタラクションの様態の少なくとも1つが例示される。キャラクタとしては、実在する人物、動物又は物体をモデルにしたキャラクタ、歴史上の人物、動物又は物体をモデルにしたキャラクタ、架空の又は空想上の人物、動物又は物体をモデルにしたキャラクタなどが例示される。上記の物体は、有体物であってもよく、無体物であってもよい。キャラクタは、上記の人物、動物又は物体の一部をモデルにしたキャラクタであってもよい。
外観としては、(i)形状、模様、色彩及びこれらの組み合わせ、(ii)デフォルメ、誇張又は変形の手法及び程度、並びに、(iii)画像の画風の少なくとも1つが例示される。形状としては、容姿、髪型、服装、アクセサリ、表情及び姿勢の少なくとも1つが例示される。デフォルメの手法としては、頭身比率の変更、パーツの配置の変更、パーツの簡素化などが例示される。画風としては、画像全体の色合い、タッチなどが例示される。タッチとしては、写実的なタッチ、イラスト風のタッチ、漫画風のタッチ、アメリカンコミック風のタッチ、劇画風のタッチ、シリアスなタッチ、コメディ調のタッチなどが例示される。
例えば、同一のキャラクタであっても、年齢によって外観が異なる場合がある。幼少期、青年期、壮年期、中年期、老年期、及び、晩年期の少なくとも2つにおいて、キャラクタの外観が異なってもよい。また、同一のキャラクタであっても、デフォルメの程度が進行するにつれて、外観が幼く見える場合がある。例えば、同一のキャラクタの外観の画像であって、頭身比率の異なる2つの画像を比較すると、頭身比率が小さい画像中のキャラクタは、頭身比率が大きい画像中のキャラクタよりも幼く見える。
声としては、声質、声色(トーンと称される場合がある)、及び、声の高さ(ピッチと称される場合がある)の少なくとも1つが例示される。インタラクションの様態としては、応答時の話し方及び仕草の少なくとも一方が例示される。話し方としては、声量、口調、テンポ、1回あたりの発話の長さ、間の取り方、抑揚のつけ方、強弱のつけ方、相槌の打ち方、癖、及び、話題の展開方法の少なくとも1つが例示される。なお、ユーザ20及びエージェントの間のインタラクションが手話により実現される場合の話し方の具体例は、ユーザ20及びエージェントの間のインタラクションが会話により実現される場合の話し方の具体例と同様であってよい。
なお、本実施形態においては、応答システム112が車両110に実装された対話型の車両用運転支援装置である場合を例として、対話型エージェントシステム100の詳細が説明される。しかしながら、対話型エージェントシステム100は本実施形態に限定されない。他の実施形態において、応答システム112が実装される機器は車両に限定されない。応答システム112は、据付式の機器、移動式の機器(移動体と称される場合がある)、又は、携帯式若しくは可搬式の機器に実装されてよい。応答システム112は、情報を出力する機能と、通信機能とを備えた機器に実装されることが好ましい。例えば、応答システム112は、通信端末30に実装され得る。応答システム112が実装された機器は、エージェント装置、制御装置及び要求処理装置の一例であってよい。
据付式の機器としては、デスクトップ型のPC、テレビ、スピーカ、冷蔵庫などの電化製品が例示される。移動式の機器としては、車両、作業機械、船舶、飛行体などが例示される。携帯式若しくは可搬式の機器としては、携帯電話、スマートフォン、PDA、タブレット、ノートブック・コンピュータ又はラップトップ・コンピュータ、ウエアラブル・コンピュータ、モバイルバッテリなどが例示される。
[対話型エージェントシステム100の各部の概要]
本実施形態において、車両110は、ユーザ20の移動に利用される。車両110としては、自動車、自動二輪車などが例示される。自動二輪車としては、(i)バイク、(ii)三輪バイク、(iii)セグウェイ(登録商標)、動力ユニット付きキックボード(登録商標)、動力ユニット付きスケートボードのような、動力ユニットを有する立ち乗り二輪車などが例示される。
本実施形態において、応答システム112は、ユーザ20の音声及びジェスチャの少なくとも一方により示される要求を取得する。応答システム112は、上記の要求に応じた処理を実行する。また、応答システム112は、上記の処理の結果をユーザ20に伝達する。
一実施形態において、応答システム112は、(i)ユーザ20が車両110に搭載された機器に入力した要求、又は、(ii)ユーザ20が通信端末30に搭載された機器に入力した要求を取得する。応答システム112は、ユーザ20が通信端末30に搭載された機器に入力した要求を、通信システム114を介して取得してよい。応答システム112は、車両110に搭載された情報出力機器を介して、上記の要求に対する応答を、ユーザ20に提示する。
他の実施形態において、応答システム112は、(i)ユーザ20が車両110に搭載された機器に入力した要求、又は、(ii)ユーザ20が通信端末30に搭載された機器に入力した要求を取得する。応答システム112は、ユーザ20が通信端末30に搭載された機器に入力した要求を、通信システム114を介して取得してよい。応答システム112は、上記の要求に対する応答を、通信システム114を介して通信端末30に送信する。通信端末30は、応答システム112から取得した情報を、ユーザ20に提示する。
応答システム112は、ローカル型対話エンジン及びクラウド型対話エンジンの少なくとも一方を利用して、ユーザ20からの要求に応答してよい。応答システム112は、ローカル型対話エンジン及びクラウド型対話エンジンの何れの対話エンジンを利用して上記の要求に応答するかを決定してよい。例えば、応答システム112は、車両110及び支援サーバ120の間の通信状態に基づいて、ローカル型対話エンジン及びクラウド型対話エンジンの何れの対話エンジンを利用するかを決定する。
応答システム112は、ローカル型対話エンジンのユーザインタフェースとして機能してよい。応答システム112は、クラウド型対話エンジンのユーザインタフェースとして機能してよい。
本実施形態において、通信システム114は、通信ネットワーク10を介して、車両110と、支援サーバ120との間で情報を送受する。通信システム114は、有線通信又は近距離無線通信により、車両110と、通信端末30との間で情報を送受してもよい。
例えば、通信システム114は、応答システム112がユーザ20から取得したユーザ20に関する情報を、支援サーバ120に送信する。通信システム114は、通信端末30がユーザ20から取得したユーザ20に関する情報を、支援サーバ120に送信してよい。通信システム114は、車両110に搭載された機器から車両110に関する情報を取得し、車両110に関する情報を支援サーバ120に送信してよい。通信システム114は、通信端末30から通信端末30に関する情報を取得し、通信端末30に関する情報を支援サーバ120に送信してもよい。
また、通信システム114は、クラウド型対話エンジンが出力した情報を、支援サーバ120から受信する。通信システム114は、クラウド型対話エンジンが出力した情報を、応答システム112に転送する。通信システム114は、応答システム112が出力した情報を、通信端末30に送信してもよい。
本実施形態において、支援サーバ120は、支援サーバ120のコンピュータを、クラウド型対話エンジンとして機能させるためのプログラムを実行する。これにより、支援サーバ120の上で、クラウド型対話エンジンが動作する。
本実施形態において、支援サーバ120は、通信ネットワーク10を介して、ユーザ20の音声及びジェスチャの少なくとも一方により示される要求を取得する。支援サーバ120は、上記の要求に応じた処理を実行する。また、支援サーバ120は、通信ネットワーク10を介して、上記の処理の結果を応答システム112に通知する。
[対話型エージェントシステム100の各部の具体的な構成]
対話型エージェントシステム100の各部は、ハードウエアにより実現されてもよく、ソフトウエアにより実現されてもよく、ハードウエア及びソフトウエアにより実現されてもよい。対話型エージェントシステム100の各部は、その少なくとも一部が、単一のサーバによって実現されてもよく、複数のサーバによって実現されてもよい。対話型エージェントシステム100の各部は、その少なくとも一部が、仮想マシン上又はクラウドシステム上で実現されてもよい。対話型エージェントシステム100の各部は、その少なくとも一部が、パーソナルコンピュータ又は携帯端末によって実現されてもよい。携帯端末としては、携帯電話、スマートフォン、PDA、タブレット、ノートブック・コンピュータ又はラップトップ・コンピュータ、ウエアラブル・コンピュータなどが例示される。対話型エージェントシステム100の各部は、ブロックチェーンなどの分散型台帳技術又は分散型ネットワークを利用して、情報を格納してもよい。
対話型エージェントシステム100を構成する構成要素の少なくとも一部がソフトウエアにより実現される場合、当該ソフトウエアにより実現される構成要素は、一般的な構成の情報処理装置において、当該構成要素に関する動作を規定したプログラムを起動することにより実現されてよい。上記の情報処理装置は、例えば、(i)CPU、GPUなどのプロセッサ、ROM、RAM、通信インタフェースなどを有するデータ処理装置と、(ii)キーボード、タッチパネル、カメラ、マイク、各種センサ、GPS受信機などの入力装置と、(iii)表示装置、スピーカ、振動装置などの出力装置と、(iv)メモリ、HDDなどの記憶装置(外部記憶装置を含む。)とを備える。
上記の情報処理装置において、上記のデータ処理装置又は記憶装置は、プログラムを格納してよい。上記のプログラムは、非一時的なコンピュータ可読記録媒体に格納されてよい。上記のプログラムは、プロセッサによって実行されることにより、上記の情報処理装置に、当該プログラムによって規定された動作を実行させる。
プログラムは、CD−ROM、DVD−ROM、メモリ、ハードディスクなどのコンピュータ読み取り可能な媒体に記憶されていてもよく、ネットワークに接続された記憶装置に記憶されていてもよい。プログラムは、コンピュータ読み取り可能な媒体又はネットワークに接続された記憶装置から、対話型エージェントシステム100の少なくとも一部を構成するコンピュータにインストールされてよい。プログラムが実行されることにより、コンピュータが、対話型エージェントシステム100の各部の少なくとも一部として機能してもよい。
コンピュータを対話型エージェントシステム100の各部の少なくとも一部として機能させるプログラムは、対話型エージェントシステム100の各部の動作を規定したモジュールを備えてよい。これらのプログラム又はモジュールは、データ処理装置、入力装置、出力装置、記憶装置等に働きかけて、コンピュータを対話型エージェントシステム100の各部として機能させたり、コンピュータに対話型エージェントシステム100の各部における情報処理方法を実行させたりする。
プログラムに記述された情報処理は、当該プログラムがコンピュータに読込まれることにより、当該プログラムに関連するソフトウエアと、対話型エージェントシステム100の各種のハードウエア資源とが協働した具体的手段として機能する。そして、上記の具体的手段が、本実施形態におけるコンピュータの使用目的に応じた情報の演算又は加工を実現することにより、当該使用目的に応じた対話型エージェントシステム100が構築される。
[車両110の各部の概要]
図2は、車両110の内部構成の一例を概略的に示す。本実施形態において、車両110は、入力部210と、出力部220と、通信部230と、センス部240と、駆動部250と、付帯設備260と、制御部270とを備える。本実施形態において、制御部270は、入出力制御部272と、車両制御部274と、通信制御部276とを有する。本実施形態において、応答システム112は、入力部210、出力部220及び入出力制御部272により構成される。また、通信システム114は、通信部230及び通信制御部276により構成される。
出力部220は、画像出力部の一例であってよい。通信部230は、要求送信部の一例であってよい。制御部270は、制御装置及び求処理装置の一例であってよい。入出力制御部272は、制御装置の一例であってよい。
本実施形態において、入力部210は、情報の入力を受け付ける。例えば、入力部210は、ユーザ20からの要求を受け付ける。入力部210は、通信端末30を介して、ユーザ20からの要求を受け付けてもよい。
一実施形態において、入力部210は、車両110の操作に関する要求を受け付ける。車両110の操作に関する要求としては、センス部240の操作又は設定に関する要求、駆動部250の操作又は設定に関する要求、付帯設備260の操作又は設定に関する要求などが例示される。設定に関する要求としては、設定を変更するための要求、設定を確認するための要求などが例示される。他の実施形態において、入力部210は、ユーザ20の音声及びジェスチャの少なくとも一方により示される要求を受け付ける。
入力部210としては、キーボード、ポインティングデバイス、タッチパネル、操作ボタン、マイク、カメラ、センサ、3次元スキャナ、視線計測器、ハンドル、アクセル、ブレーキ、シフトレバーなどが例示される。入力部210は、ナビゲーション装置の一部を構成してよい。
本実施形態において、出力部220は情報を出力する。出力部220は、例えば、ユーザ20からの要求に対する対話型エージェントシステム100の応答を、ユーザ20に提示する。出力部220は、通信端末30を介して、上記の応答をユーザ20に提示してもよい。出力部220としては、画像出力装置、音声出力装置、振動発生装置、超音波発生装置などが例示される。出力部220は、ナビゲーション装置の一部を構成してよい。
画像出力装置は、エージェントの画像を表示又は投影する。画像は、静止画像であってもよく、動画像(映像と称される場合がある。)であってもよい。画像は、平面画像であってもよく、立体画像であってもよい。立体画像の方式は、特に限定されるものではないが、2眼立体方式、インテグラル方式、ホログラフィー方式などが例示される。
画像出力装置としては、表示装置、投影装置、印刷装置などが例示される。音声出力装置としては、スピーカ、ヘッドホン、イヤホンなどが例示される。スピーカは、指向性を有してもよく、指向性の向きを調整又は変更する機能を有してもよい。
本実施形態において、通信部230は、通信ネットワーク10を介して、車両110と、支援サーバ120との間で情報を送受する。通信部230は、有線通信又は近距離無線通信により、車両110と、通信端末30との間で情報を送受してもよい。通信部230は、1又は複数の通信方式に対応していてもよい。
本実施形態において、センス部240は、車両110の状態を検出又は監視する1又は複数のセンサを含む。1又は複数のセンサのそれぞれは、任意の内界センサであってもよく、任意の外界センサであってもよい。1又は複数のセンス部240の少なくとも一部は、入力部210として利用されてもよい。例えば、センス部240は、車両110の内部を撮像するカメラ、車両110の内部の音声を収集するマイク、車両110の外部を撮像するカメラ、及び、車両110の外部の音声を収集するマイクの少なくとも1つを含む。上記のカメラ又はマイクは、入力部210として利用されてよい。
車両110の状態としては、速度、加速度、傾斜、振動、騒音、駆動部250の作動状況、付帯設備260の作動状況、安全装置の作動状況、自動運転装置の作動状況、異常の発生状況、現在位置、移動経路、外気の温度、外気の湿度、外気の圧力、内部空間の温度、内部空間の湿度、内部空間の圧力、周囲の物体との相対位置、周囲の物体との相対速度などが例示される。安全装置としては、ABS(Antilock Brake System)、エアバッグ、自動ブレーキ、衝突回避装置などが例示される。
本実施形態において、駆動部250は、車両110を駆動する。駆動部250は、制御部270からの命令に応じて、車両110を駆動してよい。駆動部250は、内燃機関によって動力を発生させてもよく、電動機によって動力を発生させてもよい。
本実施形態において、付帯設備260は、車両110に搭載される機器のうち、駆動部250以外の機器であってよい。付帯設備260は、制御部270からの命令に従って作動してよい。付帯設備260は、ユーザ20の操作に従って作動してもよい。付帯設備260としては、保安機器、座席調整機器、施錠管理機器、窓開閉機器、照明機器、空調機器、ナビゲーション機器、音響機器、映像機器などが例示される。
本実施形態において、制御部270は、車両110の各部を制御する。制御部270は、応答システム112を制御してもよい。制御部270は、通信システム114を制御してもよい。制御部270は、入力部210、出力部220、通信部230、センス部240、駆動部250及び付帯設備260の少なくとも1つを制御してもよい。また、制御部270の各部は、互いに情報を送受してよい。
本実施形態において、入出力制御部272は、車両110における情報の入出力を制御する。例えば、入出力制御部272は、ユーザ20と、車両110との間における情報の伝達を制御する。入出力制御部272は、入力部210及び出力部220の少なくとも一方の動作を制御してよい。入出力制御部272は、応答システム112の動作を制御してもよい。
例えば、入出力制御部272は、入力部210を介して、ユーザ20からの要求を含む情報を取得する。入出力制御部272は、上記の要求に対する応答を決定する。入出力制御部272は、応答の内容及び様態の少なくとも一方を決定してよい。入出力制御部272は、上記の応答に関する情報を出力する。一実施形態において、入出力制御部272は、出力部220を介して、上記の応答を含む情報をユーザ20に提示する。他の実施形態において、入出力制御部272は、通信部230を介して、上記の応答を含む情報を通信端末30に送信する。通信端末30は、上記の応答を含む情報をユーザ20に提示する。
入出力制御部272は、ローカル型対話エンジン及びクラウド型対話エンジンのすくなくとも一方を利用して、上記の要求に対する応答を決定してよい。これにより、入出力制御部272は、応答システム112を、ローカル型対話エンジンのユーザインタフェースとして機能させることができる。また、入出力制御部272は、応答システム112を、クラウド型対話エンジンのユーザインタフェースとして機能させることができる。
入出力制御部272は、車両110及び支援サーバ120の間の通信状態を示す情報(通信情報と称される場合がある。)に基づいて、ローカル型対話エンジン及びクラウド型対話エンジンの何れの対話エンジンにおける処理の実行結果に基づいて応答するかを決定してもよい。なお、入出力制御部272は、複数のローカル型対話エンジンを利用してもよく、複数のクラウド型対話エンジンを利用してもよい。この場合、入出力制御部272は、少なくとも通信情報に基づいて、どの対話エンジンにおける処理の実行結果に基づいて応答するかを決定してよい。入出力制御部272は、発話者又は運転者に応じて、どの対話エンジンにおける処理の実行結果に基づいて応答するかを決定してもよい。入出力制御部272は、同乗者の有無に応じて、どの対話エンジンにおける処理の実行結果に基づいて応答するかを決定してもよい。
入出力制御部272は、例えば、通信制御部276から、通信情報を取得する。なお、通信情報は、(i)通信部230、入出力制御部272又は通信制御部276と、支援サーバ120との間の通信状態を示す情報であってもよく、(ii)通信部230、入出力制御部272又は通信制御部276と、通信ネットワーク10との間の通信状態を示す情報であってもよく、(iii)通信ネットワーク10の通信状態を示す情報であってもよく、(iv)通信ネットワーク10と、支援サーバ120との間の通信状態を示す情報であってもよく、(v)車両110及び支援サーバ120の少なくとも一方における通信障害の有無を示す情報であってもよい。
入出力制御部272は、1又は複数のイベントの発生を検出し、検出されたイベントの種類に基づいて、応答システム112の動作を制御してもよい。一実施形態において、入出力制御部272は、起動要求の入力を検出する。起動要求の入力が検出された場合、入出力制御部272は、例えば、応答システム112の状態を、スタンバイ状態から起動状態に変更することを決定する。
他の実施形態において、入出力制御部272が、ユーザ20の通信端末30にメッセージを送信すべきイベント(伝言イベントと称される場合がある。)の発生を検出する。伝言イベントの発生が検出された場合、入出力制御部272は、例えば、通信ネットワーク10を介して、ユーザ20の通信端末30に音声メッセージを送信することを決定する。
一実施形態において、音声メッセージは、音声通話サービス又はIP電話サービスを利用して、通信端末30に送信される。他の実施形態において、音声メッセージは、メールサービス、ソーシャル・ネットワーキング・サービス、メッセンジャーサービスなどを利用して、音声データの電子ファイルとして、通信端末30に送信される。
入出力制御部272は、ユーザ20からの要求に応答するときのエージェントの様態を制御してよい。一実施形態において、入出力制御部272は、通信情報に基づいて、エージェントの様態を制御する。例えば、入出力制御部272は、車両110及び支援サーバ120の間の通信状態が予め定められた条件を満足する場合と、車両110及び支援サーバ120の間の通信状態が上記の条件を満足しない場合とで、エージェントの様態を切り替える。予め定められた条件は、通信状態が予め定められた特定の状態よりも良好であるという条件であってよい。
他の実施形態において、入出力制御部272は、ユーザ20からの要求を処理した対話エンジンを示す情報に基づいて、エージェントの様態を制御する。例えば、入出力制御部272は、ローカル型対話エンジンにおける処理の実行結果に基づいて応答する場合と、クラウド型対話エンジンにおける処理の実行結果に基づいて応答する場合とで、エージェントの様態を切り替える。なお、上述のとおり、通信情報に基づいて、どの対話エンジンにおける処理の実行結果に基づいて応答するかが決定されてもよい。
他の実施形態において、入出力制御部272は、(i)ユーザ20による要求の伝達手段を示す情報、(ii)ユーザ20による要求の伝え方を示す情報、並びに、(iii)要求伝達時のユーザ20の心理状態、覚醒状態及び健康状態の少なくとも1つを示す情報の少なくとも1つに基づいて、エージェントの様態を制御する。要求の伝達手段としては、発話、手話、手話以外のジェスチャなどが例示される。手話以外のジェスチャとしては、手又は指の動作により定義されたサイン、頭部の動作により定義されたサイン、視線により定義されたサイン、顔表情により定義されたサインなどが例示される。
要求の伝え方としては、要求伝達時のユーザ20の様子、要求の伝達に要した時間の長さ、要求の明確性の程度などが例示される。要求伝達時のユーザ20の様子としては、(i)発話又は手話の口調、癖、テンポ、及び、間の取り方、(ii)発話のアクセント、イントネーション、及び、声量、(iii)エージェント又は出力部220と、ユーザとの相対位置、並びに、(iv)注視点の位置の少なくとも1つが例示される。要求の明確性の程度としては、要求が端的に伝達されているか否か、要求を伝達するためのメッセージが冗長的であるか否かなどが例示される。
さらに他の実施形態において、入出力制御部272は、車両110の状態を示す情報に基づいて、エージェントの様態を制御する。車両110の状態は、車両110の移動状態、車両110の各部の動作状態、及び、車両110の内部空間の状態の少なくとも1つであってよい。
車両110の移動状態としては、現在位置、移動経路、速度、加速度、傾斜、振動、騒音、渋滞の有無又は程度、連続運転時間、急加速の有無又は頻度、急減速の有無又は頻度などが例示される。車両110の各部の動作状態としては、駆動部250の作動状況、付帯設備260の作動状況、安全装置の作動状況、自動運転装置の作動状況などが例示される。作動状況としては、正常動作中、停止中、メンテナンス中、異常発生中などが例示される。作動状況には、特定の機能の作動の有無又は頻度が含まれてもよい。車両110の内部空間の状態としては、内部空間の温度、湿度、圧力、特定の化学物質の濃度、内部空間に存在するユーザ20の人数、内部空間に存在する複数のユーザ20の人間関係などが例示される。内部空間に存在するユーザ20の人数を示す情報は、同乗者の有無を示す情報の一例であってよい。
本実施形態において、車両制御部274は、車両110の動作を制御する。例えば、車両制御部274は、センス部240が出力した情報を取得する。車両制御部274は、駆動部250及び付帯設備260の少なくとも一方の動作を制御してよい。車両制御部274は、センス部240が出力した情報に基づいて、駆動部250及び付帯設備260の少なくとも一方の動作を制御してもよい。
本実施形態において、通信制御部276は、車両110と外部の機器との間の通信を制御する。通信制御部276は、通信部230の動作を制御してよい。通信制御部276は、通信インタフェースであっってもよい。通信制御部276は、1又は複数の通信方式に対応してよい。通信制御部276は、車両110及び支援サーバ120の間の通信状態を検出又は監視してよい。通信制御部276は、上記の検出又は監視の結果に基づいて、通信情報を生成してよい。例えば、通信情報により示される通信状態が予め定められた条件を満足する場合、通信状態が良好であると判定され得る。一方、通信情報により示される通信状態が上記の予め定められた条件を満足しない場合、通信状態が不良であると判定され得る。予め定められた条件としては、通信が可能であるという条件、電波状況が特定の状況よりも良好であるという条件、通信品質が特定の品質よりも良好であるという条件などが例示される。
通信情報としては、通信の可否、電波状況、通信品質、通信方式の種類、及び、通信キャリアの種類などに関する情報が例示される。電波状況としては、電波受信レベル、電波強度、RSCP(Received Signal Code Power)、CID(Cell ID)などが例示される。通信品質としては、通信速度、データ通信のスループット、データ通信のレイテンシなどが例示される。
通信の可否に関し、例えば、通信ネットワーク10、通信システム114及び支援サーバ120の少なくとも1つにおいて通信障害が発生している場合に、通信が可能でない(通信不可と称される場合がある。)と判断される。電波受信レベルが予め定められたレベルよりも小さい場合(例えば、圏外である場合)に、通信不可と判断されてもよい。通信の可否は、特定の電波状況又は通信品質に関する情報を取得する処理(試行と称される場合がある。)を複数回繰り返した結果に基づいて、判断されてもよい。
一実施形態によれば、予め定められた回数の試行のうち、電波状況又は通信品質が予め定められた第1の閾値よりも良好であった試行の割合が、予め定められた第2の閾値よりも大きい場合に、通信が可能である(通信可能と称される場合がある。)と判断される。それ以外の場合は、通信不可と判断される。他の実施形態によれば、予め定められた回数の試行のうち、電波状況又は通信品質が予め定められた第1の閾値よりも不良であった試行の割合が、予め定められた第2の閾値よりも大きい場合に、通信不可と判断される。それ以外の場合は、通信可能と判断される。
[入出力制御部272の各部の概要]
図3は、入出力制御部272の内部構成の一例を概略的に示す。本実施形態において、入出力制御部272は、音声情報取得部312と、画像情報取得部314と、操作情報取得部316と、車両情報取得部318と、通信情報取得部322と、転送部330と、イベント検出部340と、応答管理部350と、エージェント情報格納部360とを備える。
イベント検出部340は、注視点特定部の一例であってよい。イベント検出部340は、イベント検出部の一例であってよい。応答管理部350は、状態決定部、メッセージ制御部、顔制御部、及び、相対位置情報取得部の一例であってよい。応答管理部350は、表情制御部、同乗者特定部、及び、心理情報取得部の一例であってよい。応答管理部350は、伝達決定部、及び、内容決定部の一例であってよい。応答管理部350は、特徴情報取得部、様態決定部、及び、移動体情報取得部の一例であってよい。
本実施形態において、音声情報取得部312は、入力部210から、入力部210に入力された音声に関する情報(音声情報と称される場合がある。)を取得する。音声情報取得部312は、通信部230を介して、通信端末30の入力装置に入力された音声に関する情報(音声情報と称される場合がある。)を取得してもよい。例えば、音声情報取得部312は、ユーザ20の音声に関する情報を取得する。音声情報としては、音声が記録された音声データ、当該音声が記録された時刻を示す情報などが例示される。音声情報取得部312は、音声情報を転送部330に出力してよい。
本実施形態において、画像情報取得部314は、入力部210から、入力部210が取得した画像に関する情報(画像情報と称される場合がある。)を取得する。画像情報取得部314は、通信部230を介して、通信端末30の入力装置が取得した画像に関する情報(画像情報と称される場合がある。)を取得してもよい。例えば、画像情報取得部314は、ユーザ20を撮像した画像に関する情報を取得する。画像情報としては、画像が記録された画像データ、当該画像が記録された時刻を示す情報などが例示される。画像情報取得部314は、画像情報を転送部330に出力してよい。
本実施形態において、操作情報取得部316は、入力部210から、ユーザ20による車両110の操作に関する情報(操作情報と称される場合がある。)を取得する。車両110の操作としては、駆動部250に関する操作、及び、付帯設備260に関する操作の少なくとも一方が例示される。一実施形態において、操作情報取得部316は、操作情報を転送部330に出力する。他の実施形態において、操作情報取得部316は、操作情報を車両制御部274に出力する。
駆動部250に関する操作としては、ハンドル操作、アクセル操作、ブレーキ操作、運転モードの変更に関する操作などが例示される。付帯設備260に関する操作としては、付帯設備260のON/OFFに関する操作、付帯設備260の設定に関する操作、付帯設備260の動作に関する操作、などが例示される。より具体的には、方向指示器に関する操作、ワイパーに関する操作、ウインドウォッシャー液の吐出に関する操作、ドアの施錠に関する操作、窓の開閉に関する操作、空調機器又は照明機器のON/OFFに関する操作、空調機器又は照明機器の設定に関する操作、ナビゲーション機器、音響機器又は映像機器のON/OFFに関する操作、ナビゲーション機器、音響機器又は映像機器の設定に関する操作、ナビゲーション機器、音響機器又は映像機器の動作の開始又は終了に関する操作などが例示される。
本実施形態において、車両情報取得部318は、センス部240から、車両110の状態を示す情報(車両情報と称される場合がある。)を取得する。一実施形態において、車両情報取得部318は、車両情報を転送部330に出力する。他の実施形態において、車両情報取得部318は、車両情報を車両制御部274に出力してよい。
本実施形態において、通信情報取得部322は、通信制御部276から、通信情報を取得する。一実施形態において、通信情報取得部322は、通信情報を応答管理部350に出力する。他の実施形態において、通信情報取得部322は、通信情報を転送部330又はイベント検出部340に出力してよい。
本実施形態において、転送部330は、音声情報、画像情報、操作情報及び車両情報の少なくとも1つを、イベント検出部340及び支援サーバ120の少なくとも一方に転送する。転送部330は、応答管理部350からの命令に従って、各種情報の転送先を決定してよい。転送部330は、操作情報を車両制御部274に転送してよい。転送部330は、操作情報及び車両情報を車両制御部274に転送してよい。
なお、本実施形態においては、通信情報取得部322が応答管理部350に通信情報を出力し、応答管理部350が、通信情報に基づいて、音声情報、画像情報、操作情報、車両情報などの転送先を決定する場合を例として、入出力制御部272の詳細が説明される。しかしながら、入出力制御部272は本実施形態に限定されない。他の実施形態において、通信情報取得部322は、転送部330に通信情報を出力し、転送部330が、通信情報に基づいて、音声情報、画像情報、操作情報、車両情報などの転送先を決定してもよい。
本実施形態において、イベント検出部340は、1又は複数のイベントの発生を検出する。イベント検出部340は、予め定められた種類のイベントの発生を検出してよい。イベントの発生が検出された場合、イベント検出部340は、検出されたイベントの種類を示す情報を、応答管理部350に出力してよい。イベント検出部340の詳細は後述される。
本実施形態において、応答管理部350は、ユーザ20からの要求に対する応答を管理する。応答管理部350は、ローカル型対話エンジン及びクラウド型対話エンジンの利用を管理してよい。例えば、応答管理部350は、転送部330の動作を制御して、ローカル型対話エンジン及びクラウド型対話エンジンの利用を管理する。応答管理部350は、応答の内容及び様態の少なくとも一方を管理してよい。
例えば、ユーザ20からの要求が検索又は調査に関する要求である場合、応答管理部350は、出力部220から出力される応答メッセージの内容を管理する。応答管理部350は、エージェントが応答メッセージを出力するときのエージェントの様態を管理してよい。応答管理部350は、エージェント情報格納部360に格納された情報を参照して、出力部220から出力される音声及び画像の少なくとも一方を生成してよい。なお、ユーザ20からの要求が車両110の制御に関する要求である場合、応答管理部350は、当該要求に応じて車両110を制御するための命令を、車両制御部274に出力してよい。応答管理部350の詳細は後述される。
本実施形態において、エージェント情報格納部360は、エージェントに関する各種の情報を格納する。エージェント情報格納部360の詳細は後述される。
図4は、入力部210の一部とともに、イベント検出部340の内部構成の一例を概略的に示す。本実施形態において、入力部210は、視線計測部412と、校正部414とを備える。本実施形態において、イベント検出部340は、注視点検出部420と、起動イベント検出部430と、ユーザ数検出部440と、伝言イベント検出部450とを備える。
注視点検出部420は、注視点特定部の一例であってよい。ユーザ数検出部440は、同乗者判定部及び相対位置情報取得部の一例であってよい。伝言イベント検出部450は、送信イベント検出部の一例であってよい。
本実施形態において、視線計測部412は、1又は複数のユーザ20の視線を計測する。視線計測部412は、公知のアイトラッキング技術又は将来的に開発された任意のアイトラッキング技術を利用して、視線を計測してよい。アイトラッキング技術は、サーチコイル法、眼球電位法などの接触型の技術であってもよく、強膜反射法、角膜反射法などの非接触型の技術であってもよい。
視線計測部412は、非接触型の視線計測装置であることが好ましい。この場合、視線計測部412は、例えば、被験者の眼に弱い光(例えば、赤外光である。)を照射する光照射部(図示されていない。)と、被験者の眼を撮像する撮像部(図示されていない。)とを備える。撮像部は、被験者の頭部を撮像してもよい。視線計測部412は、例えば、出力部220の近傍に配される。これにより、ユーザ20がエージェントを注視している場合に、ユーザ20の注視点が精度よく測定される。視線計測部412は、被験者の視線に関する情報(アイトラッキングデータと称される場合がある。)を、注視点検出部420に出力する。
本実施形態において、校正部414は、視線計測部412を校正する。より具体的には、校正部414は、被験者に合わせて視線計測部412の設定を調整する。一実施形態において、視線計測部412は、被験者の視線をトラッキングする工程又は動作モードとは別に、校正部414が、被験者に合わせて視線計測部412の設定を調整する工程又は動作モードを有する。他の実施形態において、校正部414は、視線計測部412がユーザ20の視線をトラッキングしている間に、自動的に視線計測部412を校正する。
本実施形態において、注視点検出部420は、入力部210の視線計測部412から、アイトラッキングデータを取得する。注視点検出部420は、アイトラッキングデータを解析して、ユーザ20の注視点を特定してよい。注視点検出部420は、特定された注視点の位置を示す情報を、起動イベント検出部430及び伝言イベント検出部450の少なくとも一方に出力してよい。
本実施形態において、起動イベント検出部430は、各種の起動要求を検出する。起動イベント検出部430の詳細は後述される。
本実施形態において、ユーザ数検出部440は、エージェント又は出力部220の周囲に存在するユーザ20の人数を検出する。上記の周囲の範囲は、応答システム112が、当該範囲内に存在しているユーザの音声又はジェスチャを判別することのできる程度の大きさを有してよい。ユーザ数検出部440は、ユーザ20の人数を示す情報を、応答管理部350に出力してよい。
ユーザ数検出部440は、例えば、入力部210の撮像装置(図示されていない。)から、ユーザ20が撮像された画像の画像データを取得する。ユーザ数検出部440は、画像データを解析して、エージェント又は出力部220の周囲に存在する1又は複数のユーザ20を検出してよい。これにより、ユーザ数検出部440は、エージェント又は出力部220の周囲に存在するユーザ20の人数を検出することができる。
本実施形態において、応答システム112は、移動体の一例である車両110に搭載されている。そこで、ユーザ数検出部440は、検出された1又は複数のユーザ20を、車両110の運転者と、同乗者とに区別してよい。これにより、ユーザ数検出部440は、車両110の同乗者の有無を判定することができる。ユーザ数検出部440は、車両110の同乗者の有無を示す情報を、応答管理部350及び伝言イベント検出部450の少なくとも一方に出力してよい。
また、ユーザ数検出部440は、画像データを解析して、(i)エージェント又は(ii)出力部220と、1又は複数のユーザ20のそれぞれとの相対位置を特定してもよい。エージェント又は出力部220と、入力部210の撮像装置との相対位置は既知であるので、注視点検出部420は、(i)上記の画像データを解析して得られた、入力部210の撮像装置及びユーザ20との相対位置と、(ii)エージェント又は出力部220、及び、入力部210の撮像装置の相対位置とに基づいて、(i)エージェント又は(ii)出力部220と、ユーザ20との相対位置を特定又は取得することができる。ユーザ数検出部440は、(i)エージェント又は(ii)出力部220と、ユーザ20との相対位置を示す情報(相対位置情報と称される場合がある。)を、応答管理部350に出力してよい。
本実施形態において、伝言イベント検出部450は、ユーザ20の通信端末30にメッセージを送信すべきイベント(伝言イベントと称される場合がある。)の発生を検出する。伝言イベント検出部450は、ユーザ20にメッセージを伝達すべき場合であって、出力部220を利用してユーザ20にメッセージを伝達することが困難であると判定した場合に、伝言イベントの発生を検出してよい。
例えば、伝言イベント検出部450は、操作情報取得部316から、操作情報を取得する。伝言イベント検出部450は、操作情報を監視して、予め定められた種類の操作に関する情報の有無を判定する。予め定められた種類の操作が検出された場合、伝言イベント検出部450は、ユーザ20にメッセージを伝達すべきであると判定する。
上記の操作としては、車両110のドアを施錠又は解錠するための動作、車両110を始動させるための動作などが例示される。これにより、例えば、車両110に対して不正な操作がなされた場合、車両110から物理的に離れた位置にいるユーザ20の通信端末30に、その旨を示すメッセージが通知され得る。
例えば、伝言イベント検出部450は、車両情報取得部318から、車両情報を取得する。伝言イベント検出部450は、車両情報を監視して、車両110が予め定められた種類の状態にあることか否かを判定する。車両110が予め定められた種類の状態にあると判定された場合、伝言イベント検出部450は、ユーザ20にメッセージを伝達すべきであると判定する。
上記の状態としては、車両110の機能に異常が生じている状態、車両110の消耗品の交換時期が接近している状態、特定のユーザ20以外の人物が車両110を操作している状態、車内の温度が予め定められた値を超えている状態、車内に人又は動物が存在するにもかかわらず、車内の温度が予め定められた値を超えている状態などが例示される。これにより、例えば、車両110に何らかの異常が生じている場合に、車両110から物理的に離れた位置にいるユーザ20の通信端末30に、その旨を示すメッセージが通知され得る。
例えば、伝言イベント検出部450は、ユーザ数検出部440から、エージェント又は出力部220の周囲におけるユーザ20の検出結果を示す情報を取得する。ユーザ数検出部440がエージェント又は出力部220の周囲にユーザ20を検出していない場合、伝言イベント検出部450は、出力部220を利用してユーザ20にメッセージを伝達することが困難であると判定する。
例えば、伝言イベント検出部450は、通信制御部276から、通信部230と、通信端末30との間で、有線通信又は近距離無線通信が確立することができるか否かを示す情報を取得する。通信部230及び通信端末30との間で、有線通信又は近距離無線通信が確立されない場合、伝言イベント検出部450は、出力部220を利用してユーザ20にメッセージを伝達することが困難であると判定する。
なお、本実施形態においては、イベント検出部340が、起動イベントと、伝言イベントとを検出する場合を例として、イベント検出部340の詳細が説明された。しかしながら、イベント検出部340は、本実施形態に限定されない。他の実施形態において、イベント検出部340は、起動イベント若しくは伝言イベントとともに、又は、起動イベント若しくは伝言イベントに代えて、他の種類のイベントを検出してよい。例えば、応答システム112における応答処理を中止又は中断するための要求(中止要求と称される場合がある)の入力を検出する。
図5は、起動イベント検出部430の内部構成の一例を概略的に示す。本実施形態において、起動イベント検出部430は、アイコンタクト検出部520と、起動フレーズ検出部530と、起動操作検出部540とを備える。
本実施形態において、アイコンタクト検出部520は、視線による起動要求を検出する。アイコンタクト検出部520は、注視点検出部420から、ユーザ20の注視点の位置を示す情報を取得する。アイコンタクト検出部520は、ユーザ20の注視点の位置に基づいて、起動要求を検出してよい。例えば、注視点が、(i)エージェントの一部、又は、(ii)出力部220の一部に位置する場合、アイコンタクト検出部520は、起動要求を検出する。注視点が(i)エージェントの一部又は(ii)出力部220の一部に位置する時間の長さが、予め定められた値よりも大きい場合、アイコンタクト検出部520は、起動要求を検出してもよい。
これにより、ユーザ20は、ジェスチャにより起動要求を入力することができる。そのため、ユーザ20は、周囲に他人が存在する場合であっても、ためらいを感じることなく、応答システム112又はエージェントを起動して、エージェントとのインタラクションを開始することができる。
エージェントの一部は、エージェントの顔の一部であってよい。エージェントの顔の一部は、目であってもよい。これにより、ユーザ20は、ユーザ20及びエージェントのアイコンタクトにより、応答システム112又はエージェントを起動することができる。
本実施形態において、起動フレーズ検出部530は、音声による起動要求を検出する。音声による起動要求は、予め定められた起動ワード又は起動フレーズであってよい。本実施形態において、起動操作検出部540は、操作ボタン又は操作パネルの操作による起動要求を検出する。操作パネルはタッチパネルであってもよい。
図6は、応答管理部350の内部構成の一例を概略的に示す。本実施形態において、応答管理部350は、転送制御部620と、応答決定部630と、音声合成部642と、画像生成部644と、命令生成部650と、伝言管理部660とを備える。本実施形態において、応答決定部630は、起動管理部632と、応答情報取得部638とを有する。
起動管理部632は、状態決定部の一例であってよい。応答情報取得部638は、顔制御部、相対位置情報取得部の一例であってよい。応答情報取得部638は、表情制御部の一例であってよい。音声合成部642は、音声メッセージ生成部の一例であってよい。伝言管理部660は、伝達決定部、内容決定部及び要求送信部の一例であってよい。
本実施形態において、転送制御部620は、転送部330の動作を制御する。転送制御部620は、転送部330の動作を制御するための命令を生成し、当該命令を転送部330に送信してよい。転送制御部620は、転送部330の設定を変更するための命令を生成し、当該命令を転送部330に送信してもよい。
例えば、本実施形態において、応答システム112が起動してスタンバイ状態に移行すると、起動管理部632は、イベント検出部340が起動要求を検出することができるように、転送部330を制御する。具体的には、起動管理部632は、応答システム112がスタンバイ状態に移行したことを示す情報を、転送制御部620に出力する。
転送制御部620は、応答システム112がスタンバイ状態に移行したことを示す情報を取得すると、音声情報、画像情報、操作情報及び車両情報の少なくとも1つを、イベント検出部340に転送することを指示する命令を、転送部330に送信する。転送制御部620は、(i)音声情報及び画像情報の一方と、(ii)音声情報及び画像情報の他方、操作情報及び車両情報の少なくとも1つとをイベント検出部340に転送することを指示する命令を、転送部330に送信してもよい。
また、起動イベント検出部430が起動要求を検出した場合、転送制御部620は、音声情報、画像情報、操作情報及び車両情報の少なくとも1つを、支援サーバ120に転送することを指示する命令を、転送部330に送信する。転送制御部620は、(i)音声情報及び画像情報の一方と、(ii)音声情報及び画像情報の他方、操作情報及び車両情報の少なくとも1つとをイベント検出部340に転送することを指示する命令を、転送部330に送信してもよい。
転送制御部620は、操作情報が転送部330に入力された場合に、当該操作情報が車両制御部274に転送されるように、上記の命令を生成してもよい。これにより、車両110の操作に対するレスポンスが向上する。
本実施形態において、応答決定部630は、応答システム112による応答処理を管理する。例えば、応答決定部630は、応答処理が開始又は終了するタイミングを決定する。また、応答決定部630は、ユーザ20からの要求に対する応答を決定する。応答決定部630は、転送制御部620を介して、転送部330の動作を制御してもよい。
本実施形態において、起動管理部632は、応答システム112による応答処理が開始又は終了するタイミグを管理する。具体的には、起動管理部632は、起動イベント検出部430から、起動要求が検出されたことを示す情報を取得する。起動管理部632は、起動要求が検出されたことを示す情報を取得すると、応答システム112の状態を、スタンバイ状態から起動状態に変更することを決定する。
これにより、一実施形態において、エージェントが顔を有する場合において、ユーザ20の注視点がエージェントの顔の一部に位置するとき、起動管理部632は、応答システム112の状態を、スタンバイ状態から起動状態に変更することを決定することができる。他の実施形態において、エージェントが顔を有する場合において、注視点がエージェントの顔の一部に位置する時間の長さが、予め定められた値よりも大きいとき、起動管理部632は、応答システム112の状態を、スタンバイ状態から起動状態に変更することを決定することができる。顔の一部は、目であってよい。
同様に、起動管理部632は、起動イベント検出部430から、中止要求が検出されたことを示す情報を取得する。起動管理部632は、起動要求が検出されたことを示す情報を取得すると、応答システム112の状態を、起動状態からスタンバイ状態に変更することを決定する。
本実施形態において、応答情報取得部638は、支援サーバ120から、ユーザ20の要求に対する応答に関する情報を取得する。応答に関する情報は、応答の内容を示す情報、及び、応答の様態を示す情報の少なくとも一方を含んでよい。応答の内容を示す情報は、出力部220から出力される情報の内容を示す情報、及び、車両110の操作の内容を示す情報の少なくとも一方を含んでよい。
応答情報取得部638は、例えば、上記の応答に関する情報のうち、出力部220を介して出力される情報に関するものを、音声合成部642及び画像生成部644の少なくとも一方に出力する。応答情報取得部638は、例えば、上記の応答に関する情報のうち、車両110の操作に関するものを、命令生成部650に出力する。
音声合成部642は、ユーザ20の要求に応答する音声メッセージを生成する。音声合成部642は、応答情報取得部638から、ユーザ20の要求に対する応答に関する情報を取得する。例えば、音声合成部642は、応答の内容を示す情報に基づいて、音声メッセージを生成する。音声合成部642は、応答の内容を示す情報と、応答の様態を示す情報とに基づいて、音声メッセージを生成してもよい。音声合成部642は、生成された音声メッセージを出力部220に出力してよい。
画像生成部644は、ユーザ20の要求に応答する画像(応答画像と称される場合がある。)を生成する。画像生成部644は、ユーザ20の要求に応答するエージェントのアニメーション画像を生成してよい。画像生成部644は、応答情報取得部638から、ユーザ20の要求に対する応答に関する情報を取得する。例えば、画像生成部644は、応答の内容を示す情報に基づいて、応答画像を生成する。画像生成部644は、応答の内容を示す情報と、応答の様態を示す情報とに基づいて、応答画像を生成してもよい。画像生成部644は、生成された応答画像を出力部220に出力してよい。
なお、本実施形態においては、エージェントがソフトウエアエージェントであり、画像生成部644が、エージェントのアニメーション画像を生成する場合を例として、応答管理部350の詳細が説明された。しかしながら、応答管理部350は本実施形態に限定されない。他の実施形態において、エージェントがハードウエアエージェントである場合、応答管理部350は、エージェントの各部の駆動を制御する駆動制御部を有してよく、駆動制御部は、応答情報取得部638が取得した応答の内容及び様態の少なくとも一方を示す情報に基づいて、エージェントを駆動してよい。
命令生成部650は、車両110を操作するための命令を生成する。命令生成部650は、応答情報取得部638から、ユーザ20の要求に対する応答に関する情報を取得する。例えば、命令生成部650は、応答の内容を示す情報に基づいて、車両110の操作の種類を決定する。命令生成部650は、応答の様態を示す情報に基づいて、操作量又は操作モードを決定してよい。命令生成部650は、生成された命令を車両制御部274に出力してよい。
本実施形態において、伝言管理部660は、車両110又は応答システム112から、ユーザ20の通信端末30に送信されるメッセージを管理する。例えば、伝言管理部660は、伝言イベント検出部450から、伝言イベントが検出されたことを示す情報を取得する。伝言イベントの発生が検出された場合、伝言管理部660は、通信ネットワーク10を介して、ユーザ20の通信端末30に音声メッセージを送信することを決定する。
伝言管理部660は、上記のメッセージの内容を決定してよい。伝言管理部660は、検出された伝言イベントの種類に基づいてメッセージの内容の少なくとも一部を決定してよい。
例えば、伝言管理部660は、伝言イベントの種類を示す情報と、当該イベントが検出されたときに送信されるメッセージの内容を示す情報とが対応付けられたデータベースを有する。伝言管理部660は、上記のデータベースに格納された情報を参照して、上記のメッセージの内容を決定してよい。伝言管理部660は、その内容が予め定められた1又は複数の定型メッセージを利用して、上記のメッセージの内容を決定してよい。
一実施形態において、定型メッセージは、その一部の内容を動的に編集することができるように構成されている。伝言管理部660は、定型メッセージの一部を編集して、上記のメッセージの内容を決定する。他の実施形態において、伝言管理部660は、複数の定型メッセージを組み合わせて、上記のメッセージの内容を決定する。いくつかの定型メッセージは、その一部の内容を動的に編集することができるように構成されていてよい。
メッセージの内容が決定されると、伝言管理部660は、車両110又は応答システム112に対応づけられたキャラクタの声の音声情報を利用して、音声メッセージを生成する。例えば、伝言管理部660は、メッセージの内容を示す情報を音声合成部642に送信して、当該メッセージを音声メッセージに変換することを要求する。
メッセージの内容を示す情報は、メッセージの内容を示すテキスト情報であってもよく、その内容が予め定められた1又は複数の定型メッセージのそれぞれを識別するための識別情報であってもよい。音声合成部642は、例えば、上記のキャラクタの声の音声情報と、メッセージの内容を示す情報とを合成して、音声メッセージを生成する。キャラクタの声の音声情報は、例えば、エージェント情報格納部360に格納されている。
伝言管理部660は、生成された音声メッセージの伝達方法を決定してよい。音声メッセージの伝達方法としては、(i)車両110の通信部230及び通信端末30の間の有線通信又は近距離無線通信を利用して伝達する方法、(ii)支援サーバ120を介して伝達する方法などが例示される。
音声メッセージが、支援サーバ120を介して伝達される場合、一実施形態において、伝言管理部660は、音声メッセージの送信を要求する中継要求を、支援サーバ120に送信する。伝言管理部660は、上記の中継要求とともに、メッセージの音声データを、支援サーバ120に送信してよい。他の実施形態において、伝言管理部660は、音声メッセージの生成及び送信を要求する中継要求を、支援サーバ120に送信する。伝言管理部660は、上記の中継要求とともに、メッセージの内容を示す情報と、キャラクタを特定するための情報とを、支援サーバ120に送信してよい。
伝言管理部660は、音声通話サービス又はIP電話サービスを利用して、音声メッセージを通信端末30に送信することを決定してよい。伝言管理部660は、メールサービス、ソーシャル・ネットワーキング・サービス、メッセンジャーサービスなどのデータ通信サービスを利用して、音声データの電子ファイルとして、音声メッセージを通信端末30に送信することを決定してもよい。
図7は、エージェント情報格納部360の内部構成の一例を概略的に示す。本実施形態において、エージェント情報格納部360は、設定データ格納部722と、音声データ格納部732と、画像データ格納部734とを備える。音声データ格納部732は、音声情報格納部の一例であってよい。
本実施形態において、設定データ格納部722は、各エージェントの設定に関する情報を格納する。設定としては、年齢、性別、性格、ユーザ20に与える印象などが例示される。本実施形態において、音声データ格納部732は、各エージェントの音声を合成するための情報(音声情報と称される場合がある。)を格納する。例えば、音声データ格納部732は、キャラクタごとに、コンピュータが当該キャラクタの声でメッセージを読み上げるためのデータを格納する。本実施形態において、画像データ格納部734は、各エージェントの画像を生成するための情報を格納する。例えば、画像データ格納部734は、キャラクタごとに、コンピュータが、当該キャラクタのアニメーション画像を動的に生成するためのデータを格納する。
[支援サーバ120の各部の概要]
図8は、支援サーバ120の内部構成の一例を概略的に示す。本実施形態において、支援サーバ120は、通信部820と、通信制御部830と、要求処理部840とを備える。本実施形態において、要求処理部840は、要求決定部842と、実行部844と、応答情報生成部846と、設定情報格納部848と、伝言サービス提供部850とを有する。
応答情報生成部846は、メッセージ制御部の一例であってよい。設定情報格納部848は、ユーザ情報格納部及び履歴格納部の一例であってよい。伝言サービス提供部850は、中継装置の一例であってよい。
本実施形態の支援サーバ120によれば、ハードウエアと、ソフトウエアとの協働により、クラウド型対話エンジンが実現される。また、本実施形態において、支援サーバ120は、エージェントからユーザ20への伝言を中継する伝言サービスを提供する。
本実施形態において、通信部820は、通信ネットワーク10を介して、車両110及び通信端末30の少なくとも一方と、支援サーバ120との間で情報を送受する。通信部820は、通信部230と同様の構成を有してよい。
本実施形態において、通信制御部830は、支援サーバ120と外部の機器との間の通信を制御する。通信制御部830は、通信部820の動作を制御してよい。通信制御部830は、通信制御部276と同様の構成を有してよい。
本実施形態において、要求処理部840は、ユーザ20からの要求を取得し、当該要求に応じた処理を実行する。要求処理部840は、上記の要求に対する応答を決定する。例えば、要求処理部840は、応答の内容及び様態の少なくとも一方を決定する。要求処理部840は、上記の決定結果に基づいて、応答に関する情報を生成する。要求処理部840は、応答に関する情報を、車両110の応答管理部350に出力してよい。
本実施形態において、要求処理部840は、車両110のエージェントからユーザ20へのメッセージを中継する伝言サービスを提供する。上記のメッセージは、車両110のエージェントとして利用されているキャラクタの声で読み上げられてよい。これにより、ユーザ20がメッセージを受け取った場合、ユーザ20は、どのデバイスからのメッセージであるかを直感的に判断することができる。例えば、単一のユーザ20が、複数のデバイスを有しており、デバイスごとに、エージェントとして異なるキャラクタが設定されている場合、上記の特徴はより大きな効果を奏する。
本実施形態において、要求決定部842は、通信ネットワーク10を介して、車両110から、車両110の転送部330に入力された情報の少なくとも一部を取得する。要求決定部842は、車両110から取得された情報を解析して、ユーザ20の要求を認識する。要求決定部842は、認識された要求のうち、伝言要求が認識された場合、当該伝言要求を伝言サービス提供部850に出力してよい。要求決定部842は、その他の要求が認識された場合、当該要求を実行部844に出力してよい。要求決定部842の詳細は後述される。
本実施形態において、実行部844は、要求決定部842から、認識された要求の種類を示す情報を取得する。実行部844は、認識された要求の種類に応じた処理を実行してよい。実行部844は、設定情報格納部848に格納された情報を参照して、上記の処理を決定してよい。実行部844は、例えば、実行結果を示す情報を、応答情報生成部846に出力する。実行部844は、処理が実行されたことを示す情報を、応答情報生成部846に出力してもよい。
本実施形態において、応答情報生成部846は、ユーザ20からの要求に対する応答を決定する。応答情報生成部846は、応答の内容及び様態の少なくとも一方を決定してよい。応答情報生成部846は、決定された応答の内容及び様態の少なくとも一方を示す情報(応答情報と称される場合がある。)を生成してよい。応答情報生成部846は、生成された応答情報を、車両110の応答管理部350に出力してよい。
応答の内容としては、出力部220から出力される応答メッセージの種類又は内容、車両制御部274に送信される命令の種類又は内容などが例示される。応答メッセージとして、1又は複数の定型メッセージが用意されている場合、応答メッセージの種類は、1又は複数の定型メッセージのそれぞれを識別するための識別情報であってよい。命令の種類は、車両制御部274において実行可能な1又は複数の命令のそれぞれを識別するための識別情報であってよい。
応答の様態としては、出力部220が応答メッセージを出力するときのエージェントの様態、車両制御部274による車両110の制御の様態などが例示される。上述のとおり、エージェントの様態としては、エージェントとして利用されるキャラクタの種類、当該キャラクタの外観、当該キャラクタの声、及び、インタラクションの様態の少なくとも1つが例示される。車両110の制御の様態としては、急加速、急減速、急ハンドルなどの急な操作を抑制する態様などが例示される。
本実施形態において、設定情報格納部848は、要求処理部840の各部の処理に利用される各種の情報を格納する。一実施形態において、設定情報格納部848は、ユーザ20の要求の種類を識別するための識別情報と、当該要求を認識するための特徴を示す特徴情報とを対応付けて格納する。設定情報格納部848は、ユーザ20の要求の種類及び内容の少なくとも一方を示す情報と、当該要求に応じた処理の内容及び様態の少なくとも一方を示す情報とを対応付けて格納してもよい。設定情報格納部848は、ユーザ20の要求の種類を識別するための識別情報と、当該要求を認識するための特徴を示す特徴情報と、当該要求に応じた処理の内容及び様態の少なくとも一方を示す情報とを対応付けて格納してもよい。
他の実施形態において、設定情報格納部848は、(i)各ユーザを識別するためのユーザ識別情報と、(ii)各ユーザへの情報の伝達に利用されるエージェントのキャラクタの声の音声情報又は当該音声情報を特定するための情報とを対応付けて格納する。設定情報格納部848は、(i)各ユーザを識別するためのユーザ識別情報と、(ii)各エージェント又は応答システム112が搭載された各デバイスを識別するためのデバイス識別情報と、(iii)各エージェントのキャラクタの声、又は、各デバイスがユーザへの情報の伝達に利用するエージェントのキャラクタの声の、音声情報又は当該音声情報を特定するための情報とを対応付けて格納してもよい。
さらに他の実施形態において、設定情報格納部848は、(i)メッセージの内容を示す情報と、(ii)当該メッセージが伝達されたときの各ユーザの心理状態を示す情報とを対応づけて格納する。設定情報格納部848は、(i)各ユーザを識別するためのユーザ識別情報と、(ii)メッセージの内容を示す情報と、(iii)当該メッセージが伝達されたときの各ユーザの心理状態を示す情報とを対応づけて格納してもよい。
本実施形態において、伝言サービス提供部850は、車両110のエージェントからユーザ20へのメッセージを中継する伝言サービスを提供する。
図9は、要求決定部842の内部構成の一例を概略的に示す。本実施形態において、要求決定部842は、入力情報取得部920と、音声認識部932と、ジェスチャ認識部934と、推定部940とを備える。本実施形態において、推定部940は、要求推定部942と、ユーザ状態推定部944と、車両状態推定部946とを有する。
ユーザ状態推定部944は、心理情報取得部及び特徴情報取得部の一例であってよい。車両状態推定部946は、移動体情報取得部の一例であってよい。
本実施形態において、入力情報取得部920は、要求処理部840の入力となる情報を取得する。例えば、入力情報取得部920は、音声情報取得部312が取得した音声情報、及び、画像情報取得部314が取得した画像情報の少なくとも一方を取得する。入力情報取得部920は、音声情報取得部312が取得した音声情報、画像情報取得部314が取得した画像情報、操作情報取得部316が取得した操作情報、及び、車両情報取得部318が取得した車両情報の少なくとも1つを取得してもよい。入力情報取得部920は、(i)音声情報及び画像情報の一方と、(ii)音声情報及び画像情報の他方、操作情報、並びに、車両情報の少なくとも1つとを取得してもよい。
本実施形態において、入力情報取得部920は、取得された音声情報を音声認識部932に転送する。入力情報取得部920は、取得された画像情報をジェスチャ認識部934に転送する。入力情報取得部920は、取得された操作情報を推定部940に転送する。入力情報取得部920は、取得された車両情報を推定部940に転送する。入力情報取得部920は、取得された操作情報及び車両情報の少なくとも一方を、音声認識部932及びジェスチャ認識部の少なくとも一方に転送してもよい。
本実施形態において、音声認識部932は、音声情報を解析して、ユーザ20の発話の内容を特定する。音声認識部932は、ユーザ20の発話の内容を示す情報を、推定部940に出力する。音声認識部932は、発話の内容を解析して要求を認識する処理を実行してもよく、当該処理を実行しなくてもよい。
本実施形態において、ジェスチャ認識部934は、画像情報を解析して、ユーザ20により示された1又は複数のジェスチャを抽出する。ジェスチャ認識部934は、抽出されたジェスチャを示す情報を、推定部940に出力する。ジェスチャ認識部934は、抽出されたジェスチャを解析して要求を認識する処理を実行してもよく、当該処理を実行しなくてもよい。
本実施形態において、推定部940は、ユーザ20からの要求を認識又は推定する。推定部940は、ユーザ20の状態を認識又は推定してよい。推定部940は、車両110の状態を認識又は推定してよい。
本実施形態において、要求推定部942は、ユーザ20からの要求を認識又は推定する。一実施形態において、要求推定部942は、音声認識部932から、ユーザ20の発話の内容を示す情報を取得する。要求推定部942は、ユーザ20の発話の内容を解析して、ユーザ20の要求を認識又は推定する。他の実施形態において、要求推定部942は、ジェスチャ認識部934から、画像情報の解析により抽出されたジェスチャを示す情報を取得する。要求推定部942は、抽出されたジェスチャを解析して、ユーザ20の要求を認識又は推定する。
要求推定部942は、音声情報又は画像情報に加えて、音声情報及び画像情報以外の情報を利用して、ユーザ20からの要求を認識又は推定してもよい。例えば、要求推定部942は、入力情報取得部920から、操作情報及び車両情報の少なくとも一方を取得する。要求推定部942は、ユーザ状態推定部944から、ユーザ20の状態を示す情報を取得してもよい。要求推定部942は、車両状態推定部946から、車両110の状態を示す情報を取得してもよい。これらの情報が利用されることで、要求推定部942における認識又は推定の精度が向上し得る。
要求推定部942は、認識された要求の種類を示す情報を、実行部844に出力してよい。要求推定部942は、音声情報又は画像情報を解析したにもかかわらず要求を認識することができなかった場合、要求の認識が不能であることを示す情報を、応答情報生成部846に出力してよい。
本実施形態において、ユーザ状態推定部944は、ユーザ20の状態を認識又は推定する。ユーザ状態推定部944は、音声情報、画像情報、操作情報及び車両情報の少なくとも1つに基づいて、ユーザ20の状態を認識又は推定する。これにより、ユーザ状態推定部944は、ユーザ20の状態を示す情報を取得することができる。ユーザ20の状態としては、ユーザ20の心理状態、覚醒状態及び健康状態の少なくとも1つが例示される。
ユーザ状態推定部944は、ユーザ20の状態を示す情報を、要求推定部942に出力してよい。これにより、要求推定部942は、例えば要求の候補を絞ることができるので、要求推定部942の推定精度が向上し得る。
ユーザ状態推定部944は、ユーザ20の状態を示す情報を、応答情報生成部846に出力してもよい。例えば、ユーザ状態推定部944は、音声情報、画像情報などを解析して、ユーザ20が要求を伝達するときのユーザ20の様子の特徴を示す情報(特徴情報と称される場合がある。)を抽出する。特徴情報は、声量、口調、テンポ、1回あたりの発話の長さ、間の取り方、抑揚のつけ方、強弱のつけ方、相槌の打ち方、癖、及び、話題の展開方法の少なくとも1つの特徴を示す情報であってよい。ユーザ状態推定部944は、特徴情報を、応答情報生成部846に出力してよい。
本実施形態において、車両状態推定部946は、車両110の状態を認識又は推定する。車両状態推定部946は、音声情報、画像情報、操作情報及び車両情報の少なくとも1つに基づいて、車両110の状態を認識又は推定する。上述のとおり、車両110の状態は、車両110の移動状態、車両110の各部の動作状態、及び、車両110の内部空間の状態の少なくとも1つであってよい。車両状態推定部946は、ユーザ数検出部440と同様の処理を実行してもよい。
車両状態推定部946は、車両110の状態を示す情報を、要求推定部942に出力してよい。これにより、要求推定部942は、例えば要求の候補を絞ることができるので、要求推定部942の推定精度が向上し得る。
車両状態推定部946は、車両110の状態を示す情報を、ユーザ状態推定部944に出力してよい。これにより、ユーザ状態推定部944は、車両110の状態を考慮して、ユーザ20の状態を推定することができるので、推定精度が向上し得る。例えば、急加速、急減速、急ハンドルなどの頻度が大きい場合には、注意不足、怒り、いらつきなどの心理状態が推定される。また、車両110が蛇行している場合には、覚醒状態の低下、健康上の問題などが推定される。
図10は、応答情報生成部846の内部構成の一例を概略的に示す。本実施形態において、応答情報生成部846は、応答内容決定部1034と、応答様態決定部1036とを備える。
応答内容決定部1034は、メッセージ制御部の一例であってよい。応答様態決定部1036は、顔制御部、相対位置情報取得部、表情制御部、特徴情報取得部、心理情報取得部、移動体情報取得部、及び、様態決定部の一例であってよい。
本実施形態において、応答内容決定部1034は、ユーザ20からの要求に対する応答の内容を決定する。応答の内容としては、要求に応じて実行されるべき処理の種類、インタラクションの内容などが例示される。インタラクションの内容としては、対話の具体的な内容、エージェントの動作の具体的な内容などが例示される。応答内容決定部1034は、応答の内容を示す情報を、応答管理部350に出力してよい。
例えば、応答内容決定部1034は、ユーザ20にメッセージを伝達することを決定する。応答内容決定部1034は、出力部220の近傍に位置する1又は複数のユーザ20にメッセージを伝達することを決定してよい。
メッセージの種類は限定されない。メッセージとしては、ユーザ20のジェスチャにより示された起動要求が受け付けられたことを示すメッセージ、ユーザ20の現在の状態を示すメッセージ、ユーザ20に注意を促すためのメッセージなどが例示される。
なお、応答内容決定部1034は、(i)出力部220を介してユーザ20にメッセージを伝達するか、又は、(ii)ユーザ20の通信端末30を介してユーザ20にメッセージを伝達するかを決定してよい。応答内容決定部1034は、(i)通信部230及び通信端末30の間に確立された有線通信若しくは近距離無線通信により、通信端末30にメッセージを送信するか、又は、(ii)通信ネットワーク10及び支援サーバ120を介して、通信端末30にメッセージを送信するかを決定してもよい。
応答内容決定部1034は、特定の条件が満足された場合に、ユーザ20にメッセージを伝達することを決定してよい。この場合において、設定情報格納部848は、上記の条件の種類又は内容を示す情報と、メッセージの種類又は内容を示す情報とが対応づけて格納していてもよい。
例えば、応答内容決定部1034は、応答システム112のイベント検出部340から、ユーザ20の注視点の位置を示す情報を取得する。応答内容決定部1034は、注視点の位置又は当該位置の変動が特定の条件を満足する場合に、当該条件に応じたメッセージを、ユーザ20に伝達することを決定する。
一実施形態において、注視点の位置がエージェントの顔の一部に位置する場合、応答内容決定部1034は、ユーザ20の発話を促すためのメッセージを伝達することを決定する。ユーザ20の発話を促すためのメッセージとしては、「何か御用ですか?」、「何かお困りですか?」、「どうしましたか?」などのメッセージが例示される。ユーザ20の発話を促すためのメッセージは、挨拶であってもよく、起動要求が受け付けられたことを示すメッセージであってもよい。
上述のとおり、注視点の位置がエージェントの顔の一部に位置する場合、起動イベント検出部430が起動要求を検出する。そこで、エージェントがユーザ20の発話を促すためのメッセージを出力することで、ユーザ20は、起動要求が受け付けられたことを理解することができる。
他の実施形態において、注視点の位置が予め定められた条件(注意喚起条件と称される場合がある。)を満足する場合、応答内容決定部1034は、運転に集中することを促すためのメッセージを伝達することを決定する。上記の条件としては、注視点が特定の範囲内に位置するという条件、予め定められた期間に渡って、注視点が特定の範囲内にとどまっているという条件などが例示される。上記の特定の範囲は、入力部210又は出力部220の一部又は近傍であってよい。上記の特定の範囲は、車両110の車内に配されたティスプレイ又はその近傍であってよい。
例えば、ユーザ20が車両110の運転者である場合、注意喚起条件としては、(i)車両110の移動中に、注視点が車両110の進行方向前方に位置していないという条件、(ii)車両110の移動中に、注視点が車両110の進行方向前方に位置していない時間の長さが予め定められた閾値より長いという条件、(iii)車両110の移動中に、注視点が出力部220の表示装置の近傍に位置しているという条件、(iv)車両110の移動中に、注視点が出力部220の表示装置の近傍に位置している時間の長さが予め定められた閾値より長いという条件などが例示される。
この場合において、応答内容決定部1034は、ユーザ数検出部440から、同乗者の有無を示す情報を取得してよい。同乗者が存在すると判定された場合において、注視点の位置が注意喚起条件を満足するとき、応答内容決定部1034は、運転者の集中力が低下している可能性のあることを示すメッセージを、同乗者に伝達することを決定してよい。
応答内容決定部1034は、設定情報格納部848にアクセスして、過去に同種のメッセージが伝達されたときのユーザ20の心理状態を示す情報を取得してよい。応答内容決定部1034は、上記のユーザ20の心理状態を示す情報を参照して、運転者であるユーザ20にメッセージを伝達するか、同乗者である他のユーザ20にメッセージを伝達するかを決定してよい。
本実施形態において、応答様態決定部1036は、ユーザ20からの要求に対する応答の様態を決定する。上述のとおり出力部220が応答メッセージを出力するときのエージェントの様態、車両制御部274による車両110の制御の様態などが例示される。応答様態決定部1036は、ユーザ20の動作又は様子に合わせて、応答の様態を決定してよい。応答様態決定部1036は、応答の様態を示す情報を、応答管理部350に出力してよい。
[ユーザ20の注視点に基づく、エージェントのインタラクション]
本実施形態において、応答様態決定部1036は、特定の条件が満足された場合に、エージェントの顔又は視線の向きを制御することを決定する。同様に、応答様態決定部1036は、特定の条件が満たされた場合に、エージェントの表情を制御することを決定してよい。
例えば、応答様態決定部1036は、ユーザ20の注視点の位置又は当該位置の変動が特定の条件(方向変更条件と称される場合がある。)を満足する場合に、エージェントの顔又は視線がユーザ20の方向を向くように、エージェントの顔又は視線の向きを制御することを決定する。なお、応答様態決定部1036は、ユーザ20の注視点が、(i)エージェントの一部(例えば目である)、又は、(ii)エージェントの画像を表示若しくは投影する出力部220の一部に位置する場合に、エージェントの顔又は視線がユーザの方向を向くように、エージェントの顔又は視線の向きを制御することを決定してもよい。
これにより、ユーザ20は、エージェントがユーザ20の視線を感じて、ユーザ20の方を向いたような感覚を覚える。また、ユーザ20及びエージェントのアイコンタクトが実現され得る。さらに、例えば、ユーザ20がジェスチャにより起動要求を入力した場合であっても、ユーザ20は、当該起動要求が受け付けられたことを直感的に理解することができる。
同様に、応答様態決定部1036は、ユーザ20の注視点の位置又は当該位置の変動が特定の条件(表情変更条件と称される場合がある。)を満足する場合に、エージェントの表情を変更することを決定する。なお、応答様態決定部1036は、ユーザ20の注視点が、(i)エージェントの一部(例えば目である)、又は、(ii)エージェントの画像を表示若しくは投影する出力部220の一部に位置する場合に、エージェントの表情を変更することを決定してもよい。
これにより、例えば、ユーザ20がジェスチャにより起動要求を入力した場合であっても、ユーザ20は、当該起動要求が受け付けられたことを直感的に理解することができる。なお、起動要求が受け付けられた場合、応答システム112は、音及び光の少なくとも一方により、起動要求が受け付けられたことを提示してよい。
応答様態決定部1036は、例えば、ユーザ数検出部440から、(i)エージェント又は(ii)出力部220と、ユーザ20との相対位置を示す情報(相対位置情報と称される場合がある。)を取得する。応答様態決定部1036は、相対位置情報に基づいて、エージェントの顔又は視線の向きを決定してよい。これにより、応答様態決定部1036は、エージェントの顔又は視線がユーザ20の方向を向くように、エージェントの動作を制御することができる。
エージェント又は出力部220の周囲に複数のユーザ20が存在する場合、応答様態決定部1036は、予め定められた優先順位に従って、エージェントの顔又は視線が、どのユーザ20の方向を向くように、エージェントの動作を制御するかを決定してよい。応答様態決定部1036は、例えば、ユーザ数検出部440から、エージェント又は出力部220の周囲に存在する1又は複数のユーザ20に関する情報を取得してよい。
例えば、応答様態決定部1036は、各ユーザの声量、各ユーザの顔の向き、各ユーザの視線の向き、車両110の状態、及び、各ユーザの座席配置の少なくとも1つに基づいて、上記の優先順位を決定してよい。応答様態決定部1036は、声が大きいユーザを優先することを決定してよい。応答様態決定部1036は、顔が、よりエージェントの方を向いているユーザを優先することを決定してよい。
例えば、車両110が移動中である場合、応答様態決定部1036は、助手席に配されたユーザ20、運転席に配されたユーザ20、後部座席に配されたユーザ20の順に優先順位を決定する。一方、車両110が停車中である場合、応答様態決定部1036は、運転席に配されたユーザ20を優先することを決定してよい。
[対話時のユーザ20の様子に基づく、エージェントのインタラクション]
本実施形態において、応答様態決定部1036は、ユーザ20が要求を伝達するときのユーザ20の様子に基づいて、応答時のエージェントの様態を決定する。例えば、応答様態決定部1036は、ユーザ状態推定部944から、特徴情報を取得する。応答様態決定部1036は、特徴情報によりユーザ20の特徴に基づいて、エージェントの様態を決定してよい。
一実施形態において、応答様態決定部1036は、エージェントが、複数の会話をとおして、又は、一定期間をとおして、同一又は類似の様態で応答するように、エージェントを制御する。他の実施形態において、応答様態決定部1036は、エージェントが、要求ごとに、当該要求に応じた様態で応答するように、エージェントを制御する。
上述のとおり、エージェントの様態は、応答時のエージェントのインタラクションの様態であってよい。エージェントのインタラクションの様態は、声の大きさ、口調、テンポ、1回あたりの発話の長さ、間の取り方、抑揚のつけ方、強弱のつけ方、相槌の打ち方、口癖、及び、話題の展開方法の少なくとも1つであってよい。エージェントがユーザ20の様子に合わせた様態で応答することにより、自然で親密な会話が実現される。
応答様態決定部1036は、エージェントのインタラクションの様態が、特徴情報により示されるユーザ20の様子と同一又は類似するように、エージェントの様態を決定してよい。例えば、ユーザ20の口調がゆっくりであれば、エージェントがゆっくりした口調で応答するように、エージェントを制御する。ユーザ20による指示が単語である場合、又は、ユーザ20による指示の文字数が予め定められた値より少ない場合、エージェントが端的に応答するように、エージェントを制御する。
例えば、ユーザ20が楽曲ABCの再生を要求する時に、ユーザ20が、「ABCを再生してくれる?」と丁寧に要求すると、エージェントも、「わかりました。ABCを再生します。」のように丁寧に応答する。このとき、ユーザ20の心理状態によっては、エージェントが、「わかりました。ABCを再生します。ところで、最近は、XYZという曲も人気があるようですよ」と、ユーザ20の心理状態に応じた楽曲を推奨する場合がある。一方、ユーザ20が、「ABCを再生」と端的に要求すると、エージェントも、「ABCを再生します」と端的に応答する。
応答様態決定部1036は、ユーザ状態推定部944から、ユーザ20の心理状態を示す情報を取得してもよい。応答様態決定部1036は、ユーザ20の心理状態に基づいてエージェントの様態を決定してよい。例えば、ユーザ20が、怒り、いらつき、焦りなど、冷静さの程度が予め定められた値よりも小さい感情を抱いている場合、エージェントが冷静に応答するように、エージェントを制御する。ユーザ20が楽しい又は嬉しいといった感情を抱いている場合、エージェントが明るく応答するように、エージェントを制御する。
ユーザ20が車両110の運転者である場合、応答様態決定部1036は、車両状態推定部946から、車両110の動作の状態を示す情報を取得してよい。応答様態決定部1036は、車両110の動作の状態に基づいて、エージェントの様態を決定してもよい。例えば、応答様態決定部1036は、車両110のスピードに応じて、エージェントの様態を決定する。応答様態決定部1036は、渋滞の程度に応じて、エージェントの様態を決定してよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。また、技術的に矛盾しない範囲において、特定の実施形態について説明した事項を、他の実施形態に適用することができる。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 通信ネットワーク、20 ユーザ、30 通信端末、100 対話型エージェントシステム、110 車両、112 応答システム、114 通信システム、120 支援サーバ、210 入力部、220 出力部、230 通信部、240 センス部、250 駆動部、260 付帯設備、270 制御部、272 入出力制御部、274 車両制御部、276 通信制御部、312 音声情報取得部、314 画像情報取得部、316 操作情報取得部、318 車両情報取得部、322 通信情報取得部、330 転送部、340 イベント検出部、350 応答管理部、360 エージェント情報格納部、412 視線計測部、414 校正部、420 注視点検出部、430 起動イベント検出部、440 ユーザ数検出部、450 伝言イベント検出部、520 アイコンタクト検出部、530 起動フレーズ検出部、540 起動操作検出部、620 転送制御部、630 応答決定部、632 起動管理部、638 応答情報取得部、642 音声合成部、644 画像生成部、650 命令生成部、660 伝言管理部、722 設定データ格納部、732 音声データ格納部、734 画像データ格納部、820 通信部、830 通信制御部、840 要求処理部、842 要求決定部、844 実行部、846 応答情報生成部、848 設定情報格納部、850 伝言サービス提供部、920 入力情報取得部、932 音声認識部、934 ジェスチャ認識部、940 推定部、942 要求推定部、944 ユーザ状態推定部、946 車両状態推定部、1034 応答内容決定部、1036 応答様態決定部

Claims (8)

  1. ユーザの音声により示される要求を取得し、当該要求に応じた処理を実行する要求処理装置のユーザインタフェースとして機能するエージェント装置を制御する制御装置であって、
    前記ユーザの注視点を特定する注視点特定部と、
    前記注視点が、(i)前記ユーザへの情報の伝達に利用されるエージェントの一部、又は、(ii)前記エージェントの画像を表示若しくは投影する画像出力部の一部に位置する場合、前記エージェント装置の状態を、前記エージェントを介した応答処理を開始するための起動要求を処理するスタンバイ状態から、前記エージェントを介して前記起動要求以外の要求を処理する起動状態に変更することを決定する状態決定部と、
    を備える、制御装置。
  2. 前記エージェントは、顔を有し、
    前記状態決定部は、前記注視点が前記エージェントの顔の一部に位置する場合、前記エージェント装置の状態を、前記スタンバイ状態から前記起動状態に変更することを決定する、
    請求項1に記載の制御装置。
  3. 前記顔の一部は、目である、
    請求項2に記載の制御装置。
  4. 前記ユーザにメッセージを伝達することを決定するメッセージ制御部をさらに備え、
    前記メッセージ制御部は、
    前記注視点が前記エージェントの顔の一部に位置する場合、
    前記ユーザの発話を促すためのメッセージを伝達することを決定する、
    請求項2又は請求項3に記載の制御装置。
  5. 前記エージェントは、顔を有し、
    前記制御装置は、前記エージェントの顔又は視線の向きを制御する顔制御部をさらに備え、
    前記顔制御部は、前記注視点の位置が予め定められた方向変更条件を満足する場合、前記エージェントの顔又は視線が前記ユーザの方向を向くように、前記エージェントの顔又は視線の向きを制御する、
    請求項1から請求項3までの何れか一項に記載の制御装置。
  6. (i)前記エージェント又は(ii)前記画像出力部と、前記ユーザとの相対位置を示す相対位置情報を取得する相対位置情報取得部をさらに備え、
    前記顔制御部は、前記相対位置情報に基づいて、前記エージェントの顔又は視線の向きを決定する、
    請求項5に記載の制御装置。
  7. ユーザの音声により示される要求を取得し、当該要求に応じた処理を実行する要求処理装置のユーザインタフェースとして機能するエージェント装置であって、
    請求項1から請求項6までの何れか一項に記載の制御装置と、
    (i)前記エージェントとして機能するロボット、又は、(ii)前記画像出力部と、
    を備える、エージェント装置。
  8. コンピュータを、請求項1から請求項6までの何れか一項に記載の制御装置として機能させるための、プログラム。
JP2018209285A 2018-11-06 2018-11-06 制御装置、エージェント装置及びプログラム Pending JP2020077135A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018209285A JP2020077135A (ja) 2018-11-06 2018-11-06 制御装置、エージェント装置及びプログラム
CN201911059025.8A CN111144539A (zh) 2018-11-06 2019-11-01 控制装置、智能体装置以及计算机可读存储介质
US16/675,218 US20200143810A1 (en) 2018-11-06 2019-11-05 Control apparatus, control method, agent apparatus, and computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018209285A JP2020077135A (ja) 2018-11-06 2018-11-06 制御装置、エージェント装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2020077135A true JP2020077135A (ja) 2020-05-21

Family

ID=70458676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018209285A Pending JP2020077135A (ja) 2018-11-06 2018-11-06 制御装置、エージェント装置及びプログラム

Country Status (3)

Country Link
US (1) US20200143810A1 (ja)
JP (1) JP2020077135A (ja)
CN (1) CN111144539A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108428452B (zh) * 2018-03-14 2019-12-13 百度在线网络技术(北京)有限公司 终端支架和远场语音交互系统
JP7318587B2 (ja) * 2020-05-18 2023-08-01 トヨタ自動車株式会社 エージェント制御装置
JP7310705B2 (ja) * 2020-05-18 2023-07-19 トヨタ自動車株式会社 エージェント制御装置、エージェント制御方法、及びエージェント制御プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05199996A (ja) * 1991-05-31 1993-08-10 Canon Inc 視線方向検出装置及びこれを用いた光学装置
JP2004192653A (ja) * 1997-02-28 2004-07-08 Toshiba Corp マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法
JP2006189394A (ja) * 2005-01-07 2006-07-20 Toyota Motor Corp 車両用エージェント装置
US20120295708A1 (en) * 2006-03-06 2012-11-22 Sony Computer Entertainment Inc. Interface with Gaze Detection and Voice Input
US20170242478A1 (en) * 2016-02-18 2017-08-24 Samsung Electronics Co., Ltd. Initiating human-machine interaction based on visual attention

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1357862A (zh) * 2000-12-06 2002-07-10 英业达股份有限公司 视窗的光标视觉点选方法及装置
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
JP4371057B2 (ja) * 2005-01-11 2009-11-25 トヨタ自動車株式会社 車両用エージェント装置、エージェントシステム及びエージェント制御方法
WO2018056169A1 (ja) * 2016-09-21 2018-03-29 日本電気株式会社 対話装置、処理方法、プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05199996A (ja) * 1991-05-31 1993-08-10 Canon Inc 視線方向検出装置及びこれを用いた光学装置
JP2004192653A (ja) * 1997-02-28 2004-07-08 Toshiba Corp マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法
JP2006189394A (ja) * 2005-01-07 2006-07-20 Toyota Motor Corp 車両用エージェント装置
US20120295708A1 (en) * 2006-03-06 2012-11-22 Sony Computer Entertainment Inc. Interface with Gaze Detection and Voice Input
US20170242478A1 (en) * 2016-02-18 2017-08-24 Samsung Electronics Co., Ltd. Initiating human-machine interaction based on visual attention

Also Published As

Publication number Publication date
CN111144539A (zh) 2020-05-12
US20200143810A1 (en) 2020-05-07

Similar Documents

Publication Publication Date Title
JP7053432B2 (ja) 制御装置、エージェント装置及びプログラム
US10809802B2 (en) Line-of-sight detection apparatus, computer readable storage medium, and line-of-sight detection method
US20200133630A1 (en) Control apparatus, agent apparatus, and computer readable storage medium
JP6515764B2 (ja) 対話装置及び対話方法
JP7340940B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
US10956761B2 (en) Control apparatus, control method agent apparatus, and computer readable storage medium
US20200143810A1 (en) Control apparatus, control method, agent apparatus, and computer readable storage medium
JP7192222B2 (ja) 発話システム
US10773726B2 (en) Information provision device, and moving body
US11380325B2 (en) Agent device, system, control method of agent device, and storage medium
US20200319841A1 (en) Agent apparatus, agent apparatus control method, and storage medium
JP7084848B2 (ja) 制御装置、エージェント装置及びプログラム
JP7340943B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020157808A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
CN111559317B (zh) 智能体装置、智能体装置的控制方法及存储介质
CN111667823B (zh) 智能体装置、智能体装置的控制方法及存储介质
CN111724778B (zh) 车载装置、车载装置的控制方法及存储介质
JP2020157853A (ja) 車載エージェントシステム、車載エージェントシステムの制御方法、およびプログラム
JP7543082B2 (ja) 情報提示装置、情報提示方法及び情報提示プログラム
CN111824174B (zh) 智能体装置、智能体装置的控制方法及存储介质
JP7297483B2 (ja) エージェントシステム、サーバ装置、エージェントシステムの制御方法、およびプログラム
EP4299399A1 (en) Method for determining a notification procedure, method for transitioning control of a vehicle, data processing apparatus and autonomous driving system
CN117112633A (zh) 基于智能座舱主动交互方法、系统及存储介质
KR20210000464A (ko) 차량 내 제스처 입력을 이용한 제어 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220405