JP2020160832A - エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム - Google Patents

エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム Download PDF

Info

Publication number
JP2020160832A
JP2020160832A JP2019060021A JP2019060021A JP2020160832A JP 2020160832 A JP2020160832 A JP 2020160832A JP 2019060021 A JP2019060021 A JP 2019060021A JP 2019060021 A JP2019060021 A JP 2019060021A JP 2020160832 A JP2020160832 A JP 2020160832A
Authority
JP
Japan
Prior art keywords
agent
voice
unit
display
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019060021A
Other languages
English (en)
Other versions
JP7169921B2 (ja
Inventor
善史 我妻
Yoshifumi Wagatsuma
善史 我妻
賢吾 内木
Kengo Uchiki
賢吾 内木
裕介 大井
Yusuke Oi
裕介 大井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019060021A priority Critical patent/JP7169921B2/ja
Priority to CN202010215427.9A priority patent/CN111754999B/zh
Priority to US16/828,995 priority patent/US11518399B2/en
Publication of JP2020160832A publication Critical patent/JP2020160832A/ja
Application granted granted Critical
Publication of JP7169921B2 publication Critical patent/JP7169921B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Stored Programmes (AREA)

Abstract

【課題】エージェントの使い勝手を向上させること。【解決手段】エージェント装置は、音声に応じて、音声による応答を含むサービスを提供するエージェントが起動している場合にエージェント画像を第1表示部に表示させる表示制御部と、音声による入力を受け付ける外部端末が受け付けた音声の大きさに基づいて、第2表示部に前記エージェント画像を表示させるための特定制御を実行する制御部とを備える。【選択図】図3

Description

本発明は、エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラムに関する。
従来、車両の利用者と対話を行いながら、利用者の要求に応じた運転支援に関する情報や車両の制御、その他のアプリケーション等を提供するエージェント機能に関する技術が開示されている(例えば、特許文献1参照)。
特開2006−335231号公報
近年では、エージェント機能を車両に搭載することについて実用化が進められているが、車両ごとに搭載されたエージェント機能におけるサービスの提供について十分に検討されていなかった。このため、従来の技術では、エージェント機能について使い勝手がよくない場合があった。
本発明は、このような事情を考慮してなされたものであり、エージェントの使い勝手を向上させることができるエージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラムを提供することを目的の一つとする。
この発明に係るエージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係るエージェント装置は、音声に応じて、音声による応答を含むサービスを提供するエージェントが起動している場合にエージェント画像を第1表示部に表示させる表示制御部と、音声による入力を受け付ける外部端末が受け付けた音声の大きさに基づいて、第2表示部に前記エージェント画像を表示させる特定制御を実行する制御部と、を備えるエージェント装置である。
(2):上記(1)の態様において、前記制御部は、音声による入力を受け付ける外部端末が受け付けた音声の大きさが所定の大きさ未満である場合に、前記第2表示部に前記特定制御を行うものである。
(3):上記(1)または(2)の態様において、前記第2表示部は前記外部端末が有する。
(4):上記(1)から(3)のいずれかの態様において、前記表示制御部は、前記制御部が特定制御を実行する場合、前記エージェント画像を前記第1表示部に表示させないものである。
(5):上記(1)から(4)のいずれかの態様において、前記表示制御部は、前記制御部が特定制御を実行しない場合、前記エージェント画像を前記第1表示部に表示させるものである。
(6):上記(1)から(5)のいずれかの態様において、前記制御部は、前記外部端末が受け付けた音声の大きさが所定の大きさ未満である場合であっても、音声の入力を受け付ける受付部が音声を受け付けた場合は、前記エージェント画像を前記第1表示部に表示させるものである。
(7):上記(6)の態様において、前記受付部は、車両、施設、または所定位置に設けられた据え置き型のマイクであるものである。
(8):上記(1)から(7)のいずれかの態様において、前記第1表示部は、車両、施設、または所定位置に設けられた据え置き型の表示部であるものである。
(9):上記(1)から(8)のいずれかの態様において、前記外部端末は、携帯式の端末装置であるものである。
(10):上記(1)から(9)のいずれかの態様において、前記表示制御部は、前記制御部が前記特定制御を実行している場合において、前記外部端末により送信された指示情報に応じて、前記エージェント画像を前記第1表示部に表示させるものである。
(11):上記(1)から(9)のいずれかの態様において、前記エージェント装置は、前記外部端末と連携し、前記エージェントは、前記外部端末が受け付けた音声に応じて、音声による応答を含むサービスを提供するものである。
(12):上記(1)から(11)のいずれかの態様において、前記エージェント装置は、前記外部端末と連携し、前記表示制御部は、前記外部端末が受け付けた所定の大きさ以上の音声に応じて、前記エージェント画像を前記第1表示部に表示させ、前記制御部は、前記外部端末が受け付けた所定の大きさ以上の音声に応じて、前記特定制御を実行しないものである。
(13):この発明の一態様に係るエージェント装置は、音声に応じて、音声による応答を含むサービスを提供するエージェントが起動している場合に、視認者を制限しないような態様で設けられた第1表示部にエージェント画像を表示させる表示制御部と、音声による入力を受け付ける第1端末が受け付けた音声の大きさが所定の大きさ未満である場合、視認者を前記第1端末が受け付けた音声を入力した利用者に制限するような態様で設けられた第2表示部にエージェント画像を表示させるための特定制御を実行する制御部と、を備えるエージェント装置である。
(14):この発明の一態様に係るエージェントシステムは、コンピュータに、音声による入力を受け付ける受付部に音声を受け付けさせ、前記受付部に受け付けさせた音声に基づく情報をエージェント装置に送信させ、前記送信させた音声に基づく情報に応じて、エージェント装置から取得した特定制御の指示に基づいて、第1の特定表示部にエージェント画像を出現させるアプリケーションプログラムと、音声に応じて、音声による応答を含むサービスを提供するエージェントが起動している場合にエージェント画像を第2の特定表示部に表示させる表示制御部、および前記受付部が受け付けた音声の大きさが所定の大きさ未満である場合、第2特定表示部に前記エージェント画像を表示させるための前記特定制御を前記コンピュータに実行させる制御部、を備えるエージェント装置と
を含むエージェントシステムである。
(15):この発明の一態様に係るエージェント装置の制御方法は、コンピュータが、コンピュータが、音声に応じて、音声による応答を含むサービスを提供するエージェントが起動している場合にエージェント画像を第1表示部に表示させ、音声による入力を受け付ける外部端末が受け付けた音声の大きさに基づいて、第2表示部に前記エージェント画像を表示させるための特定制御を実行させる、エージェントの制御方法である。
(16):この発明の一態様に係るプログラムは、コンピュータに、音声に応じて、音声による応答を含むサービスを提供するエージェントが起動している場合にエージェント画像を第1表示部に表示させ、音声による入力を受け付ける外部端末が受け付けた音声の大きさに基づいて、第2表示部に前記エージェント画像を表示させるための特定制御を実行させるプログラムである。
(1)〜(5)、(7)〜(9)、(11)、(12)〜(16)によれば、エージェント装置が、受け付けた音声の大きさが所定の大きさ未満である場合、所定の表示部にエージェント画像を表示させることにより、エージェントの使い勝手を向上させることができる。
(6)によれば、エージェン装置は、音声の入力を受け付ける受付部が音声を受け付けた場合は、エージェント画像を前記第1表示部に表示させることにより、利用者の意図を反映した制御を実現することができる。
(10)によれば、エージェン装置は、外部端末により送信された指示情報に応じて、エージェント画像を第1表示部に表示させることにより、利用者の意図を反映した制御を実現することができる。
エージェント装置100を含むエージェントシステム1の構成図である。 汎用通信装置70の機能構成の一例を示す図である。 第1実施形態に係るエージェント装置100の構成と、車両Mに搭載された機器とを示す図である。 表示・操作装置20の配置例を示す図である。 スピーカユニット30の配置例を示す図である。 音像が定位する位置が定まる原理について説明するための図である。 エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す図である。 汎用端末装置70とエージェント装置100とが利用される場面の一例を示す図である。 汎用端末装置70とエージェント装置100とにより実行される処理の流れの一例を示すフローチャート(その1)である。 エージェントが通常出現制御により出現した様子の一例を示す図である。 エージェントが通常出現制御により出現した様子の他の一例を示す図である。 エージェントがプライベート出現制御により出現した様子の一例を示す図である。 汎用通信装置70とエージェント装置100とにより実行される特定コマンド処理の流れの一例を示すフローチャート(その2)である。 第2実施形態の汎用端末装置70とエージェント装置100とにより実行される処理の流れの一例を示すフローチャートである。 第3実施形態の車両M1のマイク10およびディスプレイの配置の一例を示す図である。 第3実施形態のエージェント装置100により実行される処理の流れの一例を示すフローチャートである。 第3実施形態においてプライベート出現制御が行われた様子の一例を示す図である。 自宅に設けられたエージェント装置100Aの一例を示す図である。 汎用端末装置70とエージェント装置100とにより実行される処理の流れの一例を示すフローチャートである。
以下、図面を参照し、本発明のエージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラムの実施形態について説明する。
<第1実施形態>
エージェント装置は、エージェントシステムの一部または全部を実現する装置である。以下では、エージェント装置の一例として、車両(以下、車両M)に搭載され、複数種類のエージェント機能を備えたエージェント装置について説明する。エージェント機能とは、例えば、車両Mの利用者と対話をしながら、利用者の発話の中に含まれる要求(コマンド)に基づく各種の情報提供を行ったり、ネットワークサービスを仲介したりする機能である。また、エージェント機能の中には、車両内の機器(例えば運転制御や車体制御に関わる機器)の制御等を行う機能を有するものがあってよい。
エージェント機能は、例えば、利用者の音声を認識する音声認識機能(音声をテキスト化する機能)に加え、自然言語処理機能(テキストの構造や意味を理解する機能)、対話管理機能、ネットワークを介して他装置を検索し、或いは自装置が保有する所定のデータベースを検索するネットワーク検索機能等を統合的に利用して実現される。これらの機能の一部または全部は、AI(Artificial Intelligence)技術によって実現されてよい。また、これらの機能を行うための構成の一部(特に、音声認識機能や自然言語処理解釈機能)は、車両Mの車載通信装置または車両Mに持ち込まれた汎用通信装置と通信可能なエージェントサーバ(外部装置)に搭載されてもよい。以下の説明では、構成の一部がエージェントサーバに搭載されており、エージェント装置とエージェントサーバが協働してエージェントシステムを実現することを前提とする。また、エージェント装置とエージェントサーバが協働して仮想的に出現させるサービス、またはその提供主体(サービス・エンティティ)をエージェントと称する。
<全体構成>
図1は、エージェント装置100を含むエージェントシステム1の構成図である。エージェントシステム1は、例えば、汎用通信装置70と、エージェント装置100−1、100−2と、複数のエージェントサーバ200−1、200−2、200−3、…と、情報処理サーバ300とを備える。エージェント装置100−1と、100−2とを区別しない場合は、単にエージェント装置100と称する場合がある。エージェントサーバ200の符号の末尾のハイフン以下の数字は、エージェントを区別するための識別子であるものとする。いずれのエージェントサーバであるかを区別しない場合、単にエージェントサーバ200と称する場合がある。図1では3つのエージェントサーバ200を示しているが、エージェントサーバ200の数は2つであってもよいし、4つ以上であってもよい。それぞれのエージェントサーバ200は、互いに異なるエージェントシステムの提供者が運営するものである。従って、本発明におけるエージェントは、互いに異なる提供者により実現されるエージェントである。提供者としては、例えば、自動車メーカー、ネットワークサービス事業者、電子商取引事業者、携帯端末の販売者などが挙げられ、任意の主体(法人、団体、個人等)がエージェントシステムの提供者となり得る。
エージェント装置100は、ネットワークNWを介してエージェントサーバ200と通信する。ネットワークNWは、例えば、インターネット、セルラー網、Wi−Fi網、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、電話回線、無線基地局などのうち一部または全部を含む。ネットワークNWには、各種ウェブサーバ500が接続されており、エージェントサーバ200またはエージェント装置100は、ネットワークNWを介して各種ウェブサーバ500からウェブページを取得することができる。
エージェント装置100は、車両Mの利用者と対話を行い、利用者からの音声をエージェントサーバ200に送信し、エージェントサーバ200から得られた回答を、音声出力や画像表示の形で利用者に提示する。
[汎用通信装置]
図2は、汎用通信装置70の機能構成の一例を示す図である。汎用通信装置70は、スマートフォンやタブレット端末などの可搬型または携帯型の装置である。汎用通信装置70は、例えば、表示部71と、スピーカ72と、マイク73と、通信部74と、ペアリング実行部75と、音響処理部76と、制御部77と、記憶部78とを備える。記憶部78には、連携アプリケーションプログラム(連携アプリ79)が記憶されている。連携アプリ79は、不図示のアプリ提供サーバにより提供されたものであってもよいし、車両Mにより提供されたものであってもよい。
連携アプリ79は、利用者が汎用通信装置700に対して行った操作に基づいて、汎用通信装置70が取得した情報をエージェント装置100に送信したり、エージェント装置100により送信された情報を利用者に提供したりする。
表示部71は、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)ディスプレイなどの表示装置を含む。表示部71は、制御部77の制御に基づいて画像を表示する。スピーカ72は、制御部77の制御に基づいて音声を出力する。マイク73は、利用者により入力された音声を収集する。
通信部74は、エージェント装置100と通信するための通信インタフェースである。
ペアリング実行部75は、例えば、Bluetooth(登録商標)等の無線通信を用いてエージェント装置100とのペアリングを実行する。音響処理部76は、入力された音に対して音響処理を行う。
制御部77は、CPU(Central Processing Unit)などのプロセッサが連携アプリ79(ソフトウェア)を実行することで実現される。制御部77は、汎用通信装置70の各部(例えば表示部71やスピーカ72等)を制御する。制御部77は、自装置に入力させた情報をエージェント装置100に管理したり、エージェント装置100によりされた情報を管理したりする。
[車両]
図3は、第1実施形態に係るエージェント装置100の構成と、車両Mに搭載された機器とを示す図である。車両Mには、例えば、一以上のマイク10と、表示・操作装置20と、スピーカユニット30と、ナビゲーション装置40と、車両機器50と、車載通信装置60と、乗員認識装置80と、エージェント装置100とが搭載される。また、汎用通信装置70が車室内に持ち込まれ、通信装置として使用される場合がある。これらの装置は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図2に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
マイク10は、車室内で発せられた音声を収集する収音部である。表示・操作装置20は、画像を表示すると共に、入力操作を受付可能な装置(或いは装置群)である。表示・操作装置20は、例えば、タッチパネルとして構成されたディスプレイ装置を含む。表示・操作装置20は、更に、HUD(Head Up Display)や機械式の入力装置を含んでもよい。スピーカユニット30は、例えば、車室内の互いに異なる位置に配設された複数のスピーカ(音出力部)を含む。表示・操作装置20は、エージェント装置100とナビゲーション装置40とで共用されてもよい。これらの詳細については後述する。
ナビゲーション装置40は、ナビHMI(Human machine Interface)と、GPS(Global Positioning System)などの位置測位装置と、地図情報を記憶した記憶装置と、経路探索などを行う制御装置(ナビゲーションコントローラ)とを備える。マイク10、表示・操作装置20、およびスピーカユニット30のうち一部または全部がナビHMIとして用いられてもよい。ナビゲーション装置40は、位置測位装置によって特定された車両Mの位置から、利用者によって入力された目的地まで移動するための経路(ナビ経路)を探索し、経路に沿って車両Mが走行できるように、ナビHMIを用いて案内情報を出力する。経路探索機能は、ネットワークNWを介してアクセス可能なナビゲーションサーバにあってもよい。この場合、ナビゲーション装置40は、ナビゲーションサーバから経路を取得して案内情報を出力する。なお、エージェント装置100は、ナビゲーションコントローラを基盤として構築されてもよく、その場合、ナビゲーションコントローラとエージェント装置100は、ハードウェア上は一体に構成される。
車両機器50は、例えば、エンジンや走行用モータなどの駆動力出力装置、エンジンの始動モータ、ドアロック装置、ドア開閉装置、空調装置などを含む。
車載通信装置60は、例えば、セルラー網やWi−Fi網を利用してネットワークNWにアクセス可能な無線通信装置である。
乗員認識装置80は、例えば、着座センサ、車室内カメラ、画像認識装置などを含む。着座センサは座席の下部に設けられた圧力センサ、シートベルトに取り付けられた張力センサなどを含む。車室内カメラは、車室内に設けられたCCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラである。画像認識装置は、車室内カメラの画像を解析し、座席ごとの利用者の有無、顔向きなどを認識する。本実施形態において、乗員認識装置80は、着座位置認識部の一例である。
図4は、表示・操作装置20の配置例を示す図である。表示・操作装置20は、例えば、第1ディスプレイ22と、第2ディスプレイ24と、操作スイッチASSY26とを含む。表示・操作装置20は、更に、HUD28を含んでもよい。
車両Mには、例えば、ステアリングホイールSWが設けられた運転席DSと、運転席DSに対して車幅方向(図中Y方向)に設けられた助手席ASとが存在する。第1ディスプレイ22は、インストルメントパネルにおける運転席DSと助手席ASとの中間辺りから、助手席ASの左端部に対向する位置まで延在する横長形状のディスプレイ装置である。第2ディスプレイ24は、運転席DSと助手席ASとの車幅方向に関する中間あたり、且つ第1ディスプレイ22の下方に設置されている。例えば、第1ディスプレイ22と第2ディスプレイ24は、共にタッチパネルとして構成され、表示部としてLCD(Liquid Crystal Display)や有機EL(Electroluminescence)、プラズマディスプレイなどを備えるものである。操作スイッチASSY26は、ダイヤルスイッチやボタン式スイッチなどが集積されたものである。表示・操作装置20は、利用者によってなされた操作の内容をエージェント装置100に出力する。第1ディスプレイ22または第2ディスプレイ24が表示する内容は、エージェント装置100によって決定されてよい。
図5は、スピーカユニット30の配置例を示す図である。スピーカユニット30は、例えば、スピーカ30A〜30Hを含む。スピーカ30Aは、運転席DS側の窓柱(いわゆるAピラー)に設置されている。スピーカ30Bは、運転席DSに近いドアの下部に設置されている。スピーカ30Cは、助手席AS側の窓柱に設置されている。スピーカ30Dは、助手席ASに近いドアの下部に設置されている。スピーカ30Eは、右側後部座席BS1側に近いドアの下部に設置されている。スピーカ30Fは、左側後部座席BS2側に近いドアの下部に設置されている。スピーカ30Gは、第2ディスプレイ24の近傍に設置されている。スピーカ30Hは、車室の天井(ルーフ)に設置されている。
係る配置において、例えば、専らスピーカ30Aおよび30Bに音を出力させた場合、音像は運転席DS付近に定位することになる。また、専らスピーカ30Cおよび30Dに音を出力させた場合、音像は助手席AS付近に定位することになる。また、専らスピーカ30Eに音を出力させた場合、音像は右側後部座席BS1付近に定位することになる。また、専らスピーカ30Fに音を出力させた場合、音像は左側後部座席BS2付近に定位することになる。また、専らスピーカ30Gに音を出力させた場合、音像は車室の前方付近に定位することになり、専らスピーカ30Hに音を出力させた場合、音像は車室の上方付近に定位することになる。これに限らず、スピーカユニット30は、ミキサーやアンプを用いて各スピーカの出力する音の配分を調整することで、車室内の任意の位置に音像を定位させることができる。
[エージェント装置]
図3に戻り、エージェント装置100は、管理部110と、エージェント機能部150−1、150−2、150−3と、ペアリングアプリ実行部152とを備える。管理部110は、例えば、音響処理部112と、エージェントごとWU(Wake Up)判定部114と、連携制御部115と、表示制御部116と、音声制御部118とを備える。いずれのエージェント機能部であるかを区別しない場合、単にエージェント機能部150と称する。3つのエージェント機能部150を示しているのは、図1におけるエージェントサーバ200の数に対応させた一例に過ぎず、エージェント機能部150の数は、2つであってもよいし、4つ以上であってもよい。図3に示すソフトウェア配置は説明のために簡易に示しており、実際には、例えば、エージェント機能部150と車載通信装置60の間に管理部110が介在してもよいし、任意に改変することができる。
エージェント装置100の各構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
管理部110は、OS(Operating System)やミドルウェアなどのプログラムが実行されることで機能する。
管理部110の音響処理部112は、エージェントごとに予め設定されているウエイクアップワードを認識するのに適した状態になるように、入力された音に対して音響処理を行う。
エージェントごとWU判定部114は、エージェント機能部150−1、150−2、150−3のそれぞれに対応して存在し、エージェントごとに予め定められているウエイクアップワードを認識する。エージェントごとWU判定部114は、音響処理が行われた音声(音声ストリーム)から音声の意味を認識する。まず、エージェントごとWU判定部114は、音声ストリームにおける音声波形の振幅と零交差に基づいて音声区間を検出する。エージェントごとWU判定部114は、混合ガウス分布モデル(GMM;Gaussian mixture model)に基づくフレーム単位の音声識別および非音声識別に基づく区間検出を行ってもよい。
次に、エージェントごとWU判定部114は、検出した音声区間における音声をテキスト化し、文字情報とする。そして、エージェントごとWU判定部114は、テキスト化した文字情報がウエイクアップワードに該当するか否かを判定する。ウエイクアップワードであると判定した場合、エージェントごとWU判定部114は、対応するエージェント機能部150を起動させる。なお、エージェントごとWU判定部114に相当する機能がエージェントサーバ200に搭載されてもよい。この場合、管理部110は、音響処理部112によって音響処理が行われた音声ストリームをエージェントサーバ200に送信し、エージェントサーバ200がウエイクアップワードであると判定した場合、エージェントサーバ200からの指示に従ってエージェント機能部150が起動する。なお、各エージェント機能部150は、常時起動しており且つウエイクアップワードの判定を自ら行うものであってよい。この場合、管理部110がエージェントごとWU判定部114を備える必要はない。
エージェント機能部150は、対応するエージェントサーバ200と協働してエージェントを出現させ、車両Mの利用者の発話に応じて、音声による応答を含むサービスを提供する。エージェント機能部150には、車両機器50を制御する権限が付与されたものが含まれてよい。また、エージェント機能部150には、ペアリングアプリ実行部152を介して汎用通信装置70と連携し、エージェントサーバ200と通信するものであってよい。例えば、エージェント機能部150−1には、車両機器50を制御する権限が付与されている。エージェント機能部150−1は、車載通信装置60を介してエージェントサーバ200−1と通信する。エージェント機能部150−2は、車載通信装置60を介してエージェントサーバ200−2と通信する。エージェント機能部150−3は、ペアリングアプリ実行部152を介して汎用通信装置70と連携し、エージェントサーバ200−3と通信する。
ペアリングアプリ実行部152は、例えば、汎用通信装置70とペアリングを行い、エージェント機能部150−3と汎用通信装置70とを接続させる。なお、エージェント機能部150−3は、USB(Universal Serial Bus)などを利用した有線通信によって汎用通信装置70に接続されるようにしてもよい。以下、エージェント機能部150−1とエージェントサーバ200−1が協働して出現させるエージェントをエージェント1、エージェント機能部150−2とエージェントサーバ200−2が協働して出現させるエージェントをエージェント2、エージェント機能部150−3とエージェントサーバ200−3が協働して出現させるエージェントをエージェント3と称する場合がある。
連携制御部115は、音声による入力を受け付ける汎用通信装置70が受け付けた音声の大きさが所定の大きさ以下である場合、汎用通信装置70の表示部にエージェント画像を表示させるための特定制御を汎用通信装置70に実行させる。この処理の詳細については後述する[連携処理の概要]で説明する。なお、「所定の大きさ」とは例えば40dB以下、好ましくは30dBの入力であってもよい、また、車両Mの発話の通常の音声の大きさ以下であると判定された場合であってもよい。さらに車両Mの走行音や環境音などをオフセットした上で判定されてもよい。
表示制御部116は、エージェント機能部150による指示に応じて第1ディスプレイ22または第2ディスプレイ24に画像を表示させる。以下では、第1ディスプレイ22を使用するものとする。表示制御部116は、一部のエージェント機能部150の制御により、例えば、車室内で利用者とのコミュニケーションを行う擬人化されたエージェントの画像(以下、エージェント画像と称する)を生成し、生成したエージェント画像を第1ディスプレイ22に表示させる。エージェント画像は、例えば、利用者に対して話しかける態様の画像である。エージェント画像は、例えば、少なくとも観者(利用者)によって表情や顔向きが認識される程度の顔画像を含んでよい。例えば、エージェント画像は、顔領域の中に目や鼻に擬したパーツが表されており、顔領域の中のパーツの位置に基づいて表情や顔向きが認識されるものであってよい。また、エージェント画像は、観者によって、立体的に感じられ、三次元空間における頭部画像を含むことでエージェントの顔向きが認識される画像である。エージェント画像は、エージェントの動作や振る舞い、姿勢等が認識され本体(胴体や手足)の画像を含むものであってもよい。また、エージェント画像は、アニメーション画像であってもよい。
音声制御部118は、エージェント機能部150による指示に応じて、スピーカユニット30に含まれるスピーカのうち一部または全部に音声を出力させる。音声制御部118は、複数のスピーカユニット30を用いて、エージェント画像の表示位置に対応する位置にエージェント音声の音像を定位させる制御を行ってもよい。エージェント画像の表示位置に対応する位置とは、例えば、エージェント画像がエージェント音声を喋っていると利用者が感じると予測される位置であり、具体的には、エージェント画像の表示位置付近(例えば、2〜3[cm]以内)の位置である。また、音像が定位するとは、例えば、利用者の左右の耳に伝達される音の大きさが調節されることにより、利用者が感じる音源の空間的な位置が定められることである。
図6は、音像が定位する位置が定まる原理について説明するための図である。図6では、説明を簡略化するために、上述したスピーカ30B、30D、および30Gを用いる例を示しているが、スピーカユニット30に含まれる任意のスピーカが使用されてよい。音声制御部118は、各スピーカに接続されたアンプ(AMP)32およびミキサー34を制御して音像を定位させる。例えば、図6に示す空間位置MP1に音像を定位させる場合、音声制御部118は、アンプ32およびミキサー34を制御することにより、スピーカ30Bに最大強度の5%の出力を行わせ、スピーカ30Dに最大強度の80%の出力を行わせ、スピーカ30Gに最大強度の15%の出力を行わせる。この結果、利用者Pの位置からは、図6に示す空間位置MP1に音像が定位しているように感じることになる。
また、図6に示す空間位置MP2に音像を定位させる場合、音声制御部118は、アンプ32およびミキサー34を制御することにより、スピーカ30Bに最大強度の45%の出力を行わせ、スピーカ30Dに最大強度の45%の出力を行わせ、スピーカ30Gに最大強度の45%の出力を行わせる。この結果、利用者Pの位置からは、図6に示す空間位置MP2に音像が定位しているように感じることになる。このように、車室内に設けられる複数のスピーカとそれぞれのスピーカから出力される音の大きさを調整することで、音像が定位される位置を変化させることができる。なお、より詳細には、音像の定位する位置は、音源が元々保有している音特性や、車室内環境の情報、頭部伝達関数(HRTF;Head-related transfer function)に基づいて定まるため、音声制御部118は、予め官能試験などで得られた最適な出力配分でスピーカユニット30を制御することで、音像を所定の位置に定位させる。
[エージェントサーバ]
図7は、エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す図である。以下、エージェントサーバ200の構成と共にエージェント機能部150等の動作について説明する。ここでは、エージェント装置100からネットワークNWまでの物理的な通信についての説明を省略する。
エージェントサーバ200は、通信部210を備える。通信部210は、例えばNIC(Network Interface Card)などのネットワークインターフェースである。更に、エージェントサーバ200は、例えば、音声認識部220と、自然言語処理部222と、対話管理部224と、ネットワーク検索部226と、応答文生成部228とを備える。これらの構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
エージェントサーバ200は、記憶部250を備える。記憶部250は、上記の各種記憶装置により実現される。記憶部250には、パーソナルプロファイル252、辞書DB(データベース)254、知識ベースDB256、応答規則DB258などのデータやプログラムが格納される。
エージェント装置100において、エージェント機能部150は、音声ストリーム、或いは圧縮や符号化などの処理を行った音声ストリームを、エージェントサーバ200に送信する。エージェント機能部150は、ローカル処理(エージェントサーバ200を介さない処理)が可能な音声コマンドを認識した場合は、音声コマンドで要求された処理を行ってよい。ローカル処理が可能な音声コマンドとは、エージェント装置100が備える記憶部(不図示)を参照することで回答可能な音声コマンドであったり、エージェント機能部150−1の場合は車両機器50を制御する音声コマンド(例えば、空調装置をオンにするコマンドなど)であったりする。従って、エージェント機能部150は、エージェントサーバ200が備える機能の一部を有してもよい。
エージェント装置100は、音声ストリームを取得すると、音声認識部220が音声認識を行ってテキスト化された文字情報を出力し、自然言語処理部222が文字情報に対して辞書DB254を参照しながら意味解釈を行う。辞書DB254は、文字情報に対して抽象化された意味情報が対応付けられたものである。辞書DB254は、同義語や類義語の一覧情報を含んでもよい。音声認識部220の処理と、自然言語処理部222の処理は、段階が明確に分かれるものではなく、自然言語処理部222の処理結果を受けて音声認識部220が認識結果を修正するなど、相互に影響し合って行われてよい。
自然言語処理部222は、例えば、認識結果として、「今日の天気は」、「天気はどうですか」等の意味が認識された場合、標準文字情報「今日の天気」に置き換えたコマンドを生成する。これにより、リクエストの音声に文字揺らぎがあった場合にも要求にあった対話をし易くすることができる。また、自然言語処理部222は、例えば、確率を利用した機械学習処理等の人工知能処理を用いて文字情報の意味を認識したり、認識結果に基づくコマンドを生成したりしてもよい。
対話管理部224は、自然言語処理部222の処理結果(コマンド)に基づいて、パーソナルプロファイル252や知識ベースDB256、応答規則DB258を参照しながら車両Mの利用者に対する発話の内容を決定する。パーソナルプロファイル252は、利用者ごとに保存されている利用者の個人情報、趣味嗜好、過去の対話の履歴などを含む。知識ベースDB256は、物事の関係性を規定した情報である。応答規則DB258は、コマンドに対してエージェントが行うべき動作(回答や機器制御の内容など)を規定した情報である。
また、対話管理部224は、音声ストリームから得られる特徴情報を用いて、パーソナルプロファイル252と照合を行うことで、利用者を特定してもよい。この場合、パーソナルプロファイル252には、例えば、音声の特徴情報に、個人情報が対応付けられている。音声の特徴情報とは、例えば、声の高さ、イントネーション、リズム(音の高低のパターン)等の喋り方の特徴や、メル周波数ケプストラム係数(Mel Frequency Cepstrum Coefficients)等による特徴量に関する情報である。音声の特徴情報は、例えば、利用者の初期登録時に所定の単語や文章等を利用者に発声させ、発声させた音声を認識することで得られる情報である。
対話管理部224は、コマンドが、ネットワークNWを介して検索可能な情報を要求するものである場合、ネットワーク検索部226に検索を行わせる。ネットワーク検索部226は、ネットワークNWを介して各種ウェブサーバ500にアクセスし、所望の情報を取得する。「ネットワークNWを介して検索可能な情報」とは、例えば、車両Mの周辺にあるレストランの一般ユーザによる評価結果であったり、その日の車両Mの位置に応じた天気予報であったりする。
応答文生成部228は、対話管理部224により決定された発話の内容が車両Mの利用者に伝わるように、応答文を生成し、生成した応答文をエージェント装置100に送信する。応答文生成部228は、利用者がパーソナルプロファイルに登録された利用者であることが特定されている場合に、利用者の名前を呼んだり、利用者の話し方に似せた話し方にした応答文を生成したりしてもよい。なお、対話管理部224が、利用者に音楽を提供すると決定した場合、応答文生成部228の処理は省略され、ネットワーク検索部226の検索結果に基づいて得られた楽曲の情報がエージェント機能部150に提供される。以下、応答文と、楽曲などの利用者に提供される情報とを区別しない場合は、「応答情報」と称する場合がある。
エージェント機能部150は、応答文を取得すると、音声合成を行って音声を出力するように音声制御部118に指示する。また、エージェント機能部150は、音声出力に合わせてエージェントの画像を表示するように表示制御部116に指示する。このようにして、仮想的に出現したエージェントが車両Mの利用者に応答するエージェント機能が実現される。
[連携処理の概要]
汎用端末装置70(外部端末)とエージェント装置100とが連携することで、エージェントが乗員にサービスを提供する。図8は、汎用端末装置70とエージェント装置100とが利用される場面の一例を示す図である。例えば、車両Mの乗員が連携アプリ79を起動させると、汎用通信装置70はエージェント装置100と連携する。そして、乗員が汎用端末装置70のマイク73に音声を入力すると、エージェント装置100は、連携している汎用端末装置70から入力された音声を取得し、取得した情報に基づいて、表示・操作装置20、スピーカユニット30、汎用端末装置70の表示部71、または汎用端末装置70のスピーカ72のうち、一以上の機能構成にエージェントを出現させる。「出現」とは、乗員が認識することが可能な態様でエージェントが現れることである。「出現」とは、例えば、エージェントが音声としてスピーカにより出力されたり、エージェント画像が表示部に表示されたりすることである。
表示・操作装置20に含まれる表示部は、「第1表示部」の一例である。汎用通信装置70に含まれる表示部は、「第2表示部」の一例である。なお、第2表示部は、汎用通信装置70とは異なる装置に含まれてもよい。
また、第1ディスプレイ22または第2ディスプレイ24は、「視認者を制限しないような態様で設けられた第1表示部」の一例である。汎用通信装置70は、「音声による入力を受け付ける第1端末」の一例である。汎用通信装置70の表示部71または不図示の他の表示部は「視認者を第1端末が受け付けた音声を入力した利用者に制限するような態様で設けられた第2表示部」の一例である。
例えば、乗員は、自身が入力した音声に応じて出現したエージェントや、エージェントが提供するサービスを、他の乗員に知られたくない場合がある。その場合、下記のような連携処理が適用される。
[連携処理のフローチャート]
図9は、汎用端末装置70とエージェント装置100とにより実行される処理の流れの一例を示すフローチャート(その1)である。まず、汎用通信装置70が、連携アプリ79が起動したか否かを判定する(ステップS100)。連携アプリ79が起動した場合、制御部77が、エージェント装置100に連携を要求する(ステップS102)。
エージェント装置100は、制御部77の連携の要求を受信したか否かを判定する(ステップS200)。制御部77の連携の要求を受信した場合、エージェント装置100は、連携の要求に応じて連携を承諾し、承諾したことを示す情報を汎用通信装置70に送信する(ステップS202)。これにより、汎用通信装置70とエージェント装置100とが連携する。連携によって、汎用通信装置70に入力された音声がエージェント装置100に送信されたり、エージェントが汎用通信装置70に出現したりする。
次に、汎用通信装置70は、乗員の発話が入力されたか否かを判定する(ステップS104)。乗員の発話が入力されたと判定した場合、汎用通信装置70は、発話に基づく情報をエージェント装置100に送信する(ステップS106)。発話に基づく情報は、音響処理が行われた音声ストリームであってもよいし、音響処理前の情報であってもよい。音響処理前の情報が送信される場合、エージェント装置100が、発話に基づく情報に対して音響処理を行う。エージェント装置100は、ステップS106で送信された発話に基づく情報を取得した場合、エージェントサーバ200に発話に基づく情報を送信して、エージェントサーバ200から応答情報を取得する。
また、発話に基づく情報には、汎用通信装置70に入力された音声の大きさを示す情報または音声の大きさを導出するための情報が含まれる。なお、汎用通信装置70が、音声の大きさを示す情報を導出してもよいし、エージェント装置100が、音声の大きさを示す情報を導出してもよい。以下、音声の大きさを示す情報を「発話音圧D1」と称する。
発話音圧D1が、エージェント装置100に代えて、汎用通信装置70において取得される場合、汎用通信装置70が、発話音圧D1の情報をエージェント装置100に送信する。そして、エージェント装置100が、後述するように汎用通信装置70により送信された発話音圧D1が閾値音圧Th1以上であるか否かを判定する。
エージェント装置100は、発話音圧D1が閾値音圧Th1以上であるか否を判定する(ステップS204)。発話音圧D1が閾値音圧Th1以上である場合、エージェント装置100は、エージェント画像を表示・操作装置20(車室内の表示部)に表示させる(ステップS206)。次に、エージェント装置100は、スピーカユニット30を用いてエージェントに応答情報を出力させる(ステップS208)。すなわち、エージェント装置100は、汎用通信装置70と連携し、汎用通信装置70が受け付けた音声に応じて、音声による応答を含むサービスを乗員に提供する。また、エージェント装置100は、汎用通信装置70と連携し、汎用通信装置70が受け付けた閾値音圧Th1以上の音声に応じて、エージェントを車室内の表示部に表示させ、エージェントを汎用通信装置70に出現させる制御を実行させない。以下、エージェント装置100が、ステップS206、およびステップS208のようにエージェントを出現させる制御を「通常出現制御」と称する場合がある。
図10は、エージェントが通常出現制御により出現した様子の一例を示す図である。図示する例では、第2ディスプレイ24およびスピーカユニット30においてエージェントが出現している。なお、第2ディスプレイ24に、代えて(加えて)第1ディスプレイ22においてエージェントが出現してもよい。すなわち、エージェント装置100は、通常出現制御を実行する場合(後述するプライベート出現制御を実行しない場合)、エージェントを車室内の表示部に表示させる。
例えば、エージェント装置100は、汎用通信装置70にエージェントを出現させてもよい。この場合、エージェント装置100は、汎用通信装置70にエージェントを出現させることを指示する。図11は、エージェントが通常出現制御により出現した様子の他の一例を示す図である。図示する例では、第2ディスプレイ24およびスピーカユニット30に加えて、汎用通信装置70の表示部71、およびスピーカ72にエージェントが出現している。
上記のように、乗員は、汎用通信装置70を利用して、エージェントを出現させることができるため、乗員の利便性が向上する。
図9の説明に戻る。発話音圧D1が閾値音圧Th1以上でない場合(発話音圧D1が閾値音圧Th1未満である場合)、エージェント装置100は、エージェント画像を汎用通信装置70の表示部71に表示させる(ステップS210)。すなわち、エージェント装置100は、音声による入力を受け付ける外部端末が受け付けた音声の大きさに基づいて、第2表示部にエージェント画像を表示させる。次に、エージェント装置100は、汎用通信装置70に応答情報を出力させる(ステップS212)。換言すると、エージェント装置100は、エージェントを汎用通信装置70のスピーカ72の音声によって出現させる。例えば、エージェント装置100は、汎用通信装置70に、応答情報や、応答情報を出力することを指示する情報、表示部71にエージェント画像を表示させることを指示する情報を汎用通信装置70に送信する。汎用通信装置70は、エージェント装置100により送信された情報に基づいて、ステップS210またはステップS212の処理を行う。以下、エージェント装置100が、ステップS210、およびステップS212のように汎用通信装置70にエージェントを出現させる制御を「プライベート出現制御(特定制御)」と称する場合がある。
図12は、エージェントがプライベート出現制御により出現した様子の一例を示す図である。図示する例では、車室内の表示部およびスピーカユニット30にはエージェントが出現せず、汎用通信装置70の表示部71、およびスピーカ72にエージェントが出現している。すなわち、エージェント装置100は、汎用通信装置70が受け付けた音声の大きさが閾値音圧Th1未満である場合、汎用通信装置70の表示部71にエージェント画像を表示させるためのプライベ−ト出現制御を実行する。これにより汎用通信装置70がエージェント画像を表示部71に表示させる処理を実行する。また、エージェント装置100は、汎用通信装置70が受け付けた音声の大きさが閾値音圧Th1未満である場合(プライベート制御を実行させる場合)、車室内の表示部にエージェント画像を表示させない。
上記のように、乗員が、例えば小声で汎用通信装置70に音声を入力した場合、他の乗員にエージェントの出現や応答情報等が知られることを抑制することができるので、乗員にとってエージェントは使い勝手がよい。
上述したように、エージェントが通常出現制御またはプライベート出現制御が実行した後、(1)通常出現制御またはプライベート出現制御が継続されてもよいし、(2)次に取得した発話の発話音圧D1の大きさが閾値音圧Th1以上であるか否かの判定結果に基づいて、いずれの態様でエージェントが出現するかが決定されてもよい。
例えば、上記の(1)のように、プライベート出現制御が継続されるものと仮定する。この場合において、プライベート出現制御が実行された場合、以下の特定コマンド処理が開始される。
図13は、汎用通信装置70とエージェント装置100とにより実行される特定コマンド処理の流れの一例を示すフローチャート(その2)である。まず、汎用通信装置70が、特定コマンド(指示情報)が入力されたか否かを判定する(ステップS300)。例えば、特定コマンドの入力は、特定コマンドに対応する音声の入力または汎用端末装置70に対する所定の操作によって実行される。特定コマンドが入力されたと判定した場合、汎用通信装置70は、特定コマンドが入力されたことを示す情報をエージェント装置100に送信する(ステップS302)。
次に、エージェント装置100は、特定コマンドが入力されたか否かを判定する(ステップS400)。特定コマンドが入力されたと判定した場合、エージェント装置100は、プライベート出現制御を解除して、通常出現制御を実行する(ステップS402)。すなわち、エージェント装置100は、汎用通信装置70にプライベート制御を実行させている場合において、汎用通信装置70により送信された特定コマンドに応じて、車室内の表示部にエージェントを出現させる。これにより、本フローチャートの処理が終了する。
上述した処理により、乗員の意思に応じて、エージェントが出現するため、乗員の満足度が向上する。
以上説明した第1実施形態によれば、エージェント装置100は、汎用通信装置70が受け付けた音声の大きさが閾値音圧Th1未満である場合、汎用通信装置70の表示部71にエージェント画像を表示させるためのプライベート制御を実行することにより、エージェントの使い勝手を向上させることができる。
<第2実施形態>
以下、第2実施形態について説明する。第2実施形態では、エージェント装置100は、発話音圧D1が閾値音圧Th1以上であるか否かの判定に加え、乗員の発話が車室内のマイク10に入力されたか否かを判定し、判定結果を用いてエージェントの出現態様を決定する。以下、第1実施形態との相違点を中心に説明する。
図14は、第2実施形態の汎用端末装置70とエージェント装置100とにより実行される処理の流れの一例を示すフローチャートである。図9のフローチャートの処理との相違点について説明する。
ステップS204で、発話音圧D1が閾値音圧Th1以上でない場合(発話音圧D1が閾値音圧Th1未満である場合)、エージェント装置100は、車室内のマイク10が、音声を認識したか否かを判定する(ステップS209)。車室内のマイク10(「受付部」の一例)とは、車室内に設けられたいずれかのマイクであってもよいし、所定のマイク10であってもよい。
例えば、所定のマイク10は、汎用通信装置70に発話を入力した乗員が着座している座席付近に設けられたマイクであってもよい。例えば、エージェント装置100は、乗員認識装置80の着座センサの検知結果と、汎用通信装置70とエージェント装置100との通信結果とに基づいて、乗員の着座位置を特定する。通信結果とは、汎用通信装置70が出力する電波に基づいて推定される汎用通信装置70が存在する方向である。エージェント装置100は、汎用通信装置70が出力する電波の受信結果に基づいて、電波の出力元である汎用通信装置70が存在する方向を特定する。
ステップS209で、車室内のマイク10が音声を認識した場合、ステップS206の処理に進む。すなわち、エージェント装置100は、汎用通信装置70が受け付けた音声の大きさが閾値音圧Th未満である場合であっても、音声の入力を受け付ける車室内のマイク10が音声を受け付けた場合は、エージェント画像を車室内の表示部に表示させる。ステップS209で、車室内のマイク10が音声を認識しなかった場合、ステップS210の処理に進む。
なお、ステップS209において、車室内のマイク10が音声を認識したか否かの判定に代えて、エージェント装置100は、乗員が汎用通信装置70に入力した発話の内容を、車室内のマイク10を介して取得した音声に基づいて認識できたか否かを判定してもよい。例えば、乗員が、汎用通信装置70に、「〇〇について教えて」と入力したものとする。この入力された発話の発話音圧D1は、閾値音圧Th1未満であるものとする。この場合、エージェント装置100は、車室内のマイク10を介して乗員の発話の音声を取得し、取得した音声に基づいて「〇〇について教えて」という発話の内容を認識した場合、ステップS206の処理に進み、発話の内容を認識でなかった場合、ステップS210の処理に進んでもよい。
例えば、連携アプリ79が起動した状態の汎用通信装置70が、乗員から第1の距離の位置に存在し、音声を受け付けるマイク10が、乗員から第2の距離の位置に存在する場合がある。第1の距離は、第2の距離よりも短い距離である。このような場合、乗員がマイク10に音声を入力して通常出現制御の実行を意図したときでも、汎用通信装置70が受け付けた音声の大きさが閾値音圧Th1未満であり、且つマイク10が音声を受け付ける場合がある。この際に、エージェント装置100は、通常出現制御を実行するため、乗員の意図した実現される。
以上説明した第2実施形態によれば、エージェント装置100が、汎用通信装置70が受け付けた音声の大きさが閾値音圧Th1未満である場合であっても、マイク10が音声を受け付けた場合は、エージェント画像を車室内の表示部に表示させることにより、エージェントの使い勝手を向上させることができる。
<第3実施形態>
以下、第3実施形態について説明する。第3実施形態では、エージェント装置100は、着目する乗員が使用するために設けられたマイクに入力された音声に基づいて、エージェントの出現態様を決定する。以下、第1実施形態および第2実施形態との相違点を中心に説明する。
図15は、第3実施形態の車両M1のマイク10およびディスプレイの配置の一例を示す図である。例えば、車両M1の車室内には、第1実施形態および第2実施形態の機能構成に加え、更に、マイク10−1と、マイク10−2と、ディスプレイ29が設けられている。マイク10−2は、「受付部」の他の一例である。
第1ディスプレイ22または第2ディスプレイ24は、「視認者を制限しないような態様で設けられた第1表示部」の一例である。エージェン装置100またはマイク10−1は、「音声による入力を受け付ける第1端末」の他の一例である。ディスプレイ29または不図示の他の表示部は「視認者を第1端末が受け付けた音声を入力した利用者に制限するような態様で設けられた第2表示部」の他の一例である。
マイク10−1は、着目する乗員が使用するために設けられたマイクである。マイク10−1は、例えば、着目する乗員が着座した座席付近に設けられる。図15の例では、乗員は左側後部座席BS2に着座しているものとする。この場合、左側後部座席BS2の近傍に設けられたマイクがマイク10−1である。例えば、助手席ASに着座した乗員が着目する乗員である場合、助手席AS2の近傍に設けられたマイクがマイク10−1である。マイク10−1は、例えば、着目する乗員が着座した座席に最も近いドア付近や、着目する乗員が着座した座席の前方、着目する乗員が着座した座席の天井などに設けられる。また、マイク10−1は、乗員の口元にマイクを近づけさせるようにケーブルによって車両に接続されてもよい。これにより、乗員は、マイク10−1を口付近に近づけて、発話を入力することができる。
マイク10−2は、着目する乗員が使用するための設けられたマイクとは異なるマイクである。マイク10−2は、例えば、着目する乗員が着座した座席付近とは異なる箇所に設けられる。図15の例では、マイク10−2は、車両M1のインストルメントパネルにおける運転席DSと助手席ASとの中間近傍に設けられている。
ディスプレイ29は、着目する乗員が視認可能な位置であり、他の乗員が視認しにくい位置に設けられる。ディスプレイ29は、例えば、図14の例では、助手席ASの座席の背もたれの後側であって、左側後部座席BS2に乗員が着座した際に乗員と対面する位置に設けられている。
図16は、第3実施形態のエージェント装置100により実行される処理の流れの一例を示すフローチャートである。まず、エージェント装置100は、エージェント機能部150が起動したか否かを判定する(ステップS500)。エージェント機能部150が起動した場合、エージェント装置100は、着目する乗員に対応して設定されたマイク10−1に発話が入力されたか否を判定する(ステップS502)。マイク10−1に発話が入力されたと判定した場合、エージェント装置100は、入力された発話の発話音圧D1が閾値音圧Th1以上であるか否かを判定する(ステップS504)。
入力された発話の発話音圧D1が閾値音圧Th1以上である場合、エージェント装置100は、第1ディスプレイ22、または第2ディスプレイ24にエージェント画像を表示させ(ステップS506)、スピーカユニット30を用いてエージェントに応答情報を出力させる(ステップS508)。例えば、車室内の乗員がエージェントの出現を認識するように、スピーカユニット30の一部または全部にエージェントを出現させる。ステップS506、およびステップS508の処理は、「通常出現制御」の他の一例である。
発話音圧D1が閾値音圧Th1以上でない場合(発話音圧D1が閾値音圧Th1未満である場合)、エージェント装置100は、着目する乗員に対応して設定されたマイク10−1とは異なるマイク10−2に発話が入力されたか否かを判定する(ステップS510)。マイク10−2に発話が入力されたと判定した場合、ステップS506の処理に進む。
マイク10−2に発話が入力されていない場合、エージェント装置100は、エージェント画像をディスプレイ29に表示させ(ステップS512)、着目する乗員に対応して設定されたスピーカユニット30を用いてエージェントに応答情報を出力させる(ステップS514)。着目する乗員に対応して設定されたスピーカユニット30は、例えば、スピーカ30Fである。図17は、第3実施形態においてプライベート出現制御が行われた様子の一例を示す図である。ステップS512、およびステップS514の処理は、「プライベート出現制御」の他の一例である。例えば、スピーカ30Fが出力する音は、左側後部座席BS2に着座した乗員には聞こえ、他の座席に着座した乗員には聞こえない程度の大きさの音である。また、スピーカ30Fが出力する音は、他の座席に着座した乗員が音に含まれる情報の意味を認識できないような大きさの音であってもよい。
以上説明した第3実施形態によれば、エージェント装置100は、着目する乗員が使用するために設けられたマイクに入力された音声に基づいて、エージェントの出現態様を決定することにより、汎用通信装置70を使用しなくても、第1実施形態と同様の効果を奏することができる。
<第4実施形態>
以下、第4実施形態について説明する。第4実施形態では、エージェント装置が、乗員の自宅や所定の施設、所定の位置など車両とは異なる位置に設けられる。以下、第1実施形態との相違点を中心に説明する。
図18は、自宅に設けられたエージェント装置100Aの一例を示す図である。エージェント装置100Aは、例えば、乗員の自宅や、所定の施設、または所定位置に設けられた据え置き型の装置である。すなわち、エージェント装置100Aに含まれる後述する表示部105(「第1表示部」の一例)または後述するマイク102(「受付部」の他の一例)は、施設または所定の位置に設けられた据え置き型である。据え置き型とは、移動可能であるが施設内など限られた範囲において使用されることが前提であることである。後述するマイク102は「受付部」の一例である。
また、後述する表示部105は、「視認者を制限しないような態様で設けられた第1表示部」の他の一例である。汎用通信装置70は、「音声による入力を受け付ける第1端末」の一例である。汎用通信装置70の表示部71または不図示の他の表示部は「視認者を第1端末が受け付けた音声を入力した利用者に制限するような態様で設けられた第2表示部」の一例である。
エージェント装置100Aは、例えば、マイク102と、表示・操作部104と、スピーカユニット106と、管理部110と、エージェント機能部150と、ペアリングアプリ実行部152とを備える。音響処理部112は、マイク102に入力された音声に対して音響処理を行う。表示制御部116は、エージェント機能部150による指示に応じて表示・操作部104に含まれる表示部105に画像を表示させる。音声制御部118は、エージェント機能部150による指示に応じて、スピーカユニット106に含まれるスピーカのうち一部または全部に音声を出力させる。
汎用通信装置70に乗員の発話が入力されたと判定した場合、汎用通信装置70は、発話に基づく情報をエージェント装置100に送信する。エージェント装置100は、汎用通信装置70から取得した発話の発話音圧D1が閾値音圧Th1以上であるか否を判定する。発話音圧D1が閾値音圧Th1以上である場合、エージェント装置100は、エージェント画像を表示・操作装置104の表示部105に表示させ、スピーカユニット106にエージェントを出現させる。すなわち「通常出現制御」が実行される。
発話音圧D1が閾値音圧Th1以上でない場合(発話音圧D1が閾値音圧Th1未満である場合)、エージェント装置100は、エージェント画像を汎用通信装置70の表示部71に表示させ、汎用通信装置70に応答情報を出力させる。すなわち「プライベート出現制御」の処理が行われる。
以上説明した第4実施形態によれば、エージェント装置100が、車両以外の場所で使用される場合であっても、第1実施形態と同様の効果を奏することができる。
<第5実施形態>
以下、第5実施形態について説明する。第5実施形態では、エージェント装置に代えて、汎用通信装置70が、発話音圧D1が閾値音圧Th1以上であるか否かを判定し、判定結果に基づいてエージェントの出現態様を決定する。以下、第2実施形態との相違点を中心に説明する。
図19は、汎用端末装置70とエージェント装置100とにより実行される処理の流れの一例を示すフローチャートである。図19のステップS600〜S604、ステップS700、S702の処理は、図9のステップS100〜S104、ステップS200、S202の処理と同様であるため説明を省略する。
ステップS604で乗員の発話が入力されたと判定した場合、汎用通信装置70は、入力された発話の発話音圧D1を取得する(ステップS606)。次に、汎用通信装置70は、発話に基づく情報をエージェント装置100に送信する(ステップS608)。
エージェント装置100は、マイク102が音声を認識したか否かを判定する(ステップS704)。マイク102が音声を認識した場合、エージェント装置100は、車室内の表示部にエージェント画像を表示させ(ステップ706)、スピーカユニット30を用いてエージェントに応答情報を出力させる(ステップS708)。すなわち「通常出現制御」が実行される。
マイク102が音声を認識しなかった場合、エージェント装置100は、ステップS704の判定結果を汎用通信装置70に送信する(ステップS710)。ステップS710において、例えばステップS704の判定結果に加え、応答情報も汎用通信装置70に送信される。なお、エージェント装置100は、ステップS608で送信された情報を取得した後、取得した情報に応じた応答情報をエージェンサーバ200から取得している。
汎用通信装置70は、ステップS710により送信された判定結果に基づいて、マイク102が音声を認識したか否かを判定する(ステップS610)。マイク102が音声を認識している場合、ステップS612〜S616の処理をスキップする。
マイク102が音声を認識していない場合、汎用通信装置70は、発話音圧D1が閾値音圧Th1以上であるか否を判定する(ステップS612)。発話音圧D1が閾値音圧Th1以上である場合、汎用通信装置70が、出力指示をエージェント装置100に送信して、エージェント装置100が、ステップS706、S708の処理を行う。
発話音圧D1が閾値音圧Th1以上でない場合(発話音圧D1が閾値音圧Th1未満である場合)、汎用通信装置70は、エージェント画像を汎用通信装置70の表示部71に表示させ(ステップS614)、汎用通信装置70のスピーカ72を用いてエージェントに応答情報を出力させる(ステップS616)。すなわち「プライベート出現制御」が実行される。
以上説明した第5実施形態によれば、汎用通信装置70が、発話音圧D1が閾値音圧Th1以上であるか否かの判定を行うことにより、エージェン装置100における処理負荷が軽減する。
なお、上記の各実施形態の機能の一部は、他の装置に含まれてもよいし、上記の各フローチャートの処理の一部は省略されてもよいし、各処理の順序は入れ替えられてもよい。また、各実施形態の処理や機能構成は、組み合わされて適用されてもよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1‥エージェントシステム、20‥表示・操作装置、30‥スピーカユニット、70‥汎用通信装置、71‥表示部、79‥連携アプリ79、100、100A、100B‥エージェント装置、110‥管理部、115‥連携制御部115、116‥表示制御部、118‥音声制御部、130‥記憶部、122‥判定部、150‥エージェント機能部、200‥エージェントサーバ

Claims (16)

  1. 音声に応じて、音声による応答を含むサービスを提供するエージェントが起動している場合にエージェント画像を第1表示部に表示させる表示制御部と、
    音声による入力を受け付ける外部端末が受け付けた音声の大きさに基づいて、第2表示部に前記エージェント画像を表示させる特定制御を実行する制御部と、
    を備えるエージェント装置。
  2. 前記制御部は、音声による入力を受け付ける外部端末が受け付けた音声の大きさが所定の大きさ未満である場合に、前記第2表示部に前記特定制御を行う、
    請求項1に記載のエージェント装置。
  3. 前記第2表示部は前記外部端末が有する、
    請求項1または2に記載のエージェント装置。
  4. 前記表示制御部は、前記制御部が特定制御を実行する場合、前記エージェント画像を前記第1表示部に表示させない、
    請求項1から3のうちいずれか1項に記載のエージェント装置。
  5. 前記表示制御部は、前記制御部が特定制御を実行しない場合、前記エージェント画像を前記第1表示部に表示させる、
    請求項1から4のうちいずれか1項に記載のエージェント装置。
  6. 前記制御部は、前記外部端末が受け付けた音声の大きさが所定の大きさ未満である場合であっても、音声の入力を受け付ける受付部が音声を受け付けた場合は、前記エージェント画像を前記第1表示部に表示させる、
    請求項1から5のうちいずれか1項に記載のエージェント装置。
  7. 前記受付部は、車両、施設、または所定位置に設けられた据え置き型のマイクである、
    請求項6に記載のエージェント装置。
  8. 前記第1表示部は、車両、施設、または所定位置に設けられた据え置き型の表示部である、
    請求項1から7のうちいずれか1項に記載のエージェント装置。
  9. 前記外部端末は、携帯式の端末装置である、
    請求項1から8のうちいずれか1項に記載のエージェント装置。
  10. 前記表示制御部は、
    前記制御部が前記特定制御を実行している場合において、
    前記外部端末により送信された指示情報に応じて、前記エージェント画像を前記第1表示部に表示させる、
    請求項1から9のうちいずれか1項に記載のエージェント装置。
  11. 前記エージェント装置は、前記外部端末と連携し、
    前記エージェントは、前記外部端末が受け付けた音声に応じて、音声による応答を含むサービスを提供する、
    請求項1から9のうちいずれか1項に記載のエージェント装置。
  12. 前記エージェント装置は、前記外部端末と連携し、
    前記表示制御部は、前記外部端末が受け付けた所定の大きさ以上の音声に応じて、前記エージェント画像を前記第1表示部に表示させ、
    前記制御部は、前記外部端末が受け付けた所定の大きさ以上の音声に応じて、前記特定制御を実行しない、
    請求項1から11のうちいずれか1項に記載のエージェント装置。
  13. 音声に応じて、音声による応答を含むサービスを提供するエージェントが起動している場合に、視認者を制限しないような態様で設けられた第1表示部にエージェント画像を表示させる表示制御部と、
    音声による入力を受け付ける第1端末が受け付けた音声の大きさが所定の大きさ未満である場合、視認者を前記第1端末が受け付けた音声を入力した利用者に制限するような態様で設けられた第2表示部にエージェント画像を表示させるための特定制御を実行する制御部と、
    を備えるエージェント装置。
  14. コンピュータに
    音声による入力を受け付ける受付部に音声を受け付けさせ、
    前記受付部に受け付けさせた音声に基づく情報をエージェント装置に送信させ、
    前記送信させた音声に基づく情報に応じて、エージェント装置から取得した特定制御の指示に基づいて、第1の特定表示部にエージェント画像を出現させる、
    アプリケーションプログラムと、
    音声に応じて、音声による応答を含むサービスを提供するエージェントが起動している場合にエージェント画像を第2の特定表示部に表示させる表示制御部、および
    前記受付部が受け付けた音声の大きさが所定の大きさ未満である場合、第2特定表示部に前記エージェント画像を表示させるための前記特定制御を前記コンピュータに実行させる制御部、を備えるエージェント装置と
    を含むエージェントシステム。
  15. コンピュータが、
    音声に応じて、音声による応答を含むサービスを提供するエージェントが起動している場合にエージェント画像を第1表示部に表示させ、
    音声による入力を受け付ける外部端末が受け付けた音声の大きさに基づいて、第2表示部に前記エージェント画像を表示させるための特定制御を実行させる、
    エージェントの制御方法。
  16. コンピュータに、
    音声に応じて、音声による応答を含むサービスを提供するエージェントが起動している場合にエージェント画像を第1表示部に表示させ、
    音声による入力を受け付ける外部端末が受け付けた音声の大きさに基づいて、第2表示部に前記エージェント画像を表示させるための特定制御を実行させる、
    プログラム。
JP2019060021A 2019-03-27 2019-03-27 エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム Active JP7169921B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019060021A JP7169921B2 (ja) 2019-03-27 2019-03-27 エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム
CN202010215427.9A CN111754999B (zh) 2019-03-27 2020-03-24 智能体装置及其控制方法、智能体系统、存储介质
US16/828,995 US11518399B2 (en) 2019-03-27 2020-03-25 Agent device, agent system, method for controlling agent device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019060021A JP7169921B2 (ja) 2019-03-27 2019-03-27 エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020160832A true JP2020160832A (ja) 2020-10-01
JP7169921B2 JP7169921B2 (ja) 2022-11-11

Family

ID=72607874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019060021A Active JP7169921B2 (ja) 2019-03-27 2019-03-27 エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US11518399B2 (ja)
JP (1) JP7169921B2 (ja)
CN (1) CN111754999B (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154926A (ja) * 2004-11-25 2006-06-15 Denso Corp キャラクタ表示を利用した電子機器操作システム及び電子機器
JP2006195578A (ja) * 2005-01-11 2006-07-27 Toyota Motor Corp 車両用エージェント装置及びエージェントシステム
JP2007334251A (ja) * 2006-06-19 2007-12-27 Kenwood Corp エージェント装置、プログラム、及び音声供給方法
JP2008001247A (ja) * 2006-06-23 2008-01-10 Kenwood Corp エージェント装置、プログラム、及びエージェント装置におけるキャラクタ表示方法
JP2010232780A (ja) * 2009-03-26 2010-10-14 Brother Ind Ltd 通信制御装置、通信制御方法、及び通信制御プログラム
JP2014083658A (ja) * 2012-10-25 2014-05-12 Panasonic Corp 音声エージェント装置、及びその制御方法
JP2015194864A (ja) * 2014-03-31 2015-11-05 Kddi株式会社 遠隔操作方法ならびにシステムならびにそのユーザ端末および視聴端末
JP2018136568A (ja) * 2014-05-30 2018-08-30 アップル インコーポレイテッド 手動始点/終点指定及びトリガフレーズの必要性の低減
JP2019061341A (ja) * 2017-09-25 2019-04-18 Kddi株式会社 端末装置、プログラム及びシステム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT390685B (de) * 1988-10-25 1990-06-11 Philips Nv System zur textverarbeitung
US5890122A (en) * 1993-02-08 1999-03-30 Microsoft Corporation Voice-controlled computer simulateously displaying application menu and list of available commands
JP2004037998A (ja) * 2002-07-05 2004-02-05 Denso Corp 音声制御装置
JP4170808B2 (ja) * 2003-03-31 2008-10-22 株式会社東芝 情報表示装置、情報表示方法及びプログラム
JP4645310B2 (ja) 2005-06-02 2011-03-09 株式会社デンソー エージェントキャラクタ表示を利用した表示システム
KR102065045B1 (ko) * 2013-03-15 2020-01-10 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
CN107148614B (zh) * 2014-12-02 2020-09-08 索尼公司 信息处理设备、信息处理方法和程序
JP6582328B2 (ja) * 2017-06-20 2019-10-02 本田技研工業株式会社 情報出力システム、情報出力方法、及びプログラム
JP7340940B2 (ja) * 2019-03-07 2023-09-08 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154926A (ja) * 2004-11-25 2006-06-15 Denso Corp キャラクタ表示を利用した電子機器操作システム及び電子機器
US20060129637A1 (en) * 2004-11-25 2006-06-15 Denso Corporation System for operating electronic device using animated character display and such electronic device
JP2006195578A (ja) * 2005-01-11 2006-07-27 Toyota Motor Corp 車両用エージェント装置及びエージェントシステム
JP2007334251A (ja) * 2006-06-19 2007-12-27 Kenwood Corp エージェント装置、プログラム、及び音声供給方法
JP2008001247A (ja) * 2006-06-23 2008-01-10 Kenwood Corp エージェント装置、プログラム、及びエージェント装置におけるキャラクタ表示方法
JP2010232780A (ja) * 2009-03-26 2010-10-14 Brother Ind Ltd 通信制御装置、通信制御方法、及び通信制御プログラム
JP2014083658A (ja) * 2012-10-25 2014-05-12 Panasonic Corp 音声エージェント装置、及びその制御方法
JP2015194864A (ja) * 2014-03-31 2015-11-05 Kddi株式会社 遠隔操作方法ならびにシステムならびにそのユーザ端末および視聴端末
JP2018136568A (ja) * 2014-05-30 2018-08-30 アップル インコーポレイテッド 手動始点/終点指定及びトリガフレーズの必要性の低減
JP2019061341A (ja) * 2017-09-25 2019-04-18 Kddi株式会社 端末装置、プログラム及びシステム

Also Published As

Publication number Publication date
CN111754999B (zh) 2023-09-26
JP7169921B2 (ja) 2022-11-11
US20200307620A1 (en) 2020-10-01
US11518399B2 (en) 2022-12-06
CN111754999A (zh) 2020-10-09

Similar Documents

Publication Publication Date Title
JP2020144663A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020147214A (ja) エージェント装置、システム、エージェント装置の制御方法、およびプログラム
JP2020149106A (ja) エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム
JP7274404B2 (ja) 情報提供装置、情報提供方法、およびプログラム
JP7340943B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
CN111559328A (zh) 智能体装置、智能体装置的控制方法及存储介质
JP2020144264A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020160833A (ja) 情報提供装置、情報提供方法、およびプログラム
JP2020152183A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020144275A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
CN111724778B (zh) 车载装置、车载装置的控制方法及存储介质
CN111667823B (zh) 智能体装置、智能体装置的控制方法及存储介质
JP7239365B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP7368090B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP7169921B2 (ja) エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム
JP2020160848A (ja) サーバ装置、情報提供システム、情報提供方法、およびプログラム
JP2020152298A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020142721A (ja) エージェントシステム、車載機器の制御方法、及びプログラム
CN111661065A (zh) 智能体装置、智能体装置的控制方法及存储介质
CN111559317B (zh) 智能体装置、智能体装置的控制方法及存储介质
JP2020157853A (ja) 車載エージェントシステム、車載エージェントシステムの制御方法、およびプログラム
JP2020160133A (ja) エージェントシステム、エージェントシステムの制御方法、およびプログラム
JP7297483B2 (ja) エージェントシステム、サーバ装置、エージェントシステムの制御方法、およびプログラム
CN111824174A (zh) 智能体装置、智能体装置的控制方法及存储介质
JP2020160108A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R150 Certificate of patent or registration of utility model

Ref document number: 7169921

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150