JP6946115B2 - 移動体運行支援システム - Google Patents

移動体運行支援システム Download PDF

Info

Publication number
JP6946115B2
JP6946115B2 JP2017163582A JP2017163582A JP6946115B2 JP 6946115 B2 JP6946115 B2 JP 6946115B2 JP 2017163582 A JP2017163582 A JP 2017163582A JP 2017163582 A JP2017163582 A JP 2017163582A JP 6946115 B2 JP6946115 B2 JP 6946115B2
Authority
JP
Japan
Prior art keywords
moving body
user
information
mobile
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017163582A
Other languages
English (en)
Other versions
JP2019040522A (ja
Inventor
籠嶋 岳彦
岳彦 籠嶋
山中 紀子
紀子 山中
達馬 石原
達馬 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017163582A priority Critical patent/JP6946115B2/ja
Priority to US15/908,062 priority patent/US11453411B2/en
Publication of JP2019040522A publication Critical patent/JP2019040522A/ja
Application granted granted Critical
Publication of JP6946115B2 publication Critical patent/JP6946115B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2900/00Indexing codes relating to the purpose of, or problem solved of road vehicle drive control systems not otherwise provided for in groups B60W30/00
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Selective Calling Equipment (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)

Description

本発明の実施形態は、移動体運行支援システムに関する。
例えば自動車などの移動体において、自動運転技術が開発されている。自動運転の移動体に乗る人(搭乗者)は、例えば音声により、移動体に運行の指示を行う。より適切な運行が可能なことが望まれる。
特開2006−339810号公報
本発明の実施形態は、適切な運行が可能な移動体運行支援システムを提供する。
本発明の実施形態によれば、移動体運行支援システムは、移動体の状態に関する移動体情報を入手する入手部と、前記移動体に設けられたマイクロフォンと、オペレータが用いるオペレータ用通信装置と送受信が可能な通信部と、前記マイクロフォンで取得された音に基づいて前記移動体に載っているユーザの指示に関する指示情報と、前記移動体情報と、に基づいて、第1動作及び第2動作のいずれかを実施する処理部と、を含む。前記第1動作においては、前記処理部は、前記移動体に前記指示情報に応じた動作をさせる。前記第2動作においては、前記処理部は、前記通信部と前記オペレータ用通信装置との間の前記送受信により、前記ユーザと前記オペレータとの通信を可能にする。
実施形態に係る移動体運行支援システムを例示する模式図である。 実施形態に係る移動体運行支援システムを例示するブロック図である。 実施形態に係る移動体運行支援システムの動作を例示するフローチャート図である。 実施形態に係る移動体運行支援システムの使用例を示す模式図である。
以下に、本発明の各実施の形態について図面を参照しつつ説明する。
本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
図1は、実施形態に係る移動体運行支援システムを例示する模式図である。
図2は、実施形態に係る移動体運行支援システムを例示するブロック図である。
図1及び図2に示すように、実施形態に係る移動体運行支援システム110は、入手部12と、マイクロフォン10Mと、通信部10Tと、処理部11と、を含む。この例では、移動体運行支援システム110は、スピーカ10S、撮像部14及びセンサ15をさらに含む。
例えば、マイクロフォン10M、スピーカ10S、撮像部14及びセンサ15は、移動体30に設けられる。
移動体30は、例えば車である。この場合、移動体30は、車輪を有する。後述するように、移動体30は、船または航空機などを含んでも良い。
移動体30にユーザ70が乗ることが可能である。移動体30は、自動運転が可能である。移動体30は、人による運転が可能でも良い。以下の例では、移動体30にユーザ70が乗り、移動体30が自動運転する。移動体30はユーザ70の望む目的地までユーザ70を運ぶ。
例えば、マイクロフォン10Mは、音を取得する。この音は、ユーザ70の声を含む。例えば、マイクロフォン10Mにより取得されたユーザ70の声を音声認識することで、ユーザ70の意図(例えば目的地など)が理解できる。
スピーカ10Sは、音を発生する。この音は、例えば、ユーザ70に向けた質問を含む。質問を含む音(質問音)をユーザ70が聞く。ユーザ70は、質問に回答できる。回答がマイクロフォン10Mで取得され、ユーザ70の意図がさらに理解される。
撮像部14は、例えば、移動体30の内部を撮像できる。撮像部14により、例えば、ユーザ70の像が撮像できる。この像により、ユーザ70の状態が推定できる。
入手部12は、移動体30の状態(例えば、移動体30の現在位置や移動体30の速度など)に関する移動体情報を入手可能である。移動体情報は、移動体30に設けられるセンサ(移動体センサ32、図2参照)で取得されても良い。移動体センサ32で取得された移動体情報を、入手部12が入手しても良い。または、移動体情報は、センサ15で取得されても良い。センサ15で取得された移動体情報を、入手部12が入手しても良い。
移動体運行支援システム110に、記憶部16(図2参照)が設けられても良い。記憶部16は、移動体運行支援システム110(例えば処理部11)で実施される動作の少なくとも一部に関するプログラムを記憶できる。記憶部16は、移動体運行支援システム110(例えば処理部11)で実施される動作で使用されるデータの少なくとも一部を記憶できる。
移動体30は、例えば、オペレータ80により制御されることができる。オペレータ80は、移動体30を遠隔操作しても良い。例えば、オペレータ80により、例えば、移動体30の目的地などが設定できても良い。オペレータ80は、例えば、オペレータ用通信装置80Tを介して、移動体30の制御を行う。例えば、オペレータ80は、オペレータ用マイクロフォン80M及びオペレータ用スピーカ80Sを有している。例えば、オペレータ80は、移動体30のマイクロフォン10Mにより取得された音を、オペレータ用スピーカ80Sで聞くことが可能である。例えば、オペレータ80は、移動体30のスピーカ10Sを用いて、ユーザ70に話しかけることが可能である。
このように、オペレータ80は、移動体30の制御の他に、ユーザ70との通信(会話などを含む)が可能である。この通信は、例えば、オペレータ用通信装置80Tと、通信部10Tと、により行われる。
移動体運行支援システム110の通信部10Tは、オペレータ80が用いるオペレータ用通信装置80Tと送受信が可能である。
移動体運行支援システム110の処理部11は、第1動作及び第2動作を実施可能である。これらの動作は、ユーザ70の指示と、移動体情報と、に基づいて、切り替えて行われる。例えば、マイクロフォン10Mで取得された音に基づいて、移動体30に乗っているユーザ70の指示(例えば目的地など)に関する指示情報が導出できる。この導出は、例えば、音声認識などにより行われる。一方、上記の移動体情報(例えば移動体30の現在位置や移動体30の速度など)は、入手部12で入手される。
処理部11は、指示情報と移動体情報とに基づいて、第1動作及び第2動作のいずれかを実施する。第1動作においては、処理部11は、移動体30に、指示情報に応じた動作をさせる。一方、第2動作においては、処理部11は、通信部10Tとオペレータ用通信装置80Tとの間の送受信により、ユーザ70とオペレータ80との通信を可能にする。
第1動作は、例えば、ユーザ70の指示が、移動体30の現在の状況に適合しており、ユーザ70の指示の通りに移動体30が運行しても問題ない場合に行われる。一方、例えば、ユーザ70の指示が不明確な場合がある。または、ユーザ70の指示が移動体30の現在の状況に適合しておらず、ユーザ70の指示の通りに移動体30が運行すると危険な場合がある。このような場合に、処理部11は、第1動作ではなく、第2動作を実施する。これにより、移動体30の適切な運行が支援できる。
例えば、処理部11から出力される信号が、移動体30の制御部31(図2参照)に供給される。制御部31は、駆動部33を制御する。駆動部33の動作にり移動体30が運行される。これにより、例えば、上記の第1動作が実施される。
一方、第2動作において、処理部11は、ユーザ70とオペレータ80との通信を可能にする。例えば、処理部11は、通信部10Tとオペレータ用通信装置80Tとの間の通信により、オペレータ80に通知を行う。処理部11は、オペレータ80に、ユーザ70との通信を行うことを促す。処理部11は、ユーザ70の声を含むこれまでの経緯をオペレータ80に提供しても良い。
第2動作の実施により、オペレータ80は、ユーザ70との通信に基づいて、ユーザ70の望むサービスを提供できる。例えば、ユーザ70との会話に基づいて、オペレータ80は、ユーザ70が望む目的地を移動体30に設定できる。例えば、オペレータ80は、ユーザ70に移動体30の状態を説明し、ユーザ70と相談できる。その結果に基づいて、オペレータ80は、移動体30の運行を制御できる。オペレータ80は、例えば、オペレータ用通信装置80Tを介して、移動体30の制御部31にデータを送信できる。これにより、オペレータ80は、移動体30の運行を制御できる。
以下、移動体30で実施される自動運転の例について説明する。
例えば、移動体30に設けられる各種のセンサなどにより、移動体30の周囲の状況が把握され、移動体30の運行が、ユーザ70の操作なしで行われる。
このような自動運転においても、目的地の設定などは、ユーザ70により行われる。例えば、移動体30の運行の開始時に、ユーザ70から目的地などを含む指示が、例えば、声などにより行われる。例えば、声を含む音がマイクロフォン10Mにより取得され、音声認識されて、ユーザ70の意図が理解される。ユーザ70の意図(例えば目的地)に従って、移動体30の運行が開始される。
このとき、例えば、ユーザ70の指示だけに基づいて移動体30が運行される参考例においては、危険な状態または不都合な状態が発生することがある。例えば、ユーザ70が声により指示した目的地が、現在の位置から異常に遠い場合がある。例えば、ユーザ70が望む目的地の名前を正確には知らない場合がある。このような場合は、目的地が誤って設定されると、ユーザ70に適したサービスが提供できない。例えば、移動体30が移動中において、ユーザ70から急に止まることが要求されることがある。この場合に、ユーザ70の要求の通りに急に止まると、事故が発生することがある。このような要求(ユーザ70の指示)があった場合に、ユーザ70の指示だけに基づいて移動体30が運行される参考例は、危険である。
または、例えば、ユーザ70の指示の目的地に到着したときに、到着した位置が、ユーザ70が望んでいない位置である場合がある。ユーザ70の指示だけに基づいて移動体30が運行される参考例においては、到着したときに、トラブルが発生する。この場合も、ユーザ70に適切なサービスが提供できない。
例えば、音声認識及び意図理解の技術(例えば人口知能の技術)が高度である場合には、このような状況のときも、ユーザ70にある程度適切なサービスを提供できる可能性がある。しかしながら、人口知能の技術の高度化には限界があり、結果として、ユーザ70に適切なサービスを提供することは、実用的には困難である。
これに対して、実施形態においては、ユーザ70の指示情報に加えて、入手部12が入手した移動情報に基づいて、移動体30の自動運転、または、オペレータ80との通信が行われる。移動体30に関する現在の状態(移動体情報)を考慮することで、危険な状態または不都合な状態の発生が抑制できる。
実施形態においては、2つの運行状態がある。1つの運行状態では、ユーザ70の意図を移動体運行支援システム110の処理部11が判断して、処理部11の判断に基づいて、移動体30が運行される。別の1つの運行状態では、オペレータ80がユーザ70と会話して、オペレータ80がユーザ70の意図を判断し、そして、オペレータ80の判断に基づいて移動体30が運行される。実施形態によれば、適切な運行が可能な移動体運行支援システムが提供できる。
実施形態によれば、例えば、ユーザ70の指示の通りに移動体30が運行しても良い場合(例えば安全な場合)は、第1動作が実施される。例えば、ユーザ70の声を音声認識してユーザ70の意図が理解され、ユーザ70の所望の運行が実施される。オペレータ80の制御が省略でき、便利になる。一方、ユーザ70の指示の通りに移動体30が運行すると不都合な場合(例えば不安全な場合)は、第2動作が実施される。例えば、オペレータ80とユーザ70との会話によりオペレータ80が移動体30を制御できる。これにより、ユーザ70に適切なサービスを提供できる。
実施形態において、ユーザ70は、携帯電話、スマートフォンまたは携帯型のパーソナルコンピュータなどの機器71(図1及び図2参照)を持っていても良い。例えば、オペレータ80とユーザ70との通信の一部が、機器71を介して行われても良い。
例えば、機器71には、ユーザセンサ75が設けられても良い。ユーザセンサ75は、ユーザ70の状態を検出できる。ユーザ70の状態は、ユーザ70の位置、ユーザ70の移動の速度、及び、ユーザ70の生体状態の少なくともいずれかを含む。ユーザセンサ75は、例えば、GPSを含んでも良い。ユーザセンサ75は、加速度センサを含んでも良い。ユーザセンサ75は、脈拍、体温、血圧、血中酸素濃度、及び、呼気中アルコール濃度の少なくとも一部を検出可能でも良い。
例えば、機器71と移動体運行支援システム110とが通信可能でも良い。機器71のユーザセンサ75で得られるユーザ70に関する情報から、移動体30の状態(移動体30の位置または速度など)の少なくとも一部が推定されても良い。移動体情報の少なくとも一部が、ユーザセンサ75の出力に基づいて取得されても良い。処理部11で行われる第1動作及び第2動作の一方の動作は、ユーザセンサ75の出力に基づいて行われても良い。
実施形態において、例えば、移動体情報は、移動体30の速度、移動体30の加速度、移動体30の進行方向、移動体30の位置、及び、移動体30の駆動源の残量の少なくとも1つを含む。移動体30の位置は、例えば、GPS情報などに基づく。移動体30の駆動源は、例えば、燃料を含む。燃料は、ガソリン及び軽油などを含む。燃料は、水素などを含んでも良い。駆動源は、燃料電池を含む。駆動源は、電池を含む。
例えば、上記の移動体情報と、上記の指示情報(ユーザ70の指示に関する情報)と、に基づいて、第1動作及び第2動作の一方が行われる。
例えば、処理部11は、指示情報に応じた動作を移動体30が実施したときに安全であると判断されるときに、第1動作を実施する。一方、処理部11は、指示情報に応じた動作を移動体30が実施したときに不安全であると判断されるときに、第2動作を実施する。例えば、移動体30が高速で移動中である場合、または、移動体30の加速度が大きい場合に、指示情報の通りに移動体30が運行すると不安全(危険)な場合がある。不安全な場合には、第2動作を実施して、オペレータ80による制御に切り替える。
例えば、指示情報が、運行の目的地に関する情報を含む場合がある。このとき、移動体情報は、移動体30の現在位置を含む。処理部11は、現在位置と目的地との間の距離が所定の第1距離以下のときに、第1動作を行う。一方、処理部11は、現在位置と目的地との間の距離がこの第1距離を超えるときに、第2動作を行う。第1距離は、移動体30において予め設定できる。ユーザ70の指示した目的地が、異常に遠いときに第2動作が実施される。
同様に、実施形態において、指示情報が、運行の目的地に関する情報を含む場合がある。このとき、移動体情報は、移動体30の駆動源の現在残量を含んでもよい。処理部11は、現在残量が、目的地までに消費すると推定される「駆動源の使用推定量」よりも多いときに、第1動作を行う。一方、処理部11は、現在残量が使用推定量以下のときに、第2動作を行う。例えば、ユーザ70の希望する目的地が遠く、移動体30の駆動源の残量では到達できないと推定される場合は、第2動作が行われる。
同様に、実施形態において、指示情報が、運行の目的地に関する情報を含む場合がある。このとき、移動体情報は、移動体30の進行方向を含んでも良い。目的地の方向が、移動体30の現在の進行方向と大きく異なる場合がある。このような場合に、第1動作と第2動作とが切り替えて行われても良い。例えば、処理部11は、目的地の方向と進行方向との差が、しきい値以下のときに、第1動作を行う。一方、処理部11は、この差が、上記のしきい値を超えるときに、第2動作を行う。目的地の方向が、移動体30の現在の進行方向と大きく異なる場合になどに、例えば、オペレータ80とユーザ70との通信が開始され、ユーザ70の意図がオペレータ80により確認できる。
同様に、実施形態において、指示情報が、運行の目的地に関する情報を含む場合がある。移動体30がこの目的地まで移動した後で、その目的地が、ユーザ70が意図した位置とは異なる場合がある。このような場合に、第1動作と第2動作とが切り替えて行われても良い。例えば、処理部11が、第1動作を実施して、移動体30に指示情報に応じた動作をさせ、移動体30が目的地に到着する。このとき、ユーザ70の意図がその目的地と異なると推定される場合がある。例えば、ユーザ70の声を音声認識することで、ユーザ70の意図がその目的地と異なると推定できる。このような場合に、処理部11は、第2動作をさらに実施する。この第2動作により、オペレータ80とユーザ70との通信により、ユーザ70の意図に応じた運行が、オペレータ80の制御により実施される。
実施形態において、移動体情報は、移動体30の速度及び移動体30の加速度の少なくともいずれかを含む。このとき、処理部11は、上記の少なくともいずれかが、しきい値以下のときに、第1動作を行う。しきい値は、例えば、安全な運行が可能な値である。処理部11は、上記の少なくともいずれかが、このしきい値を超えるときに、第2動作を行う。安全な運行ができる。
処理部11は、ユーザ70の指示に関する指示情報、及び、移動体情報に加えて、ユーザ70に関する情報にさらに基づいて、第1動作及び第2動作のいずれかを実施しても良い。例えば、ユーザ70の年齢、性別または言語などに応じて、第1動作及び第2動作の切り替えが行われても良い。例えば、自動運転に慣れていない人がユーザ70である場合に、第2動作が行われる。これにより、ユーザ70は、オペレータ80に会話で運行についての要求を伝えることができる。例えば、ユーザ70の所有する認識情報(例えば名前または携帯電話の番号など)により、ユーザ70が過去に自動運転の経験が有る場合には、第1動作の実施の適用の頻度を高くしても良い。
例えば、移動体30の所有者がユーザ70(またはその家族など)である場合がある。このような場合、第1動作の実施の適用の頻度を高くしても良い。一方、移動体30がタクシーなどの場合がある。このような場合、ユーザ70は、自動運転に慣れている場合と、慣れていない場合と、がある。ユーザ70に関する情報(例えば、年齢、性別または言語など)に基づいて、ユーザ70の慣れの程度が、推定できる。これらのユーザ70に関する情報は、例えば、マイクロフォン10Mにより取得されるユーザ70の声、及び、撮像部14で取得されるユーザ70の像の少なくともいずれかから導出できる。
ユーザ70に関する情報は、ユーザ70の感情情報を含んでも良い。例えば、ユーザ70の声などから、ユーザ70が怒っていることが推定できる。このような場合には、第2動作が行われる。この感情情報は、例えば、マイクロフォン10Mで取得された音に含まれるユーザ70の声の少なくとも一部から推定することが可能である。
ユーザ70に関する情報は、ユーザ70の生体情報(脈拍、体温、血圧、血中酸素濃度、及び、呼気中アルコール濃度の少なくともいずれか)を含んでも良い。ユーザ70の生体情報は、移動体30に設けられるセンサ、及び、ユーザ70の機器71に設けられるユーザセンサ75の少なくともいずれかにより取得できる。ユーザ70の生体情報に基づいて、動作を切り替えることで、ユーザ70により適切なサービスを提供できる。
既に説明したように、1つの例において、移動体情報は、移動体30に設けられる移動体センサ32(図2参照)により取得される。この場合、移動体運行支援システム110の入手部12は、移動体情報を移動体センサ32から入手する。
別の例において、移動体運行支援システム110は、センサ15(図1及び図2参照)をさらに含んでも良い。この場合、入手部12は、移動体情報をセンサ15から入手する。
さらに別の例において、移動体情報の少なくとも一部は、ユーザ70が所有する機器71に設けられるユーザセンサ75により取得されても良い。例えば、機器71にGPSが設けられる場合がある。例えば、機器71に加速度センサなどが設けられる場合がある。このような場合には、移動体情報の少なくとも一部は、ユーザセンサ75により取得できる。この場合、入手部12は、移動体情報をユーザセンサ75から入手する。
移動体運行支援システム110は、移動体30に設けられたスピーカ10Sをさらに含んでも良い。オペレータ80とユーザ70との通信は、マイクロフォン10Mとスピーカ10Sとにより行われる。
実施形態において、オペレータ80とユーザ70との通信の少なくとも一部は、ユーザ70の携帯端末(機器71)により行われても良い。
以下、移動体運行支援システム110で実施される動作の例について説明する。以下の例では、移動体30がタクシーであり、ユーザ70がタクシーの客である。
図3は、実施形態に係る移動体運行支援システムの動作を例示するフローチャート図である。
移動体30にユーザ70が乗ると、移動体運行支援システム110から、ユーザ70への問いかけが行われる。例えば、「目的地はどこですか?」などの音声がスピーカ10Sから発生される。このように、ユーザ70に向けて、「サービスの要求」が促される(ステップS101)。
これに対して、ユーザ70から声が出る。この声を音声認識する(ステップS110)。この声は、例えば目的地の指定に関する情報を含む。後述するように、ユーザ70の指示に関する指示情報は、マイクロフォン10Mで取得された音の音声認識データにより導出される。
移動体運行支援システム110において、音声認識の結果から、意図理解が行われる(ステップS120)。声の中から、意図情報が抽出される。
対話制御が行われる(ステップS130)。例えば、抽出された意図情報が、状況に適合しているかどうかが判断される。例えば、ステップS120で得られた意図情報が、目的地に関するものでない場合がある。または、ステップS120で得られた意図情報が、不明確である場合がある。このような場合(意図情報が適切でない場合)には、目的地を再度確認するための応答生成及び音声合成が行われ、ステップS101に戻る。一方、ステップS130において、ステップS120で得られた意図情報が、目的地に関するものであり、明確である場合がある。このような場合(意図情報が適切である場合)には、意図情報が、ユーザ70の指示に関する指示情報となる。そして、以下のステップS140に進む。
ステップS140では、動作制御が実施される。動作制御においては、指示情報及び移動体情報に基づいて、第1動作及び第2動作の一方が選択される。例えば、指示情報の通りに運行しても良い場合(指示情報が適切な場合)には、第1動作(ステップS150)に進む。一方、指示情報の通りに運行すると不都合な場合(指示情報が不適切な場合)には、第2動作(ステップS160)に進む。
ステップS150(第1動作)では、応答生成(ステップS151)及び音声合成(ステップS152)が行われる。例えば、意図情報が適切であり、指示情報として目的地が認識された場合、「目的地はXXXでよいですか?」の応答が生成され、この内容の音声が合成される。合成された音声が、スピーカ10Sから出る。ユーザ70の了解が得られたら、移動体30の制御(ステップS155)が行われる。例えば、移動体運行支援システム110の処理部11から、移動体30の制御部31に、信号が供給される。例えば、移動体30が、発進する。
ステップS160(第2動作)においては、オペレータ80との通信が行われる(ステップS161)。オペレータ80は、ユーザ70との通信により、ユーザ70の要求を理解する。例えば、オペレータ80は、目的地を理解できる。これに基づいて、オペレータ80により移動体30が制御される(ステップS165)。例えば、オペレータ80により、目的地に関する情報が、移動体30に供給され、移動体30は、その情報に応じて運行を開始する。
このようにして、適切な運行が可能になる。
実施形態において、スピーカ10Sは、ユーザ70に向けた質問を含む質問音を出射可能である(ステップS101、及び、ステップS151などを参照)。このとき、マイクロフォン10Mで取得された音は、上記の質問音に対するユーザ70の声を含む。この場合、指示情報は、ユーザ70の声の音声認識データにより導出される(ステップS120、ステップS130及びステップS140参照)。
スピーカ10Sからの質問に対して、ユーザ70からの回答が無い場合や、回答が不明確な場合などがある。この場合は、質問が繰り返されても良い。すなわち、質問音の出射が複数回行われる。この質問の繰り返しによっても、回答が得られない場合がある。この場合には、質問音の出射が複数回行われた後に、処理部11は、第2動作を行う。
図4は、実施形態に係る移動体運行支援システムの使用例を示す模式図である。
図4に示すように、実施形態に係る移動体運行支援システム110が用いられる移動体30は、例えば、車(四輪車、三輪車及び二輪車などを含む)、列車、船舶及び航空機(ヘリコプタを含む)の少なくともいずれかである。
移動体30がタクシーである場合、オペレータ80は、タクシーの事業団体などに所属する。移動体30がレンタカーである場合、オペレータ80は、レンタカーの事業団体などに所属する。移動体30が個人により所有される車である場合、オペレータ80は、車の保険事業団体などに所属しても良い。
例えば、実施形態において、移動体30がタクシーである場合、客(ユーザ70)が要求を発声した際に、要求の内容と、タクシーのセンサデータと、に基づいて、自動応答するか、オペレータ80の応答にするか、を切り替える。例えば、重要である場合、または、緊急である場合に、オペレータ80が応答する。例えば、オペレータ80の負担を抑制できる。適切なサービスが提供される。
例えば、自動応答だけではユーザ70の要求の全てに対応することが困難である。例えばユーザ70の発話だけでは、緊急性を判断することが困難な場合がある。一方、オペレータ80の対応は、コストが上昇する。実施形態によれば、例えば、コストを抑制しつつ、適切なサービスを提供できる。
例えば、要求が、目的地の設定である場合において、移動体30の速度が一定以下(例えばゼロ)の場合は、自動応答の動作(第1動作)を行う。一方、移動体30の速度がゼロでない場合は、オペレータ80の応答の動作(第2動作)を行う。これにより、例えば、走り出してからの急な変更にオペレータ80が適切に対応できる。
例えば、要求が、移動体30の停止の場合において、移動体30が停止できる場合は、自動応答(第1動作)が実施され、移動体30は、停止する。一方、移動体30が停止できない位置にある場合(例えば高速道路など)、オペレータ80による応答(第2動作)が行われる。
例えば、ユーザ70の応答がない場合がある。この場合に、移動体30の位置が目的地である場合は、自動応答(第1動作)が実施され、目的地で停止する。この場合、ユーザ70が寝ている可能性があるので、ユーザ70を起こさない。一方、移動体30の位置が目的地であっても、移動体30の停止時間が一定以上に長くなった場合には、オペレータ80の応答(第2動作)が実施される。例えば、オペレータ80により、ユーザ70の状況が確認される。オペレータ80は、必要に応じて、ユーザ70の下車を促す。
例えば、要求が目的地の設定である場合において、その目的地が所定の距離よりも遠い場合(または、所定の金額よりも高くなる場合、または、所定の予想所用時間よりも長くなる場合)、第2動作が実施される。
例えば、処理部11は、現在位置及び目的地に関する値が第1値以下のときに、第1動作を行い、処理部11は、現在位置及び目的地に関するその値がその第1値を超えるときに、第2動作を行っても良い。現在位置及び目的地に関する上記の値は、例えば、現在位置と目的地との間の距離、現在位置と目的地との間で発生する費用(金額)、及び、現在位置と目的地との間の移動に関する所用時間、の少なくともいずれかを含んでも良い。
例えば、移動体30に設けられているナビゲータ装置が誤りを生じる場合がある。例えば、ユーザ70の目的地の指示が誤りである場合がある。例えば、ユーザ70が複数であり、ユーザの要求を理解できない場合がある。例えば、雑音などにより、ユーザの要求を理解できない場合がある。例えば、意図理解が失敗する。このような種々の状態においては、所定の時間が経過したら、第2動作を実施する。より適切なサービスを提供できる。
実施形態によれば、適切な運行が可能な移動体運行支援システムが提供できる。
以上、例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明は、これらの例に限定されるものではない。例えば、移動体運行支援システムに含まれる処理部、入手部、マイクロフォン、スピーカ、センサ、撮像部、記憶部及びオペレータ通信装置などの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。
各例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。
本発明の実施の形態として上述した移動体運行支援システムを基にして、当業者が適宜設計変更して実施し得る全ての移動体運行支援システムも、本発明の要旨を包含する限り、本発明の範囲に属する。
本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10M…マイクロフォン、 10S…スピーカ、 10T…通信部、 11…処理部、 12…入手部、 14…撮像部、 15…センサ、 16…記憶部、 30…移動体、 31…制御部、 32…移動体センサ、 33…駆動部、 70…ユーザ、 71…機器、 75…ユーザセンサ、 80…オペレータ、 80M…オペレータ用マイクロフォン、 80S…オペレータ用スピーカ、 80T…オペレータ用通信装置、 110…移動体運行支援システム

Claims (17)

  1. 移動体の状態に関する移動体情報を入手する入手部と、
    前記移動体に設けられたマイクロフォンと、
    前記移動体に設けられたスピーカと、
    オペレータが用いるオペレータ用通信装置と送受信が可能な通信部と、
    前記マイクロフォンで取得された音に基づいて前記移動体にっているユーザの指示に関する指示情報と、前記移動体情報と、に基づいて、第1動作及び第2動作のいずれかを実施する処理部と、
    を備え、
    前記第1動作においては、前記処理部は、前記移動体に前記指示情報に応じた動作をさせ、
    前記第2動作においては、前記処理部は、前記通信部と前記オペレータ用通信装置との間の前記送受信により、前記ユーザと前記オペレータとの通信を可能にし、
    前記通信は、前記マイクロフォンと前記スピーカとにより行われ、
    前記スピーカは、前記ユーザに向けた質問を含む質問音を出射し、
    前記マイクロフォンで取得された前記音は、前記質問音に対する前記ユーザの声を含み、
    前記処理部は、
    前記声の音声認識の結果から意図理解を行うことで、前記ユーザの意図情報を抽出し、
    前記意図情報が適切な場合、前記意図情報を前記指示情報とし、
    前記意図情報が適切でない場合、前記質問音の前記出射を繰り返し、
    前記質問音の前記出射が複数回行われた後に、前記処理部は、前記第2動作を行う、移動体運行支援システム。
  2. 前記移動体情報は、前記移動体の速度、前記移動体の加速度、前記移動体の進行方向、前記移動体の位置、及び、前記移動体の駆動源の残量の少なくとも1つを含む、請求項1記載の移動体運行支援システム。
  3. 前記処理部は、前記指示情報に応じた前記動作を前記移動体が実施したときに安全であると判断されるときに、前記第1動作を実施し、
    前記処理部は、前記指示情報に応じた前記動作を前記移動体が実施したときに不安全であると判断されるときに、前記第2動作を実施する、請求項1または2に記載の移動体運行支援システム。
  4. 前記指示情報が運行の目的地に関する情報を含み、
    前記移動体情報は、前記移動体の現在位置を含み、
    前記処理部は、前記現在位置及び前記目的地に関する値が第1値以下のときに、前記第1動作を行い、
    前記処理部は、前記現在位置及び前記目的地に関する前記値が前記第1値を超えるときに、前記第2動作を行い、
    前記現在位置及び前記目的地に関する前記値は、
    前記現在位置と前記目的地との間の距離、
    前記現在位置と前記目的地との間で発生する費用、及び、
    前記現在位置と前記目的地との間の移動に関する所用時間、
    の少なくともいずれかを含む、請求項1記載の移動体運行支援システム。
  5. 前記指示情報が運行の目的地に関する情報を含み、
    前記移動体情報は、前記移動体の駆動源の現在残量を含み、
    前記処理部は、前記現在残量が、前記目的地までに消費すると推定される、前記駆動源の使用推定量よりも多いときに、前記第1動作を行い、
    前記処理部は、前記現在残量が前記使用推定量以下のときに、前記第2動作を行う、請求項1記載の移動体運行支援システム。
  6. 前記移動体情報は、前記移動体の速度及び前記移動体の加速度の少なくともいずれかを含み、
    前記処理部は、前記少なくともいずれかが、しきい値以下のときに、前記第1動作を行い、
    前記処理部は、前記少なくともいずれかが、前記しきい値を超えるときに、前記第2動作を行う、請求項1記載の移動体運行支援システム。
  7. 前記指示情報が運行の目的地に関する情報を含み、
    前記移動体情報は、前記移動体の進行方向を含み、
    前記処理部は、前記目的地の方向と前記進行方向との差が、しきい値以下のときに、前記第1動作を行い、
    前記処理部は、前記差が、前記しきい値を超えるときに、前記第2動作を行う、請求項1記載の移動体運行支援システム。
  8. 前記指示情報が運行の目的地に関する情報を含み、
    前記処理部が、前記第1動作を実施して、前記移動体に前記指示情報に応じた前記動作をさせ、前記移動体が前記目的地に到着したときに、前記ユーザの意図が前記目的地と異なると推定されるときに、前記第2動作をさらに実施する、請求項1記載の移動体運行支援システム。
  9. 前記処理部は、前記ユーザに関する情報にさらに基づいて前記第1動作及び前記第2動作の前記いずれかを実施する、請求項1〜8のいずれか1つに記載の移動体運行支援システム。
  10. 前記ユーザに関する前記情報は、前記ユーザの感情情報を含む、請求項9記載の移動体運行支援システム。
  11. 前記感情情報は、前記マイクロフォンで取得された前記音に含まれる前記ユーザの声の少なくとも一部から推定される、請求項10記載の移動体運行支援システム。
  12. 前記ユーザに関する前記情報は、前記ユーザの生体情報を含む、請求項9記載の移動体運行支援システム。
  13. 前記移動体情報は、前記移動体に設けられる移動体センサにより取得され、
    前記入手部は、前記移動体情報を前記移動体センサから入手する、請求項1〜12のいずれか1つに記載の移動体運行支援システム。
  14. センサをさらに備え、
    前記入手部は、前記移動体情報をセンサから入手する、請求項1〜12のいずれか1つに記載の移動体運行支援システム。
  15. 前記移動体情報の少なくとも一部は、前記ユーザが所有する機器に設けられるユーザセンサにより取得され、
    前記入手部は、前記移動体情報を前記ユーザセンサから入手する、請求項1〜12のいずれか1つに記載の移動体運行支援システム。
  16. 前記指示情報は、前記マイクロフォンで取得された前記音の音声認識データにより導出される、請求項1〜1のいずれか1つに記載の移動体運行支援システム。
  17. 前記通信の少なくとも一部は、前記ユーザの携帯端末により行われる、請求項1〜1のいずれか1つに記載の移動体運行支援システム。
JP2017163582A 2017-08-28 2017-08-28 移動体運行支援システム Active JP6946115B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017163582A JP6946115B2 (ja) 2017-08-28 2017-08-28 移動体運行支援システム
US15/908,062 US11453411B2 (en) 2017-08-28 2018-02-28 Moving body operation support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017163582A JP6946115B2 (ja) 2017-08-28 2017-08-28 移動体運行支援システム

Publications (2)

Publication Number Publication Date
JP2019040522A JP2019040522A (ja) 2019-03-14
JP6946115B2 true JP6946115B2 (ja) 2021-10-06

Family

ID=65434111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017163582A Active JP6946115B2 (ja) 2017-08-28 2017-08-28 移動体運行支援システム

Country Status (2)

Country Link
US (1) US11453411B2 (ja)
JP (1) JP6946115B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7192685B2 (ja) * 2019-07-09 2022-12-20 トヨタ自動車株式会社 車両制御装置
JP7115440B2 (ja) * 2019-08-07 2022-08-09 トヨタ自動車株式会社 リモート運転サービス処理装置
JP7180576B2 (ja) * 2019-09-27 2022-11-30 株式会社デンソー 監視センタ、監視システム及び方法
JP7160010B2 (ja) * 2019-09-30 2022-10-25 株式会社デンソー 監視センタ、監視システム及び方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3239727B2 (ja) * 1995-12-05 2001-12-17 トヨタ自動車株式会社 車両の自動運転制御装置
JP3990075B2 (ja) * 1999-06-30 2007-10-10 株式会社東芝 音声認識支援方法及び音声認識システム
JP2003315082A (ja) * 2002-04-23 2003-11-06 It Communications:Kk 地図案内方法と地図案内システム
JP2006339810A (ja) 2005-05-31 2006-12-14 Tsubame Kotsu Kyodo Kumiai 配車受付システム
JP2007216711A (ja) * 2006-02-14 2007-08-30 Toyota Motor Corp 車両用操作支援システム
US7917285B2 (en) * 2006-04-28 2011-03-29 Reagan Inventions, Llc Device, system and method for remotely entering, storing and sharing addresses for a positional information device
JP2008070966A (ja) * 2006-09-12 2008-03-27 Fujitsu Ten Ltd 車両制御装置および車両制御方法
JP2011119990A (ja) * 2009-12-03 2011-06-16 Zenrin Datacom Co Ltd プローブ情報収集システム、プローブ情報収集方法、及びプログラム
JP2012098197A (ja) * 2010-11-04 2012-05-24 Pioneer Electronic Corp 案内装置、案内方法、案内プログラムおよび案内プログラムを格納した記録媒体
US9317983B2 (en) * 2012-03-14 2016-04-19 Autoconnect Holdings Llc Automatic communication of damage and health in detected vehicle incidents
JP2013206319A (ja) * 2012-03-29 2013-10-07 Toyota Motor Corp 車両用遠隔支援システム
US9123345B2 (en) * 2013-03-14 2015-09-01 Honda Motor Co., Ltd. Voice interface systems and methods
JP2015034777A (ja) * 2013-08-09 2015-02-19 三菱電機株式会社 ナビゲーション装置
JP6201916B2 (ja) * 2014-07-04 2017-09-27 株式会社デンソー 車両の運転モード制御装置
WO2016038931A1 (ja) * 2014-09-11 2016-03-17 本田技研工業株式会社 運転支援装置
JP6297482B2 (ja) * 2014-12-26 2018-03-20 日立オートモティブシステムズ株式会社 情報処理装置
US9805605B2 (en) * 2015-08-12 2017-10-31 Madhusoodhan Ramanujam Using autonomous vehicles in a taxi service
JP6705177B2 (ja) * 2016-01-14 2020-06-03 トヨタ自動車株式会社 車両
US10386845B1 (en) * 2016-01-22 2019-08-20 State Farm Mutual Automobile Insurance Company Autonomous vehicle parking
US10459504B2 (en) * 2016-03-29 2019-10-29 Gm Global Technology Operations, Llc Telematics service buttons integrated with infotainment system using an uninterrupted power supply with optmized consumption
SG11201810979SA (en) * 2017-06-30 2019-01-30 Beijing Didi Infinity Technology & Development Co Ltd Systems and methods for switching driving mode of vehicle
WO2019023324A1 (en) * 2017-07-26 2019-01-31 Via Transportation, Inc. SYSTEMS AND METHODS FOR MANAGING AND ROUTING COOPERATING VEHICLES

Also Published As

Publication number Publication date
US20190061781A1 (en) 2019-02-28
US11453411B2 (en) 2022-09-27
JP2019040522A (ja) 2019-03-14

Similar Documents

Publication Publication Date Title
JP6946115B2 (ja) 移動体運行支援システム
JP6962280B2 (ja) 車両制御方法、車両制御システム、及び車両制御装置
US11963071B1 (en) Text message control system
EP3675121B1 (en) Computer-implemented interaction with a user
KR101754632B1 (ko) 차량 운전자의 감정 상태의 평가 및 관리
JP6515764B2 (ja) 対話装置及び対話方法
CN105270292B (zh) 控制对车辆内人机界面的访问的系统和方法
KR20180102871A (ko) 이동단말기 및 이동단말기의 차량 제어 방법
CN110286745B (zh) 对话处理系统、具有对话处理系统的车辆及对话处理方法
CN111176434A (zh) 视线检测装置、计算机可读存储介质以及视线检测方法
CN109472253B (zh) 行车安全智能提醒方法、装置、智能方向盘和智能手环
JP2016206469A (ja) 車両用音声対話システム
US11599767B2 (en) Automotive virtual personal assistant
CN110035339B (zh) 对话装置
US20230054224A1 (en) Information processing device, information processing method, and non-transitory computer readable storage medium
CN111192583B (zh) 控制装置、智能体装置以及计算机可读存储介质
US20180342005A1 (en) Place recommendation device and place recommendation method
CN111144539A (zh) 控制装置、智能体装置以及计算机可读存储介质
CN115966094A (zh) 车辆及用于其的驾驶控制系统、方法和计算机程序元件
CN110880314A (zh) 语音交互装置、用于语音交互装置的控制方法和存储程序的非暂时性存储介质
JP2017211539A (ja) 音声処理システムおよび音声処理方法
US8600011B2 (en) Navigation system support of in-vehicle TTY system
JP2021123133A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6657048B2 (ja) 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
CN103188633A (zh) 车载通讯系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201203

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210915

R151 Written notification of patent or utility model registration

Ref document number: 6946115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151