JP2022137792A - Communication support device and communication support method - Google Patents
Communication support device and communication support method Download PDFInfo
- Publication number
- JP2022137792A JP2022137792A JP2021037464A JP2021037464A JP2022137792A JP 2022137792 A JP2022137792 A JP 2022137792A JP 2021037464 A JP2021037464 A JP 2021037464A JP 2021037464 A JP2021037464 A JP 2021037464A JP 2022137792 A JP2022137792 A JP 2022137792A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- user
- remote
- utterance content
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 title claims abstract description 167
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 238000010801 machine learning Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 description 16
- 230000002093 peripheral effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000009434 installation Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 239000012141 concentrate Substances 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Navigation (AREA)
Abstract
Description
本発明は、コミュニケーション支援装置及びコミュニケーション支援方法に関する。 The present invention relates to a communication support device and a communication support method.
聞き手に対して出力される音声の理解度を向上させる音声通信システムが知られている(例えば、特許文献1)。特許文献1に記載の音声通信システムでは、聞き手の背景騒音を分析し、背景騒音の分析結果を用いて、現在の背景騒音下において、聞き手が出力される音声を容易に理解できるか否かを判定する。 2. Description of the Related Art A speech communication system that improves the intelligibility of speech output to a listener is known (for example, Patent Document 1). In the speech communication system described in Patent Document 1, the background noise of the listener is analyzed, and using the analysis result of the background noise, it is determined whether or not the listener can easily understand the output speech under the current background noise. judge.
聞き手の理解度には、聞き手の背景騒音だけでなく、発話者の発話内容も影響する。特許文献1に記載の音声通信システムでは、現在の背景騒音下において聞き手が音声を容易に理解できると判定しても、実際には発話内容によって聞き手が音声を容易に理解できないおそれがある。つまり、特許文献1に記載の音声通信システムでは、聞き手の理解度が発話内容に対するものではないため、聞き手の理解度を推定する精度が低く、聞き手が発話者の発話内容を理解しづらい、という問題がある。 The listener's comprehension is affected not only by the listener's background noise, but also by the speaker's utterance content. In the speech communication system described in Patent Document 1, even if it is determined that the listener can easily understand the speech under the current background noise, the listener may not be able to easily understand the speech depending on the content of the utterance. In other words, in the voice communication system described in Patent Document 1, since the listener's degree of understanding is not related to the utterance content, the accuracy of estimating the listener's degree of understanding is low, and it is difficult for the listener to understand the utterance content of the speaker. There's a problem.
本発明が解決しようとする課題は、聞き手の理解度を推定する精度を向上させることで、聞き手が発話者の発話内容を理解しやすくなるコミュニケーション支援装置及びコミュニケーション支援方法を提供することである。 The problem to be solved by the present invention is to provide a communication support device and a communication support method that make it easier for the listener to understand the utterance content of the speaker by improving the accuracy of estimating the listener's degree of understanding.
本発明は、集音装置により集音された第1ユーザの音声から第1ユーザの発話内容を取得し、第1ユーザがいる第1の場所とは別の第2ユーザがいる第2の場所の状況を示す、第2の場所の状況データを取得し、第2の場所の状況データに基づいて、第1ユーザの発話内容に対する第2ユーザの理解度を推定し、第2ユーザの理解度に基づく提示態様で、第1ユーザの発話内容を第2ユーザに提示するように、第2の場所に設けられた出力装置を制御することで、上記課題を解決する。 The present invention acquires the utterance content of the first user from the first user's voice collected by a sound collector, and obtains the content of the first user's utterance at a second place where the second user is different from the first place where the first user is. obtaining situation data at a second location indicating the situation of the second user, estimating the degree of understanding of the second user with respect to the utterance content of the first user based on the situation data of the second place, and obtaining the degree of understanding of the second user The above problem is solved by controlling the output device provided at the second location so as to present the speech content of the first user to the second user in a presentation mode based on the above.
本発明によれば、第2ユーザの理解度は、第2ユーザがいる場所の状況に基づいて、第1ユーザの発話内容に対して推定されるため、聞き手である第2ユーザの理解度を推定する精度が向上し、第2ユーザは第1ユーザの発話内容を理解しやすくなる。 According to the present invention, the degree of understanding of the second user is estimated with respect to the utterance content of the first user based on the situation of the place where the second user is. The accuracy of estimation is improved, and the second user can easily understand the content of the first user's speech.
以下、本発明の実施形態を図面に基づいて説明する。
本実施形態では、本発明に係るコミュニケーション支援装置及びコミュニケーション支援方法を、コミュニケーションシステムに適用した例を用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings.
In this embodiment, a communication support device and a communication support method according to the present invention will be described using an example in which they are applied to a communication system.
図1は、本実施形態に係るコミュニケーションシステム100のブロック図である。本実施形態に係るコミュニケーションシステム100は、同一空間にいないユーザAとユーザBとが会話する場面に用いられる。本実施形態では、ユーザAとして、車両1に乗車しており、車内空間20にいるユーザを例に挙げ、ユーザBとして、車両1から離間した場所である遠隔地空間30にいるユーザを例に挙げて説明する。ユーザAがいる場所とユーザBがいる場所は異なる。
FIG. 1 is a block diagram of a
なお、コミュニケーションシステム100は、ユーザAがいる場所とユーザBがいる場所とが異なる場面で用いられればよく、ユーザAとユーザBのそれぞれが位置する場所は特に限定されない。例えば、ユーザAは車両1に乗車していなくてもよい。以降の説明では、便宜上、車内空間20にいるユーザAを車内ユーザAと称し、遠隔地空間30にいるユーザBを遠隔地ユーザBと称して説明する。
また本実施形態において、車内ユーザAと遠隔地ユーザBとが会話する際の各ユーザの状態は特に限定されない。例えば、図1では、車内ユーザAの状態として、車内ユーザAが車両1のステアリングを操作している状態を示しているが、車内ユーザAはドライバではなく、助手席又は後部座席に着座する乗員であってもよい。また例えば、図1では、遠隔地ユーザBの状態として、遠隔地ユーザBが着座した状態を示しているが、遠隔地ユーザBは起立していてもよい。また本実施形態では、車内ユーザAと遠隔地ユーザBとが会話する場面を例に挙げて説明するが、コミュニケーションシステム100は会話の場面以外でも用いることができる。例えば、遠隔地ユーザBが車内ユーザAに向けて一方的に話す場面、すなわち、音声の流れは一方向の場面にも、コミュニケーションシステム100を用いることができる。
In addition, in the present embodiment, the state of each user when in-vehicle user A and remote user B converse is not particularly limited. For example, FIG. 1 shows a state in which the in-vehicle user A is operating the steering wheel of the vehicle 1 as the state of the in-vehicle user A. may be Also, for example, in FIG. 1, as the state of remote user B, the state in which remote user B is seated is shown, but remote user B may be standing. Further, in this embodiment, a scene in which in-vehicle user A and remote user B converse will be described as an example, but
また本実施形態では、コミュニケーションシステム100が仮想現実(Virtual Reality)及び拡張現実(Augmented Reality)の技術を利用したシステムに用いられた場合を例に挙げて説明する。図1に示すように、車内ユーザAと遠隔地ユーザBとはそれぞれ異なる空間にいるため、車内ユーザAと遠隔地ユーザBは同一空間内で会話することができない。しかし、コンピュータによって作り出された世界である仮想空間を現実としてユーザに知覚させる仮想現実の技術では、コンピュータは、遠隔地ユーザBに対して、あたかも車内空間20にいるような仮想空間を作り出すことができる。仮想空間では、遠隔地ユーザBは、少なくとも視覚及び聴覚を通じて、あたかも車内空間20にいるかのように知覚する。例えば、遠隔地ユーザBは、VRゴーグル等、本願出願時に知られた仮想現実の技術が用いられたデバイスを装着することで、視覚を通じて仮想空間を車内空間20として認知することができる。また遠隔地ユーザBは、本実施形態に係るコミュニケーションシステム100により、聴覚を通じて仮想空間を車内空間20として認知することができる。
Also, in this embodiment, a case where the
一方、コンピュータにより作り出された視覚情報を現実に重畳表示させることで、仮想的に拡張された現実をユーザに知覚させる拡張現実の技術では、コンピュータは、車内ユーザAに対して、遠隔地ユーザBがあたかも車内空間20にいるような仮想空間を作りだすことができる。仮想空間では、車内ユーザAは、少なくとも視覚及び聴覚を通じて、遠隔地ユーザBが車内空間20にいるかのように知覚する。例えば、車内ユーザAは、ARグラス等、本願出願時に知られた拡張現実の技術が用いられたデバイスを装着することで、視覚を通じて、コンピュータにより生成された遠隔地ユーザBの分身となるキャラクター(アバター)が車内空間20にいるかのように認知することができる。また車内ユーザAは、本実施形態に係るコミュニケーションシステム100により、聴覚を通じて、遠隔地ユーザBのアバターが車内空間20にいるかのように認知することができる。以降、図1を用いて、コミュニケーションシステム100の各構成を説明する。
On the other hand, in the augmented reality technology that allows the user to perceive a virtual augmented reality by superimposing visual information created by a computer, the computer provides the in-vehicle user A with the remote location user B It is possible to create a virtual space as if the user is in the vehicle interior space 20.例文帳に追加In the virtual space, the in-vehicle user A perceives, at least visually and aurally, as if the remote user B is in the in-
図1に示すように、コミュニケーションシステム100は、周辺情報サーバー10、車内空間20、遠隔地空間30、及びサーバー40を含む。遠隔地空間30は、車内空間20から離間した空間である。遠隔地空間30としては、例えば、車両1とは別の車両の室内や建物の一室などが挙げられるが、遠隔地空間30は車内空間20とは別の場所であれば特に限定されない。
As shown in FIG. 1, the
周辺情報サーバー10は、車内ユーザAがいる場所の状況を示す情報を提供する。車内ユーザAがいる場所の状況を示す情報とは、車両1の周辺情報である。図1に示すように、周辺情報サーバー10が提供する車両1の周辺情報としては、車両1の周辺の道路情報、事故情報、及び渋滞情報を含む交通情報11、車両1の周辺の天気及び気温の情報を含む天気情報12、車両1の周辺で利用可能な無線LAN規格の種別及び当該無線LANの通信速度を含む通信情報13などが挙げられる。周辺情報サーバー10は、後述する車載コントローラ24からの要求に応じて、車両1の周辺情報を車載通信装置22に送信する。なお、周辺情報サーバー10が提供する情報として、交通情報11、天気情報12、及び通信情報13を例に挙げたが、周辺情報サーバー10は、これらの情報を全て提供する必要はなく、交通情報11、天気情報12、及び通信情報13のうち少なくともいずれか一つを提供するサーバーであればよい。
The
次に、車内空間20について説明する。車内空間20は、車両1の室内を示す空間である。車内空間20には、センサ21、車載通信装置22、車載出力装置23、及び車載コントローラ24が設けられている。車内空間20に設けられた各装置は、相互に情報の送受信を行うために、例えばCAN(Controller Area Network)その他の車載ネットワーク(イーサネット(商標登録)など)によって接続されている。
Next, the vehicle
センサ21は、車内ユーザAがいる場所の状況を検出するセンサである。車内ユーザAがいる場所の状況は、車両1の室内の状況、車両1の室外の状況、車両1の走行状況、及び車内ユーザAの状況のうち少なくともいずれか一つを含む。図1に示すように、センサ21は、車内用センサ211及び車外用センサ221で構成される。車内用センサ211は、車両1の室内の状況、車両1の走行状況、及び車内ユーザAの状況を検出するためのセンサである。車外用センサ221は、車両1の室外の状況、及び車両1の走行状況を検出するためのセンサである。
The
図1に示すように、車内用センサ111としては、車内用カメラ212、車内用マイク213、舵角センサ214、及びペダルセンサ215が挙げられる。
As shown in FIG. 1 , the in-vehicle sensor 111 includes an in-
車内用カメラ212は、車両1の室内を撮像する撮像装置である。車内用カメラ212は、車両1の室内を撮像することで、車両1の室内の状況を検出する。また車内用カメラ212は、車内ユーザAを撮像することで、車内ユーザAの状況を検出する。例えば、車内用カメラ212は、車内ユーザAの様子や、車両1のその他の乗員の様子を撮像する。車内用カメラ212により撮像された撮像画像は、車内空間20の撮像画像データとして車載コントローラ24に出力される。なお、車内用カメラ212は、車両1に搭載され、車両1の室内を撮像する装置又は機器であればよく、その形態、数、特性、設置場所などは特に限定されない。例えば、車内用カメラ212は、複数のカメラ又は種別が複数のカメラで構成されていてもよい。
The in-
車内用マイク213は、車両1の室内の音声を集音する集音装置である。車内用マイク213は、車両1の室内の音声を集音することで、車両1の室内の状況を検出する。また車内マイク113は、車両1に搭載された装置又はシステムから出力される音声を集音することで、車両1の走行状況を検出する。さらに車内用マイク213は、車内ユーザAの音声を集音することで、車内ユーザAの状況を検出する。例えば、車内用マイク213は、車内ユーザAが発する声、車両1のその他の乗員が発する声、車両1のエンジン音やモータ音、方向指示器が作動した際のウィンカー音、ワイパーが作動した際のワイパー音、ハザードランプが作動した際のハザードランプ音、カーナビゲーションシステムから出力される音声、オーディオシステムから再生される音楽などを集音する。車内用マイク213により集音された集音音声は、車内空間20の集音音声データとして車載コントローラ24に出力される。なお、車内用マイク213は、車両1に搭載され、車両1の室内の音声を集音する装置又は機器であればよく、その形態、数、特性、設置位置などは特に限定されない。例えば、車内用マイク213は、複数のマイク又は種別が複数のマイクで構成されていてもよい。
The in-
舵角センサ214は、車両1のステアリングシャフトに設けられ、車両1のステアリングホイールの操舵角を検出するセンサである。舵角センサ214は、ステアリングホイールの操舵角を検出することで、車両1の走行状況を検出する。舵角センサ214により検出されたステアリングホイールの操舵角は、車両1の操舵角データとして車載コントローラ24に出力される。
The
ペダルセンサ215は、アクセルペダル及びブレーキペダルのそれぞれに設けられ、アクセルペダルの踏み込み量及びブレーキペダルの踏み込み量を検出するセンサである。ペダルセンサ215は、アクセルペダルの踏み込み量及びブレーキペダルの踏み込み量を検出することで、車両1の走行状況を検出する。ペダルセンサ15により検出された、アクセルペダルの踏み込み量及びブレーキペダルの踏み込み量は、車両1のペダル踏み込みデータとして車載コントローラ24に出力される。
The
なお、上述したセンサは、車内用センサ211の一例であって、車内用センサ211は、上述したセンサのうち少なくともいずれか一つを含んでいればよい。また車内用センサ211は、上述したセンサに限られず、車両1の室内の状況、車両1の走行状況、及び車内ユーザAの状況のうち少なくともいずれか一つを検出するセンサを含んでいればよい。例えば、車内用センサ211は、車両1のシフトレバーの位置を検出するシフトポジションセンサ、車両1の室温を計測する温度センサ、車両1の車速を検出する車速センサ、車両1の加速度を検出する加速度センサ、車両1の角速度を検出するジャイロセンサなどを含んでいてもよい。
The sensor described above is an example of the in-
また図1に示すように、車外用センサ221としては、車外用カメラ222、車外用マイク223、ミリ波レーダ224、超音波ソナー225、及びGPS226が挙げられる。
Further, as shown in FIG. 1 , the
車外用カメラ222は、車両1の周囲を撮像する撮像装置である。車外用カメラ222は、車両1の周囲を撮像することで、車両1の室外の状況及び車両1の走行状況を検出する。例えば、車外用カメラ222は、車両1の周囲に存在する対象物を撮像する。車外用カメラ222が撮像する対象物としては、例えば、自転車、バイク、路上障害物、交通信号機、路面標示などが挙げられる。車外用カメラ222により撮像された撮像画像は、車両1の周囲の撮像画像データとして車載コントローラ24に出力される。なお、車外用カメラ222は、車両1に搭載され、車両1の周囲を撮像する装置又は機器であればよく、その形態、数、特性、設置場所などは特に限定されない。例えば、車外用カメラ222は、複数のカメラ又は種別が複数のカメラで構成されていてもよい。
The
車外用マイク223は、車両1の周囲の音声を集音する集音装置である。車外用マイク223は、車両1の周囲の音声を集音することで、車両1の室外の状況及び車両1の走行状況を検出する。例えば、車外用マイク223は、車両1以外の他車両の走行音やクラクション音、緊急車両のサイレン音、広告宣伝車両から出力される宣伝音を集音する。車外用マイク223により集音された集音音声は、車両1の周囲の集音音声データとして車載コントローラ24に出力される。なお、車外用マイク223は、車両1に搭載され、車両1の周囲の音声を集音する装置又は機器であればよく、その形態、数、特性、設置位置などは特に限定されない。例えば、車外用マイク223は、複数のマイク又は種別が複数のマイクで構成されていてもよい。
The vehicle
ミリ波レーダ224は、ミリ波レーダによって車両1の周囲に存在する対象物を検出するセンサである。具体的に、ミリ波レーダ224は、車両1の進行方向に対して対象物が位置する方向、及び車両1から対象物までの距離を検出する。また対象物が移動している場合、ミリ波レーダ224は、車両1の速度に対する対象物の相対速度を検出する。ミリ波レーダ224は、車両1の周囲に存在する対象物を検出することで、車両1の室外の状況及び車両1の走行状況を検出する。ミリ波レーダ224が検出する対象物の一例としては、車外用カメラ222が撮像する対象物の一例が挙げられるため、対象物の一例については、既述の説明を援用する。ミリ波レーダ224により検出された対象物の情報は、車両1の周囲の対象物データとして車載コントローラ24に出力される。
The
超音波ソナー225は、超音波によって車両1に比較的近い範囲に存在する対象物を検出するセンサである。具体的に、超音波ソナー225は、車両1の進行方向に対して対象物が位置する方向、及び車両1から対象物までの距離を検出する。超音波ソナー225は、車両1の周囲に存在する対象物を検出することで、車両1の室外の状況及び車両1の走行状況を検出する。例えば、超音波ソナー225は、駐車場内の障害物、駐車車両などを検出する。超音波ソナー225により検出された対象物の情報は、車両1の周囲の対象物データとして車載コントローラ24に出力される。
The
GPS226は、現在の車両1の位置を示す位置情報を取得する(Global Positioning System, GPS)。GPS226は、複数の衛星通信から送信される情報を受信機で受信することで、車両1の位置情報を取得する。GPS226は、車両1の位置情報を取得することで、車両1の室外の状況及び車両1の走行状況を検出する。GPS226により取得された車両1の位置情報は、車両1の位置データとして車載コントローラ24に出力される。
The
なお、上述したセンサは、車外用センサ221の一例であって、車外用センサ221は、上述したセンサのうち少なくともいずれか一つを含んでいればよい。また車外用センサ221は、上述したセンサに限られず、車両1の室外の状況及び車両1の走行状況のうち少なくともいずれか一つを検出するセンサを含んでいればよい。例えば、車外用センサ221は、雨滴の量を検出する雨滴センサ、パルス状の赤外線によって車両1の周囲の対象物を検出するLidarなどを含んでいてもよい。
The sensor described above is an example of the
車載通信装置22は、車両1の外部との間で無線によりデータを送受信する無線通信機能を備えた機器である。車載通信装置22としては、例えば、テレマティクスコントロールユニット(TCU:Telematics Control Unit)が挙げられる。車載通信装置22は、無線通信機能により、例えば、4G/LTE、Wifi(商標登録)等の通信規格を利用して、インターネットに接続し、車両1の外部に設けられたサーバーやシステムとの間で様々なデータの送受信を行う。本実施形態では、車載通信装置22は、周辺情報サーバー10、遠隔地通信装置31、及びサーバー通信装置41との間でデータの送受信を行う。車載通信装置22は、これらの通信装置又はサーバーから受信したデータを車載コントローラ24に出力する。また車載通信装置22は、車載コントローラ24から入力されたデータをこれらの通信装置又はサーバーに送信する。
The in-
車載出力装置23は、車両1に設けられ、車内ユーザAに対して遠隔地ユーザBの発話内容を出力する装置である。図1に示すように、車載出力装置23としては、遠隔地ユーザBの発話内容を表示形式で車内ユーザAに提示する車載ディスプレイ23a、遠隔地ユーザBの発話内容を音声形式で車内ユーザAに提示する車載スピーカー23bが挙げられる。車載出力装置23には、車載コントローラ24から提示態様データが入力される。提示態様データは、遠隔地ユーザBの発話内容を提示するために車載コントローラ24によって制御される制御対象の装置の情報、及び制御対象の装置に関する設定情報を含む。車載出力装置23は、提示態様データで示される提示態様で、遠隔地ユーザBの発話内容を車内ユーザAに提示する。
The in-
車載コントローラ24は、車両1の状況データを取得する状況取得処理、及び遠隔地ユーザBの発話内容を車内ユーザAに提示する発話内容提示処理を実行するためのプログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成されるコンピュータである。車載コントローラ24は、状況取得部25及び発話内容提示部26を有している。車載コントローラ24は、ROMに格納されたプログラムを実行することで、状況取得部25及び発話内容提示部26の機能を実行することができる。
The in-
状況取得部25は、車内ユーザAがいる場所の状況を示す、車両1の状況データを取得する。本実施形態では、状況取得部25は、周辺情報サーバー10及びセンサ21から、車両1の状況データを取得する。
The
例えば、状況取得部25は、車載通信装置22を介して、周辺情報サーバー10から、車両1の周辺の交通情報11、車両1の周辺の天気情報12、及び車両1の周辺の通信情報13を取得する。状況取得部25は、周辺情報サーバー10に情報リクエストの信号を送信することで、周辺情報サーバー10から、各種情報を取得することができる。また例えば、状況取得部25は、車両1に搭載されたセンサ21から、センサ21を構成する各センサで検出されたデータを取得する。センサ21で検出されたデータは、車内空間20の撮像画像データ、車内空間20の集音音声データ、車両1の操舵角データ、車両1のペダル踏み込みデータ、車両1の周囲の撮像画像データ、車両1の周囲の集音音声データ、車両1の周囲の対象物データ、及び車両1の位置データを含む。状況取得部25は、本発明の「状況取得部」の一例である。
For example, the
図2は、状況取得部25が取得する車両1の状況データの一例を示す説明図である。図2に示すように、車両1の状況データは、車両1の室内の状況データ、車両1の室外の状況データ、車両1の走行状況データ、及び車内ユーザの状況データに分類される。
FIG. 2 is an explanatory diagram showing an example of situation data of the vehicle 1 acquired by the
また車両1の室内の状況データとしては、図2に示すように、車両1のノイズ状況を示すデータ、車両1の通信状況を示すデータが挙げられる。車両1のノイズ状況を示すデータとしては、ロードノイズ、車内空間20に流れる音声(ラジオ、テレビ)の音量などが挙げられる。状況取得部25は、周辺情報サーバー10や車内用マイク213から、車両1のノイズ状況を示すデータを取得する。また車両1の通信状況を示すデータとしては、回線速度を示すビットレートが挙げられる。状況取得部25は、周辺情報サーバー10から、車両1の通信状況を示すデータを取得する。
As shown in FIG. 2, data indicating the noise condition of the vehicle 1 and data indicating the communication condition of the vehicle 1 can be used as the condition data of the interior of the vehicle 1 . The data indicating the noise situation of the vehicle 1 includes road noise, volume of sound (radio, television) flowing in the vehicle
また車両1の室外の状況データとしては、図2に示すように、車両1の周辺の道路状況や車両1の周辺状況を示すデータ、車両1の周辺の天候状況を示すデータが挙げられる。車両1の周辺の道路状況や車両1の周辺状況を示すデータとしては、車両1が走行する道路又はその周辺の渋滞情報、車両1の走行場所、車両1の周辺に存在する対象物の情報などが挙げられる。状況取得部25は、周辺情報サーバー10、車外用カメラ222、車外用マイク223、ミリ波レーダ224、超音波ソナー225、GPS226などから、車両1の周辺の道路状況や車両1の周辺状況を示すデータを取得する。また車両1の周辺の天候状況を示すデータとしては、天気を示すデータ(「晴れ」、「曇り」、「雨」、「霧」など)が挙げられる。状況取得部25は、周辺情報サーバー10から、車両1の天候状況を示すデータを取得する。
As shown in FIG. 2, data indicating the road conditions around the vehicle 1, data indicating the surrounding conditions of the vehicle 1, and data indicating weather conditions around the vehicle 1 can be used as the situation data of the vehicle 1 outside the vehicle 1, as shown in FIG. The data indicating the road conditions around the vehicle 1 and the surrounding conditions of the vehicle 1 include traffic information on the road on which the vehicle 1 travels or its surroundings, the location where the vehicle 1 travels, information on objects existing around the vehicle 1, and the like. is mentioned. The
また車両1の走行状況データとしては、図2に示すように、車両1の運転状況を示すデータが挙げられる。車両1の運転状況を示すデータとしては、車両1の状態を示す情報(「後ろ向き駐車中」、「縦列駐車中」、「高速道路走行中」、「右左折中」、「一時停止中」など)が挙げられる。状況取得部25は、車内用マイク213、舵角センサ214、ペダルセンサ215、車外用カメラ222、車外用マイク223、ミリ波レーダ224、超音波ソナー225、GPS226などから、車両1の運転状況を示すデータを取得する。
As the driving condition data of the vehicle 1, there is data indicating the driving condition of the vehicle 1, as shown in FIG. The data indicating the driving status of the vehicle 1 includes information indicating the state of the vehicle 1 (“parking backwards”, “parallel parking”, “running on highway”, “turning left or right”, “pausing”, etc.). ). The
また車内ユーザAの状況データとしては、図2に示すように、遠隔地ユーザBとの対話状況を示すデータ、車内ユーザAの反応状況を示すデータが挙げられる。遠隔地ユーザBとの対話状況を示すデータとしては、遠隔地ユーザBとの対話において車内ユーザAの理解度を表わす情報(「わかった」、「わからない」、「もう一度言って」、「うーむ」、「えっと」など)が挙げられる。状況取得部25は、車内用カメラ212、車内用マイク213などから、遠隔地ユーザBとの対話状況を示すデータを取得する。また車内ユーザAの反応状況を示すデータとしては、遠隔地ユーザBの発話内容が車内ユーザAに提示された後の、車内ユーザAの表現態様を示す情報(車内ユーザAの表所の変化、視線の変化など)が挙げられる。状況取得部25は、車内用カメラ212、車内用マイク213などから、車内ユーザAの反応状況を示すデータを取得する。なお、図2に示す状況取得部25が取得する車両1の状況データは一例であって、車両1の状況データを限定するものではない。
In addition, as the status data of the user A in the vehicle, data indicating the status of dialogue with the remote user B, and data indicating the reaction status of the user A in the vehicle, as shown in FIG. The data indicating the state of dialogue with the remote user B includes information indicating the level of understanding of the in-vehicle user A in the dialogue with the remote user B ("understood", "not understood", "say again", "hmm"). , “Uh,” etc.). The
図1に戻り、車載コントローラ24が実現する機能について説明する。発話内容提示部26には、車載通信装置22を介して、遠隔地通信装置31から送信された、遠隔地ユーザBの発話内容データ及び提示態様データが入力される。発話内容提示部26は、提示態様データで示す提示態様で、遠隔地ユーザBの発話内容を車内ユーザAに提示するように、車載出力装置23を制御する。例えば、発話内容提示部26は、提示態様データを参照することで、遠隔地ユーザBの発話内容を車内ユーザAに提示するための車載ディスプレイ23aの設定情報や車載スピーカー23bの設定情報を特定する。なお、遠隔地ユーザBの発話内容データが発話内容提示部26に入力されるタイミングと、提示態様データが発話内容提示部26に入力されるタイミングは同じであってもよいし、異なっていてもよい。発話内容提示部26は、本発明の「発話内容提示部」の一例である。
Returning to FIG. 1, the functions realized by the in-
遠隔地空間30について説明する。図1に示すように、遠隔地空間30には、遠隔地通信装置31、遠隔地マイク32、遠隔地入力装置33、遠隔地出力装置34、及び遠隔地コントローラ35が設けられている。遠隔地空間30に設けられた各装置は、相互に情報の送受信を行うために、例えばイーサネット(商標登録)などによって接続されている。
The
遠隔地通信装置31は、遠隔地空間30の外部との間で無線によりデータを送受信する無線通信機能を備えた機器である。遠隔地通信装置31としては、例えば、ルーターが挙げられる。遠隔地通信装置31は、無線通信機能により、例えば、4G/LTE、Wifi(商標登録)等の通信規格を利用して、インターネットに接続し、遠隔地空間30の外部に設けられたサーバーやシステムとの間で様々なデータの送受信を行う。本実施形態では、遠隔地通信装置31は、車載通信装置22及びサーバー通信装置41との間でデータの送受信を行う。各通信装置間で送受信されるデータについては後述する。
The
遠隔地マイク32は、遠隔地ユーザBがいる場所(遠隔地空間30)で音声を集音する集音装置である。遠隔地マイク32は、遠隔地ユーザBの音声を集音可能な位置に設置されるのが好ましい。遠隔地マイク32により集音された集音音声は、遠隔地コントローラ35に出力される。なお、遠隔地マイク32は、遠隔地空間30に設けられ、遠隔地ユーザBの音声を集音可能な装置又は機器であればよく、その形態、数、特性、設置場所などは特に限定されない。例えば、遠隔地マイク32は、複数のマイク又は種別が複数のマイクで構成されていてもよい。
The
遠隔地入力装置33は、遠隔地ユーザBが操作可能なヒューマンインターフェースとして機能する装置である。遠隔地ユーザBは、遠隔地入力装置33を操作することで、コミュニケーションシステム100に関する設定を入力することができる。遠隔地入力装置33は、キーボードやマウス等、各機器が別体で構成されていてもよいし、タッチパネルのようにディスプレイと入力部とが一体で構成されていてもよい。遠隔地入力装置33の形態、特性、設置場所などは特に限定されない。
The
本実施形態では、遠隔地ユーザBは、コミュニケーションシステム100に関する設定として、遠隔地ユーザBの発話内容をどのような態様で車内ユーザAに提示するかを示した、車内ユーザAへの提示態様を設定する。例えば、遠隔地ユーザBは、遠隔地入力装置33を介して、遠隔地ユーザBの発話内容を提示するために制御する制御対象の装置、及び制御対象の装置の詳細な設定を入力する。
In this embodiment, the remote user B sets, as a setting related to the
遠隔地出力装置34は、遠隔地空間30に設けられ、遠隔地ユーザBに対して、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度の情報を出力する装置である。図1に示すように、遠隔地出力装置34としては、車内ユーザAの理解度を表示形式で遠隔地ユーザBに提示する遠隔地ディスプレイ34a、車内ユーザAの理解度を音声形式で遠隔地ユーザBに提示する遠隔地スピーカー34bが挙げられる。遠隔地出力装置34には、遠隔地コントローラ35から、車内ユーザAの理解度データが入力される。遠隔地出力装置34は、車内ユーザAの理解度データに基づき、車内ユーザAの理解度を遠隔地ユーザBに提示する。
The
遠隔地コントローラ35は、遠隔地ユーザBの発話内容を取得する発話内容取得処理、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を提示する理解度提示処理、遠隔地入力装置33に入力された情報を受信する受信処理、及び車内ユーザAへの提示態様を決定する提示態様決定処理を実行するためのプログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成されるコンピュータである。遠隔地コントローラ35は、発話内容取得部36、理解度提示部37、受信部38、及び提示態様決定部39を有している。遠隔地コントローラ35は、ROMに格納されたプログラムを実行することで、発話内容取得部36、理解度提示部37、受信部38、及び提示態様決定部39の機能を実行することができる。遠隔地コントローラ35の各機能について説明する。
The
発話内容取得部36には、遠隔地マイク32から、遠隔地ユーザBの音声データが入力される。発話内容取得部36は、遠隔地ユーザBの音声から、遠隔地ユーザBの発話内容を取得する。発話内容取得部36は、遠隔地ユーザBの音声データに対して音声認識処理を実行することで、遠隔地ユーザBの発話内容を特定することができる。遠隔地ユーザBの発話内容とは、遠隔地ユーザBが話している内容又はテーマのことである。例えば、発話内容取得部36は、遠隔地ユーザBの音声に含まれる特定の単語や、遠隔地ユーザBが多用する単語に基づいて、遠隔地ユーザBが発話している内容を特定することができる。発話内容取得部36は、遠隔地通信装置31を介して、遠隔地マイク32により集音された遠隔地ユーザBの音声、及び遠隔地ユーザBの発話内容を含むデータを、遠隔地ユーザBの発話内容データとして車載通信装置22及びサーバー通信装置41に送信する。発話内容取得部36は、本発明の「発話内容取得部」の一例である。
Voice data of the remote user B is input to the speech
理解度提示部37には、遠隔地通信装置31を介して、サーバー通信装置41から送信された、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度データが入力される。理解度提示部37は、車内ユーザAの理解度を遠隔地ユーザBに提示するように、遠隔地出力装置34を制御する。例えば、理解度提示部37は、車内ユーザAの理解度データを遠隔地ディスプレイ34aに表示させる。また例えば、理解度提示部37は、車内ユーザAの理解度データを遠隔地スピーカー34bから音声出力させる。これにより、車内ユーザAの理解度は遠隔地ユーザBに提示され、遠隔地ユーザBは、自身の発話内容に対する車内ユーザAの理解度を理解することができる。なお、理解度提示部37がどのような態様で車内ユーザAの理解度を遠隔地ユーザBに提示するかは特に限定されない。例えば、車内ユーザAの理解度は、数値やグラフなどで遠隔地ディスプレイ34aに表示されてもよいし、遠隔地スピーカー34bを介して機械音声で読み上げられてもよい。理解度提示部37は、本発明の「理解度提示部」の一例である。
The comprehension
受信部38は、遠隔地入力装置33に入力された情報を受信する。例えば、遠隔地ユーザBがコミュニケーションシステム100に関する設定を遠隔地入力装置33に入力した場合、受信部38は、遠隔地ユーザBにより入力されたコミュニケーションシステム100の設定情報を受信する。本実施形態では、遠隔地ユーザBは、自身の発話内容を車内ユーザAに提示する態様の情報として、車内ユーザAへの提示態様の設定指示を遠隔地入力装置33に入力する。受信部38は、本発明の「受信部」の一例である。
The receiving
提示態様決定部39は、遠隔地ユーザBによる提示態様の設定指示に基づき、車内ユーザAへの提示態様を決定する。例えば、遠隔地ユーザBが自身の発話内容を強調して提示するよう設定指示した場合、提示態様決定部39は、遠隔地ユーザBの発話内容が強調されるように、制御対象の装置及び当該装置の設定を決定する。例えば、提示内容決定部29は、車載ディスプレイ23aを制御対象の装置として決定するとともに、車載ディスプレイ23aに表示させる具体的な内容を決定する。提示態様決定部39は、遠隔地通信装置31を介して、決定した提示態様のデータを車内空間20に送信する。
The presentation
次に、サーバー40について説明する。図1に示すように、サーバー40は、サーバー通信装置41、データベース42、及びサーバーコントローラ43を備えている。サーバー40が備える各装置は、相互に情報の送受信を行うために、例えばイーサネット(商標登録)などによって接続されている。
Next, the
サーバー通信装置41は、車載通信装置22及び遠隔地通信装置31との間で無線によりデータを送受信する無線通信機能を備えた機器である。サーバー通信装置41としては、例えば、ルーターが挙げられる。サーバー通信装置41は、無線通信機能により、例えば、4G/LTE、Wifi(商標登録)等の通信規格を利用して、インターネットに接続し、サーバー40の外部に設けられた他のサーバーやシステムとの間で様々なデータの送受信を行う。
The
サーバー通信装置41の送受信するデータについて説明する。サーバー通信装置41は、車載通信装置22から、状況取得部25により取得された車両1の状況データを受信する。サーバー通信装置41は、受信した車両1の状況データを、データベース42及びサーバーコントローラ43に出力する。
Data transmitted and received by the
また、サーバー通信装置41は、遠隔地通信装置31から、発話内容取得部36により取得された遠隔地ユーザBの発話内容のデータを受信する。サーバー通信装置41は、受信した遠隔地ユーザBの発話内容データを、データベース42及びサーバーコントローラ43に出力する。
The
また、サーバー通信装置41には、サーバーコントローラ43から、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度データが入力される。サーバー通信装置41は、車内ユーザAの理解度データを、遠隔地通信装置31に送信する。
Further, in-vehicle user A's comprehension degree data for remote user B's utterance content is input from
データベース42は、コミュニケーションシステム100を利用するユーザの各種データを格納する。データベース42は、遠隔地ユーザBの発話内容と、当該発話内容が車内ユーザAに提示されたときの車両1の状況データとを関連付けて記憶する。遠隔地ユーザBの発話内容が提示されたときの車両1の状況データは、遠隔地ユーザBの発話内容が車内ユーザAに提示されたときの車内ユーザAの状況を含む。
The
また遠隔地ユーザBの発話内容が提示されたときの車内ユーザAの状況は、遠隔地ユーザBの発話内容が提示されたときの車内ユーザAの表情、遠隔地ユーザBの発話内容が提示されたときに車内ユーザAが発した音声の音質、及び遠隔地ユーザBの発話内容が提示されたときに車内ユーザAが発した内容の少なくともいずれか一つを含む。遠隔地ユーザBの発話内容が提示されたときの車内ユーザAの表情は、車内用カメラ212により撮像された車内ユーザAの表情を含む撮像画像のデータから取得された情報である。また遠隔地ユーザBの発話内容が提示されたときに車内ユーザAが発した音声の音質及び遠隔地ユーザBの発話内容が提示されたときに車内ユーザAが発した内容は、車内用マイク213により集音された車内ユーザAの音声データから取得された情報である。データベース42には、サーバー通信装置41から各データが入力され、データベース42は、データが入力されるたびに、記憶するデータを更新する。
The situation of in-vehicle user A when remote user B's utterance content is presented is the facial expression of in-vehicle user A when remote location user B's utterance content is presented, and the remote location user B's utterance content is presented. It includes at least one of the sound quality of the voice uttered by the in-vehicle user A when the remote location user A uttered the content and the content uttered by the in-vehicle user A when the utterance content of the remote user B was presented. The facial expression of in-vehicle user A when the content of speech of remote user B is presented is information obtained from captured image data including the facial expression of in-vehicle user A captured by in-
例えば、車内ユーザAと遠隔地ユーザBがコミュニケーションシステム100を利用開始した後に、遠隔地ユーザBの発話内容が車内ユーザAに提示される機会が予め設けられていたとする。この機会において、遠隔地ユーザBの発話内容が提示されたときの車内ユーザAの反応(いわゆるリアクション)は、車内用カメラ212及び車内用マイク213によりデータとして取得される。例えば、車両1の経路を車内ユーザAに案内するために、遠隔地ユーザBが車両1の経路に関する内容を発話したとする。車内ユーザAが車載スピーカー23bを介して遠隔地ユーザBの音声を聞くと、車内用カメラ212は、そのときの車内ユーザAの表情を撮像し、また車内用マイク213は、そのときの車内ユーザAの音声を集音する。またセンサ21は、そのときの車両1の状況を検出する。遠隔地ユーザBの発話内容が車内ユーザAに提示されるたびに、車内用カメラ212及び車内用マイク213は、遠隔地ユーザBの発話内容が提示されたときの車内ユーザAの反応をデータとして取得する。例えば、車内ユーザAと遠隔地ユーザBがコミュニケーションシステム100の利用を終了すると、車内用カメラ212に撮像された撮像画像データ、車内用マイク213により集音された音声データ、及びセンサ21により検出された車両1の状況データは、車載通信装置22を介して、サーバー通信装置41に送信される。これにより、データベース42は、遠隔地ユーザBの発話内容と、当該発話内容が車内ユーザAに提示されたときの車両1の状況データとを関連付けて記憶することができ、データベース化を実現することができる。なお、本実施形態では、遠隔地ユーザBの発話内容の種別やその数などは特に限定されない。
For example, after in-vehicle user A and remote user B start using the
サーバーコントローラ43は、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定する理解度推定処理を実行するためのプログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成されるコンピュータである。サーバーコントローラ43は、理解度推定部44を有している。サーバーコントローラ43は、ROMに格納されたプログラムを実行することで、理解度推定部44の機能を実行することができる。理解度推定部44の機能について説明する。
The
理解度推定部44は、車両1の状況データに基づいて、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定する。図2に示す車両1の状況データの例を用いて説明する。
The comprehension
例えば、理解度推定部44は、図2に示す車両1のノイズ状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、遠隔地ユーザBの音声と背景雑音とのSN比が所定の比率以下の場合、車内ユーザAは雑音環境下において遠隔地ユーザBの発話内容を理解しているとして、当該SN比が所定の比率よりも高い場合に比べて、車内ユーザAの理解度を低く推定する。また例えば、理解度推定部44は、図2に示す車両1の通信状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、車載通信装置22と遠隔地通信装置31との間の通信速度が所定の通信速度以下の場合、音声が途切れるような不安定な通信環境下において車内ユーザAは遠隔地ユーザBの発話内容を理解しているとして、当該通信速度が所定の通信速度よりも速い場合に比べて、車内ユーザAの理解度を低く推定する。なお、上記の所定の比率及び所定の通信速度は、車内ユーザAの理解度を推定するために設定された比率の一例及び通信速度の一例であって、実験的に定めた値であってもよいし、予め設定した値であってもよい。
For example, the comprehension
また例えば、理解度推定部44は、図2に示す車両1の道路状況や周辺状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、車両1が走行する道路が渋滞している場合、ドライバが運転に集中を要する環境下において、ドライバである車内ユーザAは遠隔地ユーザBの発話内容を理解してないものとして、車両1が走行する道路が渋滞していない場合に比べて、車内ユーザAの理解度を低く推定する。また例えば、理解度推定部44は、図2に示す車両1の周辺の天候状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、車両1の周辺の天気が「雨」の場合、ドライバが運転に集中を要する環境下において、ドライバである車内ユーザAは遠隔地ユーザBの発話内容を理解してないものとして、車両1の周辺の天気が「晴れ」の場合に比べて、車内ユーザAの理解度を低く推定する。
Further, for example, the comprehension
また例えば、理解度推定部44は、図2に示す車両1の運転状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、車両1が後ろ向き駐車中の場合、ドライバが運転に集中を要する環境下において、ドライバである車内ユーザAは遠隔地ユーザBの発話内容を理解していないものとして、車両1が一時停止中の場合に比べて、車内ユーザAの理解度を低く推定する。
Further, for example, the comprehension
また例えば、理解度推定部44は、図2に示す遠隔地ユーザBとの対話状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、車内ユーザAが「もう一度言って」と発話した場合、車内ユーザAは遠隔地ユーザBの発話内容を理解していないものとして、車内ユーザAが「わかった」と発話した場合に比べて、車内ユーザAの理解度を低く推定する。また例えば、理解度推定部44は、図2に示す車内ユーザAの反応状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、遠隔地ユーザBの発話内容が車内ユーザAに提示された後、車内ユーザAが首を傾げる仕草をした場合、車内ユーザAは遠隔地ユーザBの発話内容を理解していないものとして、車内ユーザAが相槌を打つ仕草をした場合に比べて、車内ユーザAの理解度を低く推定する。なお、図2の例を用いて説明した車内ユーザAの理解度を推定する方法のそれぞれは一例であって、車内ユーザAの理解度の推定方法を限定するものではない。
Further, for example, the comprehension
上記のような理解度推定部44による推定処理を実現させる一例としては、遠隔地ユーザBの発話内容データ及び車両1の状況データから、車内ユーザAの理解度を推定するために、データベース42に記憶されるデータを用いて機械学習を行った学習済みの学習済みモデルが挙げられる。学習済みモデルは、学習済みニューラルネットワークを有する。学習済みニューラルネットワークは、遠隔地ユーザBの発話内容データ及び車両1の状況データが入力されると、車内ユーザAの理解度を推定するように、教師データを用いて機械学習処理が施されたニューラルネットワークである。理解度推定部44は、サーバー通信装置41を介して、遠隔地ユーザBの発話内容データ及び車両1の状況データが入力されると、学習済みニューラルネットワークを用いて、車内ユーザAの理解度を推定する。理解度推定部44は、車内ユーザAの理解度データを、サーバー通信装置41を介して、遠隔地通信装置31に送信する。
As an example of realizing the estimation processing by the comprehension
次に、図3及び図4を用いて、コミュニケーションシステム100により、遠隔地ユーザBの発話内容が車内ユーザAに提示され、その後、車内ユーザAへの提示態様が変更されるまでのフローを説明する。図3及び図4は、コミュニケーションシステム100による音声出力処理を示すフローチャートである。図3及び図4に示すように、フローチャートの各ステップは、車載コントローラ24、遠隔地コントローラ35、又はサーバーコントローラ43のいずれかにより実行される。
Next, with reference to FIGS. 3 and 4, the flow from the
ステップS101では、遠隔地コントローラ35は、コミュニケーションシステム100の利用が開始されたか否かを判定する。例えば、コミュニケーションシステム100の利用は、VRゴーグルを装着した遠隔地ユーザBがコミュニケーションシステム100を起動するための操作を行うことで開始される。遠隔地コントローラ35は、遠隔地ユーザBによる上記操作の情報を検知すると、コミュニケーションシステム100の利用が開始されたと判定する。遠隔地コントローラ35が肯定的な判定をした場合、ステップS102に進む。一方、遠隔地コントローラ35に遠隔地ユーザBによる操作の情報が入力されず、遠隔地コントローラ35が否定的な判定をした場合、コミュニケーションシステム100による音声出力処理は終了する。また遠隔地ユーザBがコミュニケーションシステム100を終了するための操作を行った場合も、遠隔地コントローラ35は否定的な判定をし、コミュニケーションシステム100による音声出力処理は終了する。
In step S101, the
ステップS102では、遠隔地コントローラ35は、遠隔地マイク32により集音された遠隔地ユーザBの音声を取得したか否かを判定する。遠隔地コントローラ35は、遠隔地マイク32から遠隔地ユーザBの音声データが入力された場合、遠隔地ユーザBの音声を取得したと判定する。一方、遠隔地コントローラ35は、遠隔地マイク32から遠隔地ユーザBの音声データが入力されない場合、遠隔地ユーザBの音声を取得していないと判定する。遠隔地コントローラ35が肯定的な判定をした場合、ステップS103に進み、遠隔地コントローラ35が否定的な判定をした場合、ステップS101に戻る。
In step S102, the
ステップS102において、遠隔地コントローラ35が肯定的な判定をした場合、ステップS103に進む。ステップS103では、遠隔地コントローラ35は、ステップS102で集音した遠隔地ユーザBの音声から、遠隔地ユーザBの発話内容を取得し、遠隔地ユーザBが発話している内容やテーマを特定する。例えば、遠隔地コントローラ35は、音声認識処理により、遠隔地ユーザBの音声から、遠隔地ユーザBの発話内容を取得する。
If the
ステップS104では、遠隔地コントローラ35は、遠隔地通信装置31を介して、ステップS103で取得した遠隔地ユーザBの発話内容データを車内空間20に送信する。ステップS105では、車載コントローラ24は、車載通信装置22を介して、ステップS104で遠隔地通信装置31から送信された遠隔地ユーザBの発話内容データを受信する。
In step S<b>104 , the
ステップS106では、車載コントローラ24は、所定の提示態様で遠隔地ユーザBの発話内容を車内ユーザAに提示するように、車載出力装置23を制御する。車載出力装置23から遠隔地ユーザBの発話内容が出力されることで、遠隔地ユーザBの発話内容は車内ユーザAに提示される。例えば、所定の提示態様としては、予め設定された初期設定の提示態様が挙げられる。初期設定の提示態様は、遠隔地ユーザBの発話内容を提示するために制御する制御対象の装置、及び当該装置の設定情報を含む。なお、このステップにおける所定の提示態様は、初期設定の提示態様に限られない。例えば、後述するステップS118を経て、再度ステップS106に進んだ場合、車載コントローラ24は、所定の提示態様として、ステップS118での提示態様を用いることができる。
In step S106, the in-
ステップS107では、車載コントローラ24は、車内ユーザAがいる場所の状況を示す、車両1の状況データを取得する。例えば、車載コントローラ24は、周辺情報サーバー10から、車両1の周辺の交通情報11、車両1の周辺の天気情報12、及び車両1の周辺の通信情報13を取得する。また例えば、車載コントローラ24は、車両1に搭載されたセンサ21から、センサ21を構成する各センサで検出されたデータを取得する。
In step S107, the in-
ステップS108では、車載コントローラ24は、車載通信装置22を介して、ステップS105で受信した遠隔地ユーザBの発話内容データと、ステップS107で取得した車両1の状況データを、サーバー40に送信する。
In step S108, the in-
ステップS109では、サーバーコントローラ43は、サーバー通信装置41を介して、ステップS108で車載通信装置22から送信された遠隔地ユーザBの発話内容データ及び車両1の状況データを受信する。
In step S109, the
ステップS110では、サーバーコントローラ43は、ステップS109で受信した遠隔地ユーザBの発話内容データ及び車両1の状況データを用いて、車内ユーザAの理解度を推定する。例えば、サーバーコントローラ43は、学習済みニューラルネットワークを用いて、車内ユーザAの理解度を推定する。
In step S110, the
ステップS111では、サーバーコントローラ43は、サーバー通信装置41を介して、ステップS110で推定した車内ユーザAの理解度データを遠隔地空間30に送信する。
In step S111, the
ステップS112では、遠隔地コントローラ35は、遠隔地通信装置31を介して、ステップS111でサーバー通信装置41から送信された、車内ユーザAの理解度データを受信する。
In step S112, the
ステップS113では、遠隔地コントローラ35は、遠隔地ユーザBの発話内容を車内ユーザAに提示する際の提示態様について、変更の必要性を判定する。例えば、遠隔地コントローラ35は、ステップS112で受信した車内ユーザAの理解度データを遠隔地ディスプレイ34aに表示させて、車内ユーザAの理解度を遠隔地ユーザBに提示する。車内ユーザAの理解度が提示された遠隔地ユーザBは、車内ユーザAの理解度に応じて、提示態様の変更の必要性を判断する。遠隔地ユーザBは、提示態様の変更が必要と判断した場合、遠隔地入力装置33を介して、提示態様を変更する指示及び変更後の提示態様の情報を含む提示態様の設定指示を入力する。遠隔地コントローラ35は、遠隔地入力装置33を介して、遠隔地ユーザBによる提示態様の設定指示が入力された場合、車内ユーザAへの提示態様を変更する必要があると判定する。一方、遠隔地コントローラ35は、車内ユーザAの理解度を遠隔地ユーザBに提示してから所定時間が経過しても、遠隔地ユーザBによる設定指示が入力されない場合、車内ユーザAへの提示態様を変更する必要はないと判定する。遠隔地コントローラ35が肯定的な判定をした場合、ステップS114に進み、遠隔地コントローラ35が否定的な判定をした場合、ステップS101に戻る。なお、所定時間は、車内ユーザAへの提示態様を変更する必要があるか否かを判定するための時間であって、予め定められた時間である。
In step S<b>113 , the
ステップS113において、遠隔地コントローラ35が肯定的な判定をした場合、ステップS114に進む。ステップS114において、遠隔地コントローラ35は、ステップS113での処理結果に基づいて、車内ユーザAへの提示態様を決定する。例えば、ステップS113において遠隔地コントローラ35が遠隔地ユーザBによる設定指示を受信した場合、遠隔地コントローラ35は、遠隔地ユーザBにより入力された変更後の提示態様の情報に基づき、車内ユーザAへの提示態様を決定する。遠隔地コントローラ35は、遠隔地ユーザBの発話内容を車内ユーザAに提示するために制御する制御対象の装置と、当該装置に関する設定を決定する。
If the
ステップS115において、遠隔地コントローラ35は、遠隔地通信装置31を介して、ステップS114で決定した提示態様のデータを車内空間20に送信する。ステップS116では、車載コントローラ24は、車載通信装置22を介して、ステップS115で遠隔地通信装置31から送信された提示態様データを受信する。
In step S<b>115 , the
ステップS117では、車載コントローラ24は、ステップS116で受信した提示態様データに基づき、車内ユーザAへの提示態様を変更する。例えば、ステップS116で受信した提示態様データに音声を強調する設定が含まれている場合、車載コントローラ24は、車載スピーカー23bの音量が上がるように、車載スピーカー23bの音量を設定する。
In step S117, the in-
ステップS118では、車載コントローラ24は、ステップS117で変更した提示態様で遠隔地ユーザBの発話内容を車内ユーザAに提示する。例えば、遠隔地ユーザBの発話内容を強調して車内ユーザAに提示する場合、車載コントローラ24は、ステップS117で設定した音量で車載スピーカー23bから遠隔地ユーザBの音声を出力させる。ステップS118の処理が終了すると、ステップS107に戻り、ステップS101で否定的な判定がされるまで、図3及び図4に示すコミュニケーションシステム100による音声出力処理が繰り返し実行される。
In step S118, the in-
図5は、遠隔地ユーザBの発話内容を強調するための提示態様の一例を示す説明図である。図5に示すように、遠隔地ユーザBの発話内容が事故情報の場合、車載コントローラ24は、事故情報を知らせる遠隔地ユーザBの音声を車載スピーカー23bから出力させるとともに、遠隔地ユーザBの発話内容を強調させるために、事故の発生位置が示された地図を車載ディスプレイ23aに表示させる。また遠隔地ユーザBの発話内容が経路案内の場合、車載コントローラ24は、車両1の経路を案内する遠隔地ユーザBの音声を車載スピーカー23bから出力させるとともに、遠隔地ユーザBの発話内容を強調させるために、車両1の経路が示された地図を車載ディスプレイ23aに表示させる。さらに、遠隔地ユーザBの発話内容が観光情報の場合、車載コントローラ24は、遠隔地ユーザBの音声により観光情報を出力する車載スピーカー23bの音量を上げるとともに、観光情報を示すアイコンや文字を車載ディスプレイ23aに追加表示させる。なお、図5に示す遠隔地ユーザBの発話内容を強調するための提示態様は一例であって、車載コントローラ24による制御を限定するものではない。
FIG. 5 is an explanatory diagram showing an example of a presentation mode for emphasizing the utterance content of the remote user B. As shown in FIG. As shown in FIG. 5, when the content of the utterance of the remote user B is accident information, the in-
以上のように、本実施形態では、遠隔地コントローラ35は、遠隔地マイク32により集音された遠隔地ユーザBの音声から遠隔地ユーザBの発話内容を取得する発話内容取得部36を備え、車載コントローラ24は、遠隔地ユーザBがいる遠隔地空間30とは別の車内ユーザAがいる車両1の状況を示す、車両1の状況データを取得する状況取得部25を備え、サーバーコントローラ43は、車両1の状況データに基づいて、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定する理解度推定部44を備える。そして、車載コントローラ24は、車内ユーザAの理解度に基づく提示態様で、遠隔地ユーザBの発話内容を車内ユーザAに提示するように、車載出力装置23を制御する発話内容提示部26を備える。車両1の状況データに基づいて推定される車内ユーザAの理解度は、遠隔地ユーザBの発話内容に対するものであるため、聞き手である車内ユーザAの理解度を推定する精度を向上させることができる。その結果、聞き手である車内ユーザAが発話者である遠隔地ユーザBの発話内容を理解しやすくなる。
As described above, in the present embodiment, the
また、本実施形態では、車両1の状況は、車両1の室内の状況、車両1の室外の状況、車両1の走行状況、及び車内ユーザAの状況のうち少なくともいずれかを含む。これにより、車両1に関する異なる観点から車両1の状況を捉えることができるため、車両1の状況が変化した場合であっても、車両1の状況の変化前後において、車内ユーザAの理解度の推定精度を高く保つことができる。 In this embodiment, the situation of the vehicle 1 includes at least one of the situation inside the vehicle 1, the situation outside the vehicle 1, the traveling situation of the vehicle 1, and the situation of the user A inside the vehicle. As a result, since the situation of the vehicle 1 can be grasped from a different viewpoint regarding the vehicle 1, even if the situation of the vehicle 1 changes, the degree of understanding of the in-vehicle user A can be estimated before and after the change of the situation of the vehicle 1. High accuracy can be maintained.
さらに、本実施形態では、遠隔地コントローラ35は、車内ユーザAの理解度を、遠隔地ユーザBに提示するように、遠隔地空間30に設けられた遠隔地出力装置34を制御する理解度提示部37を備える。これにより、遠隔地ユーザBは、自身の発話内容に対する車内ユーザAの理解度を把握することができる。
Furthermore, in this embodiment, the
加えて、本実施形態では、遠隔地コントローラ35は、遠隔地空間30に設けられた遠隔地入力装置33から、車内ユーザAの理解度を提示された遠隔地ユーザBによる提示態様の設定指示を受信する受信部38と、遠隔地ユーザBによる提示態様の設定指示に基づいて、車内ユーザAへの提示態様を決定する提示態様決定部39を備える。これにより、遠隔地ユーザBは、車内ユーザAの理解度を把握したうえで、車内ユーザAへの提示態様を決定することができるため、例えば、車内ユーザAの理解度が低い場合、遠隔地ユーザBの発話内容を強調するなど、車内ユーザAへの提示態様を適切に変更することができる。
In addition, in the present embodiment, the
また、本実施形態では、理解度推定部44は、遠隔地ユーザBの発話内容及び車両1の状況データが入力されると、学習済みニューラルネットワークを用いて、車内ユーザAの理解度を推定する。学習済みニューラルネットワークは、遠隔地ユーザBの発話内容及び車両1の状況データが入力されると、車内ユーザAの理解度を推定するように、教師データを用いた機械学習処理が施されたニューラルネットワークである。これにより、ルールベースで車内ユーザAの理解度を推定するよりも高い精度で、車内ユーザAの理解度を推定することができる。
In addition, in the present embodiment, when the utterance content of the remote user B and the situation data of the vehicle 1 are input, the comprehension
さらに、本実施形態では、理解度推定部44は、発話内容取得部36により遠隔地ユーザBの発話内容が取得された後に、状況取得部25により取得された車両1の状況データに基づいて、車内ユーザAの理解度を推定する。これにより、遠隔地ユーザBが発話した内容に合わせるように、車内ユーザAへの提示態様を変更することができるため、車内ユーザAが遠隔地ユーザBの発話内容を理解しづらい又は理解できなくなるのを抑制することができる。
Furthermore, in the present embodiment, the comprehension
なお、以上に説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。 It should be noted that the embodiments described above are described to facilitate understanding of the present invention, and are not described to limit the present invention. Therefore, each element disclosed in the above embodiments is meant to include all design changes and equivalents that fall within the technical scope of the present invention.
例えば、上述した実施形態では、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定する方法として、車両1の状況データを用いた推定方法を例に挙げて説明したが、その他の方法、又は車両1の状況データを用いた推定方法との組み合わせにより遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定してもよい。例えば、理解度推定部44は、遠隔地ユーザBの発話内容に対して、遠隔地ユーザBの発話内容の複雑度を算出し、算出した遠隔地ユーザBの発話内容の複雑度に基づいて、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定してもよい。遠隔地ユーザBの発話内容の複雑度は、遠隔地ユーザBが発話している内容の難易度ともいう。
For example, in the above-described embodiment, the estimation method using the situation data of the vehicle 1 was described as an example of the method of estimating the in-vehicle user A's degree of understanding of the utterance content of the remote user B, but other methods have been described. Alternatively, in-vehicle user A's degree of understanding of remote user B's utterance content may be estimated by combining with an estimation method using situation data of vehicle 1 . For example, the understanding
遠隔地ユーザBの発話内容の複雑度を算出する方法には、例えば、本願出願時に知られた、テキスト文章の複雑度を判定する技術を用いることができる。例えば、理解度推定部44は、遠隔地ユーザBの音声に対して音声認識処理を実行して、遠隔地ユーザBの音声を文字に起こし、遠隔地ユーザBの発話内容を文章化する。理解度推定部44は、遠隔地ユーザBの発話内容が表された文章の複雑度を算出することで、遠隔地ユーザBの発話内容の複雑度を算出する。
As a method for calculating the complexity of the utterance content of remote user B, for example, a technique for determining the complexity of text sentences known at the time of filing of the present application can be used. For example, the comprehension
理解度推定部44は、遠隔地ユーザBが用いる単語に基づいて、遠隔地ユーザBの発話内容の複雑度を算出する。理解度推定部44は、遠隔地ユーザBの発話内容が表された文章に含まれる単語一つ当たりの長さに基づいて、遠隔地ユーザBの発話内容の複雑度を算出してもよい。例えば、理解度推定部44は、遠隔地ユーザBの発話内容が表された文章に含まれる単語一つ当たりの長さが長いほど、遠隔地ユーザBの発話内容の複雑度を高く算出する。
The comprehension
また理解度推定部44は、遠隔地ユーザBが用いる語彙の豊かさに基づいて、遠隔地ユーザBの発話内容の複雑度を算出してもよい。例えば、理解度推定部44は、遠隔地ユーザBの発話内容が表せれた文章に特定分野で使用される専門用語が含まれている場合、当該専門用語が含まれていない場合に比べて、遠隔地ユーザBの発話内容の複雑度を高く算出する。また例えば、理解度推定部44は、遠隔地ユーザBの発話内容が表せられた文章において出現回数が1回の単語について、当該単語を文章全体に含まれる単語の総数で除算することで、遠隔地ユーザBの発話内容の複雑度を算出する。
The comprehension
また理解度推定部44は、遠隔地ユーザBが用いる文法に基づいて、遠隔地ユーザBの発話内容の複雑度を算出してもよい。例えば、理解度推定部44は、遠隔地ユーザBの発話内容が表された文章に含まれる単語の品詞数、主語や述語などの文要素数に基づいて、遠隔地ユーザBの発話内容の複雑度を算出する。
Further, the comprehension
上述した方法によって、遠隔地ユーザBの発話内容の複雑度が算出されると、理解度推定部44は、算出した遠隔地ユーザBの発話内容の複雑度に基づいて、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定する。例えば、理解度推定部44は、遠隔地Bユーザの発話内容の複雑度が高いほど、車内ユーザAが遠隔地ユーザBの発話内容を理解しづらいとして、車内ユーザAの理解度を低く推定する。一方、理解度推定部44は、遠隔地ユーザBの発話内容の複雑度が低いほど、車内ユーザAが遠隔地ユーザBの発話内容を理解しやすいとして、車内ユーザAの理解度を高く推定する。
When the complexity of the utterance content of the remote user B is calculated by the above-described method, the comprehension
このように、遠隔地ユーザBの発話内容の複雑度に基づいて、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定することで、車内ユーザAの理解度は、車内ユーザAが理解すべき対象の複雑さに基づいて推定されるため、車内ユーザAの理解度の推定精度を向上させることができる。 In this way, by estimating the degree of understanding of the in-vehicle user A with respect to the utterance content of the remote-site user B based on the complexity of the utterance content of the remote-site user B, the degree of understanding of the in-vehicle user A can be Since it is estimated based on the complexity of the object to be understood, the accuracy of estimating the in-vehicle user A's degree of understanding can be improved.
また例えば、上述した実施形態では、車内ユーザAへの提示態様を決定する方法として、遠隔地ユーザBに車内ユーザAの理解度を提示し、その後、遠隔地ユーザBによる設定指示に基づいて車内ユーザAへの提示態様を決定する方法を例に挙げて説明したが、その他の方法により、車内ユーザAへの提示態様を決定してもよい。例えば、遠隔地コントローラ35は、車内ユーザAの理解度に基づいて、車内ユーザへの提示態様を決定する提示態様決定部を備えていてもよい。これにより、車内ユーザAへの提示態様は車内ユーザAの理解度に基づいて自動的に決定されるため、車内ユーザAへの提示態様を変更する場合、スムーズに変更することができる。また遠隔地ユーザBによる操作が不要となるため、ユーザの利便性の向上を図ることができる。
Further, for example, in the above-described embodiment, as a method of determining the mode of presentation to in-vehicle user A, the in-vehicle user A's level of understanding is presented to remote user B, and then, based on a setting instruction from remote user B, in-vehicle Although the method of determining the mode of presentation to user A has been described as an example, the mode of presentation to in-vehicle user A may be determined by other methods. For example, the
また上述した変形例において、例えば、提示態様決定部は、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度が所定の基準理解度よりも低い場合、車内ユーザAへの提示態様として、遠隔地ユーザBの発話内容を強調する提示態様に決定してもよい。これにより、車内ユーザAの理解度が比較的低い場合、遠隔地ユーザBの発話内容を強調して車内ユーザAに提示できるため、車内ユーザAは、提示態様が変更される前に比べて、遠隔地ユーザBの発話内容を理解しやすくなる。 Further, in the above-described modified example, for example, if the in-vehicle user A's degree of understanding of the utterance content of the remote user B is lower than a predetermined reference level of understanding, the presentation mode determination unit selects the remote A presentation mode that emphasizes the utterance content of the local user B may be determined. As a result, when the in-vehicle user A's degree of understanding is relatively low, the utterance content of the remote user B can be emphasized and presented to the in-vehicle user A, so that the in-vehicle user A can It becomes easier to understand the content of the utterance of the remote user B.
また例えば、上述した実施形態では、理解度推定部44による発話内容に対する理解度の推定方法として、学習済みニューラルネットワークを用いた推定方法を例に挙げて説明したが、その他の方法により発話内容に対する理解度を推定してもよい。例えば、理解度推定部44は、入力層及び出力層を含み、入力層への入力データを遠隔地ユーザBの発話内容及び車両1の状況データとし、出力層からの出力データを遠隔地ユーザBの発話内容に対する車内ユーザAの理解度とするニューラルネットワークと、入力データ及び出力データの実績値を教師データとしてニューラルネットワークを学習させる機械学習部と、機械学習部により学習させたニューラルネットワークに新たな入力データを入力し、当該入力データに対する新たな出力データとして、車内ユーザAの理解度を推定する推定部を有していてもよい。これにより、理解度推定部44は、遠隔地ユーザBの発話内容及び車両1の状況データが入力されるたびに、遠隔地ユーザBの発話内容と車両1の状況との相関関係を学習するため、車内ユーザAの理解度の推定精度をより高めることができる。
Further, for example, in the above-described embodiment, an estimation method using a trained neural network was described as an example of a method for estimating the degree of comprehension with respect to the utterance content by the
また例えば、上述した実施形態では、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定するタイミングとして、遠隔地ユーザBの発話内容を取得した後を例に挙げて説明したが、遠隔地ユーザBの発話内容を取得する前に、車内ユーザAの理解度を推定してもよい。理解度推定部44は、発話内容取得部36により遠隔地ユーザBの発話内容が取得される前に、状況取得部25により取得された車両1の状況データに基づいて、遠隔地ユーザBが発話した場合における遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を予め推定してもよい。例えば、理解度推定部44は、車両1の状況データから、車載通信装置22と遠隔地通信装置31との間の通信速度が所定の通信速度以下であることを特定したとする。この場合、理解度推定部44は、音声が途切れるような不安定な通信環境下のため、遠隔地ユーザBが発話した場合に車内ユーザAは遠隔地ユーザBの発話内容を理解しづらいと予測して、通信速度が所定の通信速度よりも速い場合に比べて、車内ユーザAの理解度を予め低く推定する。遠隔地ユーザBが発話する前に車内ユーザAの理解度を予め推定することで、車内ユーザAが初めから遠隔地ユーザBの発話内容を理解しづらい又は理解できなくなるのを抑制することができる。
Further, for example, in the above-described embodiment, as the timing for estimating the degree of understanding of the in-vehicle user A with respect to the utterance content of the remote user B, the timing after acquiring the utterance content of the remote user B has been described as an example. Before acquiring the utterance content of local user B, the in-vehicle user A's degree of understanding may be estimated. The comprehension
また例えば、上述した実施形態では、理解度推定部44が有する学習済みニューラルネットワークとして、車両1の状況データを入力データにして機械学習を行った場合を例に挙げて説明したが、理解度推定部44のニューラルネットワークに、車両1に限られず、複数の車両から各車両の状況データを入力させて学習させてもよい。また、複数の車両のそれぞれにおいて、車載コントローラが理解度推定部を備える構成であってもよく、この場合、各車両において、車両の状況データを入力させて学習させ、各学習結果をサーバーに送信する構成であってもよい。
Further, for example, in the above-described embodiment, a case where machine learning is performed using situation data of the vehicle 1 as input data as a trained neural network possessed by the comprehension
また例えば、上述した実施形態では、車載コントローラ24が状況取得部25及び発話内容提示部26を備え、遠隔地コントローラ35が発話内容取得部36、理解度提示部37、受信部38、及び提示態様決定部39を備え、サーバーコントローラ43が理解度推定部44を備える場合を例に挙げて説明したが、本発明のコミュニケーション支援装置の構成はこれに限定されない。例えば、発話内容取得部、状況取得部、理解度推定部、発話内容提示部、理解度提示部、受信部、及び提示態様決定部は、特定のコントローラ又は装置が備える構成であってもよい。例えば、車載コントローラ24がこれらのブロックを備えていてもよいし、遠隔地コントローラ35がこれらのブロックを備えていてもよいし、あるいは、サーバー40がこれらのブロックを備えていてもよい。このようにコミュニケーション支援装置の各ブロックを集約した構成の場合、各ブロックを備える装置は、いずれのブロックも備えない装置との間で、通信装置を介してデータの送受信を行うことで、上述した実施形態と同様の効果を得ることができる。
Further, for example, in the above-described embodiment, the in-
100…コミュニケーションシステム
10…周辺情報サーバー
11…交通情報
12…天気情報
13…通信情報
20…車内空間
21…センサ
211…車内用センサ
212…車内用カメラ
213…車内用マイク
214…舵角センサ
215…ペダルセンサ
221…車外用センサ
222…車外用カメラ
223…車外用マイク
224…ミリ波レーダ
225…超音波ソナー
226…GPS
22…車載通信装置
23…車載出力装置
23a…車載ディスプレイ
23b…車載スピーカー
24…車載コントローラ
25…状況取得部
26…発話内容提示部
30…遠隔地空間
31…遠隔地通信装置
32…遠隔地マイク
33…遠隔地入力装置
34…遠隔地出力装置
34a…遠隔地ディスプレイ
34b…遠隔地スピーカー
35…遠隔地コントローラ
36…発話内容取得部
37…理解度提示部
38…受信部
39…提示態様決定部
40…サーバー
41…サーバー通信装置
42…データベース
43…サーバーコントローラ
44…理解度推定部
DESCRIPTION OF
22 In-
Claims (13)
前記第1ユーザがいる第1の場所とは別の第2ユーザがいる第2の場所の状況を示す、第2の場所の状況データを取得する状況取得部と、
前記第2の場所の状況データに基づいて、前記第1ユーザの前記発話内容に対する前記第2ユーザの理解度を推定する理解度推定部と、
前記第2ユーザの前記理解度に基づく提示態様で、前記第1ユーザの前記発話内容を前記第2ユーザに提示するように、前記第2の場所に設けられた出力装置を制御する発話内容提示部を備えるコミュニケーション支援装置。 an utterance content acquisition unit that acquires the utterance content of the first user from the first user's voice collected by a sound collecting device;
a situation acquisition unit that acquires situation data of a second place that indicates the situation of a second place where a second user is present, which is different from the first place where the first user is present;
an understanding degree estimation unit that estimates the second user's degree of understanding of the utterance content of the first user based on the situation data of the second location;
Speech content presentation for controlling an output device provided at the second location so as to present the speech content of the first user to the second user in a presentation mode based on the degree of understanding of the second user. A communication support device comprising:
前記第1ユーザは、前記遠隔地にいる遠隔地ユーザであり、
前記第2の場所は、前記車両であり、
前記第2ユーザは、前記車両に乗車している車内ユーザであり、
前記第2の場所の状況データは、前記車両の状況を示す車両の状況データである請求項1に記載のコミュニケーション支援装置。 the first location is a remote location away from the vehicle;
the first user is a remote user at the remote location;
the second location is the vehicle;
the second user is an in-vehicle user on board the vehicle;
2. The communication support device according to claim 1, wherein the situation data of the second location is vehicle situation data indicating the situation of the vehicle.
前記設定指示に基づいて、前記提示態様を決定する提示態様決定部を備える請求項5に記載のコミュニケーション支援装置。 a receiving unit that receives, from the input device provided at the remote location, an instruction to set the presentation mode by the remote user presented with the level of understanding of the in-vehicle user;
6. The communication support device according to claim 5, further comprising a presentation mode determination unit that determines the presentation mode based on the setting instruction.
入力層及び出力層を含み、前記入力層への入力データを前記遠隔地ユーザの発話内容及び前記車両の状況データとし、前記出力層からの出力データを前記遠隔地ユーザの前記発話内容に対する前記車内ユーザの前記理解度とするニューラルネットワークと、
前記入力データ及び前記出力データの実績値を教師データとして前記ニューラルネットワークを学習させる機械学習部と、
前記機械学習部により学習させた前記ニューラルネットワークに新たな前記入力データを入力し、当該入力データに対する新たな前記出力データとして、前記遠隔地ユーザの前記発話内容に対する前記車内ユーザの前記理解度を推定する推定部を有する、請求項2~8のいずれかに記載のコミュニケーション支援装置。 The comprehension level estimation unit
An input layer and an output layer are included, and the input data to the input layer are the utterance content of the remote user and the situation data of the vehicle, and the output data from the output layer is the interior of the vehicle for the utterance content of the remote user. a neural network as the level of understanding of the user;
a machine learning unit for learning the neural network using actual values of the input data and the output data as teacher data;
The new input data is input to the neural network learned by the machine learning unit, and the in-vehicle user's degree of understanding of the utterance content of the remote user is estimated as the new output data for the input data. 9. The communication support device according to any one of claims 2 to 8, comprising an estimating unit that
前記学習済みニューラルネットワークは、前記遠隔地ユーザの発話内容及び前記車両の状況データが入力されると、前記遠隔地ユーザの前記発話内容に対する前記車内ユーザの理解度を推定するように、教師データを用いた機械学習処理が施されたニューラルネットワークである請求項2~8のいずれかに記載のコミュニケーション支援装置。 When the utterance content of the remote user and the situation data of the vehicle are input, the comprehension level estimating unit estimates the in-vehicle user's comprehension level of the utterance content of the remote user using a trained neural network. presume,
The trained neural network, when input with the utterance content of the remote user and the situation data of the vehicle, stores training data so as to estimate the in-vehicle user's degree of understanding of the utterance content of the remote user. 9. The communication support device according to any one of claims 2 to 8, which is a neural network subjected to machine learning processing.
集音装置により集音された第1ユーザの音声から前記第1ユーザの発話内容を取得し、
前記第1ユーザがいる第1の場所とは別の第2ユーザがいる第2の場所の状況を示す、前記第2の場所の状況を取得し、
前記第2の場所の状況データに基づいて、前記第1ユーザの前記発話内容に対する前記第2ユーザの理解度を推定し、
前記第2ユーザの前記理解度に基づく提示態様で、前記第1ユーザの前記発話内容を前記第2ユーザに提示するように、前記第2の場所に設けられた出力装置を制御するコミュニケーション支援方法。 A communication support method executed by a controller, comprising:
Acquiring the utterance content of the first user from the first user's voice collected by a sound collecting device;
obtaining a context of the second location that indicates a context of a second location of the second user that is different from the first location of the first user;
estimating the degree of understanding of the second user with respect to the utterance content of the first user based on the situation data of the second location;
A communication support method for controlling an output device provided at the second location so as to present the utterance content of the first user to the second user in a presentation mode based on the degree of understanding of the second user. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021037464A JP2022137792A (en) | 2021-03-09 | 2021-03-09 | Communication support device and communication support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021037464A JP2022137792A (en) | 2021-03-09 | 2021-03-09 | Communication support device and communication support method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022137792A true JP2022137792A (en) | 2022-09-22 |
Family
ID=83319717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021037464A Pending JP2022137792A (en) | 2021-03-09 | 2021-03-09 | Communication support device and communication support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022137792A (en) |
-
2021
- 2021-03-09 JP JP2021037464A patent/JP2022137792A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6693354B2 (en) | Vehicle information presentation device | |
JP5677647B2 (en) | Navigation device | |
JP6612707B2 (en) | Information provision device | |
JP6604151B2 (en) | Speech recognition control system | |
US9875583B2 (en) | Vehicle operational data acquisition responsive to vehicle occupant voice inputs | |
JP6173477B2 (en) | Navigation server, navigation system, and navigation method | |
US11176948B2 (en) | Agent device, agent presentation method, and storage medium | |
EP3965066B1 (en) | Machine learning model to detect emergency vehicles fusing audio and visual signals | |
JP7250547B2 (en) | Agent system, information processing device, information processing method, and program | |
CN111016820A (en) | Agent system, agent control method, and storage medium | |
WO2019131116A1 (en) | Information processing device, moving device and method, and program | |
US20230067615A1 (en) | Systems and methods for communicating with vision and hearing impaired vehicle occupants | |
KR20190011458A (en) | Vehicle, mobile for communicate with the vehicle and method for controlling the vehicle | |
WO2016121112A1 (en) | Evaluation information collection system | |
US11492005B1 (en) | Systems and methods for communicating with vision and hearing impaired vehicle occupants | |
KR102350306B1 (en) | Method for controlling voice in vehicle | |
JP2020060861A (en) | Agent system, agent method, and program | |
JP2022137792A (en) | Communication support device and communication support method | |
CN114690896A (en) | Information processing apparatus, information processing method, and storage medium | |
Orth et al. | A speech-based on-demand intersection assistant prototype | |
WO2023090057A1 (en) | Information processing device, information processing method, and information processing program | |
JP2020106997A (en) | In-vehicle device and communication system | |
WO2023204076A1 (en) | Acoustic control method and acoustic control device | |
WO2024024470A1 (en) | Air-conditioning control device, air-conditioning control method, and program | |
WO2023163047A1 (en) | Terminal device, information providing system, information processing method, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240827 |