JP2022137792A - Communication support device and communication support method - Google Patents

Communication support device and communication support method Download PDF

Info

Publication number
JP2022137792A
JP2022137792A JP2021037464A JP2021037464A JP2022137792A JP 2022137792 A JP2022137792 A JP 2022137792A JP 2021037464 A JP2021037464 A JP 2021037464A JP 2021037464 A JP2021037464 A JP 2021037464A JP 2022137792 A JP2022137792 A JP 2022137792A
Authority
JP
Japan
Prior art keywords
vehicle
user
remote
utterance content
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021037464A
Other languages
Japanese (ja)
Inventor
剛仁 寺口
Takehito Teraguchi
放歌 陳
Fangge Chen
雅己 岡本
Masami Okamoto
雄宇 志小田
Yuu Shioda
裕史 井上
Yasushi Inoue
純 河西
Jun Kawanishi
翔太 大久保
Shota Okubo
乘 西山
Nori Nishiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2021037464A priority Critical patent/JP2022137792A/en
Publication of JP2022137792A publication Critical patent/JP2022137792A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

To provide a communication support device and a communication support method for allowing a listener to easily understand utterance contents of an utterer by improving accuracy for estimating the degree of understanding of the listener.SOLUTION: A communication support device acquires utterance contents of a first user from voice of the first user collected by a sound collection device, acquires state data of a second place, showing a state of the second place at which a second user is present and which is different from a first place at which the first user is present, estimates the degree of understanding of the second user of utterance contents of the first user on the basis of the state data of the second place, and controls an output device provided at the second place so as to present utterance contents of the first user to the second user in a presentation mode based on the degree of understanding of the second user.SELECTED DRAWING: Figure 1

Description

本発明は、コミュニケーション支援装置及びコミュニケーション支援方法に関する。 The present invention relates to a communication support device and a communication support method.

聞き手に対して出力される音声の理解度を向上させる音声通信システムが知られている(例えば、特許文献1)。特許文献1に記載の音声通信システムでは、聞き手の背景騒音を分析し、背景騒音の分析結果を用いて、現在の背景騒音下において、聞き手が出力される音声を容易に理解できるか否かを判定する。 2. Description of the Related Art A speech communication system that improves the intelligibility of speech output to a listener is known (for example, Patent Document 1). In the speech communication system described in Patent Document 1, the background noise of the listener is analyzed, and using the analysis result of the background noise, it is determined whether or not the listener can easily understand the output speech under the current background noise. judge.

特表2002-507291号公報Japanese Patent Publication No. 2002-507291

聞き手の理解度には、聞き手の背景騒音だけでなく、発話者の発話内容も影響する。特許文献1に記載の音声通信システムでは、現在の背景騒音下において聞き手が音声を容易に理解できると判定しても、実際には発話内容によって聞き手が音声を容易に理解できないおそれがある。つまり、特許文献1に記載の音声通信システムでは、聞き手の理解度が発話内容に対するものではないため、聞き手の理解度を推定する精度が低く、聞き手が発話者の発話内容を理解しづらい、という問題がある。 The listener's comprehension is affected not only by the listener's background noise, but also by the speaker's utterance content. In the speech communication system described in Patent Document 1, even if it is determined that the listener can easily understand the speech under the current background noise, the listener may not be able to easily understand the speech depending on the content of the utterance. In other words, in the voice communication system described in Patent Document 1, since the listener's degree of understanding is not related to the utterance content, the accuracy of estimating the listener's degree of understanding is low, and it is difficult for the listener to understand the utterance content of the speaker. There's a problem.

本発明が解決しようとする課題は、聞き手の理解度を推定する精度を向上させることで、聞き手が発話者の発話内容を理解しやすくなるコミュニケーション支援装置及びコミュニケーション支援方法を提供することである。 The problem to be solved by the present invention is to provide a communication support device and a communication support method that make it easier for the listener to understand the utterance content of the speaker by improving the accuracy of estimating the listener's degree of understanding.

本発明は、集音装置により集音された第1ユーザの音声から第1ユーザの発話内容を取得し、第1ユーザがいる第1の場所とは別の第2ユーザがいる第2の場所の状況を示す、第2の場所の状況データを取得し、第2の場所の状況データに基づいて、第1ユーザの発話内容に対する第2ユーザの理解度を推定し、第2ユーザの理解度に基づく提示態様で、第1ユーザの発話内容を第2ユーザに提示するように、第2の場所に設けられた出力装置を制御することで、上記課題を解決する。 The present invention acquires the utterance content of the first user from the first user's voice collected by a sound collector, and obtains the content of the first user's utterance at a second place where the second user is different from the first place where the first user is. obtaining situation data at a second location indicating the situation of the second user, estimating the degree of understanding of the second user with respect to the utterance content of the first user based on the situation data of the second place, and obtaining the degree of understanding of the second user The above problem is solved by controlling the output device provided at the second location so as to present the speech content of the first user to the second user in a presentation mode based on the above.

本発明によれば、第2ユーザの理解度は、第2ユーザがいる場所の状況に基づいて、第1ユーザの発話内容に対して推定されるため、聞き手である第2ユーザの理解度を推定する精度が向上し、第2ユーザは第1ユーザの発話内容を理解しやすくなる。 According to the present invention, the degree of understanding of the second user is estimated with respect to the utterance content of the first user based on the situation of the place where the second user is. The accuracy of estimation is improved, and the second user can easily understand the content of the first user's speech.

本実施形態に係るコミュニケーションシステムのブロック図である。1 is a block diagram of a communication system according to this embodiment; FIG. 状況取得部が取得する車両の状況データの一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of vehicle situation data acquired by a situation acquisition unit; 本実施形態に係るコミュニケーションシステムによる音声出力処理を示すフローチャートである。4 is a flowchart showing voice output processing by the communication system according to the embodiment; 本実施形態に係るコミュニケーションシステムによる音声出力処理を示すフローチャートである。4 is a flowchart showing voice output processing by the communication system according to the embodiment; 遠隔地ユーザの発話内容を強調するための提示態様の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a presentation mode for emphasizing the contents of a speech of a remote user;

以下、本発明の実施形態を図面に基づいて説明する。
本実施形態では、本発明に係るコミュニケーション支援装置及びコミュニケーション支援方法を、コミュニケーションシステムに適用した例を用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings.
In this embodiment, a communication support device and a communication support method according to the present invention will be described using an example in which they are applied to a communication system.

図1は、本実施形態に係るコミュニケーションシステム100のブロック図である。本実施形態に係るコミュニケーションシステム100は、同一空間にいないユーザAとユーザBとが会話する場面に用いられる。本実施形態では、ユーザAとして、車両1に乗車しており、車内空間20にいるユーザを例に挙げ、ユーザBとして、車両1から離間した場所である遠隔地空間30にいるユーザを例に挙げて説明する。ユーザAがいる場所とユーザBがいる場所は異なる。 FIG. 1 is a block diagram of a communication system 100 according to this embodiment. The communication system 100 according to this embodiment is used in a scene where users A and B who are not in the same space have a conversation. In this embodiment, the user A is an example of a user who is in the vehicle 1 and is in the vehicle interior space 20, and the user B is an example of a user who is in the remote space 30, which is a place away from the vehicle 1. I will list and explain. The location of user A and the location of user B are different.

なお、コミュニケーションシステム100は、ユーザAがいる場所とユーザBがいる場所とが異なる場面で用いられればよく、ユーザAとユーザBのそれぞれが位置する場所は特に限定されない。例えば、ユーザAは車両1に乗車していなくてもよい。以降の説明では、便宜上、車内空間20にいるユーザAを車内ユーザAと称し、遠隔地空間30にいるユーザBを遠隔地ユーザBと称して説明する。 Communication system 100 may be used in situations where user A and user B are located at different locations, and the locations where user A and user B are located are not particularly limited. For example, user A does not have to be in the vehicle 1 . In the following description, for the sake of convenience, user A in the vehicle interior space 20 will be referred to as in-vehicle user A, and user B in the remote space 30 will be referred to as remote user B.

また本実施形態において、車内ユーザAと遠隔地ユーザBとが会話する際の各ユーザの状態は特に限定されない。例えば、図1では、車内ユーザAの状態として、車内ユーザAが車両1のステアリングを操作している状態を示しているが、車内ユーザAはドライバではなく、助手席又は後部座席に着座する乗員であってもよい。また例えば、図1では、遠隔地ユーザBの状態として、遠隔地ユーザBが着座した状態を示しているが、遠隔地ユーザBは起立していてもよい。また本実施形態では、車内ユーザAと遠隔地ユーザBとが会話する場面を例に挙げて説明するが、コミュニケーションシステム100は会話の場面以外でも用いることができる。例えば、遠隔地ユーザBが車内ユーザAに向けて一方的に話す場面、すなわち、音声の流れは一方向の場面にも、コミュニケーションシステム100を用いることができる。 In addition, in the present embodiment, the state of each user when in-vehicle user A and remote user B converse is not particularly limited. For example, FIG. 1 shows a state in which the in-vehicle user A is operating the steering wheel of the vehicle 1 as the state of the in-vehicle user A. may be Also, for example, in FIG. 1, as the state of remote user B, the state in which remote user B is seated is shown, but remote user B may be standing. Further, in this embodiment, a scene in which in-vehicle user A and remote user B converse will be described as an example, but communication system 100 can be used in situations other than conversation. For example, the communication system 100 can be used in a situation where the remote user B speaks unilaterally to the in-vehicle user A, that is, a situation in which the voice flow is unidirectional.

また本実施形態では、コミュニケーションシステム100が仮想現実(Virtual Reality)及び拡張現実(Augmented Reality)の技術を利用したシステムに用いられた場合を例に挙げて説明する。図1に示すように、車内ユーザAと遠隔地ユーザBとはそれぞれ異なる空間にいるため、車内ユーザAと遠隔地ユーザBは同一空間内で会話することができない。しかし、コンピュータによって作り出された世界である仮想空間を現実としてユーザに知覚させる仮想現実の技術では、コンピュータは、遠隔地ユーザBに対して、あたかも車内空間20にいるような仮想空間を作り出すことができる。仮想空間では、遠隔地ユーザBは、少なくとも視覚及び聴覚を通じて、あたかも車内空間20にいるかのように知覚する。例えば、遠隔地ユーザBは、VRゴーグル等、本願出願時に知られた仮想現実の技術が用いられたデバイスを装着することで、視覚を通じて仮想空間を車内空間20として認知することができる。また遠隔地ユーザBは、本実施形態に係るコミュニケーションシステム100により、聴覚を通じて仮想空間を車内空間20として認知することができる。 Also, in this embodiment, a case where the communication system 100 is used in a system using virtual reality and augmented reality technology will be described as an example. As shown in FIG. 1, since the in-vehicle user A and the remote user B are in different spaces, the in-vehicle user A and the remote user B cannot converse in the same space. However, in a virtual reality technology that allows a user to perceive a virtual space, which is a world created by a computer, as a reality, the computer can create a virtual space that makes the remote user B feel as if they are in the vehicle interior space 20. can. In the virtual space, the remote user B perceives as if he were in the vehicle interior space 20 at least visually and aurally. For example, the remote user B can visually perceive the virtual space as the vehicle interior space 20 by wearing a device using virtual reality technology known at the time of filing the application, such as VR goggles. Further, the remote user B can perceive the virtual space as the in-vehicle space 20 through hearing through the communication system 100 according to the present embodiment.

一方、コンピュータにより作り出された視覚情報を現実に重畳表示させることで、仮想的に拡張された現実をユーザに知覚させる拡張現実の技術では、コンピュータは、車内ユーザAに対して、遠隔地ユーザBがあたかも車内空間20にいるような仮想空間を作りだすことができる。仮想空間では、車内ユーザAは、少なくとも視覚及び聴覚を通じて、遠隔地ユーザBが車内空間20にいるかのように知覚する。例えば、車内ユーザAは、ARグラス等、本願出願時に知られた拡張現実の技術が用いられたデバイスを装着することで、視覚を通じて、コンピュータにより生成された遠隔地ユーザBの分身となるキャラクター(アバター)が車内空間20にいるかのように認知することができる。また車内ユーザAは、本実施形態に係るコミュニケーションシステム100により、聴覚を通じて、遠隔地ユーザBのアバターが車内空間20にいるかのように認知することができる。以降、図1を用いて、コミュニケーションシステム100の各構成を説明する。 On the other hand, in the augmented reality technology that allows the user to perceive a virtual augmented reality by superimposing visual information created by a computer, the computer provides the in-vehicle user A with the remote location user B It is possible to create a virtual space as if the user is in the vehicle interior space 20.例文帳に追加In the virtual space, the in-vehicle user A perceives, at least visually and aurally, as if the remote user B is in the in-vehicle space 20 . For example, in-vehicle user A wears a device using augmented reality technology known at the time of the filing of the present application, such as AR glasses, so that through vision, a computer-generated character ( avatar) can be recognized as if it were in the vehicle interior space 20. Further, the in-vehicle user A can hear the avatar of the remote user B as if it were in the in-vehicle space 20 with the communication system 100 according to the present embodiment. Each configuration of the communication system 100 will be described below with reference to FIG.

図1に示すように、コミュニケーションシステム100は、周辺情報サーバー10、車内空間20、遠隔地空間30、及びサーバー40を含む。遠隔地空間30は、車内空間20から離間した空間である。遠隔地空間30としては、例えば、車両1とは別の車両の室内や建物の一室などが挙げられるが、遠隔地空間30は車内空間20とは別の場所であれば特に限定されない。 As shown in FIG. 1, the communication system 100 includes a peripheral information server 10, an in-vehicle space 20, a remote space 30, and a server 40. FIG. The remote space 30 is a space separated from the vehicle interior space 20 . The remote space 30 may be, for example, a room in a vehicle other than the vehicle 1 or a room in a building.

周辺情報サーバー10は、車内ユーザAがいる場所の状況を示す情報を提供する。車内ユーザAがいる場所の状況を示す情報とは、車両1の周辺情報である。図1に示すように、周辺情報サーバー10が提供する車両1の周辺情報としては、車両1の周辺の道路情報、事故情報、及び渋滞情報を含む交通情報11、車両1の周辺の天気及び気温の情報を含む天気情報12、車両1の周辺で利用可能な無線LAN規格の種別及び当該無線LANの通信速度を含む通信情報13などが挙げられる。周辺情報サーバー10は、後述する車載コントローラ24からの要求に応じて、車両1の周辺情報を車載通信装置22に送信する。なお、周辺情報サーバー10が提供する情報として、交通情報11、天気情報12、及び通信情報13を例に挙げたが、周辺情報サーバー10は、これらの情報を全て提供する必要はなく、交通情報11、天気情報12、及び通信情報13のうち少なくともいずれか一つを提供するサーバーであればよい。 The peripheral information server 10 provides information indicating the situation of the place where the user A is in the vehicle. The information indicating the situation of the place where the in-vehicle user A is is the surrounding information of the vehicle 1 . As shown in FIG. 1, the surrounding information of the vehicle 1 provided by the surrounding information server 10 includes traffic information 11 including road information, accident information, and traffic information around the vehicle 1, weather and temperature around the vehicle 1, and traffic information 11 including traffic information. and communication information 13 including the types of wireless LAN standards that can be used around the vehicle 1 and the communication speed of the wireless LAN. The peripheral information server 10 transmits peripheral information of the vehicle 1 to the in-vehicle communication device 22 in response to a request from the in-vehicle controller 24 to be described later. Although the traffic information 11, the weather information 12, and the communication information 13 are exemplified as the information provided by the surrounding information server 10, the surrounding information server 10 does not need to provide all of these information, and the traffic information 11, weather information 12, and communication information 13.

次に、車内空間20について説明する。車内空間20は、車両1の室内を示す空間である。車内空間20には、センサ21、車載通信装置22、車載出力装置23、及び車載コントローラ24が設けられている。車内空間20に設けられた各装置は、相互に情報の送受信を行うために、例えばCAN(Controller Area Network)その他の車載ネットワーク(イーサネット(商標登録)など)によって接続されている。 Next, the vehicle interior space 20 will be described. The vehicle interior space 20 is a space indicating the interior of the vehicle 1 . A sensor 21 , an in-vehicle communication device 22 , an in-vehicle output device 23 , and an in-vehicle controller 24 are provided in the vehicle interior space 20 . Each device provided in the vehicle interior space 20 is connected by, for example, a CAN (Controller Area Network) or other vehicle-mounted network (Ethernet (registered trademark), etc.) in order to mutually transmit and receive information.

センサ21は、車内ユーザAがいる場所の状況を検出するセンサである。車内ユーザAがいる場所の状況は、車両1の室内の状況、車両1の室外の状況、車両1の走行状況、及び車内ユーザAの状況のうち少なくともいずれか一つを含む。図1に示すように、センサ21は、車内用センサ211及び車外用センサ221で構成される。車内用センサ211は、車両1の室内の状況、車両1の走行状況、及び車内ユーザAの状況を検出するためのセンサである。車外用センサ221は、車両1の室外の状況、及び車両1の走行状況を検出するためのセンサである。 The sensor 21 is a sensor that detects the situation where the user A is in the vehicle. The situation of the place where the user A is in the vehicle includes at least one of the situation inside the vehicle 1, the situation outside the vehicle 1, the driving situation of the vehicle 1, and the situation of the user A inside the vehicle. As shown in FIG. 1, the sensor 21 is composed of a vehicle interior sensor 211 and a vehicle exterior sensor 221 . The in-vehicle sensor 211 is a sensor for detecting the condition of the interior of the vehicle 1, the traveling condition of the vehicle 1, and the condition of the user A inside the vehicle. The vehicle exterior sensor 221 is a sensor for detecting the conditions outside the vehicle 1 and the traveling conditions of the vehicle 1 .

図1に示すように、車内用センサ111としては、車内用カメラ212、車内用マイク213、舵角センサ214、及びペダルセンサ215が挙げられる。 As shown in FIG. 1 , the in-vehicle sensor 111 includes an in-vehicle camera 212 , an in-vehicle microphone 213 , a steering angle sensor 214 , and a pedal sensor 215 .

車内用カメラ212は、車両1の室内を撮像する撮像装置である。車内用カメラ212は、車両1の室内を撮像することで、車両1の室内の状況を検出する。また車内用カメラ212は、車内ユーザAを撮像することで、車内ユーザAの状況を検出する。例えば、車内用カメラ212は、車内ユーザAの様子や、車両1のその他の乗員の様子を撮像する。車内用カメラ212により撮像された撮像画像は、車内空間20の撮像画像データとして車載コントローラ24に出力される。なお、車内用カメラ212は、車両1に搭載され、車両1の室内を撮像する装置又は機器であればよく、その形態、数、特性、設置場所などは特に限定されない。例えば、車内用カメラ212は、複数のカメラ又は種別が複数のカメラで構成されていてもよい。 The in-vehicle camera 212 is an imaging device that images the interior of the vehicle 1 . The in-vehicle camera 212 detects the state of the interior of the vehicle 1 by capturing an image of the interior of the vehicle 1 . In addition, the in-vehicle camera 212 detects the situation of the user A in the vehicle by capturing an image of the user A in the vehicle. For example, the in-vehicle camera 212 captures images of the user A inside the vehicle and other occupants of the vehicle 1 . A captured image captured by the vehicle interior camera 212 is output to the vehicle controller 24 as captured image data of the vehicle interior space 20 . Note that the in-vehicle camera 212 may be any device or device that is mounted in the vehicle 1 and captures an image of the interior of the vehicle 1, and its form, number, characteristics, installation location, and the like are not particularly limited. For example, the in-vehicle camera 212 may be composed of a plurality of cameras or a plurality of types of cameras.

車内用マイク213は、車両1の室内の音声を集音する集音装置である。車内用マイク213は、車両1の室内の音声を集音することで、車両1の室内の状況を検出する。また車内マイク113は、車両1に搭載された装置又はシステムから出力される音声を集音することで、車両1の走行状況を検出する。さらに車内用マイク213は、車内ユーザAの音声を集音することで、車内ユーザAの状況を検出する。例えば、車内用マイク213は、車内ユーザAが発する声、車両1のその他の乗員が発する声、車両1のエンジン音やモータ音、方向指示器が作動した際のウィンカー音、ワイパーが作動した際のワイパー音、ハザードランプが作動した際のハザードランプ音、カーナビゲーションシステムから出力される音声、オーディオシステムから再生される音楽などを集音する。車内用マイク213により集音された集音音声は、車内空間20の集音音声データとして車載コントローラ24に出力される。なお、車内用マイク213は、車両1に搭載され、車両1の室内の音声を集音する装置又は機器であればよく、その形態、数、特性、設置位置などは特に限定されない。例えば、車内用マイク213は、複数のマイク又は種別が複数のマイクで構成されていてもよい。 The in-vehicle microphone 213 is a sound collecting device that collects sounds inside the vehicle 1 . The in-vehicle microphone 213 detects the situation inside the vehicle 1 by collecting the sound inside the vehicle 1 . Also, the in-vehicle microphone 113 detects the driving situation of the vehicle 1 by collecting sound output from a device or system mounted on the vehicle 1 . Further, the in-vehicle microphone 213 detects the situation of the in-vehicle user A by collecting the voice of the in-vehicle user A. For example, the in-vehicle microphone 213 is used for the voice of the in-vehicle user A, the voice of other passengers in the vehicle 1, the engine sound and motor sound of the vehicle 1, the turn signal sound when the direction indicator is activated, and the wiper sound when the wiper is activated. It collects sounds such as wiper sounds, hazard lamp sounds when the hazard lamps are activated, sounds output from the car navigation system, and music played from the audio system. The sound collected by the in-vehicle microphone 213 is output to the in-vehicle controller 24 as collected sound data of the in-vehicle space 20 . The in-vehicle microphone 213 may be any device or device that is mounted in the vehicle 1 and collects the sound in the interior of the vehicle 1, and its form, number, characteristics, installation position, etc. are not particularly limited. For example, the in-vehicle microphone 213 may be composed of a plurality of microphones or a plurality of types of microphones.

舵角センサ214は、車両1のステアリングシャフトに設けられ、車両1のステアリングホイールの操舵角を検出するセンサである。舵角センサ214は、ステアリングホイールの操舵角を検出することで、車両1の走行状況を検出する。舵角センサ214により検出されたステアリングホイールの操舵角は、車両1の操舵角データとして車載コントローラ24に出力される。 The steering angle sensor 214 is a sensor that is provided on the steering shaft of the vehicle 1 and detects the steering angle of the steering wheel of the vehicle 1 . The steering angle sensor 214 detects the running condition of the vehicle 1 by detecting the steering angle of the steering wheel. The steering angle of the steering wheel detected by the steering angle sensor 214 is output to the in-vehicle controller 24 as steering angle data of the vehicle 1 .

ペダルセンサ215は、アクセルペダル及びブレーキペダルのそれぞれに設けられ、アクセルペダルの踏み込み量及びブレーキペダルの踏み込み量を検出するセンサである。ペダルセンサ215は、アクセルペダルの踏み込み量及びブレーキペダルの踏み込み量を検出することで、車両1の走行状況を検出する。ペダルセンサ15により検出された、アクセルペダルの踏み込み量及びブレーキペダルの踏み込み量は、車両1のペダル踏み込みデータとして車載コントローラ24に出力される。 The pedal sensor 215 is a sensor that is provided for each of the accelerator pedal and the brake pedal and detects the amount of depression of the accelerator pedal and the amount of depression of the brake pedal. The pedal sensor 215 detects the running condition of the vehicle 1 by detecting the amount of depression of the accelerator pedal and the amount of depression of the brake pedal. The amount of depression of the accelerator pedal and the amount of depression of the brake pedal detected by the pedal sensor 15 are output to the in-vehicle controller 24 as pedal depression data of the vehicle 1 .

なお、上述したセンサは、車内用センサ211の一例であって、車内用センサ211は、上述したセンサのうち少なくともいずれか一つを含んでいればよい。また車内用センサ211は、上述したセンサに限られず、車両1の室内の状況、車両1の走行状況、及び車内ユーザAの状況のうち少なくともいずれか一つを検出するセンサを含んでいればよい。例えば、車内用センサ211は、車両1のシフトレバーの位置を検出するシフトポジションセンサ、車両1の室温を計測する温度センサ、車両1の車速を検出する車速センサ、車両1の加速度を検出する加速度センサ、車両1の角速度を検出するジャイロセンサなどを含んでいてもよい。 The sensor described above is an example of the in-vehicle sensor 211, and the in-vehicle sensor 211 may include at least one of the sensors described above. The in-vehicle sensor 211 is not limited to the sensors described above, and may include a sensor that detects at least one of the indoor conditions of the vehicle 1, the traveling conditions of the vehicle 1, and the conditions of the user A inside the vehicle. . For example, the in-vehicle sensors 211 include a shift position sensor that detects the position of the shift lever of the vehicle 1, a temperature sensor that measures the room temperature of the vehicle 1, a vehicle speed sensor that detects the vehicle speed of the vehicle 1, and an acceleration sensor that detects the acceleration of the vehicle 1. A sensor, a gyro sensor for detecting the angular velocity of the vehicle 1, or the like may be included.

また図1に示すように、車外用センサ221としては、車外用カメラ222、車外用マイク223、ミリ波レーダ224、超音波ソナー225、及びGPS226が挙げられる。 Further, as shown in FIG. 1 , the vehicle exterior sensor 221 includes an exterior camera 222 , an exterior microphone 223 , a millimeter wave radar 224 , an ultrasonic sonar 225 and a GPS 226 .

車外用カメラ222は、車両1の周囲を撮像する撮像装置である。車外用カメラ222は、車両1の周囲を撮像することで、車両1の室外の状況及び車両1の走行状況を検出する。例えば、車外用カメラ222は、車両1の周囲に存在する対象物を撮像する。車外用カメラ222が撮像する対象物としては、例えば、自転車、バイク、路上障害物、交通信号機、路面標示などが挙げられる。車外用カメラ222により撮像された撮像画像は、車両1の周囲の撮像画像データとして車載コントローラ24に出力される。なお、車外用カメラ222は、車両1に搭載され、車両1の周囲を撮像する装置又は機器であればよく、その形態、数、特性、設置場所などは特に限定されない。例えば、車外用カメラ222は、複数のカメラ又は種別が複数のカメラで構成されていてもよい。 The vehicle exterior camera 222 is an imaging device that captures an image of the surroundings of the vehicle 1 . The exterior camera 222 detects the situation outside the vehicle 1 and the traveling situation of the vehicle 1 by imaging the surroundings of the vehicle 1 . For example, the vehicle exterior camera 222 images an object existing around the vehicle 1 . Objects captured by the vehicle exterior camera 222 include, for example, bicycles, motorcycles, road obstacles, traffic lights, and road markings. The captured image captured by the vehicle exterior camera 222 is output to the in-vehicle controller 24 as captured image data of the surroundings of the vehicle 1 . Note that the exterior camera 222 is mounted on the vehicle 1 and may be any device or device that captures an image of the surroundings of the vehicle 1, and its form, number, characteristics, installation location, and the like are not particularly limited. For example, the vehicle exterior camera 222 may be composed of a plurality of cameras or a plurality of types of cameras.

車外用マイク223は、車両1の周囲の音声を集音する集音装置である。車外用マイク223は、車両1の周囲の音声を集音することで、車両1の室外の状況及び車両1の走行状況を検出する。例えば、車外用マイク223は、車両1以外の他車両の走行音やクラクション音、緊急車両のサイレン音、広告宣伝車両から出力される宣伝音を集音する。車外用マイク223により集音された集音音声は、車両1の周囲の集音音声データとして車載コントローラ24に出力される。なお、車外用マイク223は、車両1に搭載され、車両1の周囲の音声を集音する装置又は機器であればよく、その形態、数、特性、設置位置などは特に限定されない。例えば、車外用マイク223は、複数のマイク又は種別が複数のマイクで構成されていてもよい。 The vehicle external microphone 223 is a sound collecting device that collects sounds around the vehicle 1 . The external microphone 223 detects the situation outside the vehicle 1 and the traveling situation of the vehicle 1 by collecting sounds around the vehicle 1 . For example, the vehicle external microphone 223 collects running sounds and horn sounds of vehicles other than the vehicle 1, siren sounds of emergency vehicles, and advertising sounds output from advertising vehicles. The sound collected by the external microphone 223 is output to the in-vehicle controller 24 as collected sound data around the vehicle 1 . Note that the external microphone 223 may be any device or device that is mounted on the vehicle 1 and collects sounds around the vehicle 1, and its form, number, characteristics, installation position, etc. are not particularly limited. For example, the vehicle exterior microphone 223 may be composed of a plurality of microphones or a plurality of types of microphones.

ミリ波レーダ224は、ミリ波レーダによって車両1の周囲に存在する対象物を検出するセンサである。具体的に、ミリ波レーダ224は、車両1の進行方向に対して対象物が位置する方向、及び車両1から対象物までの距離を検出する。また対象物が移動している場合、ミリ波レーダ224は、車両1の速度に対する対象物の相対速度を検出する。ミリ波レーダ224は、車両1の周囲に存在する対象物を検出することで、車両1の室外の状況及び車両1の走行状況を検出する。ミリ波レーダ224が検出する対象物の一例としては、車外用カメラ222が撮像する対象物の一例が挙げられるため、対象物の一例については、既述の説明を援用する。ミリ波レーダ224により検出された対象物の情報は、車両1の周囲の対象物データとして車載コントローラ24に出力される。 The millimeter wave radar 224 is a sensor that detects objects existing around the vehicle 1 by using the millimeter wave radar. Specifically, the millimeter wave radar 224 detects the direction in which the object is positioned with respect to the traveling direction of the vehicle 1 and the distance from the vehicle 1 to the object. Moreover, when the object is moving, the millimeter wave radar 224 detects the relative speed of the object with respect to the speed of the vehicle 1 . The millimeter wave radar 224 detects objects existing around the vehicle 1 to detect the conditions outside the vehicle 1 and the traveling conditions of the vehicle 1 . An example of an object detected by the millimeter wave radar 224 is an example of an object imaged by the vehicle exterior camera 222, so the above description is used for an example of the object. Information on the object detected by the millimeter wave radar 224 is output to the onboard controller 24 as object data around the vehicle 1 .

超音波ソナー225は、超音波によって車両1に比較的近い範囲に存在する対象物を検出するセンサである。具体的に、超音波ソナー225は、車両1の進行方向に対して対象物が位置する方向、及び車両1から対象物までの距離を検出する。超音波ソナー225は、車両1の周囲に存在する対象物を検出することで、車両1の室外の状況及び車両1の走行状況を検出する。例えば、超音波ソナー225は、駐車場内の障害物、駐車車両などを検出する。超音波ソナー225により検出された対象物の情報は、車両1の周囲の対象物データとして車載コントローラ24に出力される。 The ultrasonic sonar 225 is a sensor that uses ultrasonic waves to detect an object existing in a relatively close range to the vehicle 1 . Specifically, the ultrasonic sonar 225 detects the direction in which the object is positioned with respect to the traveling direction of the vehicle 1 and the distance from the vehicle 1 to the object. The ultrasonic sonar 225 detects objects existing around the vehicle 1 to detect the conditions outside the vehicle 1 and the traveling conditions of the vehicle 1 . For example, ultrasonic sonar 225 detects obstacles in parking lots, parked vehicles, and the like. Information on the object detected by the ultrasonic sonar 225 is output to the vehicle-mounted controller 24 as object data around the vehicle 1 .

GPS226は、現在の車両1の位置を示す位置情報を取得する(Global Positioning System, GPS)。GPS226は、複数の衛星通信から送信される情報を受信機で受信することで、車両1の位置情報を取得する。GPS226は、車両1の位置情報を取得することで、車両1の室外の状況及び車両1の走行状況を検出する。GPS226により取得された車両1の位置情報は、車両1の位置データとして車載コントローラ24に出力される。 The GPS 226 acquires position information indicating the current position of the vehicle 1 (Global Positioning System, GPS). The GPS 226 acquires position information of the vehicle 1 by receiving information transmitted from a plurality of satellite communications with a receiver. The GPS 226 detects the situation outside the vehicle 1 and the traveling situation of the vehicle 1 by acquiring the position information of the vehicle 1 . The positional information of the vehicle 1 acquired by the GPS 226 is output to the in-vehicle controller 24 as the positional data of the vehicle 1 .

なお、上述したセンサは、車外用センサ221の一例であって、車外用センサ221は、上述したセンサのうち少なくともいずれか一つを含んでいればよい。また車外用センサ221は、上述したセンサに限られず、車両1の室外の状況及び車両1の走行状況のうち少なくともいずれか一つを検出するセンサを含んでいればよい。例えば、車外用センサ221は、雨滴の量を検出する雨滴センサ、パルス状の赤外線によって車両1の周囲の対象物を検出するLidarなどを含んでいてもよい。 The sensor described above is an example of the vehicle exterior sensor 221, and the vehicle exterior sensor 221 may include at least one of the sensors described above. Further, the vehicle exterior sensor 221 is not limited to the sensors described above, and may include a sensor that detects at least one of the conditions outside the vehicle 1 and the running condition of the vehicle 1 . For example, the vehicle exterior sensor 221 may include a raindrop sensor that detects the amount of raindrops, a lidar that detects objects around the vehicle 1 with pulsed infrared rays, and the like.

車載通信装置22は、車両1の外部との間で無線によりデータを送受信する無線通信機能を備えた機器である。車載通信装置22としては、例えば、テレマティクスコントロールユニット(TCU:Telematics Control Unit)が挙げられる。車載通信装置22は、無線通信機能により、例えば、4G/LTE、Wifi(商標登録)等の通信規格を利用して、インターネットに接続し、車両1の外部に設けられたサーバーやシステムとの間で様々なデータの送受信を行う。本実施形態では、車載通信装置22は、周辺情報サーバー10、遠隔地通信装置31、及びサーバー通信装置41との間でデータの送受信を行う。車載通信装置22は、これらの通信装置又はサーバーから受信したデータを車載コントローラ24に出力する。また車載通信装置22は、車載コントローラ24から入力されたデータをこれらの通信装置又はサーバーに送信する。 The in-vehicle communication device 22 is a device having a wireless communication function for wirelessly transmitting and receiving data to and from the outside of the vehicle 1 . The in-vehicle communication device 22 is, for example, a telematics control unit (TCU). The in-vehicle communication device 22 connects to the Internet using a communication standard such as 4G/LTE and Wifi (registered trademark) by a wireless communication function, and communicates with a server or system provided outside the vehicle 1. to send and receive various data. In this embodiment, the in-vehicle communication device 22 transmits and receives data to and from the peripheral information server 10 , the remote communication device 31 and the server communication device 41 . The in-vehicle communication device 22 outputs data received from these communication devices or servers to the in-vehicle controller 24 . The in-vehicle communication device 22 also transmits data input from the in-vehicle controller 24 to these communication devices or servers.

車載出力装置23は、車両1に設けられ、車内ユーザAに対して遠隔地ユーザBの発話内容を出力する装置である。図1に示すように、車載出力装置23としては、遠隔地ユーザBの発話内容を表示形式で車内ユーザAに提示する車載ディスプレイ23a、遠隔地ユーザBの発話内容を音声形式で車内ユーザAに提示する車載スピーカー23bが挙げられる。車載出力装置23には、車載コントローラ24から提示態様データが入力される。提示態様データは、遠隔地ユーザBの発話内容を提示するために車載コントローラ24によって制御される制御対象の装置の情報、及び制御対象の装置に関する設定情報を含む。車載出力装置23は、提示態様データで示される提示態様で、遠隔地ユーザBの発話内容を車内ユーザAに提示する。 The in-vehicle output device 23 is provided in the vehicle 1 and is a device that outputs the utterance content of the remote user B to the user A in the vehicle. As shown in FIG. 1, the in-vehicle output device 23 includes an in-vehicle display 23a for presenting the utterance content of the remote user B to the in-vehicle user A in a display format, In-vehicle speaker 23b to present is mentioned. Presentation mode data is input to the in-vehicle output device 23 from the in-vehicle controller 24 . The presentation mode data includes information on a device to be controlled controlled by the in-vehicle controller 24 to present the contents of the speech of the remote user B, and setting information on the device to be controlled. The in-vehicle output device 23 presents the utterance content of the remote user B to the in-vehicle user A in the presentation mode indicated by the presentation mode data.

車載コントローラ24は、車両1の状況データを取得する状況取得処理、及び遠隔地ユーザBの発話内容を車内ユーザAに提示する発話内容提示処理を実行するためのプログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成されるコンピュータである。車載コントローラ24は、状況取得部25及び発話内容提示部26を有している。車載コントローラ24は、ROMに格納されたプログラムを実行することで、状況取得部25及び発話内容提示部26の機能を実行することができる。 The in-vehicle controller 24 has a ROM (Read Only Memory) that stores a program for executing a situation acquisition process for acquiring situation data of the vehicle 1 and an utterance content presentation process for presenting the utterance content of the remote user B to the in-vehicle user A. ), a CPU (Central Processing Unit) that executes programs stored in the ROM, and a RAM (Random Access Memory) that functions as an accessible storage device. The in-vehicle controller 24 has a situation acquisition unit 25 and a speech content presentation unit 26 . The in-vehicle controller 24 can perform the functions of the situation acquisition unit 25 and the utterance content presentation unit 26 by executing programs stored in the ROM.

状況取得部25は、車内ユーザAがいる場所の状況を示す、車両1の状況データを取得する。本実施形態では、状況取得部25は、周辺情報サーバー10及びセンサ21から、車両1の状況データを取得する。 The situation acquisition unit 25 acquires situation data of the vehicle 1 indicating the situation of the place where the user A is in the vehicle. In this embodiment, the situation acquisition unit 25 acquires situation data of the vehicle 1 from the surrounding information server 10 and the sensor 21 .

例えば、状況取得部25は、車載通信装置22を介して、周辺情報サーバー10から、車両1の周辺の交通情報11、車両1の周辺の天気情報12、及び車両1の周辺の通信情報13を取得する。状況取得部25は、周辺情報サーバー10に情報リクエストの信号を送信することで、周辺情報サーバー10から、各種情報を取得することができる。また例えば、状況取得部25は、車両1に搭載されたセンサ21から、センサ21を構成する各センサで検出されたデータを取得する。センサ21で検出されたデータは、車内空間20の撮像画像データ、車内空間20の集音音声データ、車両1の操舵角データ、車両1のペダル踏み込みデータ、車両1の周囲の撮像画像データ、車両1の周囲の集音音声データ、車両1の周囲の対象物データ、及び車両1の位置データを含む。状況取得部25は、本発明の「状況取得部」の一例である。 For example, the situation acquisition unit 25 obtains traffic information 11 around the vehicle 1, weather information 12 around the vehicle 1, and communication information 13 around the vehicle 1 from the surrounding information server 10 via the in-vehicle communication device 22. get. The status acquisition unit 25 can acquire various types of information from the surrounding information server 10 by transmitting an information request signal to the surrounding information server 10 . Further, for example, the situation acquisition unit 25 acquires data detected by each sensor constituting the sensor 21 from the sensor 21 mounted on the vehicle 1 . The data detected by the sensor 21 includes imaged image data of the vehicle interior space 20, collected sound data of the vehicle interior space 20, steering angle data of the vehicle 1, pedal depression data of the vehicle 1, imaged image data of the surroundings of the vehicle 1, vehicle 1 surrounding sound collection audio data, vehicle 1 surrounding object data, and vehicle 1 location data. The situation acquisition unit 25 is an example of the "situation acquisition unit" of the present invention.

図2は、状況取得部25が取得する車両1の状況データの一例を示す説明図である。図2に示すように、車両1の状況データは、車両1の室内の状況データ、車両1の室外の状況データ、車両1の走行状況データ、及び車内ユーザの状況データに分類される。 FIG. 2 is an explanatory diagram showing an example of situation data of the vehicle 1 acquired by the situation acquisition unit 25. As shown in FIG. As shown in FIG. 2, the situation data of the vehicle 1 is classified into the situation data inside the vehicle 1, the situation data outside the vehicle 1, the travel situation data of the vehicle 1, and the situation data of the user inside the vehicle.

また車両1の室内の状況データとしては、図2に示すように、車両1のノイズ状況を示すデータ、車両1の通信状況を示すデータが挙げられる。車両1のノイズ状況を示すデータとしては、ロードノイズ、車内空間20に流れる音声(ラジオ、テレビ)の音量などが挙げられる。状況取得部25は、周辺情報サーバー10や車内用マイク213から、車両1のノイズ状況を示すデータを取得する。また車両1の通信状況を示すデータとしては、回線速度を示すビットレートが挙げられる。状況取得部25は、周辺情報サーバー10から、車両1の通信状況を示すデータを取得する。 As shown in FIG. 2, data indicating the noise condition of the vehicle 1 and data indicating the communication condition of the vehicle 1 can be used as the condition data of the interior of the vehicle 1 . The data indicating the noise situation of the vehicle 1 includes road noise, volume of sound (radio, television) flowing in the vehicle interior space 20, and the like. The situation acquisition unit 25 acquires data indicating the noise situation of the vehicle 1 from the surrounding information server 10 and the in-vehicle microphone 213 . Data indicating the communication status of the vehicle 1 includes a bit rate indicating the line speed. The status acquisition unit 25 acquires data indicating the communication status of the vehicle 1 from the peripheral information server 10 .

また車両1の室外の状況データとしては、図2に示すように、車両1の周辺の道路状況や車両1の周辺状況を示すデータ、車両1の周辺の天候状況を示すデータが挙げられる。車両1の周辺の道路状況や車両1の周辺状況を示すデータとしては、車両1が走行する道路又はその周辺の渋滞情報、車両1の走行場所、車両1の周辺に存在する対象物の情報などが挙げられる。状況取得部25は、周辺情報サーバー10、車外用カメラ222、車外用マイク223、ミリ波レーダ224、超音波ソナー225、GPS226などから、車両1の周辺の道路状況や車両1の周辺状況を示すデータを取得する。また車両1の周辺の天候状況を示すデータとしては、天気を示すデータ(「晴れ」、「曇り」、「雨」、「霧」など)が挙げられる。状況取得部25は、周辺情報サーバー10から、車両1の天候状況を示すデータを取得する。 As shown in FIG. 2, data indicating the road conditions around the vehicle 1, data indicating the surrounding conditions of the vehicle 1, and data indicating weather conditions around the vehicle 1 can be used as the situation data of the vehicle 1 outside the vehicle 1, as shown in FIG. The data indicating the road conditions around the vehicle 1 and the surrounding conditions of the vehicle 1 include traffic information on the road on which the vehicle 1 travels or its surroundings, the location where the vehicle 1 travels, information on objects existing around the vehicle 1, and the like. is mentioned. The situation acquisition unit 25 indicates the road situation around the vehicle 1 and the situation around the vehicle 1 from the surrounding information server 10, the vehicle exterior camera 222, the vehicle exterior microphone 223, the millimeter wave radar 224, the ultrasonic sonar 225, the GPS 226, and the like. Get data. Data indicating weather conditions around the vehicle 1 include data indicating the weather (“sunny”, “cloudy”, “rainy”, “foggy”, etc.). The condition acquisition unit 25 acquires data indicating weather conditions of the vehicle 1 from the surrounding information server 10 .

また車両1の走行状況データとしては、図2に示すように、車両1の運転状況を示すデータが挙げられる。車両1の運転状況を示すデータとしては、車両1の状態を示す情報(「後ろ向き駐車中」、「縦列駐車中」、「高速道路走行中」、「右左折中」、「一時停止中」など)が挙げられる。状況取得部25は、車内用マイク213、舵角センサ214、ペダルセンサ215、車外用カメラ222、車外用マイク223、ミリ波レーダ224、超音波ソナー225、GPS226などから、車両1の運転状況を示すデータを取得する。 As the driving condition data of the vehicle 1, there is data indicating the driving condition of the vehicle 1, as shown in FIG. The data indicating the driving status of the vehicle 1 includes information indicating the state of the vehicle 1 (“parking backwards”, “parallel parking”, “running on highway”, “turning left or right”, “pausing”, etc.). ). The situation acquisition unit 25 acquires the driving situation of the vehicle 1 from the vehicle interior microphone 213, the steering angle sensor 214, the pedal sensor 215, the vehicle exterior camera 222, the vehicle exterior microphone 223, the millimeter wave radar 224, the ultrasonic sonar 225, the GPS 226, and the like. Get the data shown.

また車内ユーザAの状況データとしては、図2に示すように、遠隔地ユーザBとの対話状況を示すデータ、車内ユーザAの反応状況を示すデータが挙げられる。遠隔地ユーザBとの対話状況を示すデータとしては、遠隔地ユーザBとの対話において車内ユーザAの理解度を表わす情報(「わかった」、「わからない」、「もう一度言って」、「うーむ」、「えっと」など)が挙げられる。状況取得部25は、車内用カメラ212、車内用マイク213などから、遠隔地ユーザBとの対話状況を示すデータを取得する。また車内ユーザAの反応状況を示すデータとしては、遠隔地ユーザBの発話内容が車内ユーザAに提示された後の、車内ユーザAの表現態様を示す情報(車内ユーザAの表所の変化、視線の変化など)が挙げられる。状況取得部25は、車内用カメラ212、車内用マイク213などから、車内ユーザAの反応状況を示すデータを取得する。なお、図2に示す状況取得部25が取得する車両1の状況データは一例であって、車両1の状況データを限定するものではない。 In addition, as the status data of the user A in the vehicle, data indicating the status of dialogue with the remote user B, and data indicating the reaction status of the user A in the vehicle, as shown in FIG. The data indicating the state of dialogue with the remote user B includes information indicating the level of understanding of the in-vehicle user A in the dialogue with the remote user B ("understood", "not understood", "say again", "hmm"). , “Uh,” etc.). The status acquisition unit 25 acquires data indicating the status of the conversation with the remote user B from the in-vehicle camera 212, the in-vehicle microphone 213, and the like. In addition, as the data indicating the reaction state of the in-vehicle user A, information indicating the mode of expression of the in-vehicle user A after the content of the speech of the remote user B is presented to the in-vehicle user A (change in appearance of the in-vehicle user A, line of sight, etc.). The status acquisition unit 25 acquires data indicating the reaction status of the in-vehicle user A from the in-vehicle camera 212, the in-vehicle microphone 213, and the like. The situation data of the vehicle 1 acquired by the situation acquisition unit 25 shown in FIG. 2 is an example, and the situation data of the vehicle 1 is not limited.

図1に戻り、車載コントローラ24が実現する機能について説明する。発話内容提示部26には、車載通信装置22を介して、遠隔地通信装置31から送信された、遠隔地ユーザBの発話内容データ及び提示態様データが入力される。発話内容提示部26は、提示態様データで示す提示態様で、遠隔地ユーザBの発話内容を車内ユーザAに提示するように、車載出力装置23を制御する。例えば、発話内容提示部26は、提示態様データを参照することで、遠隔地ユーザBの発話内容を車内ユーザAに提示するための車載ディスプレイ23aの設定情報や車載スピーカー23bの設定情報を特定する。なお、遠隔地ユーザBの発話内容データが発話内容提示部26に入力されるタイミングと、提示態様データが発話内容提示部26に入力されるタイミングは同じであってもよいし、異なっていてもよい。発話内容提示部26は、本発明の「発話内容提示部」の一例である。 Returning to FIG. 1, the functions realized by the in-vehicle controller 24 will be described. The utterance content presentation unit 26 receives the utterance content data and the presentation mode data of the remote user B transmitted from the remote communication device 31 via the in-vehicle communication device 22 . The utterance content presentation unit 26 controls the in-vehicle output device 23 so as to present the utterance content of the remote user B to the in-vehicle user A in the presentation mode indicated by the presentation mode data. For example, the utterance content presenting unit 26 refers to the presentation mode data to specify the setting information of the in-vehicle display 23a and the setting information of the in-vehicle speaker 23b for presenting the utterance content of the remote user B to the in-vehicle user A. . The timing at which the utterance content data of the remote user B is input to the utterance content presentation unit 26 and the timing at which the presentation mode data is input to the utterance content presentation unit 26 may be the same or different. good. The utterance content presenting unit 26 is an example of the "utterance content presenting unit" of the present invention.

遠隔地空間30について説明する。図1に示すように、遠隔地空間30には、遠隔地通信装置31、遠隔地マイク32、遠隔地入力装置33、遠隔地出力装置34、及び遠隔地コントローラ35が設けられている。遠隔地空間30に設けられた各装置は、相互に情報の送受信を行うために、例えばイーサネット(商標登録)などによって接続されている。 The remote space 30 will be described. As shown in FIG. 1, the remote space 30 is provided with a remote communication device 31 , a remote microphone 32 , a remote input device 33 , a remote output device 34 and a remote controller 35 . Each device provided in the remote space 30 is connected by, for example, Ethernet (registered trademark) or the like in order to mutually transmit and receive information.

遠隔地通信装置31は、遠隔地空間30の外部との間で無線によりデータを送受信する無線通信機能を備えた機器である。遠隔地通信装置31としては、例えば、ルーターが挙げられる。遠隔地通信装置31は、無線通信機能により、例えば、4G/LTE、Wifi(商標登録)等の通信規格を利用して、インターネットに接続し、遠隔地空間30の外部に設けられたサーバーやシステムとの間で様々なデータの送受信を行う。本実施形態では、遠隔地通信装置31は、車載通信装置22及びサーバー通信装置41との間でデータの送受信を行う。各通信装置間で送受信されるデータについては後述する。 The remote communication device 31 is a device having a wireless communication function for wirelessly transmitting and receiving data to and from the outside of the remote space 30 . Remote communication device 31 may be, for example, a router. The remote communication device 31 connects to the Internet using a communication standard such as 4G/LTE, Wifi (registered trademark), etc., using a wireless communication function, and connects to a server or system provided outside the remote space 30. Send and receive various data between In this embodiment, the remote communication device 31 transmits and receives data to and from the in-vehicle communication device 22 and the server communication device 41 . Data transmitted and received between each communication device will be described later.

遠隔地マイク32は、遠隔地ユーザBがいる場所(遠隔地空間30)で音声を集音する集音装置である。遠隔地マイク32は、遠隔地ユーザBの音声を集音可能な位置に設置されるのが好ましい。遠隔地マイク32により集音された集音音声は、遠隔地コントローラ35に出力される。なお、遠隔地マイク32は、遠隔地空間30に設けられ、遠隔地ユーザBの音声を集音可能な装置又は機器であればよく、その形態、数、特性、設置場所などは特に限定されない。例えば、遠隔地マイク32は、複数のマイク又は種別が複数のマイクで構成されていてもよい。 The remote microphone 32 is a sound collecting device that collects sound at the location where the remote user B is located (the remote space 30). The remote microphone 32 is preferably installed at a position where the voice of the remote user B can be collected. The sound collected by the remote microphone 32 is output to the remote controller 35 . Note that the remote microphone 32 is provided in the remote space 30 and may be any device or device capable of collecting the voice of the remote user B, and its form, number, characteristics, installation location, etc. are not particularly limited. For example, the remote microphone 32 may consist of a plurality of microphones or a plurality of types of microphones.

遠隔地入力装置33は、遠隔地ユーザBが操作可能なヒューマンインターフェースとして機能する装置である。遠隔地ユーザBは、遠隔地入力装置33を操作することで、コミュニケーションシステム100に関する設定を入力することができる。遠隔地入力装置33は、キーボードやマウス等、各機器が別体で構成されていてもよいし、タッチパネルのようにディスプレイと入力部とが一体で構成されていてもよい。遠隔地入力装置33の形態、特性、設置場所などは特に限定されない。 The remote input device 33 is a device that functions as a human interface that the remote user B can operate. The remote user B can input settings related to the communication system 100 by operating the remote input device 33 . The remote input device 33 may be composed of separate devices such as a keyboard and a mouse, or may be composed of a display and an input unit integrally like a touch panel. The form, characteristics, installation location, etc. of the remote input device 33 are not particularly limited.

本実施形態では、遠隔地ユーザBは、コミュニケーションシステム100に関する設定として、遠隔地ユーザBの発話内容をどのような態様で車内ユーザAに提示するかを示した、車内ユーザAへの提示態様を設定する。例えば、遠隔地ユーザBは、遠隔地入力装置33を介して、遠隔地ユーザBの発話内容を提示するために制御する制御対象の装置、及び制御対象の装置の詳細な設定を入力する。 In this embodiment, the remote user B sets, as a setting related to the communication system 100, a mode of presentation to the in-vehicle user A, which indicates in what manner the content of the utterance of the remote user B is to be presented to the in-vehicle user A. set. For example, the remote user B inputs, through the remote input device 33, a device to be controlled to present the content of the speech of the remote user B, and detailed settings of the device to be controlled.

遠隔地出力装置34は、遠隔地空間30に設けられ、遠隔地ユーザBに対して、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度の情報を出力する装置である。図1に示すように、遠隔地出力装置34としては、車内ユーザAの理解度を表示形式で遠隔地ユーザBに提示する遠隔地ディスプレイ34a、車内ユーザAの理解度を音声形式で遠隔地ユーザBに提示する遠隔地スピーカー34bが挙げられる。遠隔地出力装置34には、遠隔地コントローラ35から、車内ユーザAの理解度データが入力される。遠隔地出力装置34は、車内ユーザAの理解度データに基づき、車内ユーザAの理解度を遠隔地ユーザBに提示する。 The remote output device 34 is provided in the remote space 30 and outputs to the remote user B information on the in-vehicle user A's degree of understanding of the remote user B's utterance content. As shown in FIG. 1, the remote output device 34 includes a remote display 34a for presenting the degree of understanding of the in-vehicle user A to the remote user B in a display format, and a remote display 34a for presenting the degree of understanding of the in-vehicle user A to the remote user B in a voice format. A remote speaker 34b presented to B. The comprehension level data of the in-vehicle user A is input from the remote controller 35 to the remote output device 34 . The remote output device 34 presents the comprehension level of the in-vehicle user A to the remote user B based on the comprehension level data of the in-vehicle user A.

遠隔地コントローラ35は、遠隔地ユーザBの発話内容を取得する発話内容取得処理、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を提示する理解度提示処理、遠隔地入力装置33に入力された情報を受信する受信処理、及び車内ユーザAへの提示態様を決定する提示態様決定処理を実行するためのプログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成されるコンピュータである。遠隔地コントローラ35は、発話内容取得部36、理解度提示部37、受信部38、及び提示態様決定部39を有している。遠隔地コントローラ35は、ROMに格納されたプログラムを実行することで、発話内容取得部36、理解度提示部37、受信部38、及び提示態様決定部39の機能を実行することができる。遠隔地コントローラ35の各機能について説明する。 The remote controller 35 performs an utterance content acquisition process for acquiring the utterance content of the remote user B, an understanding level presentation process for presenting the in-vehicle user A's level of understanding of the utterance content of the remote user B, and an input to the remote input device 33. A ROM (Read Only Memory) storing a program for executing a reception process for receiving the received information and a presentation mode determination process for determining the presentation mode to the in-vehicle user A, and executing the program stored in this ROM It is a computer composed of a CPU (Central Processing Unit) that functions as an accessible storage device and a RAM (Random Access Memory) that functions as an accessible storage device. The remote controller 35 has an utterance content acquisition unit 36 , an understanding level presentation unit 37 , a reception unit 38 , and a presentation mode determination unit 39 . The remote controller 35 can execute the functions of the utterance content acquisition unit 36, the comprehension level presentation unit 37, the reception unit 38, and the presentation mode determination unit 39 by executing programs stored in the ROM. Each function of the remote controller 35 will be described.

発話内容取得部36には、遠隔地マイク32から、遠隔地ユーザBの音声データが入力される。発話内容取得部36は、遠隔地ユーザBの音声から、遠隔地ユーザBの発話内容を取得する。発話内容取得部36は、遠隔地ユーザBの音声データに対して音声認識処理を実行することで、遠隔地ユーザBの発話内容を特定することができる。遠隔地ユーザBの発話内容とは、遠隔地ユーザBが話している内容又はテーマのことである。例えば、発話内容取得部36は、遠隔地ユーザBの音声に含まれる特定の単語や、遠隔地ユーザBが多用する単語に基づいて、遠隔地ユーザBが発話している内容を特定することができる。発話内容取得部36は、遠隔地通信装置31を介して、遠隔地マイク32により集音された遠隔地ユーザBの音声、及び遠隔地ユーザBの発話内容を含むデータを、遠隔地ユーザBの発話内容データとして車載通信装置22及びサーバー通信装置41に送信する。発話内容取得部36は、本発明の「発話内容取得部」の一例である。 Voice data of the remote user B is input to the speech content acquisition unit 36 from the remote microphone 32 . The utterance content acquisition unit 36 acquires the utterance content of the remote user B from the voice of the remote user B. The utterance content acquisition unit 36 can specify the utterance content of the remote user B by performing voice recognition processing on the voice data of the remote user B. FIG. The utterance content of the remote user B is the content or theme that the remote user B is speaking. For example, the utterance content acquisition unit 36 can identify the content uttered by the remote user B based on specific words included in the voice of the remote user B or words frequently used by the remote user B. can. The utterance content acquisition unit 36 obtains data including the voice of the remote user B collected by the remote microphone 32 and the utterance content of the remote user B via the remote communication device 31. It is transmitted to the in-vehicle communication device 22 and the server communication device 41 as utterance content data. The speech content acquisition unit 36 is an example of the "speech content acquisition unit" of the present invention.

理解度提示部37には、遠隔地通信装置31を介して、サーバー通信装置41から送信された、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度データが入力される。理解度提示部37は、車内ユーザAの理解度を遠隔地ユーザBに提示するように、遠隔地出力装置34を制御する。例えば、理解度提示部37は、車内ユーザAの理解度データを遠隔地ディスプレイ34aに表示させる。また例えば、理解度提示部37は、車内ユーザAの理解度データを遠隔地スピーカー34bから音声出力させる。これにより、車内ユーザAの理解度は遠隔地ユーザBに提示され、遠隔地ユーザBは、自身の発話内容に対する車内ユーザAの理解度を理解することができる。なお、理解度提示部37がどのような態様で車内ユーザAの理解度を遠隔地ユーザBに提示するかは特に限定されない。例えば、車内ユーザAの理解度は、数値やグラフなどで遠隔地ディスプレイ34aに表示されてもよいし、遠隔地スピーカー34bを介して機械音声で読み上げられてもよい。理解度提示部37は、本発明の「理解度提示部」の一例である。 The comprehension level presentation unit 37 receives in-vehicle user A's comprehension level data for remote user B's utterance content transmitted from the server communication device 41 via the remote communication device 31 . The comprehension level presenting unit 37 controls the remote output device 34 so as to present the in-vehicle user A's comprehension level to the remote user B. FIG. For example, the comprehension level presentation unit 37 causes the in-vehicle user A's comprehension level data to be displayed on the remote display 34a. Further, for example, the comprehension degree presenting unit 37 causes the in-vehicle user A's comprehension degree data to be output by voice from the remote speaker 34b. As a result, the in-vehicle user A's level of understanding is presented to the remote user B, and the remote user B can understand the in-vehicle user A's level of understanding of the content of his/her own utterance. It should be noted that there is no particular limitation on how the comprehension level presenting unit 37 presents the comprehension level of the in-vehicle user A to the remote user B. FIG. For example, the in-vehicle user A's degree of understanding may be displayed as a numerical value or graph on the remote display 34a, or may be read out by machine voice via the remote speaker 34b. The comprehension degree presenting section 37 is an example of the "understanding degree presenting section" of the present invention.

受信部38は、遠隔地入力装置33に入力された情報を受信する。例えば、遠隔地ユーザBがコミュニケーションシステム100に関する設定を遠隔地入力装置33に入力した場合、受信部38は、遠隔地ユーザBにより入力されたコミュニケーションシステム100の設定情報を受信する。本実施形態では、遠隔地ユーザBは、自身の発話内容を車内ユーザAに提示する態様の情報として、車内ユーザAへの提示態様の設定指示を遠隔地入力装置33に入力する。受信部38は、本発明の「受信部」の一例である。 The receiving unit 38 receives information input to the remote input device 33 . For example, when the remote user B inputs settings regarding the communication system 100 to the remote input device 33 , the reception unit 38 receives the setting information of the communication system 100 input by the remote user B. FIG. In this embodiment, the remote user B inputs an instruction to the remote input device 33 to set the mode of presentation to the in-vehicle user A as the information on the mode of presenting the contents of his or her speech to the in-vehicle user A. The receiving section 38 is an example of the "receiving section" of the present invention.

提示態様決定部39は、遠隔地ユーザBによる提示態様の設定指示に基づき、車内ユーザAへの提示態様を決定する。例えば、遠隔地ユーザBが自身の発話内容を強調して提示するよう設定指示した場合、提示態様決定部39は、遠隔地ユーザBの発話内容が強調されるように、制御対象の装置及び当該装置の設定を決定する。例えば、提示内容決定部29は、車載ディスプレイ23aを制御対象の装置として決定するとともに、車載ディスプレイ23aに表示させる具体的な内容を決定する。提示態様決定部39は、遠隔地通信装置31を介して、決定した提示態様のデータを車内空間20に送信する。 The presentation mode determination unit 39 determines the presentation mode for the in-vehicle user A based on the remote user B's instruction to set the presentation mode. For example, when remote user B issues a setting instruction to emphasize and present the content of his/her own utterance, the presentation mode determination unit 39 controls the device to be controlled and Determine device settings. For example, the presentation content determination unit 29 determines the in-vehicle display 23a as a device to be controlled, and determines specific content to be displayed on the in-vehicle display 23a. The presentation mode determining unit 39 transmits the determined presentation mode data to the vehicle interior space 20 via the remote communication device 31 .

次に、サーバー40について説明する。図1に示すように、サーバー40は、サーバー通信装置41、データベース42、及びサーバーコントローラ43を備えている。サーバー40が備える各装置は、相互に情報の送受信を行うために、例えばイーサネット(商標登録)などによって接続されている。 Next, the server 40 will be explained. As shown in FIG. 1, the server 40 includes a server communication device 41, a database 42, and a server controller 43. Each device included in the server 40 is connected by, for example, Ethernet (registered trademark) or the like in order to mutually transmit and receive information.

サーバー通信装置41は、車載通信装置22及び遠隔地通信装置31との間で無線によりデータを送受信する無線通信機能を備えた機器である。サーバー通信装置41としては、例えば、ルーターが挙げられる。サーバー通信装置41は、無線通信機能により、例えば、4G/LTE、Wifi(商標登録)等の通信規格を利用して、インターネットに接続し、サーバー40の外部に設けられた他のサーバーやシステムとの間で様々なデータの送受信を行う。 The server communication device 41 is a device having a wireless communication function for wirelessly transmitting and receiving data between the in-vehicle communication device 22 and the remote communication device 31 . An example of the server communication device 41 is a router. The server communication device 41 connects to the Internet using a communication standard such as 4G/LTE, Wifi (registered trademark), etc., using a wireless communication function, and communicates with other servers and systems provided outside the server 40. Send and receive various data between

サーバー通信装置41の送受信するデータについて説明する。サーバー通信装置41は、車載通信装置22から、状況取得部25により取得された車両1の状況データを受信する。サーバー通信装置41は、受信した車両1の状況データを、データベース42及びサーバーコントローラ43に出力する。 Data transmitted and received by the server communication device 41 will be described. The server communication device 41 receives the situation data of the vehicle 1 acquired by the situation acquisition unit 25 from the in-vehicle communication device 22 . The server communication device 41 outputs the received status data of the vehicle 1 to the database 42 and the server controller 43 .

また、サーバー通信装置41は、遠隔地通信装置31から、発話内容取得部36により取得された遠隔地ユーザBの発話内容のデータを受信する。サーバー通信装置41は、受信した遠隔地ユーザBの発話内容データを、データベース42及びサーバーコントローラ43に出力する。 The server communication device 41 also receives the data of the utterance content of the remote user B acquired by the utterance content acquisition unit 36 from the remote communication device 31 . The server communication device 41 outputs the received utterance content data of the remote user B to the database 42 and the server controller 43 .

また、サーバー通信装置41には、サーバーコントローラ43から、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度データが入力される。サーバー通信装置41は、車内ユーザAの理解度データを、遠隔地通信装置31に送信する。 Further, in-vehicle user A's comprehension degree data for remote user B's utterance content is input from server controller 43 to server communication device 41 . The server communication device 41 transmits the comprehension level data of the in-vehicle user A to the remote communication device 31 .

データベース42は、コミュニケーションシステム100を利用するユーザの各種データを格納する。データベース42は、遠隔地ユーザBの発話内容と、当該発話内容が車内ユーザAに提示されたときの車両1の状況データとを関連付けて記憶する。遠隔地ユーザBの発話内容が提示されたときの車両1の状況データは、遠隔地ユーザBの発話内容が車内ユーザAに提示されたときの車内ユーザAの状況を含む。 The database 42 stores various data of users who use the communication system 100 . The database 42 associates and stores the utterance content of the remote user B and the situation data of the vehicle 1 when the utterance content was presented to the in-vehicle user A. The situation data of the vehicle 1 when the contents of the speech of the remote user B are presented include the situation of the in-vehicle user A when the contents of the speech of the remote user B are presented to the user A in the vehicle.

また遠隔地ユーザBの発話内容が提示されたときの車内ユーザAの状況は、遠隔地ユーザBの発話内容が提示されたときの車内ユーザAの表情、遠隔地ユーザBの発話内容が提示されたときに車内ユーザAが発した音声の音質、及び遠隔地ユーザBの発話内容が提示されたときに車内ユーザAが発した内容の少なくともいずれか一つを含む。遠隔地ユーザBの発話内容が提示されたときの車内ユーザAの表情は、車内用カメラ212により撮像された車内ユーザAの表情を含む撮像画像のデータから取得された情報である。また遠隔地ユーザBの発話内容が提示されたときに車内ユーザAが発した音声の音質及び遠隔地ユーザBの発話内容が提示されたときに車内ユーザAが発した内容は、車内用マイク213により集音された車内ユーザAの音声データから取得された情報である。データベース42には、サーバー通信装置41から各データが入力され、データベース42は、データが入力されるたびに、記憶するデータを更新する。 The situation of in-vehicle user A when remote user B's utterance content is presented is the facial expression of in-vehicle user A when remote location user B's utterance content is presented, and the remote location user B's utterance content is presented. It includes at least one of the sound quality of the voice uttered by the in-vehicle user A when the remote location user A uttered the content and the content uttered by the in-vehicle user A when the utterance content of the remote user B was presented. The facial expression of in-vehicle user A when the content of speech of remote user B is presented is information obtained from captured image data including the facial expression of in-vehicle user A captured by in-vehicle camera 212 . In addition, the sound quality of the voice uttered by the in-vehicle user A when the content of the utterance of the remote user B is presented and the content uttered by the in-vehicle user A when the content of the utterance of the remote user B is presented are recorded by the in-vehicle microphone 213 . This is information obtained from voice data of user A inside the vehicle collected by the . Each data is input to the database 42 from the server communication device 41, and the database 42 updates the stored data each time the data is input.

例えば、車内ユーザAと遠隔地ユーザBがコミュニケーションシステム100を利用開始した後に、遠隔地ユーザBの発話内容が車内ユーザAに提示される機会が予め設けられていたとする。この機会において、遠隔地ユーザBの発話内容が提示されたときの車内ユーザAの反応(いわゆるリアクション)は、車内用カメラ212及び車内用マイク213によりデータとして取得される。例えば、車両1の経路を車内ユーザAに案内するために、遠隔地ユーザBが車両1の経路に関する内容を発話したとする。車内ユーザAが車載スピーカー23bを介して遠隔地ユーザBの音声を聞くと、車内用カメラ212は、そのときの車内ユーザAの表情を撮像し、また車内用マイク213は、そのときの車内ユーザAの音声を集音する。またセンサ21は、そのときの車両1の状況を検出する。遠隔地ユーザBの発話内容が車内ユーザAに提示されるたびに、車内用カメラ212及び車内用マイク213は、遠隔地ユーザBの発話内容が提示されたときの車内ユーザAの反応をデータとして取得する。例えば、車内ユーザAと遠隔地ユーザBがコミュニケーションシステム100の利用を終了すると、車内用カメラ212に撮像された撮像画像データ、車内用マイク213により集音された音声データ、及びセンサ21により検出された車両1の状況データは、車載通信装置22を介して、サーバー通信装置41に送信される。これにより、データベース42は、遠隔地ユーザBの発話内容と、当該発話内容が車内ユーザAに提示されたときの車両1の状況データとを関連付けて記憶することができ、データベース化を実現することができる。なお、本実施形態では、遠隔地ユーザBの発話内容の種別やその数などは特に限定されない。 For example, after in-vehicle user A and remote user B start using the communication system 100, it is assumed that an opportunity has been provided in advance for presenting the utterance content of remote-site user B to in-vehicle user A. On this occasion, the reaction (so-called reaction) of in-vehicle user A when remote user B's utterance content is presented is acquired as data by in-vehicle camera 212 and in-vehicle microphone 213 . For example, it is assumed that a remote user B utters a content related to the route of the vehicle 1 in order to guide the route of the vehicle 1 to the user A in the vehicle. When the in-vehicle user A hears the voice of the remote user B through the in-vehicle speaker 23b, the in-vehicle camera 212 captures the expression of the in-vehicle user A at that time, and the in-vehicle microphone 213 captures the voice of the in-vehicle user A at that time. Collect the voice of A. Moreover, the sensor 21 detects the situation of the vehicle 1 at that time. Each time the utterance content of the remote user B is presented to the in-vehicle user A, the in-vehicle camera 212 and the in-vehicle microphone 213 capture the reaction of the in-vehicle user A when the utterance content of the remote user B is presented as data. get. For example, when in-vehicle user A and remote user B finish using the communication system 100, image data captured by the in-vehicle camera 212, sound data collected by the in-vehicle microphone 213, and sound data detected by the sensor 21 The situation data of the vehicle 1 is transmitted to the server communication device 41 via the on-board communication device 22 . As a result, the database 42 can associate and store the utterance content of the remote user B and the situation data of the vehicle 1 when the utterance content is presented to the in-vehicle user A, thereby realizing a database. can be done. In this embodiment, the type and number of utterances of the remote user B are not particularly limited.

サーバーコントローラ43は、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定する理解度推定処理を実行するためのプログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成されるコンピュータである。サーバーコントローラ43は、理解度推定部44を有している。サーバーコントローラ43は、ROMに格納されたプログラムを実行することで、理解度推定部44の機能を実行することができる。理解度推定部44の機能について説明する。 The server controller 43 includes a ROM (Read Only Memory) storing a program for executing a comprehension level estimation process for estimating the comprehension level of the in-vehicle user A with respect to the utterance content of the remote user B, and the program stored in the ROM. and a RAM (Random Access Memory) functioning as an accessible storage device. The server controller 43 has an understanding degree estimation unit 44 . The server controller 43 can perform the functions of the comprehension level estimation unit 44 by executing a program stored in the ROM. The function of the comprehension level estimation unit 44 will be described.

理解度推定部44は、車両1の状況データに基づいて、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定する。図2に示す車両1の状況データの例を用いて説明する。 The comprehension level estimation unit 44 estimates the in-vehicle user A's level of comprehension of the utterance content of the remote user B based on the situation data of the vehicle 1 . An example of situation data of the vehicle 1 shown in FIG. 2 will be used for explanation.

例えば、理解度推定部44は、図2に示す車両1のノイズ状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、遠隔地ユーザBの音声と背景雑音とのSN比が所定の比率以下の場合、車内ユーザAは雑音環境下において遠隔地ユーザBの発話内容を理解しているとして、当該SN比が所定の比率よりも高い場合に比べて、車内ユーザAの理解度を低く推定する。また例えば、理解度推定部44は、図2に示す車両1の通信状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、車載通信装置22と遠隔地通信装置31との間の通信速度が所定の通信速度以下の場合、音声が途切れるような不安定な通信環境下において車内ユーザAは遠隔地ユーザBの発話内容を理解しているとして、当該通信速度が所定の通信速度よりも速い場合に比べて、車内ユーザAの理解度を低く推定する。なお、上記の所定の比率及び所定の通信速度は、車内ユーザAの理解度を推定するために設定された比率の一例及び通信速度の一例であって、実験的に定めた値であってもよいし、予め設定した値であってもよい。 For example, the comprehension level estimation unit 44 estimates the comprehension level of the in-vehicle user A based on the data indicating the noise situation of the vehicle 1 shown in FIG. For example, when the SN ratio between the voice of the remote user B and the background noise is equal to or less than a predetermined ratio, the intelligibility estimation unit 44 determines that the in-vehicle user A understands the utterance content of the remote user B in a noisy environment. , the in-vehicle user A's degree of understanding is estimated to be lower than when the SN ratio is higher than a predetermined ratio. Further, for example, the comprehension level estimation unit 44 estimates the comprehension level of the in-vehicle user A based on the data indicating the communication status of the vehicle 1 shown in FIG. For example, if the communication speed between the in-vehicle communication device 22 and the remote communication device 31 is less than or equal to a predetermined communication speed, the comprehension level estimation unit 44 determines that in an unstable communication environment where the voice is interrupted, the in-vehicle user A Assuming that remote user B understands the utterance content, the comprehension level of in-vehicle user A is estimated to be lower than when the communication speed is faster than a predetermined communication speed. Note that the predetermined ratio and the predetermined communication speed described above are an example of the ratio and an example of the communication speed set for estimating the degree of understanding of the in-vehicle user A, and even if they are experimentally determined values Alternatively, it may be a preset value.

また例えば、理解度推定部44は、図2に示す車両1の道路状況や周辺状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、車両1が走行する道路が渋滞している場合、ドライバが運転に集中を要する環境下において、ドライバである車内ユーザAは遠隔地ユーザBの発話内容を理解してないものとして、車両1が走行する道路が渋滞していない場合に比べて、車内ユーザAの理解度を低く推定する。また例えば、理解度推定部44は、図2に示す車両1の周辺の天候状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、車両1の周辺の天気が「雨」の場合、ドライバが運転に集中を要する環境下において、ドライバである車内ユーザAは遠隔地ユーザBの発話内容を理解してないものとして、車両1の周辺の天気が「晴れ」の場合に比べて、車内ユーザAの理解度を低く推定する。 Further, for example, the comprehension level estimation unit 44 estimates the comprehension level of the in-vehicle user A based on the data indicating the road conditions and surrounding conditions of the vehicle 1 shown in FIG. For example, when the road on which the vehicle 1 travels is congested, the comprehension level estimation unit 44 allows the in-vehicle user A, who is the driver, to understand the utterance content of the remote user B in an environment where the driver must concentrate on driving. Assuming that the road on which the vehicle 1 travels is not congested, the degree of understanding of the in-vehicle user A is estimated to be lower than when the road is not congested. Further, for example, the comprehension level estimation unit 44 estimates the comprehension level of the in-vehicle user A based on the data indicating the weather conditions around the vehicle 1 shown in FIG. For example, when the weather around the vehicle 1 is "rainy", the comprehension level estimation unit 44 determines that the in-vehicle user A who is the driver understands the utterance content of the remote user B in an environment where the driver needs to concentrate on driving. Assuming that the weather around the vehicle 1 is "sunny", the in-vehicle user A's degree of understanding is estimated to be lower than when the weather is "sunny".

また例えば、理解度推定部44は、図2に示す車両1の運転状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、車両1が後ろ向き駐車中の場合、ドライバが運転に集中を要する環境下において、ドライバである車内ユーザAは遠隔地ユーザBの発話内容を理解していないものとして、車両1が一時停止中の場合に比べて、車内ユーザAの理解度を低く推定する。 Further, for example, the comprehension level estimation unit 44 estimates the comprehension level of the in-vehicle user A based on the data indicating the driving situation of the vehicle 1 shown in FIG. For example, when the vehicle 1 is parked facing backwards, the understanding level estimation unit 44 assumes that the in-vehicle user A who is the driver does not understand the utterance content of the remote user B in an environment where the driver must concentrate on driving. , the level of understanding of the in-vehicle user A is estimated to be lower than when the vehicle 1 is at a temporary stop.

また例えば、理解度推定部44は、図2に示す遠隔地ユーザBとの対話状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、車内ユーザAが「もう一度言って」と発話した場合、車内ユーザAは遠隔地ユーザBの発話内容を理解していないものとして、車内ユーザAが「わかった」と発話した場合に比べて、車内ユーザAの理解度を低く推定する。また例えば、理解度推定部44は、図2に示す車内ユーザAの反応状況を示すデータに基づいて、車内ユーザAの理解度を推定する。例えば、理解度推定部44は、遠隔地ユーザBの発話内容が車内ユーザAに提示された後、車内ユーザAが首を傾げる仕草をした場合、車内ユーザAは遠隔地ユーザBの発話内容を理解していないものとして、車内ユーザAが相槌を打つ仕草をした場合に比べて、車内ユーザAの理解度を低く推定する。なお、図2の例を用いて説明した車内ユーザAの理解度を推定する方法のそれぞれは一例であって、車内ユーザAの理解度の推定方法を限定するものではない。 Further, for example, the comprehension level estimation unit 44 estimates the comprehension level of the in-vehicle user A based on the data indicating the state of dialogue with the remote user B shown in FIG. For example, when the in-vehicle user A utters "Tell me again", the intelligibility estimation unit 44 assumes that the in-vehicle user A does not understand the content of the remote user B's utterance, and assumes that the in-vehicle user A does not understand the utterance content of the remote user B. The degree of understanding of the in-vehicle user A is estimated to be lower than in the case of uttering . Further, for example, the comprehension level estimation unit 44 estimates the comprehension level of the in-vehicle user A based on the data indicating the reaction state of the in-vehicle user A shown in FIG. For example, after the utterance content of remote user B is presented to in-vehicle user A, the intelligibility estimation unit 44 determines that, when in-vehicle user A makes a gesture of tilting his or her head, in-vehicle user A recognizes the utterance content of remote user B as It is assumed that the user A does not understand, and the degree of understanding of the user A in the car is estimated to be lower than in the case where the user A in the car makes a gesture of backhanding. Each of the methods for estimating the in-vehicle user A's degree of understanding described using the example of FIG. 2 is an example, and does not limit the method for estimating the in-vehicle user's A degree of understanding.

上記のような理解度推定部44による推定処理を実現させる一例としては、遠隔地ユーザBの発話内容データ及び車両1の状況データから、車内ユーザAの理解度を推定するために、データベース42に記憶されるデータを用いて機械学習を行った学習済みの学習済みモデルが挙げられる。学習済みモデルは、学習済みニューラルネットワークを有する。学習済みニューラルネットワークは、遠隔地ユーザBの発話内容データ及び車両1の状況データが入力されると、車内ユーザAの理解度を推定するように、教師データを用いて機械学習処理が施されたニューラルネットワークである。理解度推定部44は、サーバー通信装置41を介して、遠隔地ユーザBの発話内容データ及び車両1の状況データが入力されると、学習済みニューラルネットワークを用いて、車内ユーザAの理解度を推定する。理解度推定部44は、車内ユーザAの理解度データを、サーバー通信装置41を介して、遠隔地通信装置31に送信する。 As an example of realizing the estimation processing by the comprehension level estimation unit 44 as described above, in order to estimate the comprehension level of the in-vehicle user A from the utterance content data of the remote user B and the situation data of the vehicle 1, A trained model that has been trained by performing machine learning using stored data is exemplified. A trained model has a trained neural network. The trained neural network was subjected to machine learning processing using teacher data so as to estimate the level of understanding of in-vehicle user A when utterance content data of remote user B and situation data of vehicle 1 were input. It is a neural network. When the utterance content data of the remote user B and the situation data of the vehicle 1 are input via the server communication device 41, the comprehension level estimation unit 44 uses a trained neural network to estimate the comprehension level of the in-vehicle user A. presume. The comprehension level estimation unit 44 transmits the in-vehicle user A's comprehension level data to the remote communication device 31 via the server communication device 41 .

次に、図3及び図4を用いて、コミュニケーションシステム100により、遠隔地ユーザBの発話内容が車内ユーザAに提示され、その後、車内ユーザAへの提示態様が変更されるまでのフローを説明する。図3及び図4は、コミュニケーションシステム100による音声出力処理を示すフローチャートである。図3及び図4に示すように、フローチャートの各ステップは、車載コントローラ24、遠隔地コントローラ35、又はサーバーコントローラ43のいずれかにより実行される。 Next, with reference to FIGS. 3 and 4, the flow from the communication system 100 presenting the utterance content of the remote user B to the in-vehicle user A to changing the presentation mode to the in-vehicle user A will be described. do. 3 and 4 are flowcharts showing voice output processing by the communication system 100. FIG. As shown in FIGS. 3 and 4, each step of the flowchart is executed by either the on-board controller 24, the remote controller 35, or the server controller 43. FIG.

ステップS101では、遠隔地コントローラ35は、コミュニケーションシステム100の利用が開始されたか否かを判定する。例えば、コミュニケーションシステム100の利用は、VRゴーグルを装着した遠隔地ユーザBがコミュニケーションシステム100を起動するための操作を行うことで開始される。遠隔地コントローラ35は、遠隔地ユーザBによる上記操作の情報を検知すると、コミュニケーションシステム100の利用が開始されたと判定する。遠隔地コントローラ35が肯定的な判定をした場合、ステップS102に進む。一方、遠隔地コントローラ35に遠隔地ユーザBによる操作の情報が入力されず、遠隔地コントローラ35が否定的な判定をした場合、コミュニケーションシステム100による音声出力処理は終了する。また遠隔地ユーザBがコミュニケーションシステム100を終了するための操作を行った場合も、遠隔地コントローラ35は否定的な判定をし、コミュニケーションシステム100による音声出力処理は終了する。 In step S101, the remote controller 35 determines whether use of the communication system 100 has started. For example, use of the communication system 100 is started when remote user B wearing VR goggles performs an operation to activate the communication system 100 . When the remote controller 35 detects the above operation information by the remote user B, the remote controller 35 determines that the use of the communication system 100 has started. If the remote controller 35 makes an affirmative determination, the process proceeds to step S102. On the other hand, if the remote controller 35 does not receive the operation information of the remote user B and the remote controller 35 makes a negative determination, the voice output processing by the communication system 100 ends. Also, when remote user B performs an operation to end the communication system 100, the remote controller 35 makes a negative determination, and the voice output processing by the communication system 100 ends.

ステップS102では、遠隔地コントローラ35は、遠隔地マイク32により集音された遠隔地ユーザBの音声を取得したか否かを判定する。遠隔地コントローラ35は、遠隔地マイク32から遠隔地ユーザBの音声データが入力された場合、遠隔地ユーザBの音声を取得したと判定する。一方、遠隔地コントローラ35は、遠隔地マイク32から遠隔地ユーザBの音声データが入力されない場合、遠隔地ユーザBの音声を取得していないと判定する。遠隔地コントローラ35が肯定的な判定をした場合、ステップS103に進み、遠隔地コントローラ35が否定的な判定をした場合、ステップS101に戻る。 In step S102, the remote controller 35 determines whether or not the voice of the remote user B collected by the remote microphone 32 has been acquired. When voice data of remote user B is input from remote microphone 32, remote controller 35 determines that remote user B's voice has been acquired. On the other hand, if the voice data of the remote user B is not input from the remote microphone 32, the remote controller 35 determines that the voice of the remote user B has not been acquired. If the remote controller 35 makes an affirmative determination, the process proceeds to step S103, and if the remote controller 35 makes a negative determination, the process returns to step S101.

ステップS102において、遠隔地コントローラ35が肯定的な判定をした場合、ステップS103に進む。ステップS103では、遠隔地コントローラ35は、ステップS102で集音した遠隔地ユーザBの音声から、遠隔地ユーザBの発話内容を取得し、遠隔地ユーザBが発話している内容やテーマを特定する。例えば、遠隔地コントローラ35は、音声認識処理により、遠隔地ユーザBの音声から、遠隔地ユーザBの発話内容を取得する。 If the remote controller 35 makes an affirmative determination in step S102, the process proceeds to step S103. In step S103, the remote controller 35 acquires the content of the speech of the remote user B from the voice of the remote user B collected in step S102, and identifies the content and theme of the speech of the remote user B. . For example, the remote controller 35 acquires the utterance content of the remote user B from the voice of the remote user B by voice recognition processing.

ステップS104では、遠隔地コントローラ35は、遠隔地通信装置31を介して、ステップS103で取得した遠隔地ユーザBの発話内容データを車内空間20に送信する。ステップS105では、車載コントローラ24は、車載通信装置22を介して、ステップS104で遠隔地通信装置31から送信された遠隔地ユーザBの発話内容データを受信する。 In step S<b>104 , the remote controller 35 transmits the utterance content data of the remote user B acquired in step S<b>103 to the vehicle interior 20 via the remote communication device 31 . In step S<b>105 , the in-vehicle controller 24 receives the utterance content data of the remote user B transmitted from the remote communication device 31 in step S<b>104 via the in-vehicle communication device 22 .

ステップS106では、車載コントローラ24は、所定の提示態様で遠隔地ユーザBの発話内容を車内ユーザAに提示するように、車載出力装置23を制御する。車載出力装置23から遠隔地ユーザBの発話内容が出力されることで、遠隔地ユーザBの発話内容は車内ユーザAに提示される。例えば、所定の提示態様としては、予め設定された初期設定の提示態様が挙げられる。初期設定の提示態様は、遠隔地ユーザBの発話内容を提示するために制御する制御対象の装置、及び当該装置の設定情報を含む。なお、このステップにおける所定の提示態様は、初期設定の提示態様に限られない。例えば、後述するステップS118を経て、再度ステップS106に進んだ場合、車載コントローラ24は、所定の提示態様として、ステップS118での提示態様を用いることができる。 In step S106, the in-vehicle controller 24 controls the in-vehicle output device 23 to present the utterance content of the remote user B to the in-vehicle user A in a predetermined presentation mode. By outputting the content of the speech of the remote user B from the in-vehicle output device 23, the content of the speech of the remote user B is presented to the user A in the vehicle. For example, the predetermined presentation mode includes a preset presentation mode that is initially set. The initial setting presentation mode includes a control target device to be controlled to present the content of the speech of the remote user B, and setting information of the device. Note that the predetermined presentation mode in this step is not limited to the default presentation mode. For example, when proceeding to step S106 again via step S118, which will be described later, the in-vehicle controller 24 can use the presentation mode in step S118 as the predetermined presentation mode.

ステップS107では、車載コントローラ24は、車内ユーザAがいる場所の状況を示す、車両1の状況データを取得する。例えば、車載コントローラ24は、周辺情報サーバー10から、車両1の周辺の交通情報11、車両1の周辺の天気情報12、及び車両1の周辺の通信情報13を取得する。また例えば、車載コントローラ24は、車両1に搭載されたセンサ21から、センサ21を構成する各センサで検出されたデータを取得する。 In step S107, the in-vehicle controller 24 acquires the situation data of the vehicle 1 indicating the situation of the place where the user A is in the vehicle. For example, the in-vehicle controller 24 acquires traffic information 11 around the vehicle 1 , weather information 12 around the vehicle 1 , and communication information 13 around the vehicle 1 from the surrounding information server 10 . Further, for example, the in-vehicle controller 24 acquires data detected by each sensor constituting the sensor 21 from the sensor 21 mounted on the vehicle 1 .

ステップS108では、車載コントローラ24は、車載通信装置22を介して、ステップS105で受信した遠隔地ユーザBの発話内容データと、ステップS107で取得した車両1の状況データを、サーバー40に送信する。 In step S108, the in-vehicle controller 24 transmits the utterance content data of the remote user B received in step S105 and the status data of the vehicle 1 acquired in step S107 to the server 40 via the in-vehicle communication device 22.

ステップS109では、サーバーコントローラ43は、サーバー通信装置41を介して、ステップS108で車載通信装置22から送信された遠隔地ユーザBの発話内容データ及び車両1の状況データを受信する。 In step S109, the server controller 43 receives, via the server communication device 41, the utterance content data of the remote user B and the situation data of the vehicle 1 transmitted from the in-vehicle communication device 22 in step S108.

ステップS110では、サーバーコントローラ43は、ステップS109で受信した遠隔地ユーザBの発話内容データ及び車両1の状況データを用いて、車内ユーザAの理解度を推定する。例えば、サーバーコントローラ43は、学習済みニューラルネットワークを用いて、車内ユーザAの理解度を推定する。 In step S110, the server controller 43 estimates the understanding level of the in-vehicle user A using the utterance content data of the remote user B and the situation data of the vehicle 1 received in step S109. For example, the server controller 43 estimates the level of understanding of the in-vehicle user A using a trained neural network.

ステップS111では、サーバーコントローラ43は、サーバー通信装置41を介して、ステップS110で推定した車内ユーザAの理解度データを遠隔地空間30に送信する。 In step S111, the server controller 43 transmits the understanding level data of the in-vehicle user A estimated in step S110 to the remote space 30 via the server communication device 41. FIG.

ステップS112では、遠隔地コントローラ35は、遠隔地通信装置31を介して、ステップS111でサーバー通信装置41から送信された、車内ユーザAの理解度データを受信する。 In step S112, the remote controller 35 receives, via the remote communication device 31, the understanding level data of the in-vehicle user A transmitted from the server communication device 41 in step S111.

ステップS113では、遠隔地コントローラ35は、遠隔地ユーザBの発話内容を車内ユーザAに提示する際の提示態様について、変更の必要性を判定する。例えば、遠隔地コントローラ35は、ステップS112で受信した車内ユーザAの理解度データを遠隔地ディスプレイ34aに表示させて、車内ユーザAの理解度を遠隔地ユーザBに提示する。車内ユーザAの理解度が提示された遠隔地ユーザBは、車内ユーザAの理解度に応じて、提示態様の変更の必要性を判断する。遠隔地ユーザBは、提示態様の変更が必要と判断した場合、遠隔地入力装置33を介して、提示態様を変更する指示及び変更後の提示態様の情報を含む提示態様の設定指示を入力する。遠隔地コントローラ35は、遠隔地入力装置33を介して、遠隔地ユーザBによる提示態様の設定指示が入力された場合、車内ユーザAへの提示態様を変更する必要があると判定する。一方、遠隔地コントローラ35は、車内ユーザAの理解度を遠隔地ユーザBに提示してから所定時間が経過しても、遠隔地ユーザBによる設定指示が入力されない場合、車内ユーザAへの提示態様を変更する必要はないと判定する。遠隔地コントローラ35が肯定的な判定をした場合、ステップS114に進み、遠隔地コントローラ35が否定的な判定をした場合、ステップS101に戻る。なお、所定時間は、車内ユーザAへの提示態様を変更する必要があるか否かを判定するための時間であって、予め定められた時間である。 In step S<b>113 , the remote controller 35 determines whether it is necessary to change the manner in which the contents of the speech of the remote user B are presented to the in-vehicle user A. For example, the remote controller 35 causes the in-vehicle user A's comprehension level data received in step S112 to be displayed on the remote display 34a to present the in-vehicle user A's comprehension level to the remote user B. FIG. Remote user B, to whom in-vehicle user A's degree of understanding is presented, determines the necessity of changing the presentation mode according to in-vehicle user A's degree of understanding. When the remote user B determines that the presentation mode needs to be changed, the remote user B inputs an instruction to change the presentation mode and an instruction to set the presentation mode including information on the changed presentation mode via the remote input device 33. . When the remote user B inputs an instruction to set the presentation mode via the remote input device 33, the remote controller 35 determines that the presentation mode for the in-vehicle user A needs to be changed. On the other hand, if remote user B does not input a setting instruction even after a predetermined period of time has passed since in-vehicle user A's level of understanding was presented to in-vehicle user B, remote controller 35 presents the level of understanding to in-vehicle user A. It is determined that there is no need to change the mode. If the remote controller 35 makes an affirmative determination, the process proceeds to step S114, and if the remote controller 35 makes a negative determination, the process returns to step S101. The predetermined time is a predetermined time for determining whether or not it is necessary to change the mode of presentation to user A in the vehicle.

ステップS113において、遠隔地コントローラ35が肯定的な判定をした場合、ステップS114に進む。ステップS114において、遠隔地コントローラ35は、ステップS113での処理結果に基づいて、車内ユーザAへの提示態様を決定する。例えば、ステップS113において遠隔地コントローラ35が遠隔地ユーザBによる設定指示を受信した場合、遠隔地コントローラ35は、遠隔地ユーザBにより入力された変更後の提示態様の情報に基づき、車内ユーザAへの提示態様を決定する。遠隔地コントローラ35は、遠隔地ユーザBの発話内容を車内ユーザAに提示するために制御する制御対象の装置と、当該装置に関する設定を決定する。 If the remote controller 35 makes an affirmative determination in step S113, the process proceeds to step S114. In step S114, the remote controller 35 determines the mode of presentation to the in-vehicle user A based on the processing result in step S113. For example, when the remote controller 35 receives a setting instruction from the remote user B in step S113, the remote controller 35 sends a message to the in-vehicle user A based on the changed presentation mode information input by the remote user B. Determines the presentation mode of The remote controller 35 determines a device to be controlled to present the utterance content of the remote user B to the in-vehicle user A, and the settings related to the device.

ステップS115において、遠隔地コントローラ35は、遠隔地通信装置31を介して、ステップS114で決定した提示態様のデータを車内空間20に送信する。ステップS116では、車載コントローラ24は、車載通信装置22を介して、ステップS115で遠隔地通信装置31から送信された提示態様データを受信する。 In step S<b>115 , the remote controller 35 transmits the presentation mode data determined in step S<b>114 to the vehicle interior 20 via the remote communication device 31 . In step S<b>116 , the in-vehicle controller 24 receives the presentation mode data transmitted from the remote communication device 31 in step S<b>115 via the in-vehicle communication device 22 .

ステップS117では、車載コントローラ24は、ステップS116で受信した提示態様データに基づき、車内ユーザAへの提示態様を変更する。例えば、ステップS116で受信した提示態様データに音声を強調する設定が含まれている場合、車載コントローラ24は、車載スピーカー23bの音量が上がるように、車載スピーカー23bの音量を設定する。 In step S117, the in-vehicle controller 24 changes the mode of presentation to the in-vehicle user A based on the presentation mode data received in step S116. For example, if the presentation mode data received in step S116 includes a setting to emphasize the sound, the in-vehicle controller 24 sets the volume of the in-vehicle speaker 23b so that the volume of the in-vehicle speaker 23b increases.

ステップS118では、車載コントローラ24は、ステップS117で変更した提示態様で遠隔地ユーザBの発話内容を車内ユーザAに提示する。例えば、遠隔地ユーザBの発話内容を強調して車内ユーザAに提示する場合、車載コントローラ24は、ステップS117で設定した音量で車載スピーカー23bから遠隔地ユーザBの音声を出力させる。ステップS118の処理が終了すると、ステップS107に戻り、ステップS101で否定的な判定がされるまで、図3及び図4に示すコミュニケーションシステム100による音声出力処理が繰り返し実行される。 In step S118, the in-vehicle controller 24 presents the utterance content of remote user B to in-vehicle user A in the presentation mode changed in step S117. For example, when emphasizing the utterance content of remote user B and presenting it to in-vehicle user A, the in-vehicle controller 24 causes the in-vehicle speaker 23b to output the voice of remote user B at the volume set in step S117. After the process of step S118 is completed, the process returns to step S107, and the voice output process by the communication system 100 shown in FIGS. 3 and 4 is repeatedly executed until a negative determination is made in step S101.

図5は、遠隔地ユーザBの発話内容を強調するための提示態様の一例を示す説明図である。図5に示すように、遠隔地ユーザBの発話内容が事故情報の場合、車載コントローラ24は、事故情報を知らせる遠隔地ユーザBの音声を車載スピーカー23bから出力させるとともに、遠隔地ユーザBの発話内容を強調させるために、事故の発生位置が示された地図を車載ディスプレイ23aに表示させる。また遠隔地ユーザBの発話内容が経路案内の場合、車載コントローラ24は、車両1の経路を案内する遠隔地ユーザBの音声を車載スピーカー23bから出力させるとともに、遠隔地ユーザBの発話内容を強調させるために、車両1の経路が示された地図を車載ディスプレイ23aに表示させる。さらに、遠隔地ユーザBの発話内容が観光情報の場合、車載コントローラ24は、遠隔地ユーザBの音声により観光情報を出力する車載スピーカー23bの音量を上げるとともに、観光情報を示すアイコンや文字を車載ディスプレイ23aに追加表示させる。なお、図5に示す遠隔地ユーザBの発話内容を強調するための提示態様は一例であって、車載コントローラ24による制御を限定するものではない。 FIG. 5 is an explanatory diagram showing an example of a presentation mode for emphasizing the utterance content of the remote user B. As shown in FIG. As shown in FIG. 5, when the content of the utterance of the remote user B is accident information, the in-vehicle controller 24 causes the in-vehicle speaker 23b to output the voice of the remote user B notifying the accident information, and the utterance of the remote user B. In order to emphasize the content, a map indicating the location of the accident is displayed on the in-vehicle display 23a. When the utterance content of the remote user B is route guidance, the in-vehicle controller 24 causes the in-vehicle speaker 23b to output the voice of the remote user B guiding the route of the vehicle 1, and emphasizes the utterance content of the remote user B. In order to do so, a map showing the route of the vehicle 1 is displayed on the in-vehicle display 23a. Furthermore, when the utterance content of the remote user B is tourist information, the in-vehicle controller 24 increases the volume of the in-vehicle speaker 23b that outputs the tourist information by the voice of the remote user B, and displays the icons and characters indicating the tourist information on the vehicle. It is additionally displayed on the display 23a. Note that the presentation mode for emphasizing the utterance content of the remote user B shown in FIG. 5 is an example, and does not limit the control by the in-vehicle controller 24 .

以上のように、本実施形態では、遠隔地コントローラ35は、遠隔地マイク32により集音された遠隔地ユーザBの音声から遠隔地ユーザBの発話内容を取得する発話内容取得部36を備え、車載コントローラ24は、遠隔地ユーザBがいる遠隔地空間30とは別の車内ユーザAがいる車両1の状況を示す、車両1の状況データを取得する状況取得部25を備え、サーバーコントローラ43は、車両1の状況データに基づいて、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定する理解度推定部44を備える。そして、車載コントローラ24は、車内ユーザAの理解度に基づく提示態様で、遠隔地ユーザBの発話内容を車内ユーザAに提示するように、車載出力装置23を制御する発話内容提示部26を備える。車両1の状況データに基づいて推定される車内ユーザAの理解度は、遠隔地ユーザBの発話内容に対するものであるため、聞き手である車内ユーザAの理解度を推定する精度を向上させることができる。その結果、聞き手である車内ユーザAが発話者である遠隔地ユーザBの発話内容を理解しやすくなる。 As described above, in the present embodiment, the remote controller 35 includes the utterance content acquisition unit 36 that acquires the utterance content of the remote user B from the voice of the remote user B collected by the remote microphone 32, The in-vehicle controller 24 includes a situation acquisition unit 25 for acquiring situation data of the vehicle 1 indicating the situation of the vehicle 1 in which the in-vehicle user A is present, which is different from the remote space 30 in which the remote user B is present. , an understanding degree estimation unit 44 for estimating the understanding degree of the in-vehicle user A with respect to the utterance content of the remote user B based on the situation data of the vehicle 1 . The in-vehicle controller 24 includes an utterance content presenting unit 26 that controls the in-vehicle output device 23 so as to present the utterance content of the remote user B to the in-vehicle user A in a presentation mode based on the understanding level of the in-vehicle user A. . Since the in-vehicle user A's degree of understanding estimated based on the situation data of the vehicle 1 is for the utterance content of the remote user B, it is possible to improve the accuracy of estimating the in-vehicle user A's degree of understanding as a listener. can. As a result, it becomes easier for the in-vehicle user A, who is the listener, to understand the content of the speech of the remote user B, who is the speaker.

また、本実施形態では、車両1の状況は、車両1の室内の状況、車両1の室外の状況、車両1の走行状況、及び車内ユーザAの状況のうち少なくともいずれかを含む。これにより、車両1に関する異なる観点から車両1の状況を捉えることができるため、車両1の状況が変化した場合であっても、車両1の状況の変化前後において、車内ユーザAの理解度の推定精度を高く保つことができる。 In this embodiment, the situation of the vehicle 1 includes at least one of the situation inside the vehicle 1, the situation outside the vehicle 1, the traveling situation of the vehicle 1, and the situation of the user A inside the vehicle. As a result, since the situation of the vehicle 1 can be grasped from a different viewpoint regarding the vehicle 1, even if the situation of the vehicle 1 changes, the degree of understanding of the in-vehicle user A can be estimated before and after the change of the situation of the vehicle 1. High accuracy can be maintained.

さらに、本実施形態では、遠隔地コントローラ35は、車内ユーザAの理解度を、遠隔地ユーザBに提示するように、遠隔地空間30に設けられた遠隔地出力装置34を制御する理解度提示部37を備える。これにより、遠隔地ユーザBは、自身の発話内容に対する車内ユーザAの理解度を把握することができる。 Furthermore, in this embodiment, the remote controller 35 controls the remote output device 34 provided in the remote space 30 so as to present the understanding level of the in-vehicle user A to the remote user B. A portion 37 is provided. As a result, the remote user B can grasp the level of understanding of the in-vehicle user A with respect to the contents of his or her utterance.

加えて、本実施形態では、遠隔地コントローラ35は、遠隔地空間30に設けられた遠隔地入力装置33から、車内ユーザAの理解度を提示された遠隔地ユーザBによる提示態様の設定指示を受信する受信部38と、遠隔地ユーザBによる提示態様の設定指示に基づいて、車内ユーザAへの提示態様を決定する提示態様決定部39を備える。これにより、遠隔地ユーザBは、車内ユーザAの理解度を把握したうえで、車内ユーザAへの提示態様を決定することができるため、例えば、車内ユーザAの理解度が低い場合、遠隔地ユーザBの発話内容を強調するなど、車内ユーザAへの提示態様を適切に変更することができる。 In addition, in the present embodiment, the remote controller 35 instructs the remote user B, who is presented with the level of understanding of the in-vehicle user A, to set the presentation mode from the remote input device 33 provided in the remote space 30. A reception unit 38 for receiving data, and a presentation mode determination unit 39 for determining a presentation mode for in-vehicle user A based on a presentation mode setting instruction from remote user B are provided. As a result, the remote user B can determine the mode of presentation to the in-vehicle user A after ascertaining the in-vehicle user A's level of understanding. It is possible to appropriately change the mode of presentation to in-vehicle user A, such as by emphasizing the content of user B's speech.

また、本実施形態では、理解度推定部44は、遠隔地ユーザBの発話内容及び車両1の状況データが入力されると、学習済みニューラルネットワークを用いて、車内ユーザAの理解度を推定する。学習済みニューラルネットワークは、遠隔地ユーザBの発話内容及び車両1の状況データが入力されると、車内ユーザAの理解度を推定するように、教師データを用いた機械学習処理が施されたニューラルネットワークである。これにより、ルールベースで車内ユーザAの理解度を推定するよりも高い精度で、車内ユーザAの理解度を推定することができる。 In addition, in the present embodiment, when the utterance content of the remote user B and the situation data of the vehicle 1 are input, the comprehension level estimation unit 44 estimates the comprehension level of the in-vehicle user A using a trained neural network. . The learned neural network is a neural network that has been subjected to machine learning processing using teacher data so as to estimate the degree of understanding of the in-vehicle user A when the utterance content of the remote user B and the situation data of the vehicle 1 are input. network. This makes it possible to estimate the in-vehicle user A's level of understanding with higher accuracy than estimating the in-vehicle user's A level of understanding based on rules.

さらに、本実施形態では、理解度推定部44は、発話内容取得部36により遠隔地ユーザBの発話内容が取得された後に、状況取得部25により取得された車両1の状況データに基づいて、車内ユーザAの理解度を推定する。これにより、遠隔地ユーザBが発話した内容に合わせるように、車内ユーザAへの提示態様を変更することができるため、車内ユーザAが遠隔地ユーザBの発話内容を理解しづらい又は理解できなくなるのを抑制することができる。 Furthermore, in the present embodiment, the comprehension level estimation unit 44 acquires the utterance content of the remote user B by the utterance content acquisition unit 36, and based on the situation data of the vehicle 1 acquired by the situation acquisition unit 25, The degree of understanding of user A inside the vehicle is estimated. As a result, it is possible to change the mode of presentation to the in-vehicle user A so as to match the content uttered by the remote user B, so that the in-vehicle user A finds it difficult or impossible to understand the content of the utterance of the remote user B. can be suppressed.

なお、以上に説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。 It should be noted that the embodiments described above are described to facilitate understanding of the present invention, and are not described to limit the present invention. Therefore, each element disclosed in the above embodiments is meant to include all design changes and equivalents that fall within the technical scope of the present invention.

例えば、上述した実施形態では、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定する方法として、車両1の状況データを用いた推定方法を例に挙げて説明したが、その他の方法、又は車両1の状況データを用いた推定方法との組み合わせにより遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定してもよい。例えば、理解度推定部44は、遠隔地ユーザBの発話内容に対して、遠隔地ユーザBの発話内容の複雑度を算出し、算出した遠隔地ユーザBの発話内容の複雑度に基づいて、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定してもよい。遠隔地ユーザBの発話内容の複雑度は、遠隔地ユーザBが発話している内容の難易度ともいう。 For example, in the above-described embodiment, the estimation method using the situation data of the vehicle 1 was described as an example of the method of estimating the in-vehicle user A's degree of understanding of the utterance content of the remote user B, but other methods have been described. Alternatively, in-vehicle user A's degree of understanding of remote user B's utterance content may be estimated by combining with an estimation method using situation data of vehicle 1 . For example, the understanding level estimation unit 44 calculates the complexity of the utterance content of the remote user B with respect to the utterance content of the remote user B, and based on the calculated complexity of the utterance content of the remote user B, In-vehicle user A's understanding of remote user B's utterance content may be estimated. The complexity of the utterance content of the remote user B is also referred to as the difficulty of the content uttered by the remote user B.

遠隔地ユーザBの発話内容の複雑度を算出する方法には、例えば、本願出願時に知られた、テキスト文章の複雑度を判定する技術を用いることができる。例えば、理解度推定部44は、遠隔地ユーザBの音声に対して音声認識処理を実行して、遠隔地ユーザBの音声を文字に起こし、遠隔地ユーザBの発話内容を文章化する。理解度推定部44は、遠隔地ユーザBの発話内容が表された文章の複雑度を算出することで、遠隔地ユーザBの発話内容の複雑度を算出する。 As a method for calculating the complexity of the utterance content of remote user B, for example, a technique for determining the complexity of text sentences known at the time of filing of the present application can be used. For example, the comprehension degree estimation unit 44 performs speech recognition processing on the voice of the remote user B, transcribes the voice of the remote user B, and converts the utterance content of the remote user B into text. The comprehension level estimation unit 44 calculates the complexity of the content of the utterance of the remote user B by calculating the complexity of the sentence in which the content of the utterance of the remote user B is expressed.

理解度推定部44は、遠隔地ユーザBが用いる単語に基づいて、遠隔地ユーザBの発話内容の複雑度を算出する。理解度推定部44は、遠隔地ユーザBの発話内容が表された文章に含まれる単語一つ当たりの長さに基づいて、遠隔地ユーザBの発話内容の複雑度を算出してもよい。例えば、理解度推定部44は、遠隔地ユーザBの発話内容が表された文章に含まれる単語一つ当たりの長さが長いほど、遠隔地ユーザBの発話内容の複雑度を高く算出する。 The comprehension degree estimation unit 44 calculates the complexity of the utterance content of the remote user B based on the words that the remote user B uses. The comprehension degree estimating unit 44 may calculate the complexity of the content of the utterance of the remote user B based on the length of each word included in the sentence in which the content of the utterance of the remote user B is expressed. For example, the comprehension degree estimating unit 44 calculates the degree of complexity of the utterance content of the remote user B higher as the length of each word included in the sentence expressing the utterance content of the remote user B is longer.

また理解度推定部44は、遠隔地ユーザBが用いる語彙の豊かさに基づいて、遠隔地ユーザBの発話内容の複雑度を算出してもよい。例えば、理解度推定部44は、遠隔地ユーザBの発話内容が表せれた文章に特定分野で使用される専門用語が含まれている場合、当該専門用語が含まれていない場合に比べて、遠隔地ユーザBの発話内容の複雑度を高く算出する。また例えば、理解度推定部44は、遠隔地ユーザBの発話内容が表せられた文章において出現回数が1回の単語について、当該単語を文章全体に含まれる単語の総数で除算することで、遠隔地ユーザBの発話内容の複雑度を算出する。 The comprehension level estimation unit 44 may also calculate the complexity of the utterance content of the remote user B based on the richness of the vocabulary used by the remote user B. FIG. For example, the comprehension degree estimating unit 44, when the text expressing the content of the utterance of the remote user B includes a technical term used in a specific field, compares with the case where the technical term is not included, The complexity of the utterance content of the remote user B is calculated to be high. Further, for example, the comprehension level estimation unit 44 divides a word that appears once in a sentence that expresses the utterance content of the remote user B by the total number of words contained in the entire sentence. The complexity of the utterance content of the local user B is calculated.

また理解度推定部44は、遠隔地ユーザBが用いる文法に基づいて、遠隔地ユーザBの発話内容の複雑度を算出してもよい。例えば、理解度推定部44は、遠隔地ユーザBの発話内容が表された文章に含まれる単語の品詞数、主語や述語などの文要素数に基づいて、遠隔地ユーザBの発話内容の複雑度を算出する。 Further, the comprehension level estimation unit 44 may calculate the complexity of the utterance content of the remote user B based on the grammar that the remote user B uses. For example, the comprehension level estimation unit 44 calculates the complexity of the utterance content of the remote user B based on the number of parts of speech of words and the number of sentence elements such as subjects and predicates included in the sentence expressing the utterance content of the remote user B. Calculate degrees.

上述した方法によって、遠隔地ユーザBの発話内容の複雑度が算出されると、理解度推定部44は、算出した遠隔地ユーザBの発話内容の複雑度に基づいて、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定する。例えば、理解度推定部44は、遠隔地Bユーザの発話内容の複雑度が高いほど、車内ユーザAが遠隔地ユーザBの発話内容を理解しづらいとして、車内ユーザAの理解度を低く推定する。一方、理解度推定部44は、遠隔地ユーザBの発話内容の複雑度が低いほど、車内ユーザAが遠隔地ユーザBの発話内容を理解しやすいとして、車内ユーザAの理解度を高く推定する。 When the complexity of the utterance content of the remote user B is calculated by the above-described method, the comprehension level estimation unit 44 calculates the utterance of the remote user B based on the calculated complexity of the utterance content of the remote user B. The level of in-vehicle user A's understanding of the content is estimated. For example, the comprehension level estimation unit 44 estimates the comprehension level of the in-vehicle user A to be low because the higher the complexity of the utterance content of the remote user B, the more difficult it is for the in-vehicle user A to understand the utterance content of the remote user B. . On the other hand, the comprehension level estimation unit 44 estimates that the comprehension level of the in-vehicle user A is high, assuming that the lower the complexity of the utterance content of the remote user B, the easier it is for the in-vehicle user A to understand the utterance content of the remote user B. .

このように、遠隔地ユーザBの発話内容の複雑度に基づいて、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定することで、車内ユーザAの理解度は、車内ユーザAが理解すべき対象の複雑さに基づいて推定されるため、車内ユーザAの理解度の推定精度を向上させることができる。 In this way, by estimating the degree of understanding of the in-vehicle user A with respect to the utterance content of the remote-site user B based on the complexity of the utterance content of the remote-site user B, the degree of understanding of the in-vehicle user A can be Since it is estimated based on the complexity of the object to be understood, the accuracy of estimating the in-vehicle user A's degree of understanding can be improved.

また例えば、上述した実施形態では、車内ユーザAへの提示態様を決定する方法として、遠隔地ユーザBに車内ユーザAの理解度を提示し、その後、遠隔地ユーザBによる設定指示に基づいて車内ユーザAへの提示態様を決定する方法を例に挙げて説明したが、その他の方法により、車内ユーザAへの提示態様を決定してもよい。例えば、遠隔地コントローラ35は、車内ユーザAの理解度に基づいて、車内ユーザへの提示態様を決定する提示態様決定部を備えていてもよい。これにより、車内ユーザAへの提示態様は車内ユーザAの理解度に基づいて自動的に決定されるため、車内ユーザAへの提示態様を変更する場合、スムーズに変更することができる。また遠隔地ユーザBによる操作が不要となるため、ユーザの利便性の向上を図ることができる。 Further, for example, in the above-described embodiment, as a method of determining the mode of presentation to in-vehicle user A, the in-vehicle user A's level of understanding is presented to remote user B, and then, based on a setting instruction from remote user B, in-vehicle Although the method of determining the mode of presentation to user A has been described as an example, the mode of presentation to in-vehicle user A may be determined by other methods. For example, the remote controller 35 may include a presentation mode determination unit that determines the mode of presentation to the in-vehicle user A based on the level of understanding of the user A in the vehicle. As a result, the manner of presentation to the user A in the vehicle is automatically determined based on the degree of understanding of the user A in the vehicle, so that the manner of presentation to the user A in the vehicle can be changed smoothly. In addition, since the operation by the remote user B becomes unnecessary, the user's convenience can be improved.

また上述した変形例において、例えば、提示態様決定部は、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度が所定の基準理解度よりも低い場合、車内ユーザAへの提示態様として、遠隔地ユーザBの発話内容を強調する提示態様に決定してもよい。これにより、車内ユーザAの理解度が比較的低い場合、遠隔地ユーザBの発話内容を強調して車内ユーザAに提示できるため、車内ユーザAは、提示態様が変更される前に比べて、遠隔地ユーザBの発話内容を理解しやすくなる。 Further, in the above-described modified example, for example, if the in-vehicle user A's degree of understanding of the utterance content of the remote user B is lower than a predetermined reference level of understanding, the presentation mode determination unit selects the remote A presentation mode that emphasizes the utterance content of the local user B may be determined. As a result, when the in-vehicle user A's degree of understanding is relatively low, the utterance content of the remote user B can be emphasized and presented to the in-vehicle user A, so that the in-vehicle user A can It becomes easier to understand the content of the utterance of the remote user B.

また例えば、上述した実施形態では、理解度推定部44による発話内容に対する理解度の推定方法として、学習済みニューラルネットワークを用いた推定方法を例に挙げて説明したが、その他の方法により発話内容に対する理解度を推定してもよい。例えば、理解度推定部44は、入力層及び出力層を含み、入力層への入力データを遠隔地ユーザBの発話内容及び車両1の状況データとし、出力層からの出力データを遠隔地ユーザBの発話内容に対する車内ユーザAの理解度とするニューラルネットワークと、入力データ及び出力データの実績値を教師データとしてニューラルネットワークを学習させる機械学習部と、機械学習部により学習させたニューラルネットワークに新たな入力データを入力し、当該入力データに対する新たな出力データとして、車内ユーザAの理解度を推定する推定部を有していてもよい。これにより、理解度推定部44は、遠隔地ユーザBの発話内容及び車両1の状況データが入力されるたびに、遠隔地ユーザBの発話内容と車両1の状況との相関関係を学習するため、車内ユーザAの理解度の推定精度をより高めることができる。 Further, for example, in the above-described embodiment, an estimation method using a trained neural network was described as an example of a method for estimating the degree of comprehension with respect to the utterance content by the intelligibility estimating unit 44. Comprehension may be estimated. For example, the comprehension estimation unit 44 includes an input layer and an output layer. A neural network that uses the degree of understanding of user A in the car for the content of the utterance, a machine learning unit that learns the neural network using actual values of input data and output data as teacher data, and a new neural network learned by the machine learning unit. It may have an estimating unit that receives input data and estimates the in-vehicle user A's degree of understanding as new output data for the input data. As a result, the comprehension degree estimating unit 44 learns the correlation between the utterance content of the remote user B and the situation of the vehicle 1 each time the utterance content of the remote user B and the situation data of the vehicle 1 are input. , the accuracy of estimating the in-vehicle user A's degree of understanding can be further improved.

また例えば、上述した実施形態では、遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を推定するタイミングとして、遠隔地ユーザBの発話内容を取得した後を例に挙げて説明したが、遠隔地ユーザBの発話内容を取得する前に、車内ユーザAの理解度を推定してもよい。理解度推定部44は、発話内容取得部36により遠隔地ユーザBの発話内容が取得される前に、状況取得部25により取得された車両1の状況データに基づいて、遠隔地ユーザBが発話した場合における遠隔地ユーザBの発話内容に対する車内ユーザAの理解度を予め推定してもよい。例えば、理解度推定部44は、車両1の状況データから、車載通信装置22と遠隔地通信装置31との間の通信速度が所定の通信速度以下であることを特定したとする。この場合、理解度推定部44は、音声が途切れるような不安定な通信環境下のため、遠隔地ユーザBが発話した場合に車内ユーザAは遠隔地ユーザBの発話内容を理解しづらいと予測して、通信速度が所定の通信速度よりも速い場合に比べて、車内ユーザAの理解度を予め低く推定する。遠隔地ユーザBが発話する前に車内ユーザAの理解度を予め推定することで、車内ユーザAが初めから遠隔地ユーザBの発話内容を理解しづらい又は理解できなくなるのを抑制することができる。 Further, for example, in the above-described embodiment, as the timing for estimating the degree of understanding of the in-vehicle user A with respect to the utterance content of the remote user B, the timing after acquiring the utterance content of the remote user B has been described as an example. Before acquiring the utterance content of local user B, the in-vehicle user A's degree of understanding may be estimated. The comprehension degree estimation unit 44 determines whether the remote user B has spoken based on the situation data of the vehicle 1 acquired by the situation acquisition unit 25 before the speech content acquisition unit 36 acquires the content of the speech of the remote user B. It is also possible to estimate in advance the level of understanding of the in-vehicle user A with respect to the contents of the utterance of the remote user B in the case where the remote location user B speaks. For example, it is assumed that the comprehension degree estimating unit 44 identifies from the situation data of the vehicle 1 that the communication speed between the on-vehicle communication device 22 and the remote communication device 31 is equal to or lower than a predetermined communication speed. In this case, the comprehension level estimation unit 44 predicts that it is difficult for in-vehicle user A to understand the content of remote user B's utterance when remote user B speaks because of an unstable communication environment where voice is interrupted. As a result, the comprehension level of the in-vehicle user A is presumed to be lower than when the communication speed is higher than the predetermined communication speed. By estimating the degree of understanding of the in-vehicle user A before the remote user B speaks, it is possible to prevent the in-vehicle user A from having difficulty understanding or being unable to understand the speech content of the remote user B from the beginning. .

また例えば、上述した実施形態では、理解度推定部44が有する学習済みニューラルネットワークとして、車両1の状況データを入力データにして機械学習を行った場合を例に挙げて説明したが、理解度推定部44のニューラルネットワークに、車両1に限られず、複数の車両から各車両の状況データを入力させて学習させてもよい。また、複数の車両のそれぞれにおいて、車載コントローラが理解度推定部を備える構成であってもよく、この場合、各車両において、車両の状況データを入力させて学習させ、各学習結果をサーバーに送信する構成であってもよい。 Further, for example, in the above-described embodiment, a case where machine learning is performed using situation data of the vehicle 1 as input data as a trained neural network possessed by the comprehension level estimation unit 44 has been described as an example. The neural network of the unit 44 may be made to learn by inputting situation data of each vehicle from not only the vehicle 1 but also a plurality of vehicles. Further, in each of the plurality of vehicles, the in-vehicle controller may be provided with an understanding level estimation unit. In this case, each vehicle is made to learn by inputting vehicle situation data, and each learning result is transmitted to the server. It may be configured to

また例えば、上述した実施形態では、車載コントローラ24が状況取得部25及び発話内容提示部26を備え、遠隔地コントローラ35が発話内容取得部36、理解度提示部37、受信部38、及び提示態様決定部39を備え、サーバーコントローラ43が理解度推定部44を備える場合を例に挙げて説明したが、本発明のコミュニケーション支援装置の構成はこれに限定されない。例えば、発話内容取得部、状況取得部、理解度推定部、発話内容提示部、理解度提示部、受信部、及び提示態様決定部は、特定のコントローラ又は装置が備える構成であってもよい。例えば、車載コントローラ24がこれらのブロックを備えていてもよいし、遠隔地コントローラ35がこれらのブロックを備えていてもよいし、あるいは、サーバー40がこれらのブロックを備えていてもよい。このようにコミュニケーション支援装置の各ブロックを集約した構成の場合、各ブロックを備える装置は、いずれのブロックも備えない装置との間で、通信装置を介してデータの送受信を行うことで、上述した実施形態と同様の効果を得ることができる。 Further, for example, in the above-described embodiment, the in-vehicle controller 24 includes the situation acquisition unit 25 and the utterance content presentation unit 26, and the remote controller 35 includes the utterance content acquisition unit 36, the comprehension level presentation unit 37, the reception unit 38, and the presentation mode. Although the case where the determining unit 39 is provided and the server controller 43 is provided with the comprehension degree estimating unit 44 has been described as an example, the configuration of the communication support device of the present invention is not limited to this. For example, the utterance content acquisition unit, the situation acquisition unit, the comprehension level estimation unit, the utterance content presentation unit, the understanding level presentation unit, the reception unit, and the presentation mode determination unit may be provided in a specific controller or device. For example, the in-vehicle controller 24 may contain these blocks, the remote controller 35 may contain these blocks, or the server 40 may contain these blocks. In the case of the configuration in which each block of the communication support device is aggregated in this way, the device having each block transmits and receives data to and from a device having none of the blocks via the communication device. Effects similar to those of the embodiment can be obtained.

100…コミュニケーションシステム
10…周辺情報サーバー
11…交通情報
12…天気情報
13…通信情報
20…車内空間
21…センサ
211…車内用センサ
212…車内用カメラ
213…車内用マイク
214…舵角センサ
215…ペダルセンサ
221…車外用センサ
222…車外用カメラ
223…車外用マイク
224…ミリ波レーダ
225…超音波ソナー
226…GPS
22…車載通信装置
23…車載出力装置
23a…車載ディスプレイ
23b…車載スピーカー
24…車載コントローラ
25…状況取得部
26…発話内容提示部
30…遠隔地空間
31…遠隔地通信装置
32…遠隔地マイク
33…遠隔地入力装置
34…遠隔地出力装置
34a…遠隔地ディスプレイ
34b…遠隔地スピーカー
35…遠隔地コントローラ
36…発話内容取得部
37…理解度提示部
38…受信部
39…提示態様決定部
40…サーバー
41…サーバー通信装置
42…データベース
43…サーバーコントローラ
44…理解度推定部
DESCRIPTION OF SYMBOLS 100... Communication system 10... Peripheral information server 11... Traffic information 12... Weather information 13... Communication information 20... Vehicle space 21... Sensor 211... Vehicle interior sensor 212... Vehicle interior camera 213... Vehicle interior microphone 214... Steering angle sensor 215... Pedal sensor 221 External sensor 222 External camera 223 External microphone 224 Milliwave radar 225 Ultrasonic sonar 226 GPS
22 In-vehicle communication device 23 In-vehicle output device 23a In-vehicle display 23b In-vehicle speaker 24 In-vehicle controller 25 Situation acquisition unit 26 Speech content presentation unit 30 Remote space 31 Remote communication device 32 Remote microphone 33 Remote input device 34 Remote output device 34a Remote display 34b Remote speaker 35 Remote controller 36 Speech content acquisition unit 37 Comprehension level presentation unit 38 Reception unit 39 Presentation mode determination unit 40 Server 41 Server communication device 42 Database 43 Server controller 44 Understanding level estimation unit

Claims (13)

集音装置により集音された第1ユーザの音声から前記第1ユーザの発話内容を取得する発話内容取得部と、
前記第1ユーザがいる第1の場所とは別の第2ユーザがいる第2の場所の状況を示す、第2の場所の状況データを取得する状況取得部と、
前記第2の場所の状況データに基づいて、前記第1ユーザの前記発話内容に対する前記第2ユーザの理解度を推定する理解度推定部と、
前記第2ユーザの前記理解度に基づく提示態様で、前記第1ユーザの前記発話内容を前記第2ユーザに提示するように、前記第2の場所に設けられた出力装置を制御する発話内容提示部を備えるコミュニケーション支援装置。
an utterance content acquisition unit that acquires the utterance content of the first user from the first user's voice collected by a sound collecting device;
a situation acquisition unit that acquires situation data of a second place that indicates the situation of a second place where a second user is present, which is different from the first place where the first user is present;
an understanding degree estimation unit that estimates the second user's degree of understanding of the utterance content of the first user based on the situation data of the second location;
Speech content presentation for controlling an output device provided at the second location so as to present the speech content of the first user to the second user in a presentation mode based on the degree of understanding of the second user. A communication support device comprising:
前記第1の場所は、車両から離間した遠隔地であり、
前記第1ユーザは、前記遠隔地にいる遠隔地ユーザであり、
前記第2の場所は、前記車両であり、
前記第2ユーザは、前記車両に乗車している車内ユーザであり、
前記第2の場所の状況データは、前記車両の状況を示す車両の状況データである請求項1に記載のコミュニケーション支援装置。
the first location is a remote location away from the vehicle;
the first user is a remote user at the remote location;
the second location is the vehicle;
the second user is an in-vehicle user on board the vehicle;
2. The communication support device according to claim 1, wherein the situation data of the second location is vehicle situation data indicating the situation of the vehicle.
前記理解度推定部は、前記遠隔地ユーザの前記発話内容に対して、前記発話内容の複雑度を算出し、算出した前記発話内容の複雑度に基づいて前記車内ユーザの理解度を推定する請求項2に記載のコミュニケーション支援装置。 The comprehension level estimating unit calculates the complexity of the utterance content for the utterance content of the remote user, and estimates the in-vehicle user's comprehension level based on the calculated complexity of the utterance content. Item 3. The communication support device according to item 2. 前記車両の状況は、前記車両の室内の状況、前記車両の室外の状況、前記車両の走行状況、及び前記車内ユーザの状況のうち少なくともいずれか一つを含む請求項2又は3に記載のコミュニケーション支援装置。 4. The communication according to claim 2, wherein the situation of the vehicle includes at least one of an indoor situation of the vehicle, an outdoor situation of the vehicle, a running situation of the vehicle, and a situation of the user inside the vehicle. support equipment. 前記遠隔地ユーザの前記発話内容に対する前記車内ユーザの前記理解度を、前記遠隔地ユーザに提示するように、前記遠隔地に設けられた出力装置を制御する理解度提示部を備える請求項2~4のいずれかに記載のコミュニケーション支援装置。 Claims 2 to 7, further comprising an understanding level presenting unit for controlling an output device provided at the remote location so as to present the understanding level of the in-vehicle user with respect to the utterance content of the remote location user to the remote location user. 5. The communication support device according to any one of 4. 前記遠隔地に設けられた入力装置から、前記車内ユーザの前記理解度を提示された前記遠隔地ユーザによる前記提示態様の設定指示を受信する受信部と、
前記設定指示に基づいて、前記提示態様を決定する提示態様決定部を備える請求項5に記載のコミュニケーション支援装置。
a receiving unit that receives, from the input device provided at the remote location, an instruction to set the presentation mode by the remote user presented with the level of understanding of the in-vehicle user;
6. The communication support device according to claim 5, further comprising a presentation mode determination unit that determines the presentation mode based on the setting instruction.
前記遠隔地ユーザの前記発話内容に対する前記車内ユーザの前記理解度に基づいて、前記提示態様を決定する提示態様決定部を備える請求項2~4のいずれかに記載のコミュニケーション支援装置。 5. The communication support device according to any one of claims 2 to 4, further comprising a presentation mode determination unit that determines the presentation mode based on the in-vehicle user's degree of understanding of the utterance content of the remote user. 前記提示態様決定部は、前記遠隔地ユーザの前記発話内容に対する前記車内ユーザの前記理解度が所定の基準理解度よりも低い場合、前記提示態様として、前記遠隔地ユーザの前記発話内容を強調する提示態様に決定する請求項7に記載のコミュニケーション支援装置。 The presentation mode determination unit emphasizes the utterance content of the remote user as the presentation mode when the understanding level of the in-vehicle user with respect to the utterance content of the remote user is lower than a predetermined standard comprehension level. 8. The communication support device according to claim 7, wherein the presentation mode is determined. 前記理解度推定部は、
入力層及び出力層を含み、前記入力層への入力データを前記遠隔地ユーザの発話内容及び前記車両の状況データとし、前記出力層からの出力データを前記遠隔地ユーザの前記発話内容に対する前記車内ユーザの前記理解度とするニューラルネットワークと、
前記入力データ及び前記出力データの実績値を教師データとして前記ニューラルネットワークを学習させる機械学習部と、
前記機械学習部により学習させた前記ニューラルネットワークに新たな前記入力データを入力し、当該入力データに対する新たな前記出力データとして、前記遠隔地ユーザの前記発話内容に対する前記車内ユーザの前記理解度を推定する推定部を有する、請求項2~8のいずれかに記載のコミュニケーション支援装置。
The comprehension level estimation unit
An input layer and an output layer are included, and the input data to the input layer are the utterance content of the remote user and the situation data of the vehicle, and the output data from the output layer is the interior of the vehicle for the utterance content of the remote user. a neural network as the level of understanding of the user;
a machine learning unit for learning the neural network using actual values of the input data and the output data as teacher data;
The new input data is input to the neural network learned by the machine learning unit, and the in-vehicle user's degree of understanding of the utterance content of the remote user is estimated as the new output data for the input data. 9. The communication support device according to any one of claims 2 to 8, comprising an estimating unit that
前記理解度推定部は、前記遠隔地ユーザの発話内容及び記車両の状況データが入力されると、学習済みニューラルネットワークを用いて、前記遠隔地ユーザの前記発話内容に対する前記車内ユーザの理解度を推定し、
前記学習済みニューラルネットワークは、前記遠隔地ユーザの発話内容及び前記車両の状況データが入力されると、前記遠隔地ユーザの前記発話内容に対する前記車内ユーザの理解度を推定するように、教師データを用いた機械学習処理が施されたニューラルネットワークである請求項2~8のいずれかに記載のコミュニケーション支援装置。
When the utterance content of the remote user and the situation data of the vehicle are input, the comprehension level estimating unit estimates the in-vehicle user's comprehension level of the utterance content of the remote user using a trained neural network. presume,
The trained neural network, when input with the utterance content of the remote user and the situation data of the vehicle, stores training data so as to estimate the in-vehicle user's degree of understanding of the utterance content of the remote user. 9. The communication support device according to any one of claims 2 to 8, which is a neural network subjected to machine learning processing.
前記理解度推定部は、前記発話内容取得部により前記遠隔地ユーザの前記発話内容が取得された後に、前記状況取得部により取得された前記車両の状況データに基づいて、前記遠隔地ユーザの前記発話内容に対する前記車内ユーザの前記理解度を推定する請求項2~10のいずれかに記載のコミュニケーション支援装置。 The comprehension degree estimating unit, after the utterance content acquisition unit acquires the utterance content of the remote user, based on the situation data of the vehicle acquired by the situation acquisition unit, 11. The communication support device according to any one of claims 2 to 10, which estimates the level of understanding of the in-vehicle user with respect to the utterance content. 前記理解度推定部は、前記発話内容取得部により前記発話内容が取得される前に、前記状況取得部により取得された前記車両の状況データに基づいて、前記遠隔地ユーザが発話した場合における前記遠隔地ユーザの発話内容に対する前記車内ユーザの前記理解度を予め推定する、請求項2~10のいずれかに記載のコミュニケーション支援装置。 The comprehension degree estimating unit, before the utterance content is acquired by the utterance content acquisition unit, is based on the vehicle situation data acquired by the situation acquisition unit, and calculates the above-mentioned 11. The communication support device according to any one of claims 2 to 10, wherein said in-vehicle user's degree of understanding of the utterance content of the remote user is presumed. コントローラにより実行されるコミュニケーション支援方法であって、
集音装置により集音された第1ユーザの音声から前記第1ユーザの発話内容を取得し、
前記第1ユーザがいる第1の場所とは別の第2ユーザがいる第2の場所の状況を示す、前記第2の場所の状況を取得し、
前記第2の場所の状況データに基づいて、前記第1ユーザの前記発話内容に対する前記第2ユーザの理解度を推定し、
前記第2ユーザの前記理解度に基づく提示態様で、前記第1ユーザの前記発話内容を前記第2ユーザに提示するように、前記第2の場所に設けられた出力装置を制御するコミュニケーション支援方法。
A communication support method executed by a controller, comprising:
Acquiring the utterance content of the first user from the first user's voice collected by a sound collecting device;
obtaining a context of the second location that indicates a context of a second location of the second user that is different from the first location of the first user;
estimating the degree of understanding of the second user with respect to the utterance content of the first user based on the situation data of the second location;
A communication support method for controlling an output device provided at the second location so as to present the utterance content of the first user to the second user in a presentation mode based on the degree of understanding of the second user. .
JP2021037464A 2021-03-09 2021-03-09 Communication support device and communication support method Pending JP2022137792A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021037464A JP2022137792A (en) 2021-03-09 2021-03-09 Communication support device and communication support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021037464A JP2022137792A (en) 2021-03-09 2021-03-09 Communication support device and communication support method

Publications (1)

Publication Number Publication Date
JP2022137792A true JP2022137792A (en) 2022-09-22

Family

ID=83319717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021037464A Pending JP2022137792A (en) 2021-03-09 2021-03-09 Communication support device and communication support method

Country Status (1)

Country Link
JP (1) JP2022137792A (en)

Similar Documents

Publication Publication Date Title
JP6693354B2 (en) Vehicle information presentation device
JP5677647B2 (en) Navigation device
JP6612707B2 (en) Information provision device
JP6604151B2 (en) Speech recognition control system
US9875583B2 (en) Vehicle operational data acquisition responsive to vehicle occupant voice inputs
JP6173477B2 (en) Navigation server, navigation system, and navigation method
US11176948B2 (en) Agent device, agent presentation method, and storage medium
EP3965066B1 (en) Machine learning model to detect emergency vehicles fusing audio and visual signals
JP7250547B2 (en) Agent system, information processing device, information processing method, and program
CN111016820A (en) Agent system, agent control method, and storage medium
WO2019131116A1 (en) Information processing device, moving device and method, and program
US20230067615A1 (en) Systems and methods for communicating with vision and hearing impaired vehicle occupants
KR20190011458A (en) Vehicle, mobile for communicate with the vehicle and method for controlling the vehicle
WO2016121112A1 (en) Evaluation information collection system
US11492005B1 (en) Systems and methods for communicating with vision and hearing impaired vehicle occupants
KR102350306B1 (en) Method for controlling voice in vehicle
JP2020060861A (en) Agent system, agent method, and program
JP2022137792A (en) Communication support device and communication support method
CN114690896A (en) Information processing apparatus, information processing method, and storage medium
Orth et al. A speech-based on-demand intersection assistant prototype
WO2023090057A1 (en) Information processing device, information processing method, and information processing program
JP2020106997A (en) In-vehicle device and communication system
WO2023204076A1 (en) Acoustic control method and acoustic control device
WO2024024470A1 (en) Air-conditioning control device, air-conditioning control method, and program
WO2023163047A1 (en) Terminal device, information providing system, information processing method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240827