JP2022175359A - Vehicle information providing device, information providing method, and information providing program - Google Patents

Vehicle information providing device, information providing method, and information providing program Download PDF

Info

Publication number
JP2022175359A
JP2022175359A JP2021081693A JP2021081693A JP2022175359A JP 2022175359 A JP2022175359 A JP 2022175359A JP 2021081693 A JP2021081693 A JP 2021081693A JP 2021081693 A JP2021081693 A JP 2021081693A JP 2022175359 A JP2022175359 A JP 2022175359A
Authority
JP
Japan
Prior art keywords
vehicle
information
processing unit
situation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021081693A
Other languages
Japanese (ja)
Inventor
静香 横山
Shizuka Yokoyama
健史 山元
Kenji Yamamoto
清貴 田口
Seiki Taguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2021081693A priority Critical patent/JP2022175359A/en
Priority to PCT/JP2022/018897 priority patent/WO2022239642A1/en
Publication of JP2022175359A publication Critical patent/JP2022175359A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • User Interface Of Digital Computer (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

To provide a vehicle information providing device, a vehicle information providing method, and a vehicle information providing program capable of appropriately providing notification information output in response to VPA so that a VPA function can be used safely even while driving.SOLUTION: A VPA processing unit 11f makes a VPA operate to generate a response to a vehicle occupant and to output notification information based on the response. A situation determination unit 11b determines a surrounding situation of a vehicle or a situation of a driver. A display processing unit 13 or an audio processing unit 14 changes a form of the notification information according to the response of the VPA processing unit 11f based on a determination result of the situation determination unit 11b.SELECTED DRAWING: Figure 3

Description

本発明は、車両用情報提供装置、情報提供方法、及び情報提供プログラムに関する。 The present invention relates to a vehicle information providing device, an information providing method, and an information providing program.

車内で音声認識を実施する際のHMIとしてVPAが普及しつつある。HMIはHuman Interfaceの略であり、VPAとは人工知能のUIでありVirtual Personal Assistantの略である。近年では、VPAを用いることで自然言語を用いて流暢に人と音声コミュニケーションを行うことができる。 VPA is becoming popular as an HMI for implementing voice recognition in a vehicle. HMI is an abbreviation for Human Interface, and VPA is UI for artificial intelligence and an abbreviation for Virtual Personal Assistant. In recent years, VPA enables fluent voice communication with people using natural language.

近年のVPAにおいては、擬人化したキャラクタがユーザと目を合わせ、ユーザの話しかけに対して反応を示すユーザインターフェースも増えている。キャラクタに対して話しかけるという動作は、人としても自然な行動である。このため、キャラクタをインタフェースとして用いることで、ユーザはキャラクタと話しやすくなる。 In recent VPAs, user interfaces are increasing in which anthropomorphic characters make eye contact with the user and respond to the user's speech. The action of speaking to a character is a natural action for a person. Therefore, using the character as an interface makes it easier for the user to talk to the character.

特許文献1には、「視線検出等の技術を用い、利用者の注視対象に応じて他メディアからの入力の受付可否や、認識処理、あるいは出力の提示方法や中断、確認等を制御するようにしたものであって、特に擬人化インタフェースでは、例えば顔を見ることによって会話を開始できるようにする等、人間同士のコミュニケーションでの非言語メッセージの使用法や役割をシミュレートするようにして適用したものである」、と記載されている。このように、キャラクタに話しかける動作が自然な行動であることは、特許文献1でも認められている。 Patent Literature 1 describes, "Using technology such as line-of-sight detection, it is possible to control whether or not to accept input from other media, recognition processing, or output presentation method, interruption, confirmation, etc. according to the gaze target of the user. especially in anthropomorphic interfaces, applied to simulate the use and role of non-verbal messages in human-to-human communication, e.g. allowing conversation to be initiated by looking at a face. It is stated that As described above, it is also recognized in Patent Document 1 that the action of speaking to a character is a natural action.

特開平10?301675号公報JP-A-10-301675

背景技術欄の技術を車両用途に適応させるときには種々の問題がある。VPAの技術を車両用途に適用すると、例えば、通常運転中、ドライバの視線は前方にあり必要な時だけVPAによる視覚情報を瞬間視することになる。このため、ドライバは長時間キャラクタを確認することができない。 There are various problems when adapting the technology of the background art section to vehicle applications. When the VPA technology is applied to vehicle applications, for example, the driver's line of sight is forward during normal driving, and the visual information from the VPA is momentarily viewed only when necessary. Therefore, the driver cannot confirm the character for a long time.

またドライバが、キャラクタを確認してはいけない場面で確認してしまうと安全性が損なわれる。このようにVPAの利用は、運転中など視線を注視させる可能性があるため、ドライバにとって危険性が増してしまう。また、VPAを用いて音声で報知したときにも適切なタイミングで報知していなければ、前述同様にドライバにとって危険性が高まる虞がある。VPAを用いたコミュニケーションを成立させつつ安全運転を維持させるには細心の注意を払う必要がある。 Further, if the driver confirms the character in a situation where it should not be confirmed, the safety is impaired. In this way, the use of the VPA increases the danger for the driver because it may cause the driver to gaze at the line of sight while driving. Also, even when the VPA is used to notify the driver by voice, if the notification is not made at an appropriate timing, the danger to the driver may increase as described above. It is necessary to pay close attention to maintaining safe driving while establishing communication using VPA.

本発明は、上記事情に鑑みてなされたものであり、その目的は、VPAの対応としての報知を適切に行い、運転中であってもVPAの機能を安全に利用できるようにした車両用情報提供装置、車両用情報提供方法、及び車両用情報提供プログラムを提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and its object is to provide a vehicle information system capable of appropriately notifying the VPA response so that the VPA function can be used safely even while driving. An object of the present invention is to provide a providing device, a vehicle information providing method, and a vehicle information providing program.

請求項1記載の発明によれば、VPAを動作させることによる報知態様を情報提供する情報提供装置を対象としている。状況判定部は、車両の周辺状況、又は、ドライバの状況を判定する。情報提供部は、状況判定部の判定結果に基づいてVPAによる報知態様を変更している。このため、VPAによる対応としての音声情報や視覚情報を適切に報知でき、運転中であってもVPAを安全に利用できる。 According to the first aspect of the present invention, the object is an information providing device that provides information on a notification mode by operating a VPA. The situation determination unit determines the surrounding situation of the vehicle or the situation of the driver. The information providing unit changes the notification mode by VPA based on the determination result of the situation determination unit. Therefore, it is possible to appropriately notify the voice information and visual information as a response by the VPA, and the VPA can be used safely even while driving.

第1実施形態におけるコックピットシステムの外観図External view of the cockpit system in the first embodiment 車両用情報提供装置の制御形態を概略的に示す図FIG. 4 is a diagram schematically showing a control form of the vehicle information providing device; 車両用情報提供装置の電気的構成を概略的に説明するブロック図FIG. 1 is a block diagram schematically illustrating an electrical configuration of a vehicle information providing device; 処理を概略的に説明するフローチャートFlowchart outlining the process ドライバから視認可能な位置、且つ、助手席から視認可能な位置にキャラクタを表示させたときの報知態様の説明図Explanatory diagram of the notification mode when the character is displayed at a position visible from the driver and at a position visible from the front passenger seat. ドライバから視認不能な位置、且つ、助手席から視認可能な位置にキャラクタを表示させたときの報知態様の説明図Explanatory drawing of the notification mode when the character is displayed at a position invisible to the driver and visible from the front passenger seat. 第2実施形態における処理を概略的に説明するフローチャートFlowchart for schematically explaining processing in the second embodiment キャラクタを含む視覚情報の表示態様例のその1Part 1 of Display Mode Example of Visual Information Including Characters キャラクタを含む視覚情報の表示態様例のその2Part 2 of Display Mode Example of Visual Information Including Characters キャラクタを含む視覚情報の表示態様例のその3Part 3 of display mode example of visual information including characters キャラクタを含む視覚情報の表示態様例のその4Part 4 of Display Mode Example of Visual Information Including Characters

以下、車両用情報提供装置、車両用情報提供方法、及び車両用情報提供プログラムに係る幾つかの実施形態について図面を参照しながら説明する。なお、各実施形態において実質的に共通する部位には同一の符号を付して説明する。 Several embodiments of a vehicle information providing device, a vehicle information providing method, and a vehicle information providing program will be described below with reference to the drawings. In addition, the same code|symbol is attached|subjected and demonstrated to the site|part which is substantially common in each embodiment.

(第1実施形態)
第1実施形態について図1から図6を参照しながら説明する。図1に示すように、車両用情報提供装置1は、ピラートゥピラーディスプレイ2、センタディスプレイ3、及び電子ミラー4など複数の表示器を備えるコックピットシステムにより構成される。ただし、表示器の数や設置形態あるいは構成は一例であり、これらに限定されない。以下、ピラートゥピラーディスプレイ2を、PtoPディスプレイ2と称す。
(First embodiment)
A first embodiment will be described with reference to FIGS. 1 to 6. FIG. As shown in FIG. 1, a vehicle information providing device 1 is configured by a cockpit system having a plurality of displays such as a pillar-to-pillar display 2, a center display 3, and an electronic mirror 4. FIG. However, the number of display units, the installation form, and the configuration are only examples, and the present invention is not limited to these. The pillar-to-pillar display 2 is hereinafter referred to as the PtoP display 2 .

図1及び図2に示すように、PtoPディスプレイ2は、複数のディスプレイ2aを隣り合わせて横長になるように構成されている。PtoPディスプレイ2の各ディスプレイ2aは、液晶ディスプレイ又は有機ELディスプレイにより構成される。図1に示すように、PtoPディスプレイ2は車両の左ピラーと右ピラーとの間にかけてダッシュボードに設けられる大型ディスプレイである。PtoPディスプレイ2は、複数のディスプレイ2aの上に複数の画像コンテンツを連続して並べて表示できるように構成され、これによりコンテンツ配置の自由度を向上している。PtoPディスプレイ2は、メータ画像、周辺カメラ23の撮像画像、静止画や動画のエンターテインメント画像、現在位置周辺の地図画像などの各種の画像コンテンツをフルグラフィック表示で表示可能な構成となっている。 As shown in FIGS. 1 and 2, the PtoP display 2 is configured such that a plurality of displays 2a are arranged side by side and become horizontally long. Each display 2a of the PtoP display 2 is composed of a liquid crystal display or an organic EL display. As shown in FIG. 1, the PtoP display 2 is a large display provided on the dashboard between the left and right pillars of the vehicle. The PtoP display 2 is configured so that a plurality of image contents can be continuously displayed side by side on a plurality of displays 2a, thereby improving the degree of freedom in arranging the contents. The PtoP display 2 is configured to be able to display various image contents such as meter images, images captured by the peripheral camera 23, entertainment images such as still images and moving images, and map images around the current position in full graphic display.

メータ画像は、通常の運転時においてドライバの視界に入るPtoPディスプレイ2の中の特定のディスプレイ2aの中に表示される。自動運転の場合にはこの限りではない。またPtoPディスプレイ2は、横方向に長く構成されているため、ドライバや助手席の乗員以外にも後部座席の乗員から表示内容を確認できる。 The meter image is displayed in a specific display 2a among the PtoP displays 2 within the driver's field of vision during normal driving. In the case of automatic driving, this is not the case. In addition, since the PtoP display 2 is configured to be long in the horizontal direction, the display contents can be confirmed not only by the driver and passengers in the front passenger seats but also by passengers in the rear seats.

他方、センタディスプレイ3は、例えば液晶ディスプレイや有機ELディスプレイにより構成され、運転席と助手席との間で且つPtoPディスプレイ2の下部に設置されている。センタディスプレイ3は、ドライバや助手席の乗員の両者が見やすいセンタコンソール付近に設けられており、フルグラフィック表示で各種のコンテンツを表示可能になっている。センタディスプレイ3の上には操作パネル21が構成されており、PtoPディスプレイ2に表示させるコンテンツの選択や空調操作、オーディオ操作、ナビゲーション機能の入力操作できるようになっている。 On the other hand, the center display 3 is composed of, for example, a liquid crystal display or an organic EL display, and is installed between the driver's seat and the passenger's seat and below the PtoP display 2 . The center display 3 is provided in the vicinity of the center console so that both the driver and the passenger in the front passenger seat can easily see it, and can display various contents in full graphic display. An operation panel 21 is provided on the center display 3, and allows selection of contents to be displayed on the PtoP display 2, air conditioning operation, audio operation, and input operation of navigation functions.

PtoPディスプレイ2は、センタディスプレイ3に対し縦方向に併設されると共に離間して設置されている。縦方向に2画面併設して設置されていると、乗員が一度に視認可能な表示領域を増やすことができる。また、コックピットシステムにおいて、PtoPディスプレイ2の各ディスプレイ2aの表示画面は、センタディスプレイ3の表示画面よりも奥方向に位置するように設置されている。ここでいう奥方向とは、ドライバなどの車両乗員から見て奥方向に位置していることを意味しており、言い換えると、センタディスプレイ3の表示画面の面方向よりもPtoPディスプレイ2の表示画面の面方向が車両の進行方向に位置していることを意味している。 The PtoP display 2 is installed side by side in the vertical direction with respect to the center display 3 while being spaced apart. If two screens are installed side by side in the vertical direction, it is possible to increase the display area that can be visually recognized by the occupant at one time. Further, in the cockpit system, the display screen of each display 2a of the PtoP display 2 is installed so as to be positioned further inward than the display screen of the center display 3. As shown in FIG. Here, the depth direction means that the display screen of the PtoP display 2 is located in the depth direction as viewed from the vehicle occupants such as the driver. is located in the traveling direction of the vehicle.

電子ミラー4は、ディスプレイ4a及びドアミラーカメラ4bを用いて構成される。図3参照。電子ミラー4のディスプレイ4aは、例えば液晶ディスプレイや有機ELディスプレイにより構成される。ディスプレイ4aは、ドライバの左右位置にそれぞれ一つずつ設置されるもので、例えば車室内のAピラーの下部にそれぞれ設置される。電子ミラー4の左右の各ディスプレイ4aは、PtoPディスプレイ2の中の特定のディスプレイ2a、例えば両端のディスプレイ2aと一体に構成されていても良い。ドアミラーカメラ4bは、自車両のドアミラーの設置箇所から自車両の後方、すなわち側後方を撮像する周辺カメラ23である。電子ミラー4のディスプレイ4aは、ドライバから車両側後方を確認しやすい位置に設けられ、ディスプレイ4aには、ドアミラーカメラ4bにより撮像された車両の周辺情報などを表示可能な構成となっている。 The electronic mirror 4 is configured using a display 4a and a door mirror camera 4b. See FIG. The display 4a of the electronic mirror 4 is composed of, for example, a liquid crystal display or an organic EL display. The displays 4a are installed one by one at the left and right positions of the driver, for example, under the A pillar in the vehicle interior. Each left and right display 4a of the electronic mirror 4 may be configured integrally with a specific display 2a in the PtoP display 2, for example, the displays 2a at both ends. The door mirror camera 4b is a peripheral camera 23 that captures an image of the rear side of the vehicle from the installation location of the door mirror of the vehicle. The display 4a of the electronic mirror 4 is provided at a position where the driver can easily check the rear side of the vehicle, and the display 4a is configured to display peripheral information of the vehicle captured by the door mirror camera 4b.

また車両内には、図2及び図3に示すように、多数のECU5が構成されており、車内ネットワーク25に接続されている。ECU5は、表示系のECU、周辺監視系のECU、走行制御系のECU、車両外部と通信接続するDCMを含んでいる。DCMは、Data Communication Moduleの略である。走行制御系のECUは、周知の車両制御ECU、エンジン制御ECU、モータ制御ECU、ブレーキ制御ECU、ステアリング制御ECU及び統合制御ECU等である。走行制御系のECUは、自動制御信号を入力すると、対応した所定レベルの運転支援技術、自動運転を実行する自動運転ECUを構成する。自動運転ECUは、Autonomous Driving Electric Control Unitである。
自動運転ECUは、自動制御信号を入力すると、運転アクチュエータを駆動することで対応した所定レベルの運転支援、自動運転を実行する。例えば、レベルIの運転支援では、障害物への衝突を避ける自動ブレーキ、先行車に追従して走行する追従走行、又は、両脇の車線からはみ出さないように制御する走行レーンはみ出し防止走行、を実行できる。レベルIIの自動運転では、レベルIの運転支援の組み合わせ、又は、特定条件下での自動運転、例えば高速道路で遅い車両が存在すれば自動で追い越したり、高速道路の分合流を自動で行ったりする自動運転モードを実行できる。なお、レベルIIの自動運転ではドライバによる監視義務がある。レベルIII以上の自動運転では、システムにより監視しながらシステムが全ての運転タスクを実行するが詳細説明は省略する。
In addition, as shown in FIGS. 2 and 3 , a large number of ECUs 5 are configured in the vehicle and connected to an in-vehicle network 25 . The ECU 5 includes a display system ECU, a peripheral monitoring system ECU, a travel control system ECU, and a DCM that communicates with the outside of the vehicle. DCM is an abbreviation for Data Communication Module. The travel control system ECU includes a well-known vehicle control ECU, engine control ECU, motor control ECU, brake control ECU, steering control ECU, integrated control ECU, and the like. When the ECU of the travel control system receives an automatic control signal, it configures an automatic driving ECU that executes a predetermined level of corresponding driving support technology and automatic driving. The autonomous driving ECU is an autonomous driving electric control unit.
When an automatic control signal is input, the automatic driving ECU drives a driving actuator to execute a corresponding predetermined level of driving assistance and automatic driving. For example, Level I driving assistance includes automatic braking to avoid collisions with obstacles, follow-up driving that follows the preceding vehicle, or lane-departure prevention driving that controls the vehicle so that it does not stray from the lanes on both sides. can be executed. In level II automated driving, a combination of level I driving assistance, or automated driving under specific conditions, such as automatically overtaking a slow vehicle on an expressway or automatically merging on an expressway. You can run an automatic driving mode that In level II automated driving, the driver is obligated to monitor. In level III or higher automated driving, the system performs all driving tasks while being supervised by the system, but detailed explanations are omitted.

各ECU5は、プロセッサ、キャッシュメモリ、RAM、ROMなどの各種の記憶部6、I/O、これらを接続するバスを備えたマイクロコンピュータを主体として構成される。各ECU5は、車両内に設けられる他のECU5と通信制御部7及び車内ネットワーク25を通じて通信可能に接続されている。 Each ECU 5 is mainly composed of a microcomputer having a processor, various storage units 6 such as a cache memory, a RAM and a ROM, I/O, and a bus connecting them. Each ECU 5 is communicably connected to other ECUs 5 provided in the vehicle through the communication control unit 7 and the in-vehicle network 25 .

本実施形態では、図2に示すように、表示系の複数のECU5により車両用情報提供装置10としてのHCUを構成しており、表示系のECU5の内部の物理リソースの処理能力を分担してディスプレイ2、3、4aに表示処理する。表示系のECU5は専用線で互いに接続しても良いし、一つのECU5により構成されていても良い。HCUは、Human Machine Interface Control Unitの略であり情報提示制御装置を示す。前述した記憶部6は、コンピュータによって読み取り可能なプログラム及びデータを非一時的に格納する非遷移的実体的記憶媒体を示す。非遷移的実体的記憶媒体は、半導体メモリなどにより実現される。 In this embodiment, as shown in FIG. 2, a plurality of display system ECUs 5 constitute an HCU as a vehicle information providing apparatus 10, and the processing capacity of the physical resources inside the display system ECUs 5 is shared. Display processing is performed on the displays 2, 3, and 4a. The display system ECUs 5 may be connected to each other via a dedicated line, or may be configured by one ECU 5 . HCU is an abbreviation for Human Machine Interface Control Unit and indicates an information presentation control device. The storage unit 6 described above indicates a non-transitional material storage medium that non-temporarily stores computer-readable programs and data. A non-transitional material storage medium is implemented by a semiconductor memory or the like.

図3に示すように、車両用情報提供装置10は、制御装置11、演算装置12、記憶部6、表示処理部13、音声処理部14、各種装置からの入力又は出力を管理するI/O制御部15、他のECU5との間で通信管理する通信制御部7、アンテナ16aを接続して構成され無線LANやブルートゥース(登録商標)により他の携帯端末27と無線接続できるようにした無線制御部16、を備える。表示処理部13、音声処理部14は、情報提供部として構成される。ここでは、I/O制御部15を通じて各種センサ入力又はスイッチ出力を説明するが、車内ネットワーク25を通じて、周辺監視系のECU、走行制御系のECUなどの他のECU5から入出力が行われることもある。 As shown in FIG. 3, the vehicle information providing device 10 includes a control device 11, an arithmetic device 12, a storage unit 6, a display processing unit 13, an audio processing unit 14, and an I/O unit for managing input or output from various devices. Control unit 15, communication control unit 7 for managing communication with other ECU 5, wireless control configured by connecting antenna 16a and enabling wireless connection with other portable terminal 27 by wireless LAN or Bluetooth (registered trademark) a portion 16; The display processing unit 13 and the audio processing unit 14 are configured as an information providing unit. Here, various sensor inputs or switch outputs will be explained through the I/O control unit 15, but inputs and outputs may also be performed from other ECUs 5 such as a perimeter monitoring ECU and a travel control ECU through the in-vehicle network 25. be.

無線制御部16は、車両乗員が所持する携帯端末27との間で通信リンクする。車両用情報提供装置10は、携帯端末27の着信を待機し、通話相手先から携帯端末27へ着信があり着信応答されると、携帯端末27を通じて通話相手先との間でスピーカ18及びマイク17を通じてハンズフリー通話を実行できる。また、マイク17は、指向性を有する音入力特性を備えるか又はドライバ席(以下、D席と称す)及び助手席(以下、P席と称す)に近接して複数設置されており、音声処理部14は、D席又はP席の何れの席から音声を入力したか否かを判別できる。車両用情報提供装置10の音声処理部14は、マイク17を通じて入力された音声について音声認識できる。また車両用情報提供装置10は、VPA処理部11fによる人工知能を用いて自然言語での音声コミュニケーションを実行できる。 The radio control unit 16 establishes a communication link with a portable terminal 27 carried by a vehicle occupant. The in-vehicle information providing apparatus 10 waits for an incoming call to the mobile terminal 27, and when the mobile terminal 27 receives an incoming call from the other party and the incoming call is answered, the speaker 18 and the microphone 17 are communicated with the other party through the mobile terminal 27. You can make hands-free calls through In addition, the microphone 17 has a directional sound input characteristic or is installed in a plurality near the driver's seat (hereinafter referred to as the D seat) and the front passenger seat (hereinafter referred to as the P seat). The unit 14 can determine from which seat, the D seat or the P seat, the voice is input. The voice processing unit 14 of the vehicle information providing device 10 can recognize voice input through the microphone 17 . Further, the vehicle information providing apparatus 10 can perform voice communication in natural language using artificial intelligence by the VPA processing section 11f.

演算装置12は、制御装置11の制御に基づいて、記憶部6に記憶された画像、文章、文字、コメント又は記号(以下、画像等と称する)のコンテンツについて、PtoPディスプレイ2、センタディスプレイ3の表示画面に表示させる表示領域を演算し、画像や文字のコンテンツをPtoPディスプレイ2、センタディスプレイ3の表示画面の何れの領域に表示させるか、また、何れの領域に重ね合わせて表示させるか演算し、画像等のコンテンツと共に表示領域を制御装置11を通じて表示処理部13に出力する。 Based on the control of the control device 11, the arithmetic device 12 displays the contents of images, sentences, characters, comments, or symbols (hereinafter referred to as images, etc.) stored in the storage unit 6 on the PtoP display 2 and the center display 3. A display area to be displayed on the display screen is calculated, and it is calculated in which area of the display screen of the PtoP display 2 or the center display 3 the contents of images and characters are to be displayed, and in which area they are to be superimposed and displayed. , the display area is output to the display processing unit 13 through the control device 11 together with the content such as the image.

表示処理部13は、制御装置11の制御に基づいて、PtoPディスプレイ2、センタディスプレイ3、及び電子ミラー4の表示画面の中の前述の表示領域に画像等のコンテンツを表示する。ディスプレイ2、3の表示画面には、表示レイヤ毎に画像等を表示できる。また、音声処理部14は、制御装置11の制御に基づいて、マイク17から入力された受話音声を入力すると共に、スピーカ18から送話音声を出力する。 The display processing unit 13 displays contents such as images in the aforementioned display areas in the display screens of the PtoP display 2 , the center display 3 and the electronic mirror 4 under the control of the control device 11 . Images and the like can be displayed on the display screens of the displays 2 and 3 for each display layer. Also, under the control of the control device 11 , the voice processing unit 14 receives received voice input from the microphone 17 and outputs transmitted voice from the speaker 18 .

音声処理部14は、文章や文字のコンテンツを制御装置11から入力すると、音声に変換したりしてスピーカ18を通じて読み上げて出力する。また音声処理部14は、マイク17から入力された音声に基づいて、ドライバが発話したか助手席の乗員が発話したか否かを検出し、この検出信号を制御装置11に出力する。 When text or character content is input from the control device 11, the voice processing unit 14 converts it into voice, reads it out through the speaker 18, and outputs it. The voice processing unit 14 also detects whether the driver has spoken or the passenger in the front passenger seat has spoken based on the voice input from the microphone 17 , and outputs this detection signal to the control device 11 .

位置検出器19は、図示しない周知のGPSなどのGNSS受信機、加速度センサやジャイロセンサなどの慣性センサを用いて高精度に位置を検出する。位置検出器19は、位置検出信号をI/O制御部15を通じて制御装置11に出力する。制御装置11の位置特定部11aは、地図データ入力器から入力される地図情報と位置検出器19の位置検出信号に基づいて車両の現在位置を高精度に逐次測位するADASロケータとしての機能を実現する。ADASは、Advanced Driver Assistance Systemsの略である。この場合、車両位置は、緯度および経度からなる座標系で表され、この座標系では、例えば、X軸が経度、Y軸が緯度を示す。なお、車両位置の測位は、例えば、自車両に搭載されている車速センサによるセンシング結果に基づき求められる走行距離の情報などに基づいて行うなど、自車両の位置を特定できる構成であれば、種々の構成を採用することができる。制御装置11は、自車両の現在位置に基づいて、いわゆるナビゲーション処理を行うことができる。 The position detector 19 detects a position with high accuracy using a well-known GNSS receiver such as GPS (not shown) and an inertial sensor such as an acceleration sensor or a gyro sensor. The position detector 19 outputs a position detection signal to the control device 11 through the I/O control section 15 . The position specifying unit 11a of the control device 11 realizes a function as an ADAS locator that sequentially measures the current position of the vehicle with high accuracy based on the map information input from the map data input device and the position detection signal of the position detector 19. do. ADAS stands for Advanced Driver Assistance Systems. In this case, the vehicle position is represented by a coordinate system consisting of latitude and longitude. In this coordinate system, for example, the X axis indicates longitude and the Y axis indicates latitude. It should be noted that positioning of the vehicle position can be performed, for example, on the basis of mileage information obtained based on the sensing results of a vehicle speed sensor mounted on the vehicle. configuration can be adopted. The control device 11 can perform so-called navigation processing based on the current position of the host vehicle.

操作パネル21は、センタディスプレイ3の上に構成されたタッチパネルであり、I/O制御部15は、乗員による操作入力があると操作入力を受け付け、制御装置11に出力する。制御装置11は、操作パネル21の操作信号に基づいた制御を実行する。 The operation panel 21 is a touch panel configured on the center display 3 , and the I/O control unit 15 receives an operation input when there is an operation input by the passenger and outputs the operation input to the control device 11 . The control device 11 executes control based on operation signals from the operation panel 21 .

乗員モニタ22は、車両内に搭乗した乗員の状態又は操作状態を検知する。乗員モニタ22は、例えばパワースイッチ、乗員状態モニタ、ターンスイッチ、自動制御スイッチなどを用いて構成され、各種の信号を制御装置11に出力する。乗員モニタ22は、ドライバによりステアリングホイールが把持されているか又は操舵されているか否かを検出するステアリングセンサ、シートに着座しているか否かを検出する着座センサ、アクセルペダル又はブレーキペダルの踏込センサなどを含んでいても良い。 The occupant monitor 22 detects the state of the occupant in the vehicle or the operation state. The occupant monitor 22 is configured using, for example, a power switch, occupant state monitor, turn switch, automatic control switch, etc., and outputs various signals to the control device 11 . The occupant monitor 22 includes a steering sensor that detects whether the steering wheel is being gripped or steered by the driver, a seating sensor that detects whether the driver is seated, an accelerator pedal or brake pedal depression sensor, and the like. may contain

パワースイッチは、内燃機関又は電動モータを始動させるために車室内にてユーザによりオン操作されることで、当該操作に応じた信号を出力する。乗員状態モニタは、D席又はP席の乗員の状態を画像センサにより撮影することで当該乗員の状態を検知して撮像信号を出力するカメラを含んで構成される。ドライバの乗員状態モニタはDSMと称されている。DSMは、Driver Status Monitorの略である。乗員状態モニタは、ドライバの頭部に近赤外光を照射して撮影した撮像信号を取得し必要に応じて画像解析して制御装置11に出力する。乗員状態モニタは、特に運転支援中や自動運転中にドライバなどの乗員の状態を検知するために使用される。ターンスイッチは、自車両の方向指示器を作動させるときに車室内にて乗員によりオン操作されることで、当該操作に応じて右方又は左方にターンするターン信号を出力する。 The power switch is turned on by a user in the vehicle interior to start the internal combustion engine or the electric motor, and outputs a signal corresponding to the operation. The occupant condition monitor includes a camera that detects the condition of the occupant in the D seat or the P seat by capturing the condition of the occupant with an image sensor and outputs an image signal. The driver's occupant condition monitor is called DSM. DSM is an abbreviation for Driver Status Monitor. The occupant condition monitor acquires an imaging signal obtained by irradiating the head of the driver with near-infrared light and capturing an image, analyzes the image as necessary, and outputs the signal to the control device 11 . An occupant condition monitor is used to detect the condition of an occupant such as a driver, especially during driving assistance or automatic driving. The turn switch is turned on by an occupant inside the vehicle when activating the direction indicator of the host vehicle, and outputs a turn signal for turning right or left according to the operation.

自動制御スイッチは、車両の走行状態に対する所定の運転支援又は自動制御を指令するために、車室内にて乗員によりオン操作されることで、当該操作に応じた自動制御信号を出力する。この自動制御信号は走行制御系のECUに出力されることで、対応した所定レベルの運転支援又は自動運転制御を実行できる。 The automatic control switch outputs an automatic control signal according to the operation when it is turned on by an occupant inside the vehicle in order to command predetermined driving assistance or automatic control for the running state of the vehicle. By outputting this automatic control signal to the ECU of the travel control system, a corresponding predetermined level of driving assistance or automatic driving control can be executed.

制御装置11は、乗員モニタ22のセンサ信号により車両乗員の挙動、例えば視線が何れの方向を向いているかを判定でき、また、パワースイッチの操作状態、方向指示器の作動状態、車両の自動制御の指令情報、その他各種センサによるセンサ情報や操作情報などを入力できる。 The control device 11 can determine the behavior of the vehicle occupant, for example, in which direction the line of sight is directed, based on the sensor signal of the occupant monitor 22, and can also determine the operating state of the power switch, the operating state of the direction indicator, and the automatic control of the vehicle. command information, sensor information from various sensors, operation information, etc. can be input.

周辺カメラ23は、車両の前方を撮像する前方視界カメラや、車両の後部を撮像するバックカメラ、車両の前側部や後側部を撮像するコーナカメラ、又は、車両の側部を撮像するサイドカメラ、又は電子ミラー4のドアミラーカメラ4aなどによるものであり、これらはそれぞれフロントガイドモニタ、バックガイドモニタ、コーナービューモニタ、サイドガイドモニタ、電子ミラー4の各撮像信号としてI/O制御部15を通じて制御装置11に出力される。 The peripheral camera 23 is a front view camera that images the front of the vehicle, a back camera that images the rear of the vehicle, a corner camera that images the front and rear sides of the vehicle, or a side camera that images the side of the vehicle. , or the door mirror camera 4a of the electronic mirror 4, which are controlled through the I/O control unit 15 as imaging signals of the front guide monitor, back guide monitor, corner view monitor, side guide monitor, and electronic mirror 4, respectively. Output to the device 11 .

また車両には障害物との距離などを検出する距離検出センサ24が周辺監視センサとして設置されている。距離検出センサ24は、クリアランスソナー、LiDAR又はミリ波を用いたレーダなどにより構成され、車両前方、車両前側部、車両後側部、車両後方又は車両側部に近接する車両や人などの障害物との距離を検出する。 A distance detection sensor 24 for detecting the distance to obstacles is installed in the vehicle as a peripheral monitoring sensor. The distance detection sensor 24 is composed of clearance sonar, LiDAR, radar using millimeter waves, or the like, and detects obstacles such as vehicles and people that are close to the front of the vehicle, the front side of the vehicle, the rear side of the vehicle, the rear of the vehicle, or the side of the vehicle. Detect the distance to

各ECU5にはSoCが搭載されている。SoCはSystem On Chipの略である。搭載されたSoCには前述したマイクロコンピュータが組込まれている。ECU5のSoCに組み込まれたマイクロコンピュータは、予めインストールされた汎用OS、リアルタイムOS上で各種の複数のアプリケーション(以下、アプリと略す)が動作するように構成されており、これにより、車両用情報提供装置10はアプリを実行することで様々な機能を実現できる。 Each ECU 5 is equipped with SoC. SoC is an abbreviation for System On Chip. The mounted SoC incorporates the aforementioned microcomputer. The microcomputer incorporated in the SoC of the ECU 5 is configured to operate a variety of applications (hereinafter abbreviated as applications) on a pre-installed general-purpose OS and real-time OS. The providing device 10 can implement various functions by executing applications.

前述したアプリには、画像処理アプリやその他のアプリが含まれる。画像処理アプリの描画要求に応じてSoCに組み込まれたプロセッサが、PtoPディスプレイ2の各ディスプレイ2a、センタディスプレイ3、電子ミラー4のディスプレイ4aの表示画面に描画処理する。車両用情報提供装置10の制御装置11は、アプリを実行することで位置特定部11a、状況判定部11b、視線検知部11c、VPA処理部11f、及び区分部11gとしての機能を備える。 The aforementioned apps include image processing apps and other apps. A processor incorporated in the SoC performs drawing processing on the display screens of the displays 2a of the PtoP display 2, the center display 3, and the display 4a of the electronic mirror 4 in response to a drawing request from the image processing application. The control device 11 of the vehicular information providing device 10 functions as a position specifying portion 11a, a situation determination portion 11b, a line-of-sight detection portion 11c, a VPA processing portion 11f, and a division portion 11g by executing an application.

位置特定部11aは、位置検出器19による位置検出信号に基づいて車両の現在位置を特定する。前述したアプリにはナビアプリが含まれる。ナビアプリは、ナビゲーション機能を実現するものであると共に、主にPtoPディスプレイ2に表示される地図画像や位置特定部11aにより特定された車両の現在位置などを含むナビゲーション画面を描画する。 The position specifying unit 11 a specifies the current position of the vehicle based on the position detection signal from the position detector 19 . The aforementioned apps include navigation apps. The navigation application implements a navigation function and mainly draws a navigation screen including a map image displayed on the PtoP display 2 and the current position of the vehicle specified by the position specifying unit 11a.

状況判定部11bは、車両の周辺状況、又は、運転に関する状況を判定する。状況判定部11bは、周辺カメラ23による撮像画像や距離検出センサ24による周辺監視センサの信号に基づいて、ドライバが注意したほうが良い周辺事象など車両の周辺状況を判定する。具体的には、状況判定部11bは、車両の周辺状況を判定するときに、周辺車両の位置、自車両の周囲の危険度、又は、道路状況を判定すると良い。 The situation determination unit 11b determines the surrounding situation of the vehicle or the situation regarding driving. The situation determination unit 11b determines the situation around the vehicle, such as surrounding events that the driver should pay attention to, based on the image captured by the surrounding camera 23 and the signal of the surrounding monitoring sensor by the distance detection sensor 24 . Specifically, when judging the situation around the vehicle, the situation judgment section 11b preferably judges the position of surrounding vehicles, the degree of danger around the own vehicle, or the road situation.

また状況判定部11bは、運転に関する状況を判定するときに、運転中であるか否か、運転負荷度が高いか否か、車両乗員の感情を判定する。状況判定部11bが車両乗員の感情を判定する際には、周知の生体計測技術を用いて乗員の生体を計測することで、乗員の身体の表層に表れている顔の表情や、表層に表れない眠気、ポジティブ感情、ネガティブ感情、疲労度などの心理的状態を判定し、取得した情報に基づいて乗員の状況を判定できる。また状況判定部11bは、心拍数などのフィジカル状態を判定することで感情を判定しても良い。また状況判定部11bは、乗員の頭部へ光を照射しその反射度を測定することに基づいて頭の血流を検出する。状況判定部11bは、乗員の頭の血流を検出した検出結果に基づいて乗員の状況を判定できる。 In addition, when judging the driving situation, the situation judgment unit 11b judges whether the vehicle is being driven, whether the driving load is high, and the emotions of the vehicle occupants. When the situation determination unit 11b determines the emotion of the vehicle occupant, the occupant's biometrics are measured using a well-known biometric technique, and the facial expressions appearing on the surface of the occupant's body. It can determine psychological states such as sleepiness, positive emotions, negative emotions, fatigue, etc., and determine the situation of the occupant based on the acquired information. Also, the situation determination unit 11b may determine the emotion by determining the physical state such as the heart rate. Further, the situation determination unit 11b detects the blood flow in the head by irradiating the head of the occupant with light and measuring the reflectance of the light. The situation determination unit 11b can determine the situation of the occupant based on the detection result of the blood flow in the occupant's head.

また制御装置11は、状況判定部11bにより乗員状態モニタを用いて撮像された画像を認識することで顔の表情、例えば笑い、怒り、悲しみ等を含めて感情を認識しても良い。なお、車両の振動の影響により乗員モニタ22により表情などを画像認識しにくいときには、運転アクチュエータの作動状態や各種センサの信号に基づいて感情を認識するようにしても良い。
例えば、制御装置11は、乗員によりアクセル又はブレーキの操作履歴を記憶部6に記憶しておき、この記憶された学習結果に基づいて、例えばブレーキを踏む操作タイミングが標準時間より所定時間以上遅れると判定した場合、乗員が疲れ気味であるという感情を判定すると良い。
Further, the control device 11 may recognize emotions including facial expressions such as laughter, anger, sadness, etc. by recognizing images captured by the situation determination section 11b using the passenger state monitor. When it is difficult to recognize facial expressions and the like on the occupant monitor 22 due to the vibration of the vehicle, emotions may be recognized based on the operating state of driving actuators and signals from various sensors.
For example, the control device 11 stores the operation history of the accelerator or the brake by the passenger in the storage unit 6, and based on the stored learning result, for example, when the operation timing of stepping on the brake is delayed by a predetermined time or more from the standard time, If it is determined, it is preferable to determine the feeling that the occupant is feeling tired.

同様に、制御装置11は、乗員によるステアリングホイールの旋回操作履歴を記憶部6に記憶しておき、この記憶された学習結果に基づいて、旋回操作の速度が標準速度より所定以上速いと判定した場合には、乗員が乱暴な旋回操作を行ったと判定し、乗員の気分に苛立ちなどの感情を生じていることを認識するようにしても良い。このように制御装置11は、運転操作履歴を学習して運転アクチュエータの操作の変化傾向を検知することで、乗員の感情を認識するための情報として活用できる。この結果、制御装置11は、状況判定部11bにおいて、乗員の感情を認識した認識結果に基づいて乗員による運転に関する状況を判定できる。視線検知部11cは、乗員モニタ22の乗員状態モニタを用いてドライバ又は助手席の乗員など任意の車両乗員の視線を検知する。 Similarly, the control device 11 stores the turning operation history of the steering wheel by the occupant in the storage unit 6, and based on the stored learning result, determines that the turning operation speed is faster than the standard speed by a predetermined amount or more. In some cases, it may be determined that the occupant has performed a rough turning operation, and the occupant's feelings such as irritation may be recognized. In this way, the control device 11 learns the driving operation history and detects the tendency of changes in the operation of the driving actuators, so that it can be used as information for recognizing the emotions of the occupants. As a result, the control device 11 can determine the driving situation of the passenger based on the result of recognition of the passenger's emotion in the situation judgment section 11b. The line-of-sight detection unit 11c detects the line-of-sight of any vehicle occupant such as a driver or an occupant in a front passenger seat using the occupant state monitor of the occupant monitor 22 .

VPA処理部11fは、機械学習や深層学習などAI技術を用いたアプリを実行することで動作する。VPA処理部11fが動作すると、車両乗員により発話された発話音声を音声認識すると共に音声認識内容に基づく対応を生成する。VPA処理部11fは、前述の対応として音声出力するための発話音声の文章や文字のコンテンツを報知情報として生成して音声処理部14に渡し、音声処理部14がスピーカ18から音声で報知させる。さらにVPA処理部11fは、前述の対応としてディスプレイ2、3等に表示させる視覚情報を生成し、表示処理部13に渡し、表示処理部13が、VPA処理部11fにより生成される対応に基づく視覚情報をディスプレイ2、3に表示させる。 The VPA processing unit 11f operates by executing applications using AI technology such as machine learning and deep learning. When the VPA processing unit 11f operates, it recognizes the voice uttered by the vehicle occupant and generates a response based on the content of the voice recognition. The VPA processing unit 11f generates, as notification information, contents of sentences and characters of the utterance voice for outputting the voice as the above-mentioned correspondence, and passes it to the voice processing unit 14, and the voice processing unit 14 makes the speaker 18 notify it by voice. Furthermore, the VPA processing unit 11f generates visual information to be displayed on the displays 2, 3, etc. as the correspondence described above, passes it to the display processing unit 13, and the display processing unit 13 performs visual information based on the correspondence generated by the VPA processing unit 11f. Information is displayed on displays 2 and 3.

VPA処理部11fは、予めデザインされた特定のキャラクタAなどのコンテンツを視覚情報として、表示処理部13を通じてディスプレイ2又は3に表示させることもできる。また、VPA処理部11fの動作に基づいて生成される視覚情報をPtoPディスプレイ2に表示させると、D席前に位置するディスプレイ2aからP席前に位置するディスプレイ2aに至るまで、PtoPディスプレイ2上でのキャラクタAの配置を状況に合わせて自由に変更できる。 The VPA processing unit 11f can also cause the display 2 or 3 to display contents such as a pre-designed specific character A as visual information through the display processing unit 13. FIG. Further, when the visual information generated based on the operation of the VPA processing unit 11f is displayed on the PtoP display 2, the display 2a located in front of the D seat to the display 2a located in front of the P seat is displayed on the PtoP display 2. The arrangement of character A in can be freely changed according to the situation.

本形態において、VPA処理部11fは、キャラクタAをディスプレイ2に表示する形態を示すが、キャラクタAのほか、キャラクタAの傍に表示するコメント、非キャラクタを視覚情報として表示するようにしても良い。またVPA処理部11fは、現在位置の周辺の地図情報や文字情報を視覚情報として表示処理部13を通じてディスプレイ2、3に表示させるようにしても良い。これにより、VPA処理部11fは、車両乗員にとって必要な情報を提供できると共に車両乗員とのコミュニケーションを実現できる。
また、制御装置11は、VPA処理部11fによる対応により雑談することもできる。例えば、制御装置11は、VPA処理部11fの機能により例えば本日の天気などの情報や本日に関する雑学を提供することもできる。VPA処理部11fにより雑談を行う最中に乗員の気分に関する質問を乗員に投げかけ、この質問に対する回答を乗員から得て回答内容を判断することで乗員の感情を認識するようにしても良い。この場合においても、制御装置11は、状況判定部11bにおいて乗員の感情を認識した認識結果に基づいて乗員による運転に関する状況を判定できる。
In this embodiment, the VPA processing unit 11f displays the character A on the display 2, but in addition to the character A, comments and non-characters displayed beside the character A may be displayed as visual information. . Further, the VPA processing section 11f may cause the displays 2 and 3 to display map information and character information around the current position as visual information through the display processing section 13. FIG. As a result, the VPA processing unit 11f can provide information necessary for the vehicle occupant and realize communication with the vehicle occupant.
Also, the control device 11 can chat with the VPA processor 11f. For example, the control device 11 can provide information such as today's weather and trivia about today by the function of the VPA processing section 11f. The VPA processing unit 11f may ask the occupant a question about his or her mood while chatting, obtain an answer to the question from the occupant, and determine the contents of the answer to recognize the occupant's emotion. In this case as well, the control device 11 can determine the driving situation of the passenger based on the result of recognition of the passenger's emotions by the situation judgment section 11b.

またアプリには検知アプリも含まれている。検知アプリは、乗員モニタ22による撮像信号に基づいて車両内の乗員の仕草を検知したり、手指による操作やその視線を検知したりする。制御装置11は、視線検知部11cにより車両内の乗員の視線を検知したり、その他検知アプリにより顔の表情や仕草を検知したりできるため、キャラクタAとの会話に対する反応を確認できる。検知アプリは、視線検知部11cとしての機能を実現している。 The app also includes a detection app. The detection application detects gestures of the occupants in the vehicle based on the imaging signal from the occupant monitor 22, and detects finger operations and line of sight. The control device 11 can detect the line of sight of the occupant in the vehicle with the line of sight detection unit 11c, and can detect facial expressions and gestures with other detection applications. The detection application implements a function as the line-of-sight detection unit 11c.

また、視線検知部11cにより車両乗員の視線を検知すると、VPA処理部11fが、この視線検知結果に基づいて動作することで、あたかもキャラクタAが車両乗員に視線を合わせて会話をしているようにディスプレイ2又は3に表示できる。 Further, when the line of sight of the vehicle occupant is detected by the line of sight detection unit 11c, the VPA processing unit 11f operates based on the line of sight detection result as if the character A were conversing with the vehicle occupant while meeting the line of sight. can be displayed on display 2 or 3 at the same time.

各アプリのうち画像コンテンツを描画するアプリには、画像コンテンツを描画するための表示領域が割り当てられている。これらの表示領域は、記憶部6上に、必要となる画像コンテンツを描画できる大きさで確保されている。
また、キャラクタAなどの各種のコンテンツは、アニメーション動作可能になっている。ここで、アニメーション動作とは、コンテンツを示す画像の位置や大きさが徐々に変化したり、画像が回転したり、スワイプ操作にともなってユーザインターフェースが全体的に移動したり、画像が徐々にフェードインあるいはフェードアウトしたり、画像の色が変化したりするような表示態様である。
A display area for drawing the image content is allocated to the application that draws the image content among the respective applications. These display areas are secured on the storage unit 6 in such a size that necessary image contents can be drawn.
Also, various contents such as character A can be animated. Here, an animation action means a gradual change in the position or size of an image showing content, rotation of an image, overall movement of the user interface with a swipe operation, or gradual fading of an image. It is a display mode in which the image is displayed in or faded out, or the color of the image is changed.

また制御装置11は、状況判定部11bの判定結果に基づいて、表示処理部13により表示処理する視覚情報を視認可能又は視認不能にする車両乗員を区分する区分部11gとしての機能を備える。このとき、表示処理部13又は音声処理部14は、区分部11gの区分結果に基づいてVPA処理部11cの対応による報知情報の報知態様を変更する。さらに表示処理部13は、視認可能に区分された車両乗員から視認可能な位置で且つ視認不能に区分された車両乗員から視認不能な位置を設定する位置設定部13aとしての機能を備える。このとき表示処理部13は、ディスプレイ2、3、4の中で位置設定部13aにより設定された位置に視覚情報を表示処理する。 The control device 11 also functions as a classification section 11g that classifies vehicle occupants to make visual information displayed by the display processing section 13 visible or invisible based on the determination result of the situation determination section 11b. At this time, the display processing unit 13 or the sound processing unit 14 changes the notification mode of the notification information according to the correspondence of the VPA processing unit 11c based on the classification result of the classification unit 11g. Further, the display processing unit 13 has a function as a position setting unit 13a that sets a position visible to a vehicle occupant classified as visible and invisible to a vehicle occupant classified as invisible. At this time, the display processing unit 13 displays the visual information at the position set by the position setting unit 13a among the displays 2, 3, and 4. FIG.

上記構成についての作用、動作を説明する。車両のパワースイッチがオンされると、乗員モニタ22がこの操作を受け付け、車両用情報提供装置10は、図4に示す処理を実行する。制御装置11は、S1において入力される情報に基づいて状況判定部11bにより運転中であるか否かを判定する。ここではドライバによる運転中であるか否かを判定する。 The action and operation of the above configuration will be described. When the power switch of the vehicle is turned on, the occupant monitor 22 accepts this operation, and the vehicle information providing device 10 executes the processing shown in FIG. The control device 11 determines whether or not the vehicle is being driven by the situation determining section 11b based on the information input in S1. Here, it is determined whether or not the vehicle is being driven by the driver.

例えば、前述の各種のセンサ情報に基づきドライバ運転時の停車中であると判定された場合、また制御装置11によるナビアプリの実行中にナビゲーションの目的地や現在地の設定を操作パネル21から受け付けているときは、ドライバによる運転中ではないと判定する。また、レベルIII以上の自動運転中にはドライバによる運転中ではないと判定し、S1においてNOとする。 For example, when it is determined that the vehicle is stopped while the driver is driving based on the various sensor information described above, or when the navigation application is being executed by the control device 11, setting of the navigation destination or current location is received from the operation panel 21. If so, it is determined that the driver is not driving. Further, it is determined that the vehicle is not being driven by the driver during automatic operation of level III or higher, and NO is made in S1.

運転中ではない場合、音声処理部14が、車両乗員からの発話をマイク17から入力すると、VPA処理部11fにより音声認識して解析すると共にその対応を生成する。VPA処理部11fは、解析を終了し対応を実行するとき、乗員への音声対応をスピーカ18から音声出力させる。また、VPA処理部11fは、キャラクタAの表示態様を変化させながら、キャラクタAを含む視覚情報をディスプレイ2又は3に表示する。このとき、D席に座したドライバから視やすい一部のディスプレイ2aに表示位置を設定して表示する。 When the vehicle occupant is not driving, the voice processing unit 14 receives speech from the vehicle occupant through the microphone 17, and the VPA processing unit 11f recognizes and analyzes the voice and generates a corresponding response. The VPA processing unit 11f causes the speaker 18 to output a voice response to the passenger when the analysis is finished and the response is to be performed. Further, the VPA processing unit 11f displays visual information including the character A on the display 2 or 3 while changing the display mode of the character A. FIG. At this time, the display position is set and displayed on a part of the display 2a that is easily visible to the driver sitting in the D seat.

つまり、安全が確保された場面、例えば停車中には、表示処理部13は、D席に座したドライバ、助手席の乗員を含む車両乗員に対しキャラクタAを見やすい位置、例えばPtoPディスプレイ2の中央のディスプレイ2aに表示位置を設定して表示する。見やすい位置とは、ドライバがディスプレイ2の中央のディスプレイ2aを見たときの中心視野又は周辺視野に入る位置とすると良い。ドライバ、助手席の乗員に限らず、後部座席に座した車両乗員の全てに見やすい所定位置、に表示しても良い。 That is, in a scene where safety is ensured, for example, when the vehicle is stopped, the display processing unit 13 displays the character A at a position where it is easy for the vehicle occupants including the driver sitting in the D seat and the passenger in the front passenger seat to see the character A, for example, the center of the PtoP display 2. is set and displayed on the display 2a. The easy-to-see position is preferably a position within the central visual field or the peripheral visual field when the driver looks at the central display 2 a of the display 2 . It may be displayed at a predetermined position that is easily visible to all vehicle occupants sitting in the rear seats, as well as the driver and the occupants in the front passenger seat.

これにより、VPA処理部11fによる対応をスピーカ18から発話させると共にキャラクタAを表示させたときに、ドライバがキャラクタAを見たときのドライバの状況や反応を状況判定部11bにより判定でき、また特に視線検知部11cを用いて視線を検知できる。特に、キャラクタAの変化態様に紐付けてドライバの反応を確認できる。さらに、乗員モニタ22を用いて他の車両乗員の状況、反応も同様に確認できる。さらに、状況判定部11bがVPA処理部11fの対応によるドライバの状況、反応を確認した後に、制御装置11は、報知情報の態様を変更することが望ましい。また、視線検知部11cがVPA処理部11fの対応によるドライバの視線を検知した結果に基づいて、制御装置11は、報知情報の態様を変更することが望ましい。例えば、制御装置11は、音声処理部14により報知される音声情報、表示処理部13により報知される視覚情報の表示態様、キャラクタAの表示位置、を変更することが望ましい。 Thus, when the response by the VPA processing unit 11f is uttered from the speaker 18 and the character A is displayed, the situation and reaction of the driver when the driver sees the character A can be determined by the situation determination unit 11b. A line of sight can be detected using the line of sight detection unit 11c. In particular, the reaction of the driver can be checked in connection with the changing mode of the character A. Furthermore, the occupant monitor 22 can be used to similarly check the situation and reactions of other vehicle occupants. Furthermore, it is desirable for the control device 11 to change the mode of the notification information after the situation determination section 11b confirms the driver's situation and reaction according to the response of the VPA processing section 11f. Moreover, it is preferable that the control device 11 changes the form of the notification information based on the result of detecting the driver's line of sight by the line-of-sight detection unit 11c in response to the VPA processing unit 11f. For example, it is desirable that the control device 11 changes the display mode of the audio information notified by the audio processing unit 14, the visual information notified by the display processing unit 13, and the display position of the character A.

逆に、制御装置11は、S1において運転中と判定すると、表示処理部13は、S3においてD席から見えない位置にキャラクタAを表示させると良い。例えば、図6に示すように、表示処理部13は、ドライバの目線からステアリングホイールにより隠れるディスプレイ2の所定領域2bにキャラクタAを表示すると良い。また、表示処理部13は、キャラクタAを非表示にし、車両に乗車した乗員全員から見えないように変更しても良い。 Conversely, when the control device 11 determines that the vehicle is driving in S1, the display processing unit 13 preferably displays the character A at a position not visible from the D seat in S3. For example, as shown in FIG. 6, the display processing unit 13 may display the character A in a predetermined area 2b of the display 2 that is hidden from the driver's line of sight by the steering wheel. Further, the display processing unit 13 may hide the character A so that it cannot be seen by all passengers in the vehicle.

つまりドライバの運転中には、表示処理部13は、D席に座したドライバから見にくい位置、又は、視認不能な位置にキャラクタAを表示させ、ドライバに視覚情報を提供しないようにすると良い。これにより脇見運転を防止できる。 In other words, while the driver is driving, the display processing unit 13 should display the character A at a position that is difficult to see or invisible from the driver sitting in the D seat so as not to provide visual information to the driver. This can prevent inattentive driving.

また、表示処理部13は、P席の乗員から視認可能な位置にキャラクタAを表示させても良いし、視認不能な位置に表示させても良い。P席の乗員から視認可能な位置にキャラクタAを表示させれば、P席の乗員はキャラクタAを確認しながらVPA処理部11fによる対応を楽しむことができる。またP席の乗員がキャラクタAを見たときの乗員の反応や視線を検知できる。 Further, the display processing unit 13 may display the character A at a position visible to the passenger in the P seat, or may display the character A at a position invisible to the passenger. If the character A is displayed at a position that can be visually recognized by the occupant of the P seat, the occupant of the P seat can enjoy the response by the VPA processing unit 11f while confirming the character A. Also, when the passenger in the P seat sees the character A, the reaction and line of sight of the passenger can be detected.

また、表示処理部13はキャラクタAを何れのディスプレイ2、3等にも表示しないようにしても良い。特に運転中には、ドライバから見えない位置にキャラクタAを移動したり消去したりすると良い。 Also, the display processing unit 13 may display the character A on none of the displays 2, 3, or the like. In particular, during driving, it is preferable to move or erase the character A to a position invisible to the driver.

また、運転中にマイク17を通じて発話を確認すると、制御装置11は、図4のS4において発話者がドライバであるか否かを判定する。このとき、制御装置11は、ドライバにより発話されたか助手席の乗員により発話されたか検知する音声処理部14の検知信号に基づいて、表示処理部13による表示処理内容を変更しても良い。ドライバ発話の場合には、VPA処理部11fによる応答は音声のみとし、S5においてキャラクタAを含む視覚情報を表示しないようにすると良い。 Also, when confirming the utterance through the microphone 17 while driving, the control device 11 determines in S4 of FIG. 4 whether or not the utterer is the driver. At this time, the control device 11 may change the contents of the display processing by the display processing section 13 based on the detection signal of the audio processing section 14 that detects whether the speech is made by the driver or by the occupant in the front passenger seat. In the case of the driver's utterance, the response by the VPA processing unit 11f should be only voice, and visual information including the character A should not be displayed in S5.

また、音声処理部14は、助手席の乗員により発話されたことを検知した場合にはS4でNOと判定し、視覚情報有で応答する。このとき、表示処理部13は、ドライバから見えない又は見にくい位置にキャラクタAを含む視覚情報を表示すると良い。表示処理部13は、助手席の乗員が見やすい位置、例えばP席直前のディスプレイ2aにキャラクタAを含む視覚情報を表示すると良い。 Further, when the voice processing unit 14 detects that an occupant in the front passenger seat has spoken, the voice processing unit 14 determines NO in S4 and responds with visual information. At this time, the display processing unit 13 preferably displays visual information including the character A at a position that is invisible or difficult to see from the driver. The display processing unit 13 preferably displays the visual information including the character A on the display 2a at a position where the passenger in the front passenger seat can easily see, for example, the display 2a just before the P seat.

このような場合、VPA処理部11fの対応に興味を抱くのは助手席の乗員のみと考えられる。このため、ドライバへの誘目にならないと判断すれば、表示処理部13は、ドライバから視認可能な位置にキャラクタAを表示しても良い。さらに、表示処理部13がキャラクタAをディスプレイ2、3に表示後、状況判定部11bによりドライバの状況を判定したり、又は、視線検知部11cによりドライバ又はP席の乗員の視線を検知したりすることで、VPA処理部11fの対応に対する反応を確認し、制御装置11は、報知情報の態様、例えば音声情報、視覚情報の表示態様、キャラクタAの表示位置、を変更するようにしても良い。 In such a case, it is considered that only the passenger in the front passenger seat is interested in the response of the VPA processing section 11f. Therefore, if the display processing unit 13 determines that the character A is not attractive to the driver, the display processing unit 13 may display the character A at a position visible to the driver. Further, after the display processing unit 13 displays the character A on the displays 2 and 3, the situation determination unit 11b determines the driver's situation, or the line-of-sight detection unit 11c detects the line of sight of the driver or the passenger in the P seat. By doing so, the response to the response of the VPA processing unit 11f is confirmed, and the control device 11 may change the mode of the notification information, for example, the display mode of the audio information, the visual information, and the display position of the character A. .

本実施形態を概念的にまとめる。本実施形態によれば、状況判定部11bのによるドライバの状況を判定した判定結果に基づいて、VPA処理部11fの対応による報知情報の態様、例えば音声情報、視覚情報の表示態様、キャラクタAの表示位置、を変更するようにしている。また、視線検知部11cの検知結果に基づいてVPA処理部11fの対応に対する反応を確認し、報知情報の態様、例えば音声情報、視覚情報の表示態様、キャラクタAの表示位置、を変更するようにしている。この結果、VPA処理部11fの対応による報知情報を利用でき、運転中であってもVPA処理部11fの機能を安全に活用できる。また自然な会話を成立させることができる。 This embodiment is conceptually put together. According to the present embodiment, based on the determination result of the driver's situation determined by the situation determination unit 11b, the manner of notification information according to the response of the VPA processing unit 11f, for example, the display manner of voice information, visual information, character A I'm trying to change the display position. Also, based on the detection result of the line-of-sight detection unit 11c, the response to the response of the VPA processing unit 11f is confirmed, and the mode of notification information, such as the display mode of voice information, visual information, and the display position of character A, is changed. ing. As a result, it is possible to use notification information based on the correspondence of the VPA processing unit 11f, and to safely utilize the functions of the VPA processing unit 11f even during driving. In addition, natural conversation can be established.

(第2実施形態)
第2実施形態について図7から図9を参照しながら説明する。前述実施形態と異なる部分を説明する。図7に示すように、車両のパワースイッチがオンされると、乗員モニタ22がこの操作を受け付け、車両用情報提供装置10は、図7に示す処理を実行する。制御装置11は、S11において運転中であるか否かを判定する。
(Second embodiment)
A second embodiment will be described with reference to FIGS. 7 to 9. FIG. A part different from the above-mentioned embodiment is explained. As shown in FIG. 7, when the power switch of the vehicle is turned on, the occupant monitor 22 accepts this operation, and the vehicle information providing device 10 executes the processing shown in FIG. The control device 11 determines whether or not the vehicle is in operation at S11.

第1実施形態と同一条件を用いて、状況判定部11bにより運転中ではないと判定された場合、S12において視覚情報有で応答する。このとき、第1実施形態と同様に、表示処理部13はD席に座したドライバから視やすい一部のディスプレイ2aに表示する。つまり、安全が確保された場面、例えば停車中には、表示処理部13は、D席に座したドライバを含む車両乗員に対してキャラクタAを視やすい位置、例えばPtoPディスプレイ2の中央のディスプレイ2aに表示する。 Using the same conditions as in the first embodiment, if the situation determination unit 11b determines that the vehicle is not driving, it responds with visual information in S12. At this time, as in the first embodiment, the display processing unit 13 displays on a part of the display 2a that is easily visible to the driver sitting in the D seat. That is, in a scene where safety is ensured, for example, while the vehicle is stopped, the display processing unit 13 displays the character A at a position where the vehicle occupants including the driver sitting in the D seat can easily see the character A, for example, the central display 2a of the PtoP display 2. to display.

逆に、制御装置11は、S11において運転中と判定すると、状況判定部11bにより運転中に運転負荷度が所定より高いか否かを判定する。制御装置11は、距離検出センサ24や周辺カメラ23の周辺監視センサにより検出した結果を受けて、状況判定部11bにより周りに障害物が所定より多いと判定することで運転負荷度を高いと判定する。また制御装置11は、状況判定部11bにより高速道路を走行中に周辺の車両が少ないと判定したときには運転負荷度を低いと判定し、逆に多いと判定したときに運転負荷度を高いと判定する。また制御装置11は、狭い路地などで車両の周辺に他の人が隣を歩いていることを周辺カメラ23や距離検出センサ24により検知したときには運転負荷度を高いと判定する。 Conversely, when the control device 11 determines that the vehicle is being driven in S11, the situation determination unit 11b determines whether or not the degree of driving load is higher than a predetermined level during operation. The control device 11 receives the results detected by the distance detection sensor 24 and the peripheral monitoring sensor of the peripheral camera 23, and determines that the degree of driving load is high by determining that there are more obstacles in the surroundings than a predetermined number by the situation determination unit 11b. do. In addition, the control device 11 determines that the degree of driving load is low when it is determined by the situation determination unit 11b that there are few vehicles in the vicinity while traveling on the highway, and conversely determines that the degree of driving load is high when it is determined that there are many. do. Further, the control device 11 determines that the degree of driving load is high when the peripheral camera 23 or the distance detection sensor 24 detects that another person is walking next to the vehicle in a narrow alley or the like.

また、運転負荷度は自動運転のレベルに応じて変化する。一般的には自動運転のレベルが上がるほど運転負荷度は低くなる。また、自動運転中であっても、自他車のレーンチェンジ中等は自車と他車との位置関係が大きく変化するため、制御装置11は、このような特定の自動運転時における車両操舵中、必要に応じてその前後の所定期間中には運転負荷度を高いと判定する。逆に、所定レベルの運転支援技術又は自動運転技術を用い、例えばACCによる追従走行時や、レーンキープアシスト(LAS)により空いた高速道路を定常運転しているときなど、比較的安定、安全な定常運転時には運転負荷度を低いと判定する。 In addition, the degree of driving load changes according to the level of automatic driving. In general, the higher the level of automated driving, the lower the driving load. In addition, even during automatic driving, the positional relationship between the own vehicle and the other vehicle changes greatly when the own vehicle and the other vehicle are changing lanes. , and, if necessary, during a predetermined period before and after that, it is determined that the degree of driving load is high. On the contrary, using a certain level of driving support technology or automatic driving technology, for example, when following driving with ACC, or when driving steadily on an open highway with lane keeping assist (LAS), relatively stable and safe It is determined that the degree of operating load is low during steady operation.

表示処理部13は、S13において運転負荷度を高いと判定したとき、S14においてD席から見えない位置又は見にくい位置にキャラクタAを含む視覚情報を表示させると共に、VPA処理部11fの対応によるキャラクタAの態様を変更すると良い。また表示処理部13は、キャラクタAを含む視覚情報を非表示にし、車両に乗車した乗員全員から見えないように変更しても良い。 When the display processing unit 13 determines in S13 that the degree of driving load is high, the display processing unit 13 displays visual information including the character A in a position that is not visible or difficult to see from the D seat in S14, and displays the character A according to the correspondence of the VPA processing unit 11f. It is good to change the aspect of Further, the display processing unit 13 may hide the visual information including the character A so that it cannot be seen by all passengers in the vehicle.

また表示処理部13は、S13において運転負荷度を低いと判定したとき、S15においてドライバから視やすい位置にキャラクタAを含む視覚情報を表示させる。 Further, when the display processing unit 13 determines that the degree of driving load is low in S13, the display processing unit 13 displays visual information including the character A at a position easily visible to the driver in S15.

これにより、例えばACCによる追従走行時や、レーンキープアシスト(LAS)により空いた高速道路を定常運転しているときなど、比較的安定、安全な走行をしている最中、ドライバはキャラクタAと目線を交わしながらコミュニケーションできる。 As a result, during relatively stable and safe driving, such as during follow-up driving by ACC, or during steady driving on an open highway by lane keeping assist (LAS), the driver and character A can You can communicate while exchanging eye contact.

さらに視線検知部11cによりキャラクタAを確認するドライバの視線を検知したとき、表示処理部13は、この視線を中心とした中心視野又は周辺視野の中に前方視界カメラの撮像画像や周辺監視センサの情報など、周辺安全確認に役立つ情報を並列して表示処理しても良い。これにより、運転とコミュニケーションを両立させることができる。運転中のときにはドライバに誘目させ過ぎない工夫もできる。 Further, when the line of sight of the driver confirming the character A is detected by the line of sight detection unit 11c, the display processing unit 13 detects the captured image of the forward vision camera and the image of the peripheral monitoring sensor in the central visual field or the peripheral visual field centered on this line of sight. Information useful for confirming the safety of the surrounding area may be displayed in parallel. This makes it possible to achieve both driving and communication. It is also possible to devise ways to prevent the driver from drawing too much attention while driving.

また、制御装置11は、S16においてドライバがキャラクタAを凝視しているか否かを判定する。制御装置11は、視線検知部11cによりドライバが凝視していないと判定すればS17において視覚情報有で応答する。これによりキャラクタAを含む視覚情報を継続して表示させる。ただし、キャラクタAを用いて安全行動を促すように表示することが望ましい。 Further, the control device 11 determines whether or not the driver is gazing at the character A in S16. If the line-of-sight detection unit 11c determines that the driver is not gazing, the controller 11 responds with visual information in S17. As a result, the visual information including the character A is continuously displayed. However, it is desirable to use the character A to display so as to encourage safe behavior.

逆に、制御装置11は、視線検知部11cを用いてドライバが凝視している、すなわち、視線検知部11cによりドライバが見始めたことを検知してから予め定められた所定期間だけ待機しても未だ視ていることを検出したときには、S18においてキャラクタAを含む視覚情報を無、すなわち視覚情報を消して応答すると良い。 Conversely, the control device 11 uses the line-of-sight detection unit 11c to detect that the driver is staring, that is, the line-of-sight detection unit 11c detects that the driver has begun to look, and waits for a predetermined period of time. If it is detected that the character A is still watching, the visual information including the character A is nullified in S18.

また、制御装置11は、視線検知部11cによりドライバが見始めたことを検知してから予め定められた所定期間だけ待機する前に、状況判定部11bによる判定結果に基づいて運転に関する状況が変化して視覚情報を表示不可となった場合には、車両乗員に対し運転に関する情報、例えばドライバに安全運転行動を促す情報、をキャラクタAの表示位置又はその周辺位置に表示すると良い。すると、ドライバに対し運転行動から離れすぎないよう安全運転を促すことができる。 Further, the control device 11 waits for a predetermined period of time after detecting that the line-of-sight detection unit 11c has started to look at the driver. If the visual information cannot be displayed as a result, it is preferable to display information regarding driving to the vehicle occupants, for example, information that encourages the driver to take safe driving behavior at the display position of the character A or its peripheral position. Then, the driver can be urged to drive safely so as not to deviate too much from the driving behavior.

例えば、ドライバが次世代車載情報通信システムの情報を確認することがある。次世代車載情報通信システムは、In-Vehicle Infotainment system、IVIシステムと称される。図8の上図は、PtoPディスプレイ2の一のディスプレイ2aに周辺カメラ23の前方撮像カメラの画像コンテンツを現在位置の周辺情報として表示すると共に、他のディスプレイ2aに目的地マークBを含む地図画像を表示した場合を例示している。 For example, the driver may check the information of the next-generation in-vehicle information communication system. The next-generation in-vehicle information communication system is called an In-Vehicle Infotainment system or an IVI system. The upper diagram of FIG. 8 shows the image content of the front imaging camera of the surrounding camera 23 displayed on one display 2a of the PtoP display 2 as the surrounding information of the current position, and the map image including the destination mark B on the other display 2a. is displayed as an example.

視線検知部11cによりドライバが目的地マークBを見ていることを検知した場合、表示処理部13は、他のディスプレイ2aに目的地マークBの近辺にキャラクタAを含む視覚情報をドライバの視界に入るように表示し、さらにキャラクタAが目的地マークBを見ているように表示する。制御装置11は、キャラクタAの表示に対するドライバのリアクション反応を視線検知部11cにより検知し、この検知結果に基づいて補足の情報提供、例えばコメントの表示などを行っても良い。 When the line-of-sight detection unit 11c detects that the driver is looking at the destination mark B, the display processing unit 13 displays visual information including the character A in the vicinity of the destination mark B on the other display 2a in the driver's field of view. The character A is displayed to look at the destination mark B. The control device 11 may detect the driver's reaction to the display of the character A by means of the line-of-sight detection section 11c, and provide supplementary information, such as displaying a comment, based on the detection result.

また、赤信号100bや渋滞で一時停車した際、前方監視カメラにより赤信号100bを認識した場合、表示処理部13は、その認識画像と共にこの認識画像に含まれる赤信号100bをチラチラ見て気にするようにキャラクタAの表示態様を変化させ、赤信号100bにドライバの視線を誘引させると良い。 Further, when the red light 100b is recognized by the forward monitoring camera when the vehicle stops temporarily due to a red light 100b or a traffic jam, the display processing unit 13 flickers the red light 100b included in the recognition image together with the recognition image. It is preferable to change the display mode of the character A so as to attract the driver's line of sight to the red light 100b.

表示処理部13は、キャラクタAが車両の前方を気にするしぐさをする態様に変化させ、前方視界カメラの撮像画像を表示した領域の近くに、キャラクタAを表示させることでドライバの視線を前方に誘引できる。 The display processing unit 13 changes the character A to make a gesture of worrying about the front of the vehicle, and displays the character A near the area where the captured image of the front view camera is displayed, thereby directing the driver's line of sight to the front. can be induced to

また制御装置11は、視線検知部11cによりドライバがキャラクタAを一時的に確認、所謂チラ見していることを検知したとき、表示処理部13はキャラクタAと並列して安全運転行動を促すための情報を表示すると良い。 When the line-of-sight detection unit 11c detects that the driver is temporarily confirming or glancing at the character A, the display processing unit 13 is arranged in parallel with the character A to encourage safe driving behavior. It is good to display the information of

例えば図9に示すように、制御装置11は、視線検知部11cにより視線を検知しキャラクタAを凝視していると判定したとき、図7のS16でYESと判定し、表示処理部13は、視線の先にキャラクタAを表示すると共に、前方から視線が離れている秒数をカウント表示する。このカウントは、視線の先の視野NV、例えば中心視野又は周辺視野に収まるように表示すると良い。これにより、ドライバによる視覚情報への凝視を抑止できると共に、ドライバへ安全行動を促すように注意喚起できる。 For example, as shown in FIG. 9, when the line-of-sight detection unit 11c detects the line-of-sight and determines that the character A is being gazed at, the control device 11 determines YES in S16 of FIG. The character A is displayed ahead of the line of sight, and the number of seconds the line of sight is away from the front is counted and displayed. This count is preferably displayed in the visual field NV beyond the line of sight, such as the central visual field or the peripheral visual field. As a result, it is possible to prevent the driver from staring at the visual information, and to alert the driver to take safe actions.

以下、車両内で生じやすいその他の事例を説明する。
<第1事例>
ドライバが一人で運転中の場合、制御装置11が、乗員モニタ22により車室内にドライバが一人で運転中と判断すると、VPA処理部11fによる対応は音声のみとし、表示処理部13はディスプレイ2、3へのキャラクタAを非表示とする。その後、ドライバが前方の道路を確認しながら「○○、温度下げて」と発話すると、この発話内容についてマイク17を通じて入力し、制御装置11は、VPA処理部11fの対応により図示しないエアコンディショナ装置を作動させて設定温度を変更する。その後、VPA処理部11fの対応として「はい、設定温度を22度にしました。」と音声のみで返答を行う。キャラクタAは非表示となっているため、ドライバは会話のために脇見をすることがなく安全運転できる。
Other cases that are likely to occur in vehicles will be described below.
<First example>
When the driver is driving alone, when the control device 11 determines from the occupant monitor 22 that the driver is driving alone in the vehicle interior, the VPA processing unit 11f responds only with sound, and the display processing unit 13 controls the display 2, Character A to 3 is hidden. After that, when the driver utters "○○, lower the temperature" while checking the road ahead, the content of this utterance is input through the microphone 17, and the controller 11 controls the air conditioner (not shown) in response to the VPA processing unit 11f. Activate the device and change the set temperature. After that, as a response of the VPA processing unit 11f, a reply of "Yes, the set temperature has been set to 22 degrees" is made only by voice. Since the character A is not displayed, the driver can drive safely without looking aside for conversation.

<第2事例>
ドライバが助手席に他の人員を乗車させて運転中、制御装置11は、乗員モニタ22により車両内にドライバと助手席の乗員の少なくとも2人が乗車していると判断する。表示処理部13は、図6に示したように、ドライバの視線からステアリングホイールを通じて一直線上に位置するようにキャラクタAを表示することで、ドライバからは見えない位置に表示する。このとき、表示処理部13は、キャラクタAを助手席の乗員から視認可能な位置に設置するように表示処理する。
<Second case>
While the driver is driving with another person on the front passenger seat, the control device 11 determines from the passenger monitor 22 that at least two passengers, the driver and the front passenger seat, are in the vehicle. As shown in FIG. 6, the display processing unit 13 displays the character A in a position invisible to the driver by displaying the character A on a straight line from the line of sight of the driver through the steering wheel. At this time, the display processing unit 13 performs display processing so that the character A is installed at a position visible to the passenger on the front passenger seat.

ドライバが前方の道路を確認しながら「○○、温度下げて」と発話すると、音声認識し、VPA処理部11fの対応によりエアコンディショナ装置を動作させた後、「はい、設定温度を22度にしました。」と応答を行う。ドライバからキャラクタAを確認できないので脇見をせず安全に実行できる。また、P席の乗員が「○○、温度下げて」と発話しマイク17から入力されると、制御装置11はP席の乗員が発話したことを検出し、表示処理部13は、図10に示すように、キャラクタAをP席の乗員の目の前に表示すると共に、P席の乗員の方向を見るように表示態様を変更する。そして、制御装置11は、VPA処理部11fの対応として「はい、設定温度を22度にしました。」と返答する。これと同時に、表示処理部13は、キャラクタAの横に設定温度「22度」を表示する。P席の乗員は、キャラクタAと目を合わせつつ視覚情報も含めて会話できるので、やりとりがし易くなる。 When the driver utters "○○, lower the temperature" while checking the road ahead, the voice is recognized, and after operating the air conditioner device according to the response of the VPA processing unit 11f, "Yes, the set temperature is 22 degrees." I made it.” Since the character A cannot be confirmed from the driver, it can be executed safely without looking aside. Also, when the passenger in the P seat inputs "○○, lower the temperature" from the speech microphone 17, the control device 11 detects that the passenger in the P seat has spoken, and the display processing unit 13 performs the following operations as shown in FIG. , character A is displayed in front of the P-seat occupant, and the display mode is changed so that the direction of the P-seat occupant is seen. Then, the control device 11 responds, "Yes, the set temperature is set to 22 degrees." At the same time, the display processing unit 13 displays the set temperature "22 degrees" next to the character A. The passenger in the P seat can make eye contact with the character A and have a conversation including visual information, which facilitates communication.

<第3適用例>
ドライバがP席に他の人員を乗車させて運転中、制御装置11は乗員モニタ22により車両内にドライバとP席の乗員の少なくとも2人が乗車していると判断する。このとき、表示処理部13は、キャラクタAをディスプレイ2、3に非表示とする。ドライバが「○○、温度下げて」と発話すると音声認識し、エアコンディショナにより設定温度を調整する。その後、音声処理部14によりVPA処理部11fの処理結果である「はい、設定温度を22度にしました。」をスピーカ18から発話させる。
<Third application example>
While the driver is driving with another passenger on the P seat, the control device 11 determines from the occupant monitor 22 that at least two people, the driver and the passenger on the P seat, are in the vehicle. At this time, the display processing unit 13 hides the character A on the displays 2 and 3 . When the driver utters "○○, lower the temperature", voice recognition is performed and the air conditioner adjusts the set temperature. After that, the voice processing unit 14 causes the speaker 18 to utter the processing result of the VPA processing unit 11f, "Yes, the set temperature has been set to 22 degrees."

表示処理部13が、ディスプレイ2、3にキャラクタAを表示していないので、車両乗員が会話のために脇見をすることがない。P席の乗員が「○○、温度下げて」と発話すると、音声処理部14が音声を入力する。制御装置11は、VPA処理部11fの対応として、「はい、設定温度を22度にしました。」とスピーカ18から返答する。これと同時に、表示処理部13は、図11に示すように、ディスプレイ2の中でP席の乗員の目の前の領域に設定温度「22度」を表示する。P席の乗員は、その応答結果を視覚情報で確認できるので理解し易い。P席の乗員に対する応答であるため、ドライバから視認可能な位置であっても脇見の原因とはなりにくい。 Since the display processing unit 13 does not display the character A on the displays 2 and 3, the vehicle occupant does not look aside for conversation. When the passenger in the P seat utters "○○, lower the temperature", the voice processing unit 14 inputs voice. In response to the VPA processing unit 11f, the controller 11 responds from the speaker 18 with "Yes, the set temperature has been set to 22 degrees." At the same time, as shown in FIG. 11, the display processing unit 13 displays the set temperature "22 degrees" in the area in front of the passenger seated in the P seat on the display 2 . The P-seat occupant can easily understand the result of the response because it can be confirmed visually. Since this is a response to an occupant in the P seat, it is unlikely that the driver will look aside even if the position is visible to the driver.

<第4適用例>
車両が停車中、表示処理部13はキャラクタAをディスプレイ2又は3に表示している。任意の車両乗員が「○○、温度下げて」と発話すると、VPA処理部11fの対応により、エアコンディショナの設定温度を調整する。その後、表示処理部13は、任意の車両乗員の位置する方向を見るようにキャラクタAを表示させる。
<Fourth application example>
The display processor 13 displays the character A on the display 2 or 3 while the vehicle is stopped. When an arbitrary vehicle occupant utters "○○, lower the temperature", the VPA processing unit 11f responds to adjust the set temperature of the air conditioner. After that, the display processing unit 13 causes the character A to be displayed so as to look in the direction in which an arbitrary vehicle occupant is positioned.

また、VPA処理部11fの対応として「はい、設定温度を22度にしました。」を返答すると共に、表示処理部13はキャラクタAの表示領域の横に位置して設定温度も表示する。話しかけた車両乗員は、キャラクタAと目を合わせることができるため、楽しく会話を楽しむことができる 。 In addition, the VPA processing unit 11f replies "Yes, the set temperature is set to 22 degrees", and the display processing unit 13 is positioned next to the character A display area to display the set temperature. Since the vehicle occupant who speaks can make eye contact with the character A, they can enjoy the conversation.

本実施形態によれば、前述実施形態と同様の作用効果を奏する。また、状況判定部11bによる車両の周辺状況を判定した判定結果に基づいて、VPA処理部11fの対応による報知情報の態様、例えば音声情報、視覚情報の表示態様、キャラクタAの表示位置、を変更するようにしている。この結果、VPA処理部11fの対応による報知情報を利用でき、運転中であってもVPA処理部11fの機能を安全に活用できる。また自然な会話を成立させることができる。 According to this embodiment, the same effects as those of the above-described embodiment can be obtained. Also, based on the judgment result of judging the surrounding situation of the vehicle by the situation judging section 11b, the form of the notification information, for example, the display form of the voice information, the visual information, and the display position of the character A are changed by the correspondence of the VPA processing section 11f. I am trying to As a result, it is possible to use notification information based on the correspondence of the VPA processing unit 11f, and to safely utilize the functions of the VPA processing unit 11f even during driving. In addition, natural conversation can be established.

(他の実施形態)
本発明は、前述した実施形態に限定されるものではなく、種々変形して実施することができ、その要旨を逸脱しない範囲で種々の実施形態に適用可能である。
(Other embodiments)
The present invention is not limited to the above-described embodiments, but can be implemented in various modifications, and can be applied to various embodiments without departing from the scope of the invention.

前述した実施形態では、車両乗員がVPAに話しかけたりすることで車両乗員側で何らかのアクションを起こし、このアクションを起こしてからVPA処理部11fにより対応を生成して応答する形態を示したが、これに限定されるものではない。例えば、VPA処理部11fが車両乗員に対し自発的にアクションを起こしてもよい。 In the above-described embodiment, the vehicle occupant speaks to the VPA to cause some action on the side of the vehicle occupant, and after taking this action, the VPA processing section 11f generates a response and responds. is not limited to For example, the VPA processing unit 11f may spontaneously take action on the vehicle occupants.

この場合、VPA処理部11fの対応に基づく報知情報は、例えばドライバの運転状況であったり、P席の乗員に対してエンタテイメント情報を提案するものである。このとき、VPA処理部11fの対応に基づく報知情報を特定の車両乗員に対して行うことが望ましい。 In this case, the notification information based on the response of the VPA processing section 11f is, for example, the driving condition of the driver, or the entertainment information to the passenger in the P seat. At this time, it is desirable to send notification information based on the correspondence of the VPA processing section 11f to specific vehicle occupants.

第1実施形態では、発話者がドライバであれば図4のS4にてYESと判定し、VPA処理部11fによる対応として視覚情報無しで応答する形態を説明したが、これに限定されるものではない。発話者がドライバであるか否かに拘わらず、キャラクタAなどの視覚情報を有りのままディスプレイ2aなどに表示して応答するようにしても良い。また、VPA処理部11fの動作に基づくキャラクタAを常にディスプレイ2a等に表示するようにしても良い。この場合、第1実施形態で説明したように、ドライバの目線からステアリングホイールにより隠れるディスプレイ2の所定領域2bにキャラクタAなどの視覚情報を表示することが望ましい。すると、運転中のドライバが発話したとしても、ドライバからキャラクタAを確認できないため、脇見運転を防止できる。 In the first embodiment, if the speaker is a driver, YES is determined in S4 of FIG. 4, and the VPA processing unit 11f responds without visual information. However, it is not limited to this. do not have. Regardless of whether the speaker is the driver or not, the visual information such as the character A may be displayed as it is on the display 2a to respond. Also, the character A based on the action of the VPA processing section 11f may be always displayed on the display 2a or the like. In this case, as described in the first embodiment, it is desirable to display visual information such as the character A in the predetermined area 2b of the display 2 that is hidden from the driver's line of sight by the steering wheel. Then, even if the driver speaks while driving, the character A cannot be confirmed by the driver, so inattentive driving can be prevented.

本開示に記載の制御装置11、表示処理部13、音声処理部14による手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することにより提供された専用コンピュータにより実現されても良い。或いは、本開示に記載の制御装置11、表示処理部13、音声処理部14及びその手法は、一つ以上の専用ハードウェア論理回路によりプロセッサを構成することにより提供された専用コンピュータにより実現されても良い。若しくは、本開示に記載の制御装置11、表示処理部13、音声処理部14及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路により構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより実現されても良い。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていても良い。 The controller 11, display processor 13, and audio processor 14 approaches described in this disclosure constitute a processor and memory programmed to perform one or more functions embodied by a computer program. It may be realized by a dedicated computer provided by Alternatively, the control device 11, the display processing unit 13, the audio processing unit 14, and the techniques described in the present disclosure are implemented by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Also good. Alternatively, the control device 11, display processing unit 13, audio processing unit 14, and techniques described in the present disclosure may be implemented using a processor and memory programmed to perform one or more functions, and one or more pieces of hardware. It may also be implemented by one or more dedicated computers configured in combination with a processor configured by logic circuits. The computer program may also be stored as computer-executable instructions on a computer-readable non-transitional tangible storage medium.

本発明は、前述した実施形態に準拠して記述したが、本発明は当該実施形態や構造に限定されるものではないと理解される。本発明は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本発明の範畴や思想範囲に入るものである。 Although the present invention has been described with reference to the embodiments described above, it is understood that the invention is not limited to such embodiments or constructions. The present invention includes various modifications and modifications within the equivalent range. In addition, various combinations and configurations, as well as other combinations and configurations including one, more, or less elements thereof, are within the scope and spirit of the invention.

図面中、11bは状況判定部、11cは視線検知部、11fはVPA処理部、11gは区分部、13は表示処理部(情報提供部)、13aは位置設定部、14は音声処理部(情報提供部)を示す。 In the drawing, 11b is a situation determination unit, 11c is a line-of-sight detection unit, 11f is a VPA processing unit, 11g is a classification unit, 13 is a display processing unit (information providing unit), 13a is a position setting unit, 14 is an audio processing unit (information provider).

Claims (16)

VPA(Virtual Personal Assistant)を動作させて車両乗員に対する対応を生成すると共に前記対応に基づく報知情報を出力するVPA処理部(11f)と、
車両の周辺状況、又は、前記車両乗員による運転に関する状況を判定する状況判定部(11b)と、
前記状況判定部の判定結果に基づいて、前記VPA処理部の前記対応による前記報知情報の態様を変更する情報提供部(13、14)と、
を備える車両用情報提供装置。
a VPA processing unit (11f) that operates a VPA (Virtual Personal Assistant) to generate responses to vehicle occupants and outputs notification information based on the responses;
A situation determination unit (11b) that determines the surrounding situation of the vehicle or the situation related to driving by the vehicle occupant;
information providing units (13, 14) for changing the form of the notification information according to the response of the VPA processing unit based on the determination result of the situation determination unit;
A vehicle information providing device.
前記状況判定部は、前記車両の周辺状況を判定するときに、周辺車両の位置、周囲の危険度、又は道路状況、を判定する請求項1記載の車両用情報提供装置。 2. The vehicular information providing apparatus according to claim 1, wherein when judging the surrounding situation of the vehicle, the situation judging section judges the position of surrounding vehicles, the degree of danger of the surroundings, or road conditions. 前記状況判定部は、前記運転に関する状況を判定するときに、運転中であるか否かの判定、運転負荷度が高いか否かの判定、又は車両乗員の感情の判定を実行する請求項1記載の車両用情報提供装置。 2. When judging the driving situation, the situation judgment unit judges whether the vehicle is being driven, judges whether the driving load is high, or judges the emotions of the vehicle occupants. The vehicle information providing device described. 前記車両乗員の視線を検知する視線検知部(11c)を備え、
前記情報提供部は、前記視線検知部の検知結果に基づいて前記VPA処理部の前記対応に対する反応を確認し前記報知情報の態様を変更する請求項1から3の何れか一項に記載の車両用情報提供装置。
A line-of-sight detection unit (11c) for detecting the line-of-sight of the vehicle occupant,
4. The vehicle according to any one of claims 1 to 3, wherein the information providing unit confirms the response of the VPA processing unit to the response based on the detection result of the line-of-sight detection unit and changes the mode of the notification information. information provider.
前記情報提供部は、前記VPA処理部の前記対応に基づく視覚情報を前記報知情報の態様として表示処理する表示処理部(13)を含む請求項1から4の何れか一項に記載の車両用情報提供装置。 5. The vehicle according to any one of claims 1 to 4, wherein the information providing unit includes a display processing unit (13) that performs display processing of visual information based on the correspondence of the VPA processing unit as a form of the notification information. Information provider. 前記状況判定部の判定結果に基づいて、前記表示処理部により表示処理する前記視覚情報を視認可能又は視認不能にする前記車両乗員を区分する区分部(11g)を備え、
前記情報提供部は、前記区分部の区分結果に基づいて前記VPA処理部の前記対応による前記報知情報の報知態様を変更する請求項5記載の車両用情報提供装置。
a classification unit (11g) for classifying the vehicle occupant to make the visual information displayed by the display processing unit visible or invisible based on the determination result of the situation determination unit;
6. The vehicular information providing device according to claim 5, wherein the information providing unit changes the reporting mode of the reporting information according to the correspondence of the VPA processing unit based on the classification result of the dividing unit.
前記視認可能に区分された前記車両乗員から前記視認可能な位置で且つ前記視認不能に区分された前記車両乗員から前記視認不能な位置を設定する位置設定部(13a)を備え、
前記表示処理部は、前記位置設定部により設定された位置に前記視覚情報を表示処理する請求項6記載の車両用情報提供装置。
A position setting unit (13a) for setting the position visible to the vehicle occupant classified as visible and invisible to the vehicle occupant classified as invisible,
7. The vehicle information providing device according to claim 6, wherein the display processing section displays the visual information at the position set by the position setting section.
前記状況判定部は、前記車両乗員の感情を認識した認識結果に基づいて前記車両乗員による運転に関する状況を判定する請求項1から7の何れか一項に記載の車両用情報提供装置。 8. The vehicle information providing device according to any one of claims 1 to 7, wherein the situation determination unit determines a situation regarding driving by the vehicle occupant based on a recognition result of recognizing the emotion of the vehicle occupant. 前記表示処理部は、前記状況判定部の判定結果に基づいて、前記車両乗員としてのドライバからも助手席の乗員からも前記視覚情報を視認可能な位置に変更して表示する請求項5記載の車両用情報提供装置。 6. The display processing unit according to claim 5, wherein the display processing unit changes and displays the visual information to a position where the visual information can be visually recognized by both the driver as the vehicle occupant and the occupant in the front passenger seat based on the determination result of the situation determination unit. Vehicle information providing device. 前記表示処理部は、前記状況判定部の判定結果に基づいて、前記車両乗員としてのドライバから前記視覚情報を視認不能な位置、且つ、助手席の乗員から前記視覚情報を視認可能な位置に変更して表示する請求項5記載の車両用情報提供装置。 The display processing unit changes the position to a position where the visual information is not visible to the driver as the vehicle occupant and to a position where the visual information is visible to the passenger in the front passenger seat, based on the determination result of the situation determination unit. 6. The information providing device for a vehicle according to claim 5, wherein the information is displayed as follows. 前記表示処理部は、前記状況判定部の判定結果に応じて、前記車両乗員の全員から前記視覚情報を視認不能にする請求項5記載の車両用情報提供装置。 6. The vehicle information providing device according to claim 5, wherein the display processing section renders the visual information invisible to all vehicle occupants according to the determination result of the situation determination section. 前記車両乗員の視線を検知する視線検知部(11c)を備え、
前記表示処理部が、前記状況判定部の判定結果に応じて前記車両乗員から視認可能な位置に前記視覚情報を表示するときに、前記視線検知部により前記車両乗員が前記視覚情報を見始めたことを検知してから予め定められた所定期間だけ待機する前に、前記運転に関する状況が変化して前記視覚情報を表示不可となった場合には、前記運転に関する情報を提供する請求項5記載の車両用情報提供装置。
A line-of-sight detection unit (11c) for detecting the line-of-sight of the vehicle occupant,
When the display processing unit displays the visual information at a position visible to the vehicle occupant according to the determination result of the situation determination unit, the vehicle occupant starts to see the visual information by the line-of-sight detection unit. 6. If the visual information cannot be displayed due to a change in the situation regarding the driving before waiting for a predetermined period of time after detecting that, the information regarding the driving is provided. vehicle information providing device.
前記表示処理部は、現在位置の周辺情報を表示した近辺に前記VPA処理部の前記対応に基づく前記視覚情報を表示する請求項5、6、10から12の何れか一項に記載の車両用情報提供装置。 13. The vehicle according to any one of claims 5, 6, 10 to 12, wherein the display processing unit displays the visual information based on the correspondence of the VPA processing unit in the vicinity of the displayed peripheral information of the current position. Information provider. 前記情報提供部は、前記ドライバに安全運転行動を促す情報を提供する請求項1から13の何れか一項に記載の車両用情報提供装置。 14. The vehicle information providing device according to any one of claims 1 to 13, wherein the information providing unit provides the driver with information prompting safe driving behavior. VPA処理部(11f)によりVPA(Virtual Personal Assistant)を動作させて車両乗員に対する対応を生成すると共に前記対応に基づく報知情報を出力する過程と、
状況判定部(11b)により車両の周辺状況、又は、前記車両乗員の運転に関する状況を判定する過程と、
情報提供部(13、14)により前記状況判定部の判定結果に基づいて、前記VPA処理部の前記対応による前記報知情報の態様を変更する過程と、
を備える車両用情報提供方法。
a process of operating a VPA (Virtual Personal Assistant) by a VPA processing unit (11f) to generate a response to vehicle occupants and output notification information based on the response;
a process of judging a surrounding situation of the vehicle or a situation related to driving of the vehicle occupant by a situation judging section (11b);
a process of changing the form of the notification information according to the response of the VPA processing unit by the information providing unit (13, 14) based on the determination result of the situation determination unit;
A vehicle information providing method comprising:
車両用情報提供装置に、
VPA処理部(11f)によりVPA(Virtual Personal Assistant)を動作させて車両乗員に対する対応を生成すると共に前記対応に基づく報知情報を出力する手順と、
状況判定部(11b)により車両の周辺状況、又は、前記車両乗員の運転に関する状況を判定する手順と、
情報提供部(13、14)により前記状況判定部の判定結果に基づいて、前記VPA処理部の前記対応による前記報知情報の態様を変更する手順と、
を実行させる車両用情報提供プログラム。

In the vehicle information provision device,
a procedure for operating a VPA (Virtual Personal Assistant) by a VPA processing unit (11f) to generate a response to vehicle occupants and output notification information based on the response;
a procedure for judging a surrounding situation of the vehicle or a situation related to driving of the vehicle occupant by a situation judging section (11b);
a procedure for changing the aspect of the notification information according to the response of the VPA processing unit by the information providing unit (13, 14) based on the determination result of the situation determination unit;
Information provision program for vehicles to run.

JP2021081693A 2021-05-13 2021-05-13 Vehicle information providing device, information providing method, and information providing program Pending JP2022175359A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021081693A JP2022175359A (en) 2021-05-13 2021-05-13 Vehicle information providing device, information providing method, and information providing program
PCT/JP2022/018897 WO2022239642A1 (en) 2021-05-13 2022-04-26 Information providing device for vehicle, information providing method for vehicle, and information providing program for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021081693A JP2022175359A (en) 2021-05-13 2021-05-13 Vehicle information providing device, information providing method, and information providing program

Publications (1)

Publication Number Publication Date
JP2022175359A true JP2022175359A (en) 2022-11-25

Family

ID=84028275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021081693A Pending JP2022175359A (en) 2021-05-13 2021-05-13 Vehicle information providing device, information providing method, and information providing program

Country Status (2)

Country Link
JP (1) JP2022175359A (en)
WO (1) WO2022239642A1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002225592A (en) * 2001-02-01 2002-08-14 Nissan Motor Co Ltd Data display device for vehicle
JP5179686B2 (en) * 2001-09-25 2013-04-10 株式会社豊田中央研究所 Driving behavior risk calculation device
JP5187517B2 (en) * 2008-11-27 2013-04-24 株式会社デンソーアイティーラボラトリ Information providing apparatus, information providing method, and program
US10431215B2 (en) * 2015-12-06 2019-10-01 Voicebox Technologies Corporation System and method of conversational adjustment based on user's cognitive state and/or situational state
JP6713490B2 (en) * 2018-02-07 2020-06-24 本田技研工業株式会社 Information providing apparatus and information providing method
JP7181744B2 (en) * 2018-09-28 2022-12-01 株式会社Subaru Vehicle agent device
JP7068986B2 (en) * 2018-10-09 2022-05-17 本田技研工業株式会社 Agent system, agent control method, and program

Also Published As

Publication number Publication date
WO2022239642A1 (en) 2022-11-17

Similar Documents

Publication Publication Date Title
CN108205731B (en) Situation assessment vehicle system
US9881503B1 (en) Vehicle-to-pedestrian-communication systems and methods for using the same
US10908677B2 (en) Vehicle system for providing driver feedback in response to an occupant&#39;s emotion
JP4380541B2 (en) Vehicle agent device
CN107415938B (en) Controlling autonomous vehicle functions and outputs based on occupant position and attention
US11042766B2 (en) Artificial intelligence apparatus and method for determining inattention of driver
EP3125211B1 (en) Information presentation device and information presentation method
JP7329755B2 (en) Support method and support system and support device using the same
US20170217445A1 (en) System for intelligent passenger-vehicle interactions
CN110719865B (en) Driving support method, driving support program, and vehicle control device
JP7068986B2 (en) Agent system, agent control method, and program
US10674003B1 (en) Apparatus and system for identifying occupants in a vehicle
US10666901B1 (en) System for soothing an occupant in a vehicle
US11148671B2 (en) Autonomous systems human controller simulation
US11904900B2 (en) Autonomous vehicle for blind people
JP6075577B2 (en) Driving assistance device
WO2022239642A1 (en) Information providing device for vehicle, information providing method for vehicle, and information providing program for vehicle
JP2020059401A (en) Vehicle control device, vehicle control method and program
JP2020130502A (en) Information processing device and information processing method
US20240001763A1 (en) Vehicle display system, vehicle display method, and computer-readable non-transitory storage medium storing vehicle display program
WO2022124164A1 (en) Attention object sharing device, and attention object sharing method
US20210237577A1 (en) Method And System For Controlling Motor Vehicle Functions
CN116895186A (en) Traffic safety auxiliary system
JP2023019245A (en) Agent device
JP2023019244A (en) Agent device