JP6913316B2 - Information presentation system - Google Patents
Information presentation system Download PDFInfo
- Publication number
- JP6913316B2 JP6913316B2 JP2017029018A JP2017029018A JP6913316B2 JP 6913316 B2 JP6913316 B2 JP 6913316B2 JP 2017029018 A JP2017029018 A JP 2017029018A JP 2017029018 A JP2017029018 A JP 2017029018A JP 6913316 B2 JP6913316 B2 JP 6913316B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- driver
- display
- presentation
- moving body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008859 change Effects 0.000 claims description 11
- 230000004660 morphological change Effects 0.000 claims description 11
- 230000001815 facial effect Effects 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 14
- 210000003128 head Anatomy 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 7
- 230000000877 morphologic effect Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 230000001149 cognitive effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Description
本発明は、移動体を運転する運転者に対して走行に関連する情報を提示するための情報提示システムに関するものである。 The present invention relates to an information presentation system for presenting information related to driving to a driver who drives a moving body.
車両等の移動体に搭載される情報提示システムには、いわゆるカーナビゲーションシステムがあり、運転者に対する走行関連情報を提供するものであることは周知である。この種の技術は、運転者が移動体を運転するに際し、走行体の進路や道路状況などの走行関連情報を運転者に提供するものであった。しかし、走行関連情報の提供は、情報提供システムから運転者に対して一方向であり、インタラクティブなものではなかった。そのため、運転者は情報提供システムから提供される情報に対し一方的に従うのみであり、同乗者のような関係が構築されるものではなかった。 It is well known that the information presentation system mounted on a moving body such as a vehicle includes a so-called car navigation system, which provides driving-related information to the driver. This type of technology provides the driver with travel-related information such as the course and road conditions of the traveling body when the driver drives the moving body. However, the provision of driving-related information was unidirectional from the information provision system to the driver, and was not interactive. Therefore, the driver only unilaterally follows the information provided by the information providing system, and does not establish a relationship like a passenger.
そこで、車載ロボットというコンセプトが出現し、インタラクティブな関係性をもった情報提示システムが開発されている(非特許文献1および2参照)。この種の技術は、走行関連情報に加えて相互間の情報伝達を可能にするものであり、映像、音声、光または駆動部の動きを媒体として、画像処理または音声認識などの技術を応用することによって、会話的要素を導入しようとするものである。
Therefore, the concept of an in-vehicle robot has emerged, and an information presentation system having an interactive relationship has been developed (see Non-Patent
ところが、上記技術によれば、車載ロボットと運転者とが一対一型のインタラクションが前提であり、例えば、運転中において、車載ロボットが会話を開始した場合、運転者は応答しなければならない意識を持つこととなり、運転に集中できない要素を招来させるという問題点があった。他方、車載ロボットの会話に応答しない場合には、有効なインタラクションが形成されず、単なるナビゲーションシステムが搭載されているに過ぎない状態となり、従前と相違しないこととなり得るものであった。 However, according to the above technology, it is premised that the in-vehicle robot and the driver have a one-to-one interaction. For example, when the in-vehicle robot starts a conversation while driving, the driver must respond. There was a problem that it caused an element that could not be concentrated on driving. On the other hand, if the vehicle does not respond to the conversation of the in-vehicle robot, no effective interaction is formed, and the navigation system is merely installed, which may not be different from the conventional one.
そこで、本願の発明者らにおいて、多人数会話を利用した認知負荷の軽減を目的とする車載型情報提示システムを開発した(非特許文献3参照)。この技術は、一対一型のインタラクションの問題点を解消すべく、車載ロボットによって多人数会話を実現させるものであり、運転者の会話への参加が要請されないことをコンセプトとするものである。すなわち、車載ロボットが多人数会話を実行することにより、運転者は会話の参加に対し自由度を有することとなり、この自由度により多人数会話における緩やかな共同性を実現するのである。その結果として、運転に集中する際には、会話に応答しないことが許容され、運転者の認知負荷を軽減するものであった。 Therefore, the inventors of the present application have developed an in-vehicle information presentation system for the purpose of reducing the cognitive load using multi-person conversation (see Non-Patent Document 3). This technology realizes multi-person conversation by an in-vehicle robot in order to solve the problem of one-to-one interaction, and is based on the concept that the driver is not required to participate in the conversation. That is, when the in-vehicle robot executes a multi-person conversation, the driver has a degree of freedom in participating in the conversation, and this degree of freedom realizes a loose communality in the multi-person conversation. As a result, when concentrating on driving, it was allowed not to respond to the conversation, which reduced the cognitive load on the driver.
前掲の車載ロボットは、専らナビゲーション情報を運転者に伝達するためのものであり、当該ナビゲーション情報に追加して、日常会話または関連情報を話題として提供するものであった。また、多人数会話型の車載ロボットにあっては、運転者の認知負荷を軽減するものである点で優れるが、提供される情報については、やはりナビゲーション情報および付加情報に限定され、運転操作に関する情報、すなわち移動体の走行に直接的に関連する情報は含まれていなかった。これは、走行に関連する情報を音声等で伝達することの困難性に由来するものであった。 The above-mentioned in-vehicle robot is exclusively for transmitting navigation information to the driver, and in addition to the navigation information, provides daily conversation or related information as a topic. In addition, a multi-person conversation type in-vehicle robot is excellent in that it reduces the cognitive load of the driver, but the information provided is also limited to navigation information and additional information, and is related to driving operations. Information, that is, information directly related to the running of the moving body, was not included. This was due to the difficulty of transmitting information related to driving by voice or the like.
ところで、近時の移動体には、自動ブレーキシステムに代表されるように、各種のセンサ類とコンピュータ制御によって、走行体を運転者の操作ミスから防御することができるものとなっており、さらに、自動運転システムに関する技術が急速に進歩し、移動体を自動で走行させることが実現しつつある。このように、移動体に各種センサが搭載されることにより、運転者が注視しなければならない情報についてもセンサによる検知がなされ、また死角領域についてもセンサによる検知がなされ、これらの情報に基づいて制御がなされ得る構成となっている(特許文献1参照)。 By the way, in recent moving bodies, as represented by the automatic braking system, various sensors and computer control can protect the traveling body from the driver's operation mistakes, and further. , The technology related to the automatic driving system is rapidly advancing, and it is being realized that the moving body is automatically driven. In this way, by mounting various sensors on the moving body, the information that the driver must pay attention to is also detected by the sensor, and the blind spot area is also detected by the sensor, and based on this information. It has a configuration that can be controlled (see Patent Document 1).
上記の自動運転システムについて広く受け容れられている定義には、自動化の程度によりレベル0〜4まで段階的に区分されているものがある。この定義によれば、レベル4では完全自動運転の状態であるが、レベル3では、自動運転状態と手動操作による運転状態とが混在する状態とされている。従って、レベル3および4の状態は、運転者が運転操作を行わない状況において移動体が走行する事象を出現させることとなる。 The widely accepted definition of the above-mentioned autonomous driving system is that it is divided into levels 0 to 4 in stages according to the degree of automation. According to this definition, level 4 is a state of fully automatic operation, but level 3 is a state in which an automatic operation state and an operation state by manual operation are mixed. Therefore, the states of Levels 3 and 4 cause an event in which the moving body travels in a situation where the driver does not perform the driving operation.
しかしながら、上記自動運転システムにおいては、特にレベル3における自動運転状態においては、移動体が自動運転できる状態であるのか、または手動操作によって運転すべき状態であるのかは、移動体に搭載された制御システムによって制御されることから、制御システム外部(運転者)において客観的に把握することは容易でなかった。そして、これらの状況の変化は、専ら報知装置によって運転者に覚知させるに留まり、自動運転時における走行が、どのような状況判断によってなされているのかは運転者において知ることができなかった。そのため、運転者は自動運転状態であっても安心することができず、また、移動体の走行状態について自らの観察によって安全性を確認せざるを得なかった。すなわち、自動運転システムと運転者とのインターフェース(HMI:Human Machine Iterface)に関する技術については開発されてこなかった。 However, in the above-mentioned automatic driving system, especially in the automatic driving state at level 3, whether the moving body is in a state where it can be automatically driven or in a state where it should be operated by manual operation is controlled by the moving body. Since it is controlled by the system, it was not easy to objectively grasp it outside the control system (driver). Then, these changes in the situation were only made known to the driver by the notification device, and the driver could not know what kind of situation judgment was made during the automatic driving. Therefore, the driver cannot be relieved even in the automatic driving state, and has no choice but to confirm the safety by his own observation of the running state of the moving body. That is, the technology related to the interface (HMI: Human Machine Interface) between the automatic driving system and the driver has not been developed.
本発明は、上記諸点にかんがみてなされたものであって、その目的とするところは、移動体に搭載されるセンサ類から提供される走行に直接関連する情報を運転者に視覚的に提示するためのシステムを提供するとともに、移動体が走行に関連する情報を入力している状況をも運転者に覚知させ得る情報提示システムを提供することである。 The present invention has been made in view of the above points, and an object of the present invention is to visually present to the driver information directly related to traveling provided by sensors mounted on a moving body. In addition to providing a system for this purpose, it is also to provide an information presentation system that can make the driver aware of the situation in which the moving body is inputting information related to traveling.
そこで、本発明は、有人の移動体に備えられて運転者に対して該移動体の走行に関連する情報を提示する情報提示システムであって、前記移動体の走行状態を示す走行情報、該移動体の外方における走行に必要な外部環境情報、および、該移動体を操作する運転者にかかる運転者情報のうち一種以上の情報を、センサ類から取得する情報取得手段と、前記情報取得手段により取得される情報から運転者に提示すべき提示情報を生成する制御手段と、前記制御手段により生成される提示情報を運転者に覚知させるための情報覚知手段とを備え、前記情報覚知手段は、複数の表示体を備え、該表示体は、それぞれが同一の形態変化によって、または個別に単独の形態変化によって運転者に覚知させるものであることを特徴とする。 Therefore, the present invention is an information presenting system provided for a manned mobile body and presenting information related to the running of the moving body to a driver, and the running information indicating the running state of the moving body, the same. An information acquisition means for acquiring one or more of the external environment information necessary for traveling outside the moving body and the driver information related to the driver operating the moving body from the sensors, and the information acquisition. The information includes a control means for generating presentation information to be presented to the driver from the information acquired by the means, and an information sensing means for making the driver aware of the presentation information generated by the control means. The recognizing means includes a plurality of display bodies, each of which causes the driver to be aware of the same morphological change or individually by a single morphological change.
上記構成によれば、走行情報、外部環境情報および運転者情報の一種以上を取得し、これらの情報に基づいて運転者に提示すべき情報が生成され、覚知手段によって運転者に情報提示されるものである。ここで、覚知手段としては、複数の表示体を備えており、この複数の表示体について、形態変化させることによって運転者の意識を喚起させ、走行関連情報を提示するものであり、表示体の形態とは、音(もしくは音声)による場合のほか、表示の形状、色彩、模様またはこれらの組合せであり、映像として形態を変化させる場合のほか、表示体を移動または回転させるなど、表示体を駆動することによって形態を変化させる場合もあり得る。文字による形態の表示もあり得るが、視覚的に瞬間認識できるためには、専ら外観上の変化による形態認識を中心とし、音声による場合は副次的な内容とすることができる。 According to the above configuration, one or more of driving information, external environment information and driver information are acquired, information to be presented to the driver is generated based on the information, and the information is presented to the driver by a conscious means. It is a thing. Here, as a means of awareness, a plurality of display bodies are provided, and the display bodies are used to arouse the driver's consciousness and present driving-related information by changing the form of the plurality of display bodies. The form of is not only by sound (or sound), but also by the shape, color, pattern or combination of these, and in addition to changing the form as an image, moving or rotating the display body, etc. The morphology may be changed by driving. Although it is possible to display the form by characters, in order to be able to visually recognize the moment, the form recognition by the change in appearance can be mainly focused, and in the case of voice, it can be a secondary content.
本発明の移動体は、その移動行程の一部または全部を制御する自動運転制御装置と、前記自動運転制御装置による移動運転モードと運転者による手動運転モードとの切り換えを可能にする切換手段とを備える場合があり、このような移動体の場合の制御手段は、自動運転モードへの切り換えが可能であることを提示する提示情報を生成し、または手動運転モードへの切り換えを示唆することを提示する提示情報を生成するものとすることができる。そして、運転者によって自動運転モードに切り換えられた場合には、外部環境情報のうち、移動体が走行に際して必要となるべき情報が取得されていることを提示するように提示情報を生成するような構成としている。 The moving body of the present invention includes an automatic driving control device that controls a part or all of the moving stroke, and a switching means that enables switching between the moving driving mode by the automatic driving control device and the manual driving mode by the driver. In the case of such a moving body, the control means may generate presentation information indicating that switching to the automatic driving mode is possible, or suggest switching to the manual driving mode. It is possible to generate the presentation information to be presented. Then, when the driver switches to the automatic driving mode, the presentation information is generated so as to indicate that the information that the moving body should need for driving is acquired among the external environment information. It has a structure.
さらに、本発明の情報的システムには、運転者の視覚に関する情報を取得する手段(アイトラッカー)を同時に備えることができ、運転者の視線を入力情報として、覚知手段における覚知の態様に反映させることが可能である。このような態様においては、自動運転時または手動運転時のいずれの場合においても、運転者の視線を検出し、覚知手段による覚知の状態が、運転者の視線に同調するように同一方向を注視している状態を表現させることも可能となる。覚知手段を構成する表示体が生物の様態を模したものであれば、運転者と表示体とが協力関係にあるような覚知方法も実現できる。また、走行時(特に自動運転時)において、運転者の視線が頻繁に特定の方向を示す場合、運転者が特に注視している事項を特別な情報として入力させることもでき、この情報の処理方法としては、移動体の走行における注意点を運転者が指示するような様態を形成することも可能となる。 Further, the information system of the present invention can be provided with a means (eye tracker) for acquiring information on the driver's vision at the same time, and the driver's line of sight is used as input information to form a mode of awareness in the awareness means. It is possible to reflect it. In such an embodiment, the driver's line of sight is detected in both automatic driving and manual driving, and the state of awareness by the sensing means is synchronized with the driver's line of sight in the same direction. It is also possible to express the state of watching. If the display body that constitutes the recognition means imitates the state of a living thing, it is possible to realize a recognition method in which the driver and the display body have a cooperative relationship. In addition, when the driver's line of sight frequently points in a specific direction during driving (especially during automatic driving), it is possible to input the matter that the driver is paying particular attention to as special information, and this information is processed. As a method, it is also possible to form a mode in which the driver gives instructions on points to be noted when traveling the moving body.
本発明によれば、複数の表示体によって形態変化によって走行関連情報を表示するため、運転者が運転操作を行っている場合には、運転に集中しつつ走行関連情報を視覚的に入手することができる。また、移動体が自動運転により走行している状況下においては、自動運転に際していかなる情報を入手しているかが表示体を介して提示されることとなり、運転者において、表示体以外の状況との比較、すなわち自らの観察による走行関連情報との比較を可能とするものである。従って、移動体が自動運転操作によって走行する場合においても、運転者において、正常な状況判断がなされていることを視覚的に覚知することができ、運転者を安心させることができる。 According to the present invention, since the driving-related information is displayed by changing the form by a plurality of display bodies, when the driver is performing the driving operation, the driving-related information can be visually obtained while concentrating on the driving. Can be done. In addition, in a situation where the moving body is traveling by automatic driving, what kind of information is obtained during automatic driving is presented through the display body, and the driver is in a situation other than the display body. It enables comparison, that is, comparison with driving-related information based on one's own observation. Therefore, even when the moving body travels by the automatic driving operation, the driver can visually recognize that the normal situation judgment is made, and the driver can be relieved.
以下、本発明の実施の形態を図面に基づいて説明する。図1は、本実施形態のシステムの概要を示している。本実施形態に係る情報提示システムは、車両等の移動体に搭載されるものであり、当該移動体は自動運転システム1が搭載されていることを前提とするものである。また、自動運転システム1は、自動運転制御装置による自動運転と運転者DRが運転操作する手動運転との相互間において、移動体の走行中に運転者DRの操作によって切換を可能としている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows an outline of the system of the present embodiment. The information presentation system according to the present embodiment is mounted on a moving body such as a vehicle, and it is premised that the moving body is equipped with the
自動運転システム1は、図1に示されるように、各種の情報を入手するための情報取得手段を備えている。例えば、位置情報の入手のためのGPS受信部11、地図データベース12、外部センサ13,内部センサ14などがある。これらの情報は、ECU(Electronic Control Unit)16に入力され、このECUによる制御により運転切換の可否の判定および自動運転時の走行制御を可能としている。
As shown in FIG. 1, the
外部センサ13は、移動体の外方における走行に必要な外部環境を取得するためのセンサ類であり、カメラ、レーダー、ライダー(LIDAR:Laser Imaging Detection and Ranging)などがある。カメラは、所定の外部環境を撮影するためのものであり、先行車や障害物などの物体の検出に必要な情報を取得するために使用される。また、画像処理によって、信号機、歩行者、構造物などを区別するとともに、信号機の表示の状態や道路標識の表示内容などを検出する。レーダーは、電波を利用して移動体外方の障害物などを検出するために使用される。ライダーは、光を利用して移動体外方の障害物などを検出するために使用される。外部環境に関する情報を入手するためには、これらの以外の入力装置を付加してもよく、入手情報は重複してもよい。また、重複する情報の入手が制御を混乱させる場合は、一部のセンサ類を省略してもよい。
The
内部センサ14は、移動体の走行状態を取得するためのセンサ類であり、車速センサ、加速度センサ、ヨーレートセンサなどがある。車速センサは、車輪または車軸における回転速度を検出するものである。加速度センサは、前後方向の加速度とともに、左右方向の加速度を検出するものである。ヨーレートセンサは、移動体の重心の鉛直軸周りの回転角速度を検出するものである。これらのセンサ類により、少なくとも移動体が走行している(または停止している)状況の基本的な状態を取得することができる。これらの情報をGPS情報や地図データ等に付加して処理することにより、走行計画に基づく運転状況を検出することも可能となる。
The
ECU16は、外部状況認識部および位置認識部を備えており、GPS受信部11,地図データベース12および外部センサ13から入力される情報により、外部状況および位置情報から、外部環境情報として認識する。なお、外部状況として認識されるべき事項としては、道路の幅や形状、移動体外方の障害物の存否、信号機や道路標識の表示内容などが挙げられる。
The
また、ECU16は、運転制御部を備えており、外部環境情報を参照しつつアクセル操作、ブレーキ操作および操舵操作を制御するものである。これらの操作には、スロットルアクチュエータ、ブレーキアクチュエータ、および操舵アクチュエータによるものであり、各アクチュエータによって各操作が制御されるものである。なお、予め走行計画が生成されるシステムでは、当該走行計画に基づいた走行を実現する。
Further, the
さらに、ECU16は、操作入力量検出部、走行状態認識部、運転者状態認識部、運転切換部などを備える。操作入力量検出部、運転者状態認識部および運転切換部は、後述の運転者情報センサ15により検出された情報を認識するものであり、走行状態認識部は、内部センサ14による走行状態を認識するものである。
Further, the
上記のECU16により認識され、または制御される情報は、HMIコントローラ20に出力され、さらに提示情報がHMI30に出力される。HMIコントローラ20およびHMI30の詳細は後述するが、HMIコントローラ20の概略は、情報の入力部、運転者DRに対する提示情報の生成部、および出力部などを備えている。出力部から出力された信号が、HMI30に入力され、運転者DRへ覚知するための情報が表示される構成となっている。HMIには複数の表示体が備えられ、例えば、アクチュエータの駆動により形態を変形するものとなっている。複数の表示体は、同時かつ同様の形態変化により提示情報を覚知させる場合のほか、個々の表示体が個別に形態変化し、総合的に提示情報を覚知させる場合がある。これらの覚知方法の相違は、走行安定時と緊急時とで区別することがあるほか、自動運転時と手動運転時とで区別することがある。いずれの場合においても、表示体によって表示される提示情報を運転者DRが確認することができる。なお、HMIは、移動体と運転者DRとの間で情報を入出力するためのインターフェースであり、入力としては音声認識のためのマイクなどを備えることができるほか、操作ボタンを備える構成としてもよい。
The information recognized or controlled by the
また、自動運転システム1には、運転者情報センサ15を備えている。この運転者情報センサ15は、移動体を操作する運転者DRの状態を検出するものであり、前記表示体によって表示された情報に基づき、適宜操作を行った、または行わなかったかを検出し、さらに視線に関する情報を得るためのアイトラッカーなどを備えている。なお、触覚センサはハンドルに設けられ、運転者DRよるハンドル操作が可能な状態であるかを検知し、操作入力量センサは、運転者DRの操作による操作量を検知するものである。切換操作スイッチは、運転者DRが自動運転と手動運転との切換操作を行ったことを検知するものである。
Further, the
本実施形態に係る情報提示システムの概要は上記のとおりであるが、自動運転システム1については、その他の機能を付加させたものであってもよい。また、HMIコントローラ20における制御部は、ECU16の制御装置によって作用させてもよいが、本実施形態では、HMIの機能を説明するうえで、個別のコントローラとして構成したものを例示している。
The outline of the information presentation system according to the present embodiment is as described above, but the
図2は、HMIコントローラ20およびHMI30の構成を示すものである。この図に示しているように、HMIコントローラ20は、制御部(制御手段)21と入出力部22とを備えている。入出力部22は、前述のECU16において外部環境情報(外部状況・位置情報など)および走行情報(走行状態など)として認識された各種センサ類の情報を入力し、また、HMI30から出力される情報を入力する。また、制御部21によって生成される制御信号をHMI30に出力する。入出力部22に入力される情報を取得する前記センサ類などが具体的な情報取得手段であるが、制御部21の入力情報モジュールを合わせた構成によって情報取得手段として機能するものと観念することができる。
FIG. 2 shows the configuration of the
制御部21は、入力情報認識モジュール、提示情報制御モジュール、提示情報生成モジュールおよび運転者状態認識モジュールを備えている。前記入出力部22から入力される情報は、入力情報認識モジュールまたは運転者状態認識モジュールにより、外部環境情報、走行情報および運転者情報として認識される。これらの情報は、提示情報制御モジュールによって、提示すべき情報として整理される。整理された情報は、提示情報生成モジュールによって出力信号が生成され、入出力部22を介してHMI30に出力される。
The
HMI30は、表示体31、スピーカ33および映像表示部34などを備え、情報覚知手段として機能するものである。情報覚知手段はこれらの全てを備えてもよいが、うち少なくとも一つによって構成してもよい。また、スピーカ33および映像表示部34は表示体31に内蔵させる構成としてもよい。
The
表示体31は、提示情報を視覚的に提示するためのものであり、複数の表示体(第1〜第n番目)31a,31b,・・・31nの集合体で構成されている。複数の表示体31a〜31nによって構成するのは、文字や図形で表示することなく、各表示体31a〜31bの形態を変化させるような情報提示方法により、視覚から直感的に情報を得るためである。表示体31a〜31nの形態を変化させるために、HMI30には、アクチュエータ32を設けている。例えば、表示体31a〜31nを球状の回転体で構成した場合は、その回転体を回転させるための駆動力に変化させるのである。また、各種アクチュエータにより、多種多様な形態の変化を可能にする。
The
スピーカ33は、音声として情報提示を行うものである。例えば、緊急時において、表示体31による情報提示では提示情報が不足する場合などで音声として情報提示させるのである。なお、スピーカ33は、提示情報のみを音声出力する必要はなく、平常時のように音声出力すべき情報が存在しない場合は、複数の表示体31a〜31nの形態変化と同期させることにより、表示体31とともに複数人会話を実行させてもよい。
The
映像表示部34は、表示体31またはこれに代わる表示部(ディスプレイパネル等)に映像を表示するものである。カーナビゲーションシステムを搭載する場合には、走行計画に従った走行状態であることを示すことができる。さらには、取得された外部環境情報のうちカメラから取得された映像を提示することもできる。なお、表示体31に対する映像表示の場合には、個々の表示体31a〜31nの形態変化を生じさせるような映像を提示するものとしてもよい。この場合の表示体31a〜31nは、映像が表示される機能を有する構造として製造される。
The
HMI30には、入力操作部35を備える構成としてもよい。入力操作部35は、例えば、タッチパネルや切換スイッチなどがある。タッチパネルの場合には、映像表示部34と兼用することができ、ナビゲーションシステムと連動する場合には、走行経路を変更する際の入力装置として機能させることができ、または、画像情報として提示される場合には、画像の表示切換として使用してもよい。切換スイッチは、自動運転と手動運転との切換スイッチなどがあり、前記自動運転システム1(図1)の運転者情報センサ15の切換操作スイッチに代えて設置することができる。なお、入力操作部35は、音声認識システムなどによることもでき、運転者DRが発する音声を取得して入力としてもよい。
The
運転者DRは、上記構成の表示体31の形態変化を視覚より認識し、そこに表示される内容から提示情報を覚知する。形態の変化は、直感的に認識できるものとし、その程度の提示情報の範囲で表示されるものである。また、スピーカから音声出力される音声情報により表示体31から認識できない情報を得ることができる。
The driver DR visually recognizes the morphological change of the
また、外部装置(運転者情報センサの一部)として、アイトラッキングシステム(アイトラッカー)15aが設けられ、移動体を操作すべき運転者DRの視線情報を入手できる構成としている。これは、手動運転時においては、注意すべき対象物(信号機や障害物など)に運転者DRの視線が移動しているかを確認するものであり、自動運転時においては、表示体31の表示情報や外方の対象物などの視認状態を、視線によって確認するものである。
Further, an eye tracking system (eye tracker) 15a is provided as an external device (a part of the driver information sensor) so that the line-of-sight information of the driver DR who should operate the moving body can be obtained. This is to confirm whether the line of sight of the driver DR is moving to an object (traffic light, obstacle, etc.) to be noted during manual driving, and the
視線情報の利用としては、例えば、手動運転時にあっては、視線情報の入力により、運転者DRが注意すべき対象物に視線を移していない場合には、表示体31の形態変化により表示し、その後も視線が移動しない場合は音声情報として提示する場合がある。また、自動運転時にあっては、表示体31によって表示されている内容を運転者DRが確認しているか否かを判断し、例えば、手動運転に切り換えるべき状態であることを表示体31によって表示させた場合、運転者DRが見たかどうかを確認するために使用する。手動運転に切り換えるべき状態であるにもかかわらず、表示体31を見ていない場合は音声情報によって覚知させるなどの判断基準にも利用され得る。
As for the use of the line-of-sight information, for example, in the case of manual driving, if the driver DR does not shift the line of sight to an object to be noted by inputting the line-of-sight information, the
さらに、視線情報は、運転者DRが表示体31に対して共感できるように、運転者DRの視線に追随させるための情報として使用することができる。運転者は、自動運転時および手動運転時のいずれの場合においても、移動体外方の情報を入手するため、視線を頻繁に移動するが、表示体31によって表示される内容を当該視線の方向に関するものとするのである。すなわち、表示体31による表示内容が、運転者DRにおいて視覚的かつ直感的に認知できるものであれば、その表示内容を専ら注視すべき方向とすることも可能となり、その注視すべき方向は、安定走行時においては、運転者DRの視線の方向とすることができる。この場合、表示体31が後述のように生物の様態を模したものであれば、両者による協力関係(共同注意態勢)が形成しているかのような態様を示すことができる。さらには、運転者とその視線方向とを、交互に注視することを表示内容とすれば、愛玩動物の仕草の一種(いわゆるゲイズオルタネーション)に類似する動作を表現することも可能となる。
Further, the line-of-sight information can be used as information for following the line-of-sight of the driver DR so that the driver DR can sympathize with the
また、視線情報は、運転者DRが注視する対象物を示す情報であることから、移動体を走行させる際の重要な情報である。そこで、視線情報のうち、繰り返し視線が向けられる方向に存在する対象物、または相対的に長く視線が向けられる方向の対象物については、特に注視すべき対象物として認識させることにも使用できる。この対象物の認識は、ECU16に記憶されることで、自動運転時における安全性の向上を促すこととなる。
Further, since the line-of-sight information is information indicating an object to be watched by the driver DR, it is important information when the moving body is driven. Therefore, among the line-of-sight information, an object that exists in a direction in which the line of sight is repeatedly directed, or an object in a direction in which the line of sight is directed for a relatively long time can be recognized as an object to be particularly watched. The recognition of the object is stored in the
なお、アイトラッキングシステム15aによって取得される情報は、直接HMIコントローラ20の入出力部22から制御部21に入力させてもよいが、一義的にECU16に出力し、他の入力情報とともにECU16からHMIコントローラ20へ出力させる構成としてもよい。
The information acquired by the
ここで、複数の表示体31a〜31nを使用するHMI30の具体例について説明する。図3は、HMI30の具体的形態を示すものである。具体的形態は、図3に示されるように、3つの表示体31a,31b,31cを有する構成としている。3つの表示体31a,31b,31cは、ベース36に設けられた3つの貫通孔37a,37b,37cに設置され、それらの各頭部が表面から露出させた状態としている。各表示体31a,31b,31cは、少なくとも頭部の形状が球状となっており、貫通孔37a,37b,37cに遊嵌された状態で回動可能となっている。また、ベース36の内部には、個々の表示体31a,31b,31cを駆動する3つのアクチュエータが設けられ、前記回動を駆動制御できるようになっている。従って、3つの表示体31a,31b,31cは、HMIコントローラ20からの出力により、個別にアクチュエータが作動し、球状頭部を回転させることができる構造となっている。
Here, a specific example of the
また、各表示体31a,31b,31cの球状頭部は、部分的に半透明部材によって周囲と区別され、当該区別された部分によって顔面形態部38a,38b,38cが形成されている。顔面形態部38a,38b,38cの内側に各2個ずつのLEDを設置することにより、目部形態部39a1,39a2,39b1,39b2を形成している。なお、図中に示されていなが、第3番目の表示体31cにも同様の目部形態部が形成されている。また、図は、スピーカや映像表示部を図示していないが、ベース36に設置することができるほか、別体で設けてもよい。また、HMIコントローラ20は、ベース36の内部に設けてもよく、これも別体として設置してもよい。ECUがHMIコントローラとしての機能を有する場合は、格別に設置する必要がないことは言うまでもない。
Further, the spherical heads of the
上記のように、顔面形態部38a〜38cおよび目部形態部39a1〜39b2を形成させることにより、表示体31a,31b,31cが、三つの表示生物のような態様としている。従って、ベース36の貫通孔37a,37b,37cが生物の首となり、頭部が回転することにより、顔面(視線)の向きを変更させる状態を模した様態となる。そこで、この顔面(視線)の変更により、形態の変化を実現するのである。このときの視線の変化は、動物などの生物が見る方向を示すものとして、運転者に対し、視覚的かつ直感的に表示することができる。その視線の変更により、運転者と共同して注意しているような状況を表現し得るとともに、緊急時には、特別な態様(生物が慌てた様子)を表現し得るものである。
As described above, by forming the facial
例えば、3つの表示体31a,31b,31cについて、全て同一方向に顔面(視線)を向けることにより、当該方向に重要な注意物の存在(提示情報)を提示し、また、例えば、これらの1つの表示体31cが、運転者の方向に顔面(視線)を向けることにより、運転者の状態を注視しているような状態を表現することができる。さらに、3つの表示体31a,31b,31cの全てが、小刻みに左右に回動することにより、慌てているような形態を表現し、緊急時である提示情報を示すことも可能となる。さらには、3つの表示体31a,31b,31cの顔面(視線)が相互に向かい合う状態とすることにより、複数話者における会話の状態であることを表現することも可能となる。特に、自動運転時においては、自動運転システムによって走行がコントロールされているが、自動運転システムにおいて取得される各種情報(センサが感知する情報)の所在に向かって、顔面(視線)を向けるように表示体31a,31b,31cを作動させることにより、自動運転システムが、どのような状態で走行しているのかを運転者に対して、感覚的に提示させることが可能となる。
For example, for all three
なお、目部形態部39a1〜39b2は、LED等の発光によって出現させるものであるが、この発光色を変化させることによって、形態変化を生じさせてもよい。この場合、自動運転時は、比較的安定した状態であって、その状態を示すために緑色に点灯させ、手動運転時においては、注意喚起のために赤色に点灯させる方法がある。そして、切換可能状態を示す場合には、点滅するなどによって覚知させる方法がある。これらの発光色の変化と、頭部の回転とを重畳的に表示させてもよい。 The eye portion morphology portions 39a1 to 39b2 are made to appear by emitting light from an LED or the like, but the morphology may be changed by changing the emission color. In this case, there is a method in which the vehicle is in a relatively stable state during automatic operation and is lit in green to indicate the condition, and is lit in red to call attention during manual operation. Then, when indicating the switchable state, there is a method of making the user aware by blinking or the like. The change in the emission color and the rotation of the head may be displayed in a superimposed manner.
また、上記のような顔面形態部38a〜38cおよび目部形態部39a1〜39b2は、頭部全体を映像表示画面として、内部から映像を投影させる構成としてもよい。この場合、頭部そのものを回転駆動する必要がなく、映像を編集することにより、頭部に投影される顔面形態部38a〜38cおよび目部形態部39a1〜39b2の映像によって、これらの向きが変更しているように視認させる方法としてもよい。
Further, the
上記構成のHMI30は、運転者から容易に確認できる場所に設置されるものである。例えば、設置すべき移動体が車両である場合には、図4に示すように、ハンドル前方または斜め前方の見やすい位置におけるダッシュボード表面に設置すれば、手動運転時であっても、表示体31a,31b,31cの動きを確認することができる。このように、文字による表示でなく、視覚的かつ直感的に提示情報が取得できることによって、手動運転時においては注意ポイントを瞬間的に把握でき、また、自動運転時においては、自動運転システムの作動状態を視覚的に把握することができる。
The
次に、HMIコントローラ20による制御方法について説明する。前述のとおり、HMI30による提示情報の表示は、音声や画像によるものもあるが、ここでは、専ら表示体に対する制御方法を説明する。図5および図6は、制御フローを示すものである。図5は自動運転時(これを自動運転モードという)における制御フローであり、図6は手動運転時(これを手動運転モードという)における制御フローである。
Next, a control method by the
図5に示されているように、自動運転モードにおいては、センサ情報(取得情報)が読み込まれ(S101)、さらに、走行情報が読み込まれる(S102)。これら読み込まれた情報に基づいて、まずは、自動走行(自動運転モードによる走行)の継続について可能か否かが判断される(S103)。この判断は、センサ類によって取得されたセンサ情報(検出値)と、これらの数値に関する閾値との比較によってなされる。ここでは、HMIコントローラで判断しているが、通常はECUで処理される。自動走行が可能な場合は、自動運転モード状態としての表示処理がなされる。すなわち、自動走行中において運転者に提示すべき情報(表示情報)を選択し、その情報を表示情報として生成し(S104)、複数の表示体ごとに駆動制御情報として生成したうえ(S105)、駆動部(アクチュエータ)に対して出力する(S106)。取得情報は時々刻々変化することから、HMIコントローラが終了しない限り(S107)、センサ情報を再度読み込む(S101)ことから制御は繰り返される。 As shown in FIG. 5, in the automatic driving mode, the sensor information (acquired information) is read (S101), and further, the driving information is read (S102). Based on the read information, first, it is determined whether or not it is possible to continue the automatic driving (driving in the automatic driving mode) (S103). This judgment is made by comparing the sensor information (detected value) acquired by the sensors with the threshold value related to these numerical values. Here, the determination is made by the HMI controller, but it is usually processed by the ECU. When automatic driving is possible, display processing is performed as an automatic driving mode state. That is, information (display information) to be presented to the driver during automatic driving is selected, the information is generated as display information (S104), and is generated as drive control information for each of a plurality of display bodies (S105). Output to the drive unit (actuator) (S106). Since the acquired information changes from moment to moment, the control is repeated because the sensor information is read again (S101) unless the HMI controller is terminated (S107).
前記自動走行可能か否かの判断(S103)において、自動走行が不可能である場合には、走行切換(手動走行への切換)を促すための情報が生成される(S111)。手動走行への切換情報は、段階的な表示情報を設定することができる。例えば、緊急性を有する場合、近い将来に手動運転が必要となる場合、手動・自動のいずれでも可能であるが手動運転が好ましい場合などがある。ここでは、手動運転が好ましい場合を例に説明する。このような場合には、手動運転を促すための表示情報に沿った駆動部(アクチュエータ)の駆動制御情報を生成し(S112)、駆動部に出力する(S113)。その後、切換スイッチ等の情報を取得し、運転モードが切り換えられたか否かが判断される(S114)。運転モードが切り換えられていない場合は、切換が完了するまで、同様の駆動制御情報が駆動部に出力される。切換が完了した場合は、その後は手動運転モードにおける制御に変更される。 In the determination of whether or not automatic driving is possible (S103), if automatic driving is not possible, information for prompting travel switching (switching to manual driving) is generated (S111). As the switching information to manual driving, stepwise display information can be set. For example, there are cases where there is an urgency, manual operation is required in the near future, manual operation or automatic operation is possible, but manual operation is preferable. Here, a case where manual operation is preferable will be described as an example. In such a case, the drive control information of the drive unit (actuator) is generated (S112) along with the display information for encouraging manual operation, and is output to the drive unit (S113). After that, information on the changeover switch and the like is acquired, and it is determined whether or not the operation mode has been changed (S114). If the operation mode has not been switched, the same drive control information is output to the drive unit until the switching is completed. When the switching is completed, the control is then changed to the manual operation mode.
上記駆動情報としては、前記に例示した表示体31a,31b,31cによる場合、自動走行時における表示情報としては、外部環境情報のうち、一般的に注視すべき対象物(歩行者、先行車両、信号機等)に対して顔面(視線)を向けること、また、一部の表示体の顔面(視線)を運転者の方向に向けることなどがある。他方、手動運転への切換を促す表示情報の場合には、全ての表示体の顔面(視線)を運転者の方向に向けること、または全てが小刻みに揺れる(左右に往復回転する)ことなどが挙げられる。
When the drive information is based on the
手動運転モードにおいては、図6に示しているように、センサ情報(取得情報)の読み込み(S201)および走行情報の読み込み(S102)が行われ、これらの情報に基づいて、自動走行の可能性が判断される(S203)。この判断についても、自動運転の継続性の判断と同様であり、センサ情報(検出値)が閾値との比較によるものである。自動運転が不可能な場合は、手動運転が継続されることから、表示情報は手動運転に応じたものが生成される(S204)。当該表示情報に基づき、駆動制御情報が生成され(S205)、駆動情報が出力されるのであり(S206)、HMIコントローラが終了されない限り、情報の読み込み(S201)から繰り返される。 In the manual operation mode, as shown in FIG. 6, sensor information (acquired information) is read (S201) and driving information is read (S102), and based on these information, there is a possibility of automatic driving. Is determined (S203). This judgment is the same as the judgment of the continuity of automatic driving, and the sensor information (detection value) is compared with the threshold value. When the automatic operation is impossible, the manual operation is continued, so that the displayed information is generated according to the manual operation (S204). Based on the display information, drive control information is generated (S205), drive information is output (S206), and unless the HMI controller is terminated, the information is read (S201) and repeated.
前記自動走行の可能性判断(S203)において、自動走行が可能であると判断される場合は、自動走行への切換が可能な状態であることを表示する(S211〜S213)。自動運転が可能であることの情報提示にあっては、自動運転を促すものではなく、可能であることを示すのみである。これは、自動運転が可能であるとしても自動運転モードが強制されるべき事態ではないからである。そこで、自動運転可能であることの情報提示がなされた後、運転モードの切換について判断されるが(S214)、切換がなされていない場合であっても、手動運転モードと同様の制御がなされる(S204〜S207)。なお、自動運転への切換が完了すれば、自動運転モードによる制御に移行する。 When it is determined in the possibility determination (S203) of automatic driving that automatic driving is possible, it is displayed that switching to automatic driving is possible (S211 to S213). In presenting information that autonomous driving is possible, it does not encourage automatic driving, but merely indicates that it is possible. This is because even if automatic driving is possible, the automatic driving mode should not be forced. Therefore, after the information that the automatic operation is possible is presented, the operation mode switching is determined (S214), but even if the switching is not performed, the same control as the manual operation mode is performed. (S204 to S207). When the switching to the automatic operation is completed, the control shifts to the automatic operation mode.
上記駆動情報としては、前記に例示した表示体31a,31b,31cによる場合、手動走行時における提示情報としては、外部環境情報のうち、一般的に注視すべき対象物(歩行者、先行車両、信号機等)に対して、その優先度(重要度)に応じて、同時または個別に、個々の表示体について、顔面(視線)を変更することが挙げられる。また、一部の表示体の顔面(視線)を運転者の方向に向けて、運転者の視線情報を取得している状態を表示してもよい。自動運転が可能であることを示す表示情報としては、全ての表示体の顔面(視線)を進行方向に向けることなどが挙げられる。
When the drive information is based on the
なお、前述の目部形態部は、LCD等の光によって表示するものであるが、この光の色彩を変更させる形態変化もあり得ることから、自動運転モードでは、目部形態部を緑色とし、手動運転モードでは赤色として、視覚によって現在モードを表示してもよい。また、モードの切換を促す場合または切換可能である場合を表示するものとして、当該光を点滅させるような形態変化を行うことでもよい。 The above-mentioned eye morphology is displayed by light from an LCD or the like, but since there may be a morphological change that changes the color of this light, in the automatic operation mode, the eye morphology is green. The current mode may be visually displayed as red in the manual operation mode. Further, the form may be changed so as to blink the light as a display for prompting the mode switching or the case where the mode can be switched.
ここで、代表的な表示体の制御方法について説明する。図7は自動走行時における表示体の制御フローであり、図8は手動走行時における表示体の制御フローである。なお、既に説明した部分は重複するため、ここでは省略している。 Here, a typical display body control method will be described. FIG. 7 is a control flow of the display body during automatic driving, and FIG. 8 is a control flow of the display body during manual driving. Since the parts already explained are duplicated, they are omitted here.
図7に示されているように、自動運転時においては、表示すべき情報(表示情報)が読み込まれる(前述により作成された表示情報が使用される)ことにより(S301)、手動運転への切換情報が含まれているかが判断される(S302)。切換情報が含まれない場合は、自動運転状態が継続されることから、その内容に応じて表示体への情報が制御される。このとき、表示すべき情報の数が多数である場合、その数と表示体の数とを比較し(S303)、表示体の数よりも多い場合、具体的には、表示体の1個を除き、残りの数よりも表示情報が多い場合には、表示すべき情報について優先順位を決定する(S304)。表示情報の優先順位は、個々の情報に対して予め順位を設定しておき、その設定順位に従って決定される。例えば、外部環境情報のうちの、歩行者情報を第1順位とし、信号機情報を第2順位とすることができ、また、走行情報のうちの速度情報を第3順位とするように、自動走行において重要となるべき要素について順位が設定される。さらに、例えば、特別に注視すべき対象が存在しない場合などにあっては、運転者の視線に追随させるように、その優先順位を運転者の視線の追随として設定してもよい。 As shown in FIG. 7, during automatic operation, the information to be displayed (display information) is read (the display information created above is used) (S301), so that manual operation can be performed. It is determined whether the switching information is included (S302). When the switching information is not included, the automatic operation state is continued, so that the information to the display body is controlled according to the content. At this time, when the number of information to be displayed is large, the number is compared with the number of display bodies (S303), and when the number is larger than the number of display bodies, specifically, one of the display bodies is used. Except, when there is more display information than the remaining number, the priority is determined for the information to be displayed (S304). The priority of the display information is determined according to the setting order in which the order is set in advance for each piece of information. For example, pedestrian information can be ranked first among external environmental information, traffic light information can be ranked second, and speed information among driving information can be ranked third. Ranking is set for the elements that should be important in. Further, for example, when there is no object to be paid special attention to, the priority may be set to follow the driver's line of sight so as to follow the driver's line of sight.
上記の優先順位に従って、複数の表示体(全体の数−1)に対して、必要な表示を行う。ここでの必要な情報とは、前記例示の場合には、表示体の顔面(視線)を注視すべき方向へ向けるような内容である。特に、自動運転の場合には、操舵が自動で操作され、また、加速し、減速し、または停止するものであるが、それらの操作の原因となる外部環境について、運転者に表示させることが重要となる。そのため、操舵の場合、加減速の場合などに応じて、優先順位を変更してもよく、この場合は、走行情報の取得が同時になされることとなる。なお、多数の表示情報は、第1順位から順次繰り下げて、個々の表示体によって段階的に表示内容を変更し、短時間で全ての表示情報を表示させるように制御してもよい。 According to the above priority, the necessary display is performed on a plurality of display bodies (total number-1). In the case of the above-mentioned example, the necessary information here is such that the face (line of sight) of the display body is directed in the direction to be watched. In particular, in the case of automatic driving, steering is automatically operated, and acceleration, deceleration, or stop is performed, but it is possible to display the external environment that causes these operations to the driver. It becomes important. Therefore, in the case of steering, the priority may be changed according to the case of acceleration / deceleration, and in this case, the traveling information is acquired at the same time. It should be noted that a large number of display information may be sequentially moved down from the first order, the display contents may be changed stepwise by each display body, and control may be performed so that all the display information is displayed in a short time.
残余の1個の表示体については、任意情報が表示されるように制御されている。任意の表示情報とは、運転者に対する表示であり、例えば、前記例示の場合には、顔面(視線)を運転者の方向に向けて、運転者を観察している状態を表示するようなものである。このように、1個の表示体について自由度を与え、表示情報を表示させないことにより、緊急時等の情報を表示させるための重要な表示手段とするのである。すなわち、緊急性を有する表示情報を表示させるときには、この残余の表示体の形態変化によって、緊急状態を示すことができるのである。任意情報には、動物の仕草の一種であるゲイズオルタネーションを再現するように、運転手の目元と、視線に追随する方向との二方向に対し、顔面(視線)を交互に向けるようなものとしてもよい。 Arbitrary information is controlled to be displayed for the remaining one display body. The arbitrary display information is a display for the driver, and for example, in the above example, the face (line of sight) is directed toward the driver to display a state in which the driver is being observed. Is. In this way, by giving a degree of freedom to one display body and not displaying the display information, it is an important display means for displaying information such as an emergency. That is, when displaying urgent display information, it is possible to indicate an urgent state by changing the form of the residual display body. Arbitrary information is like turning the face (line of sight) alternately in two directions, the driver's eyes and the direction that follows the line of sight, so as to reproduce the gaze alternation, which is a type of animal gesture. May be.
前記読込情報における手動運転への切換情報が含まれている場合には、まず、緊急性の有無が判断される(S311)。緊急性がない場合とは、手動運転が望ましいが、手動運転に切り換えなければならない状況ではない場合である。このような場合には、切換情報を表示することとなる。この切換表示は、全ての表示体が使用されることとなる。この表示の後、手動運転に切り換えられたか否かが判断され(S313)、切り換えられれば、手動運転時の表示体制御に移行する(S314)が、切り換えられない場合は、通常の自動運転時における表示として制御される。 When the read information includes the information for switching to manual operation, the presence or absence of urgency is first determined (S311). The case where there is no urgency is when manual operation is desirable, but it is not a situation where it is necessary to switch to manual operation. In such a case, the switching information will be displayed. All display bodies will be used for this switching display. After this display, it is determined whether or not the operation has been switched to manual operation (S313), and if it is switched, the control shifts to the display body control during manual operation (S314), but if it cannot be switched, during normal automatic operation. It is controlled as a display in.
また、手動運転への切換情報において、緊急性を有すると判断された場合には、表示体全体に対して、緊急に手動運転に切り換えるべきであることを知らせる表示制御がなされる(S321)。そして、切換の完了を確認し(S322)、切り換えられれば、手動運転時の表示体制御に移行する(S323)。切換がなされない場合は、自動運転における走行が継続可能かを判断し(S324)、走行可能である場合は、上記のような表示制御を継続させるが、走行できない場合には、結果的にECUによって緊急停止されることとなり、表示制御は終了する(S325)。 Further, when it is determined that there is an urgency in the switching information to the manual operation, the display control is performed to notify the entire display body that the manual operation should be urgently switched (S321). Then, the completion of the switching is confirmed (S322), and if the switching is performed, the control of the display body during manual operation is started (S323). If the switching is not made, it is determined whether the running in the automatic driving can be continued (S324), and if the running is possible, the above display control is continued, but if the running is not possible, the ECU results as a result. Will result in an emergency stop, and display control will end (S325).
手動運転時における表示体の制御は、図8に示すように、読み込まれた情報(S401)に基づき、自動運転切換情報の有無が判断されたうえで(S402)、切換情報が含まれない場合は、1個の表示体を除き、残りの表示体を使用して、優先順位に応じて表示情報が表示される(S403〜405)。優先順位に従った表示の方法、および1個の表示体が任意の情報を表示すること(S406)については、自動運転時における表示体制御の場合と同様であり、また、表示制御が終了するまで上記処理が繰り返される(407)。 As shown in FIG. 8, the control of the display body during manual operation is performed when the presence or absence of automatic operation switching information is determined based on the read information (S401) (S402) and the switching information is not included. Displays display information according to the priority order using the remaining display bodies except for one display body (S403 to 405). The display method according to the priority and the display of arbitrary information by one display body (S406) are the same as in the case of display body control during automatic operation, and the display control ends. The above process is repeated until (407).
読込情報に切換情報が含まれる場合は、全ての表示体を使用して切換可能であることを表示する(S411)。なお、表示の方法は前述のとおりである。そして、切換の状態が判断され(S412)、切り換えられた場合は、自動運転時における表示体制御に移行する(S413)が、切り換えられない場合は、通常の手動運転時の表示体制御として処理されることとなる(S403〜S407)。 When the read information includes the switching information, it is displayed that the switching is possible by using all the display bodies (S411). The display method is as described above. Then, the switching state is determined (S412), and if it is switched, it shifts to the display body control during automatic operation (S413), but if it cannot be switched, it is processed as the display body control during normal manual operation. Will be done (S403 to S407).
このように、表示体の制御においては、その全てを同様に制御するのではなく、少なくとも1個の表示体について自由度を与えることにより、種々の状態を表示体によって運転者に覚知させることが可能となるのである。そして、前述のように、表示体が生物の様態を有するものである場合には、その顔面(視線)の方向を制御することとなり、その方向によって、センサ類が何を検知しているか、特に、自動運転時においては、これらのセンサ類が正常に機能しているのか、そしてまた、自動運転システムによって制御され走行する移動体が、そのような状態で、何に注視しつつ走行を継続しているのかが、運転者において容易に確認することが可能となるのである。 As described above, in the control of the display body, not all of them are controlled in the same manner, but various states are made known to the driver by the display body by giving a degree of freedom to at least one display body. Is possible. Then, as described above, when the display body has the appearance of a living thing, the direction of the face (line of sight) is controlled, and what the sensors detect, in particular, according to the direction. At the time of automatic driving, whether these sensors are functioning normally, and also, in such a state, the moving body controlled by the automatic driving system continues to run while paying attention to what. It is possible for the driver to easily confirm whether or not the vehicle is operating.
本発明の実施形態は上記のとおりであるが、上記実施形態は本発明の一例を示すものであり、本発明が上記実施形態に限定されるものではない。従って、上記実施形態に示した構成については適宜変更してもよい。例えば、具体的な表示体の例として図3および図4を示して説明した。この実施形態では3つの表示体を例示したが、この数は適宜増減することができる。また、図示したベース26の形状は、三方向へ延出するアーチ状としているが、この形状についても適宜変更が可能である。すなわち、表示体を4個にする場合は、ベース26の中央を中心として、四方に各1個の表示体を配置する構成とすることができ、また、アーチ状のベース26は円形または矩形の箱体に形成してもよい。 The embodiment of the present invention is as described above, but the above embodiment shows an example of the present invention, and the present invention is not limited to the above embodiment. Therefore, the configuration shown in the above embodiment may be changed as appropriate. For example, FIGS. 3 and 4 have been shown and described as examples of specific display bodies. In this embodiment, three display bodies are illustrated, but the number can be increased or decreased as appropriate. Further, the shape of the base 26 shown in the drawing is an arch shape extending in three directions, but this shape can also be changed as appropriate. That is, when the number of display bodies is four, one display body can be arranged on each side with the center of the base 26 as the center, and the arch-shaped base 26 is circular or rectangular. It may be formed in a box body.
さらに、個々の表示体31a,31b,32cは、ベース26に設置したが、ベース26を設けずに、個別に自立する表示体によって構成してもよい。具体的には、図9に示すような卵型の表示体131a,131b,131cを自在な場所に設置することも可能である。この卵型の表示体は、低重心に構成することにより、自立可能であり、生物の様態を模した頭部や目部を備えており、全体が回転するか、または頭部に映像を投影させることにより、その形態を変化させることが可能である。また、卵型を呈する外形を変形させることによって形態を変化させてもよい。
Further, although the
上記形態の表示体に代えて、または追加的に表示パネルを設ける構成であってもよい。生物の様態に模した表示物体は、パネル内に映像として表示してもよい。表示パネルはタッチパネルを兼用させることにより、入力操作部を表示体と一体的に構成することができる。 A display panel may be provided in place of or additionally of the display body of the above form. A display object that imitates the appearance of a living thing may be displayed as an image in the panel. By using the display panel also as a touch panel, the input operation unit can be integrally configured with the display body.
1 自動運転システム
11 GPS受信部
12 地図データベース
13 外部センサ
14 内部センサ
15 運転者情報センサ
15a アイトラッキングシステム
16 ECU
20 HMIコントローラ
21 制御部
22 入出力部
30 HMI
31 表示体
31a,31b,31c,31n,131a,131b,131c 個々の表示体
32 アクチュエータ
33 スピーカ
34 映像表示部
35 入力操作部
36 HMIのベース
37a,37b,37c 貫通孔
38a,38b,38c 顔面形態部
39a1,39a2,39b1,39b2 目部形態部
1
20
31
Claims (11)
前記移動体の走行状態を示す走行情報、該移動体の外方における走行に必要な外部環境情報、および、該移動体を操作する運転者にかかる運転者情報のうち一種以上の情報を、センサ類から取得する情報取得手段と、前記情報取得手段により取得される情報から運転者に提示すべき提示情報を生成する制御手段と、前記制御手段により生成される提示情報を運転者に覚知させるための情報覚知手段とを備え、
前記情報覚知手段は、複数の表示体を備え、該表示体は、その一部または全部が移動、回転または変形することによって形態を変化させるものであり、それぞれが同一の形態変化によって、または個別に単独の形態変化によって運転者に覚知させるものであることを特徴とする情報提示システム。 An information presentation system provided for a manned mobile body and presenting information related to the running of the moving body to the driver.
A sensor detects one or more of the running information indicating the running state of the moving body, the external environmental information necessary for running outside the moving body, and the driver information related to the driver who operates the moving body. Make the driver aware of the information acquisition means acquired from the class, the control means for generating the presentation information to be presented to the driver from the information acquired by the information acquisition means, and the presentation information generated by the control means. Equipped with information awareness means for
The information-aware means includes a plurality of display bodies, and the display bodies change their morphology by moving, rotating, or deforming a part or all of the display bodies, each of which is changed by the same morphological change or by the same morphological change. An information presentation system characterized in that the driver is made aware of each individual by a single form change.
前記移動体の走行状態を示す走行情報、該移動体の外方における走行に必要な外部環境情報、および、該移動体を操作する運転者にかかる運転者情報のうち一種以上の情報を、センサ類から取得する情報取得手段と、前記情報取得手段により取得される情報から運転者に提示すべき提示情報を生成する制御手段と、前記制御手段により生成される提示情報を運転者に覚知させるための情報覚知手段とを備え、
前記情報覚知手段は、複数の表示体を備え、該表示体は、それぞれが同一の形態変化によって、または個別に単独の形態変化によって運転者に覚知させるものであり、
前記表示体は、映像を表示するものであり、前記制御手段は、前記映像を生成する機能を有するものであり、表示体の部分的領域または全体領域において、顔面形態部および目部形態部の映像が移動し、回転しまたは変形するような態様で表示させるものであり、前記映像の移動、回転または変形によって表示される形態を変化させるものであることを特徴とする情報提示システム。 An information presentation system provided for a manned mobile body and presenting information related to the running of the moving body to the driver.
A sensor detects one or more of the running information indicating the running state of the moving body, the external environmental information necessary for running outside the moving body, and the driver information related to the driver who operates the moving body. Make the driver aware of the information acquisition means acquired from the class, the control means for generating the presentation information to be presented to the driver from the information acquired by the information acquisition means, and the presentation information generated by the control means. Equipped with information awareness means for
The information SatoshiTomo means comprises a plurality of display bodies, the display body state, and are not each be SatoshiTomo the driver by the same morphological changes, or individually by a single morphological changes,
The display body displays an image, and the control means has a function of generating the image, and in a partial area or an entire area of the display body, the facial morphology portion and the eye morphology portion An information presentation system characterized in that an image is displayed in such a manner that it moves, rotates, or is deformed, and the displayed form is changed by the movement, rotation, or deformation of the image.
前記制御手段は、自動運転モードへの切り換えが可能であることを提示する提示情報を生成し、または手動運転モードへの切り換えを示唆することを提示する提示情報を生成するものである
ことを特徴とする請求項1または2に記載の情報提示システム。 The moving body includes an automatic driving control device that controls a part or all of the moving stroke, and a switching means that enables switching between the automatic driving mode by the automatic driving control device and the manual driving mode by the driver. ,
The control means is characterized in that it generates presentation information that suggests that switching to the automatic operation mode is possible, or generates presentation information that suggests switching to the manual operation mode. The information presentation system according to claim 1 or 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017029018A JP6913316B2 (en) | 2017-02-20 | 2017-02-20 | Information presentation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017029018A JP6913316B2 (en) | 2017-02-20 | 2017-02-20 | Information presentation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018134902A JP2018134902A (en) | 2018-08-30 |
JP6913316B2 true JP6913316B2 (en) | 2021-08-04 |
Family
ID=63364651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017029018A Active JP6913316B2 (en) | 2017-02-20 | 2017-02-20 | Information presentation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6913316B2 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4380541B2 (en) * | 2005-01-07 | 2009-12-09 | トヨタ自動車株式会社 | Vehicle agent device |
JP4682760B2 (en) * | 2005-09-09 | 2011-05-11 | マツダ株式会社 | Vehicle information display device |
JP4985103B2 (en) * | 2007-05-28 | 2012-07-25 | トヨタ自動車株式会社 | Automatic vehicle driving device |
JP5228716B2 (en) * | 2007-10-04 | 2013-07-03 | 日産自動車株式会社 | Information presentation system |
JP5187517B2 (en) * | 2008-11-27 | 2013-04-24 | 株式会社デンソーアイティーラボラトリ | Information providing apparatus, information providing method, and program |
US8909414B2 (en) * | 2009-12-14 | 2014-12-09 | Volkswagen Ag | Three-dimensional corporeal figure for communication with a passenger in a motor vehicle |
JP6642972B2 (en) * | 2015-03-26 | 2020-02-12 | 修一 田山 | Vehicle image display system and method |
-
2017
- 2017-02-20 JP JP2017029018A patent/JP6913316B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018134902A (en) | 2018-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109032124B (en) | Vehicle control system, vehicle control method, and storage medium | |
US11492017B2 (en) | Information presentation device and information presentation method | |
JP6938244B2 (en) | Vehicle control systems, vehicle control methods, and vehicle control programs | |
CN110678371B (en) | Vehicle control system, vehicle control method, and storage medium | |
JP6495971B2 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
JP6961690B2 (en) | Vehicle control systems, vehicle control methods, and programs | |
JP6460425B2 (en) | Vehicle control system, vehicle control method, and program | |
JP6547155B2 (en) | Vehicle control system, vehicle control method, and program | |
CN110709304B (en) | Vehicle control system, vehicle control method, and storage medium | |
WO2018220828A1 (en) | Vehicle control system, vehicle control method and program | |
WO2016013153A1 (en) | Notification system for vehicle, notification control device, and notification device | |
WO2018220832A1 (en) | Vehicle control system, vehicle control method, and program | |
JP2019006275A (en) | Vehicle control system, vehicle control method, and vehicle control program | |
CN107097793A (en) | Driver assistance and the vehicle with the driver assistance | |
JP6765523B2 (en) | Vehicle control systems, vehicle control methods, and vehicle control programs | |
JP2018203009A (en) | Vehicle control system, vehicle control method, and program | |
JPWO2020036108A1 (en) | Vehicle display system and vehicle | |
JP6508845B2 (en) | Vehicle control system, vehicle control method, and program | |
JP2020080167A (en) | Vehicle control system, vehicle control method, and program | |
JP2018203014A (en) | Imaging display unit | |
JP6508846B2 (en) | Vehicle control system, vehicle control method, and program | |
JP6913316B2 (en) | Information presentation system | |
WO2022085487A1 (en) | Camera module, information processing system, information processing method, and information processing device | |
WO2021132250A1 (en) | In-vehicle display device and program | |
CN116895186A (en) | Traffic safety auxiliary system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210701 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6913316 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |