JP2005106649A - Device for providing information for vehicle - Google Patents
Device for providing information for vehicle Download PDFInfo
- Publication number
- JP2005106649A JP2005106649A JP2003340745A JP2003340745A JP2005106649A JP 2005106649 A JP2005106649 A JP 2005106649A JP 2003340745 A JP2003340745 A JP 2003340745A JP 2003340745 A JP2003340745 A JP 2003340745A JP 2005106649 A JP2005106649 A JP 2005106649A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- occupant
- accuracy
- information
- information providing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は車両用情報提供装置に関連し、詳細には、設定された対象物の見かけ上の位置を車両の乗員に視覚的に知らせる車両用情報提供装置に関連する。 The present invention relates to a vehicular information providing apparatus, and more particularly, to a vehicular information providing apparatus that visually informs a vehicle occupant of a set apparent position of an object.
設定された目的地までの経路情報を車両の乗員に提供して車両を目的地まで誘導する車両用情報提供装置(ナビゲーション装置)が知られている(特許文献1参照)。このような装置では、経路およびその他の情報は、専用の表示画面からの視覚的情報またはスピーカからの音声情報として車両の乗員に伝達される。 There is known a vehicle information providing device (navigation device) that provides route information to a set destination to a vehicle occupant to guide the vehicle to the destination (see Patent Document 1). In such a device, the route and other information are transmitted to the vehicle occupant as visual information from a dedicated display screen or audio information from a speaker.
しかしながら、上述したナビゲーション装置を含む車両用情報提供装置においては、視覚的な情報は、センターコンソール付近に配置されたモニタ画面に表示されることによって、運転者および他の乗員に伝達される。 However, in the vehicle information providing device including the navigation device described above, visual information is transmitted to the driver and other occupants by being displayed on a monitor screen arranged near the center console.
このため、フロントガラス越しに前方を見ながら運転している運転者は、車両用情報提供装置から視覚的な情報を得るためには、視線を車両前方からセンタコンソール付近のモニタ画面に移動させなければならなかった。また、他の乗員の場合も、視覚的な情報を得るときには、視線をセンタコンソール付近のモニタ画面に移動させる必要があった。 For this reason, a driver driving while looking forward through the windshield must move his line of sight from the front of the vehicle to a monitor screen near the center console in order to obtain visual information from the vehicle information providing device. I had to. In the case of other occupants as well, in order to obtain visual information, it is necessary to move the line of sight to the monitor screen near the center console.
また、モニタ画面の画像表示は、地図やイラストによる画像であり、実際に視認している風景とはイメージが著しく異なっているため、ある対象物(車窓から見える施設等)をモニタ画面で確認しても、モニタ画面から実際の風景に視線を戻したときに、モニタ画面上で確認していた対象物を、視認している現実の風景中では特定しにくかった。
さらに、モニタ画面による表示では遠近感がつかみにくいため、モニタ画面上で確認した対象物を現実に視認している風景中では特定しにくかった。
In addition, the image displayed on the monitor screen is an image of a map or illustration, and the image is significantly different from the scenery that is actually viewed. Therefore, an object (such as a facility that can be seen from the car window) is confirmed on the monitor screen. However, when the line of sight is returned from the monitor screen to the actual landscape, it is difficult to identify the object confirmed on the monitor screen in the actual landscape being viewed.
Furthermore, since it is difficult to grasp the perspective on the display on the monitor screen, it is difficult to specify the object confirmed on the monitor screen in the scenery where the object is actually visually recognized.
本発明はこのような状況においてなされたものであり、乗員が視線を大きく移動させることなく、対象物の見かけ上の位置を確実に乗員に知らせることができる車両用情報提供装置を提供することを目的とする。 The present invention has been made in such a situation, and provides a vehicle information providing apparatus that can surely notify an occupant of an apparent position of an object without causing the occupant to largely move his / her line of sight. Objective.
本発明によれば、車両の乗員に、予め設定された対象物の位置情報を視覚的に提供する車両用情報提供装置であって、前記車両の走行中、前記乗員が前記設定された対象物を視認可能であるか否かを判定する視認判定手段と、前記設定された対象物を視認可能であると判定されたときに、該視認可能な対象物を示す画像情報を前記乗員が視認している現実の風景に重畳して表示することによって、該乗員に前記対象物の前記風景内での見かけ上の位置を視覚的に知らせる位置情報表示手段と、前記対象物の特定精度を検出する精度検出手段と、前記特定精度に関する情報を前記乗員に通知する精度通知手段と、を備えている、ことを特徴とする車両用情報提供装置が提供される。 According to the present invention, there is provided a vehicle information providing device for visually providing position information of a preset object to a vehicle occupant, wherein the occupant is set to the set object while the vehicle is traveling. When it is determined that the set object is visible, the occupant visually recognizes image information indicating the object that can be visually recognized. A position information display means for visually informing the occupant of the apparent position of the object in the landscape, and detecting the specific accuracy of the object. There is provided an information providing apparatus for a vehicle, characterized by comprising: an accuracy detecting unit; and an accuracy notifying unit for notifying the occupant of information relating to the specific accuracy.
ここで、「対象物を視認可能」には、現実の風景中で、対象物を肉眼で直接、識別可能な場合の他、対象物が車両から離れているため対象物が見かけ上、小さく、肉眼で識別することはできないが、この対象物が存在している場所(位置)を見渡すことができる状態が含まれる。 Here, “the object can be visually recognized” means that the object is apparently small because the object is away from the vehicle, in addition to the case where the object can be directly identified with the naked eye in a real landscape. Although it cannot be identified with the naked eye, it includes a state where the place (position) where the object exists can be looked over.
「車両走行中」には、車両が実際に走行している場合の他に、車両が一時的に停車している場合等の全ての車両使用状態が含まれる。さらに、「対象物」には、ガソリンスタンド、コンビニエンスストア、レストラン、ホテル、温泉地、公共或いはその他の建物などの施設、または、山、河、湖などの地形などの視覚によって識別できるものが含まれる。 “Vehicle traveling” includes all vehicle use states such as when the vehicle is temporarily stopped, as well as when the vehicle is actually traveling. In addition, "objects" include facilities such as gas stations, convenience stores, restaurants, hotels, hot springs, public or other buildings, or things that can be visually identified such as mountains, rivers, lakes, etc. It is.
「特定精度」とは、現実の風景に重畳して表示される指示表示(矢印等)が対象物を差す正確さを意味しており、特定精度が高い(良い)とは指示表示(矢印等)が正確に現実の風景中の対象物を差していることを意味し、特定精度が低い(悪い)とは画像が正確に現実の風景の対象物を差していることを意味する。 “Specific accuracy” means the accuracy with which an instruction display (such as an arrow) superimposed on an actual landscape indicates an object, and high (good) identification accuracy indicates an instruction display (such as an arrow) ) Means that the object in the real landscape is accurately pointed out, and the low (bad) specific accuracy means that the image accurately points to the object in the real landscape.
このような構成によれば、乗員は、画像情報が現実の風景の中で対象物をどの程度、正確に示しているかを知ることができる。すなわち、車両の振動、車両の挙動変化、または、乗員自身の姿勢変化によって、画像情報の見かけ上の位置が所定の位置からズレることがある。このようなとき、乗員は、画像情報の位置ズレに関する情報が得られず、ズレた位置に見えている画像情報に基づいて判断を行い、例えば、誤った位置を差す矢印によって差された対象物を、本来、矢印が差すべき対象物であると、誤認してしまうことがある。しかしながら、このような構成によれば、このような問題を未然に防ぐことができる。 According to such a configuration, the occupant can know how accurately the image information indicates the object in the actual landscape. That is, the apparent position of the image information may deviate from the predetermined position due to vehicle vibration, vehicle behavior change, or occupant's own posture change. In such a case, the occupant cannot obtain information on the positional deviation of the image information, makes a determination based on the image information that appears at the shifted position, for example, an object that is pointed by an arrow that indicates an incorrect position. May be misunderstood as an object to which an arrow should be originally attached. However, according to such a configuration, such a problem can be prevented in advance.
本発明の他の好ましい態様によれば、前記精度検出手段は、車両の振動、車両の挙動、車両の乗員の姿勢変化、車両の現在位置特定精度、表示すべき複数の対象物の見かけ上の間隔、表示すべき対象物の見かけ上の大きさ、または、表示すべき対象物までの距離に基づいて特定精度を検出する。 According to another preferred aspect of the present invention, the accuracy detecting means includes vehicle vibration, vehicle behavior, vehicle occupant posture change, vehicle current position specifying accuracy, and appearance of a plurality of objects to be displayed. The specific accuracy is detected based on the interval, the apparent size of the object to be displayed, or the distance to the object to be displayed.
本発明の他の好ましい態様によれば、前記精度通知手段が、前記特定精度の悪化原因を通知する。このような構成によれば、乗員は、精度悪化の要因を取り除いて、対象物の特定精度を向上させることができる場合がある。
本発明の他の好ましい態様によれば、前記精度通知手段が、前記特定精度の悪化原因に対する対処方法を通知する。このような構成によっても、乗員は、精度悪化の要因を取り除いて、対象物の特定精度を向上させることができる場合がある。
According to another preferred aspect of the present invention, the accuracy notification means notifies the cause of the deterioration of the specific accuracy. According to such a configuration, the occupant may be able to improve the accuracy of specifying the object by removing the factor of deterioration of accuracy.
According to another preferred aspect of the present invention, the accuracy notification means notifies a coping method for the cause of the deterioration of the specific accuracy. Even with such a configuration, the occupant may be able to improve the accuracy of specifying the object by removing the factor of deterioration of accuracy.
本発明の他の好ましい態様によれば、前記画像情報が提供され且つ前記乗員の一が指定した対象物を特定する対象物指定手段を、備え、前記対象物指定手段による対象物の特定が行われているときに、前記精度通知手段が、前記通知を行う。
このような構成によれば、乗員は、画像情報によって表わされた位置情報の正確さを参考に、画像情報が提供された対象物を特定することができる。
According to another preferred aspect of the present invention, the image processing apparatus includes object specifying means for specifying the object that is provided with the image information and specified by one of the occupants, and the object specifying means performs the object specifying. The accuracy notification means performs the notification.
According to such a configuration, the occupant can specify the object to which the image information is provided with reference to the accuracy of the position information represented by the image information.
本発明の他の好ましい態様によれば、前記特定精度が所定値より悪いときには、前記対象物指定手段による対象物の特定を禁止させる特定禁止手段を備えている。このような構成によれば、対象物の特定精度が悪化に起因して、誤った対象物が特定されることが防止される。 According to another preferred aspect of the present invention, there is provided a specification prohibiting means for prohibiting the specification of an object by the object specifying means when the specifying accuracy is worse than a predetermined value. According to such a configuration, it is possible to prevent an erroneous target object from being specified due to deterioration in the accuracy of specifying the target object.
本発明の他の好ましい態様によれば、前記精度通知手段は、常時、前記通知を行う。このような構成によれば、乗員は、常時、対象物の特定精度に関する情報を得ることができる。 According to another preferred aspect of the present invention, the accuracy notification means always performs the notification. According to such a structure, the passenger | crew can always obtain the information regarding the specific precision of a target object.
本発明の他の好ましい態様によれば、前記車両が実際に走行しているときには、前記精度通知手段による前記通知を規制する通知規制手段を、更に備えている。
本発明の他の好ましい態様によれば、前記特定精度が所定値より悪いときには、位置情報表示手段は前記乗員の視線変化に応答する前記画像情報の表示位置の変更を遅らせる。
本発明の他の好ましい態様によれば、前記精度通知手段は、前記特定精度に関する情報を、前記乗員が視認している現実の風景に重畳することによって通知する。
According to another preferred aspect of the present invention, the vehicle further includes notification restriction means for restricting the notification by the accuracy notification means when the vehicle is actually traveling.
According to another preferred aspect of the present invention, when the specific accuracy is worse than a predetermined value, the position information display means delays the change of the display position of the image information in response to the change in the line of sight of the occupant.
According to another preferred aspect of the present invention, the accuracy notifying means notifies the information related to the specific accuracy by superimposing the information on the actual scenery that the occupant is viewing.
本発明の他の態様によれば、車両の乗員に、予め設定された対象物の位置情報を視覚的に提供する車両用情報提供方法であって、前記車両の走行中、前記乗員が前記設定された対象物を視認可能であるか否かを判定するステップと、前記設定された対象物を視認可能であると判定されたときに、該視認可能な対象物を示す画像情報を前記乗員が視認している現実の風景に重畳して表示することによって、該乗員に前記対象物の前記風景内での見かけ上の位置を視覚的に知らせるステップと、前記対象物の特定精度を検出するステップと、前記特定精度に関する情報を前記乗員に通知するステップと、を備えていることを特徴とする車両用情報提供方法が提供される。 According to another aspect of the present invention, there is provided a vehicle information providing method for visually providing position information of a preset object to a vehicle occupant, wherein the occupant sets the setting while the vehicle is traveling. The occupant receives the image information indicating the visible object when it is determined that the set object can be visually recognized; Visually informing the occupant of the apparent position of the object in the landscape by superimposing it on the actual scenery being viewed, and detecting the specific accuracy of the object And a step of notifying the occupant of information relating to the specific accuracy. A vehicle information providing method is provided.
本発明の他の態様によれば、車両の乗員に、予め設定された対象物の位置情報を視覚的に提供する車両用情報提供装置を作動させるプログラムであって、前記車両の走行中、前記乗員が前記設定された対象物を視認可能であるか否かを判定し、前記設定された対象物を視認可能であると判定されたときに、該視認可能な対象物を示す画像情報を前記乗員が視認している現実の風景に重畳して表示することによって、該乗員に前記対象物の前記風景内での見かけ上の位置を視覚的に知らせ、前記対象物の特定精度を検出し、前記特定精度に関する情報を前記乗員に通知するように車両用情報提供装置を作動させる、ことを特徴とするプログラムが提供される。 According to another aspect of the present invention, there is provided a program for operating a vehicular information providing device that visually provides position information of a preset object to a vehicle occupant. It is determined whether or not an occupant can visually recognize the set object, and when it is determined that the set object is visible, image information indicating the object that can be visually recognized is displayed. By superimposing and displaying the actual scenery that the occupant is visually recognizing, the occupant is visually informed of the apparent position of the object in the scenery, and the specific accuracy of the object is detected, There is provided a program characterized by operating a vehicle information providing apparatus so as to notify the occupant of information relating to the specific accuracy.
本発明によれば、乗員が視線を大きく移動させることなく、対象物の見かけ上の位置を確実に乗員に知らせることができる車両用情報提供装置が提供される。 ADVANTAGE OF THE INVENTION According to this invention, the information provision apparatus for vehicles which can notify a passenger | crew reliably the apparent position of a target object, without a passenger | crew moving a eyes | visual_axis largely is provided.
以下、添付図面を参照して本発明の好ましい実施形態の車両用情報提供装置の構成を説明する。本実施態様の車両用情報提供装置は、車両の乗員が視認している現実の風景に、レストラン、店舗、ホテル等の施設、または、山などを含む対象物(車窓から見えるもの)に関する画像情報を、現実に視認している風景と重畳するバーチャル画像として仮想表示することにより、乗員に対象物の見かけ上の位置を知らせる機能を備えている。さらに、乗員が視認している現実の風景に、設定されたメッセージ、広告等をバーチャル画像として重畳して仮想表示する機能も備えている。 Hereinafter, a configuration of a vehicle information providing apparatus according to a preferred embodiment of the present invention will be described with reference to the accompanying drawings. The vehicle information providing apparatus according to this embodiment includes image information related to an object (visible from a vehicle window) including a facility such as a restaurant, a store, a hotel, or a mountain in an actual scenery visually recognized by a vehicle occupant. Is virtually displayed as a virtual image superimposed on the scenery that is actually visually recognized, thereby providing a function of notifying the occupant of the apparent position of the object. Furthermore, it has a function of superimposing a set message, advertisement or the like as a virtual image on a real landscape visually recognized by the occupant and displaying it virtually.
図1は本発明の実施態様の車両用情報提供装置1を含む車両用情報提供システム(バーチャルインリアルシステム)の構成を概略的に示す図面である。図1において、符号1は、車載の車両用情報提供装置を示している。本実施態様では、車両用情報提供装置1は、設定された目的地までの経路誘導等を行う車載の経路誘導装置(ナビゲーション装置)としての機能も備えている。
また、この車両用情報提供システムには、車両用情報提供装置1に対して情報の提供等を行う情報センタ(サーバ)2が設けられている。車両用情報提供装置1、各地域に設置された通信局3を経由して、インターネット4に接続可能であり、地図情報、バーチャル画像(画像情報)に関する情報を含む種々の情報を情報センタ2から受信できるように構成されている。
FIG. 1 is a drawing schematically showing a configuration of a vehicle information providing system (virtual real system) including a vehicle
The vehicle information providing system is provided with an information center (server) 2 that provides information to the vehicle
本実施態様は、グループ走行する複数の車両の車両用情報提供装置1間での共通の情報が提供等されるように構成され、図1では、複数の車両用情報提供装置1がインターネット4を介して接続されている。インターネット4には、乗員の自宅の端末装置(パソコン)6、自社の広告等の配信を希望する企業、店舗等の端末装置(パソコン)8も接続されている。
This embodiment is configured such that common information is provided between the vehicle
情報センタ2は、ホストコンピュータ10と、データベース12とを備えている。
図2に示されているように、データベース12には、地図データ14、施設関連データ16、顧客データ18等が含まれる。地図データ12には、道路に関する情報の他、建物の大きさなどの三次元データが含まれている。従って、本実施形態では、この三次元データに基づいて、道路上の各位置から周囲の建物、風景がどのように見えるかを推定することができる。施設関連データ16には、本実施態様で位置情報が提供される「対象物」の位置、名称、特徴等のデータが含まれる。
また、顧客データ18には、情報提供を受ける車両の乗員に関するデータ、この乗員が設定した目的地、経路に関するデータ等が含まれる。顧客データ18は、さらに、この乗員が結んでいる情報配信の契約内容に関する情報配信契約データ20、この乗員が設定したバーチャル画像の形態等に関する仮想表示用データ22等を含んでいる。
The
As shown in FIG. 2, the
Further, the customer data 18 includes data related to a vehicle occupant who receives information, data related to a destination and a route set by the vehicle occupant, and the like. The customer data 18 further includes information
データベース12は、さらに、風景に重畳して仮想表示される画像情報を提供するための画像情報提供用データ24を含んでいる。この画像情報提供用データ24は、風景に重畳表示するための対象物のバーチャル画像、先行車両等の経路誘導用のバーチャル画像を含むバーチャル表示用画像データ26、乗員が配信を受諾した広告に関する広告配信用データ28等を含んでいる。
The
車両用情報提供装置1は、入力されたデータや乗員の操作に基づいて車両を目的地まで経路誘導を行うとともに、予め設定された対象物の見かけ上の位置を車両乗員に知らせるなどの機能を有するCPU30を備えている。
また、車両用情報提供装置1は、地図情報、建物情報、バーチャル画像に関する情報等の各種の情報を情報センタ2からインターネット4を経由して受信し、且つ、種々の情報を車両側から情報センタ2に送信するための送受信装置32を備えている。この送受信装置32は、例えば、自動車電話、携帯電話あるいは専用の無線送受信機によって構成される。また、この送受信装置32は、複数台によるグループ走行時に、グループの他の車両との間で、音声・情報の送受信を行うコミュニケーション手段としても機能する。
The vehicle
The vehicle
車両用情報提供装置1は、更に、情報センタ2から受信した地図情報、バーチャル画像に関する情報を記憶するHDD記憶装置34と、地図情報等の種々の情報を表示するモニタ画面36と、情報センタ2からの地図情報とは別に車両側で独自に準備した地図情報、建物情報を格納するDVD−ROM38、目的地設定、情報センタ2への地図情報リクエスト等を行いための操作スイッチ40と、情報センタ2から情報が受信できないときにその旨を警告する警報装置42を備えている。
The vehicular
車両用情報提供装置1は、さらに、車両の現在位置を検出するGPS受信機44、車速センサ46及びジャイロセンサ48を備えている。GPS受信機44は、衛星から電波を受信して車両の現在位置を検出し、車速センサ46は移動距離を求めるために車両の速度を検出し、ジャイロセンサ48は車両の移動方向すなわち向きを検出する。車両用情報提供装置1は、これらの各センサ46、46、48の検出結果から、車両の現在の位置および向きを正確に算出できるように構成されている。
The vehicle
また、車両用情報提供装置1は、運転者等の乗員の目の位置および視線を検出し、これらに基づいて、この乗員が視認している現実の風景に、所定のバーチャル画像情報を重畳する機能を備えている。このようなバーチャル画像の表示を行うため、車両用情報提供装置1は、アイカメラ50、バーチャル画像表示装置52、及び、CCDカメラ54を備えている。
In addition, the vehicle
アイカメラ50は、キャビン内の上部位置(ルームミラーの一部)に取付けられ、乗員の瞳孔等を撮影することにより、乗員の瞳孔の位置、視線の方向、及び、視認物までの距離等を検出することができるように構成されている。ここで、アイカメラには、例えば、EOG法、光電素子式EOG(P−EOG)法、角膜反射法、第1・第4プルキンエ像検出法、コンタクトレンズ法、サーチコイル法、赤外線眼底カメラ法等の種々の技術が適用される。アイカメラ50は、車両中の各乗員の視線を検出することができるのが好ましい。また、アイカメラ50の代えて、車両中の各乗員の視線を検出する他の手段を用いた構成としてもよい。
The
本実施態様は、CPU30が、アイカメラ50により検出された乗員の瞳孔の位置および車両の現在の位置および向きとに基づいて、地図データを検索し、所定の対象物をこの乗員が視認可能であるかを判定し、視認可能であるときには、この対象物に関するバーチャル画像情報をこの乗員が視認している現実の風景に重畳して仮想表示させるように構成されている。バーチャル画像表示装置52は、このような仮想表示を実行する装置であり、ホログラムなどの方法によって、対象物を差す矢印、対象物の名称等の対象物に関する情報を、乗員のみが視認できるバーチャル画像として、乗員が視認している現実の風景に重畳して表示させる装置である。
In this embodiment, the
また、CCDカメラ54は、車両の上部に車両前方を向けて取付けられ、撮影した画像から、前方を走行する他の車両の有無、交通量(渋滞の有無及び渋滞の程度)、歩行者の有無及び量、車外の明るさ、天候等を検出できるように構成されている。CCDカメラ54による検出結果は、CPU30に送られ、CPU30は、この結果に基づいて、バーチャル画像の表示状態を変更、禁止等する。
The
車両用情報提供装置1は、さらに、音声対話装置56を備えている。音声対話装置56は、スピーカおよびマイクを備え、乗員に音声情報を提供するとともに、乗員からの音声による指示を受け付ける機能を備えている。
The vehicular
図3は、本実施形態の車両用情報提供装置1が搭載された車両の運転席の周囲を示す図面である。
運転席の近傍のAピラーには、スピーカ58が取付けられており、このスピーカ58により、乗員への音声ガイダンス、通知等が行われる。スピーカ58に隣接してマイク60が配置され、乗員(特に運転者)からの音声による指示を、CPU30に送ることができるように構成されている。
運転席シート62、助手シート64および図示しない他のシートには、乗員検知センサが組み込まれ、シート毎に乗員の有無を検出できるように構成されている。
FIG. 3 is a view showing the periphery of the driver's seat of the vehicle on which the vehicle
A
An occupant detection sensor is incorporated in the
ダッシュボードには、車両用情報提供装置1のCPU30等が組み込まれた車両用情報提供装置1の本体ユニット66が取付けられている。本体ユニット66の近傍には、車両用情報提供装置1のモニタ画面36が配置されている。本実施態様では、ルームミラー68にアイカメラ50が組み込まれ、各乗員の瞳の位置、視線を検出できるように構成されている。さらに、本実施態様では、インターネット4を介して情報センタ2との間で、情報の授受を行う送受信装置32が運転席と助手席の間に取付けられている。
The
本実施態様では、ダッシュボードのホログラムを利用したバーチャル画像表示装置52が組み込まれている。図3では、設定された対象物であるガソリンスタンドのバーチャル画像(イラストまたは写真)68と、これを差す矢印、および、この対象物に関する情報(「目的のガソリンスタンドです」)等が、バーチャル画像表示装置52によって、乗員が視認できるように乗員が視認している現実の風景中の対象物の見かけ上の位置にホログラムで、表示されている状態が示されている。
In the present embodiment, a virtual
次に、車両用情報提供装置1を含む車両用情報提供システムの動作を説明する。図4は、車両用情報提供システム全体の動作を車両用情報提供装置1で行われる処理を中心に示すフローチャートである。
バーチャル画像による情報提供を受けることを希望する乗員(例えば運転者)であるユーザは、事前に、自宅にパソコン6等から情報センタ2にアクセスすることにより、バーチャルインリアルシステムの情報提供の形態等を特定するイニシャル(初期)設定(ステップS1)を行う。このバーチャルインリアルシステムは、車載端末に無線通信で情報を提供する所謂「テレマティクス」の一態様であり、提供を受ける情報の量等に応じた料金をユーザが情報料として支払う有料のシステムである。尚、ユーザが、住所・氏名等の必要な個人情報の登録を既に行っているものとする。
Next, the operation of the vehicle information providing system including the vehicle
A user who is an occupant (for example, a driver) who wishes to receive information provided by a virtual image accesses the
イニシャル設定では、まず、図5に示されているような視力に関連する検証・登録を行うためのイニシャル設定Iの画面がユーザのパソコン6の画面に表示される。「視力検証及び視認レベル検証」の項を選択することによって、視力・動体視力等を検査するための画面が表示され、この検査用画面によってユーザの視力等が検査され、検査結果がユーザの視力等に関するデータとして情報センタの顧客データ18に記録される。
次いで、「アイポジション登録」の項を選択すると、乗車時に、車載のアイカメラ50から得られた画像に基づいて車両のシートに着座した状態におけるユーザの目の位置が登録されることになる。なお、運転者に関しては、シートの位置およびルームミラーの角度から目の位置を推定する構成でもよい。
In the initial setting, first, an initial setting I screen for verification / registration related to visual acuity as shown in FIG. 5 is displayed on the screen of the user's personal computer 6. By selecting the item “Verification of visual acuity and verification of visual recognition level”, a screen for inspecting visual acuity / moving body visual acuity, etc. is displayed. Is recorded in the customer data 18 of the information center.
Next, when the item of “eye position registration” is selected, the position of the user's eyes in the state of being seated on the vehicle seat is registered based on the image obtained from the in-
次いで、図6に示されているようなイニシャル設定IIの画面がユーザのパソコン6の画面に表示される。このイニシャル設定IIの設定画面では、バーチャル画像の表示を行うか否か、どのような表示方法とするか等が設定される。以下、詳細に説明する。
まず、「仮想物体表示」の項で「ON」または「OFF」のいずれかを選択して、バーチャル画像の表示を行うか否かを設定する。「OFF」の場合には、このシステムが作動しないこととなる。「ON」を選択したときには、「NAVI表示」、「伝言表示」、「広告表示」のそれぞれの項で、「ON」または「OFF」のいずれかを選択することにより、どのようなバーチャル画像の提供を受けるかを決定する。
Next, an initial setting II screen as shown in FIG. 6 is displayed on the screen of the user's personal computer 6. On the setting screen of this initial setting II, whether or not to display a virtual image and what display method to use are set. Details will be described below.
First, “ON” or “OFF” is selected in the “virtual object display” section to set whether or not to display a virtual image. In the case of “OFF”, this system is not operated. When “ON” is selected, any virtual image can be selected by selecting “ON” or “OFF” in each of the “NAVI display”, “message display”, and “advertising display” items. Decide whether to receive the offer.
「NAVI表示」を「ON」としたときには、車両走行中に、特定の対象物を差す矢印、対象物の画像等がバーチャル画像として車窓越しに視認している現実の風景に重畳して仮想表示される「NAVI表示」が所定条件下で実行されることになる。本実施態様では、デフォルトとして、対象物を差す矢印と対象物の名称とが表示されるように構成されている。したがって、例えば、設定された対象物である目的地の富士山が走行中にフロントガラス越しに見えてくると、図7に示されているように、現実の富士山を指す矢印と「目的地の富士山です」という対象物に関する情報(名称)とが、乗員が視認している風景に重畳されて表示される。
また、所定の設定を行うことにより、図8に示されているように、設定された対象物である「ガソリンスタンド」、「レストラン」、「公園」がフロントガラス越しに視認可能な位置に到達すると、これらの対象物の画像(イラスト、写真等)が現実の風景中の「ガソリンスタンド」、「レストラン」、「公園」の見かけ上の位置に、現実の風景に重なるように表示され、さらに、各画像を差す矢印と、各対象物の関する情報「ガソリンスタンド」、「目的地のレストランです。残り13kmです」、「○△公園」が現実の風景に重ねて仮想表示される。対象物の画像を表示するか否か等の表示形態の設定は、以下の項目で行われる。
When “NAVI display” is set to “ON”, an arrow pointing at a specific object, an image of the object, etc. are superimposed as a virtual image on the actual scenery viewed through the vehicle window while the vehicle is running. The “NAVI display” is executed under a predetermined condition. In this embodiment, an arrow indicating the target and the name of the target are displayed as a default. Therefore, for example, when Mt. Fuji at the destination, which is the set object, can be seen through the windshield while traveling, an arrow pointing to the actual Mt. Fuji and “Mt. The information (name) on the object “is” is displayed superimposed on the scenery that the occupant is viewing.
In addition, by performing a predetermined setting, as shown in FIG. 8, the set objects “gas station”, “restaurant”, and “park” reach a position where they can be seen through the windshield. Then, images of these objects (illustrations, photos, etc.) are displayed at the apparent positions of “gas stations”, “restaurants”, and “parks” in the actual landscape so as to overlap the actual landscape. The arrows indicating the images and the information “Gas station”, “Destination restaurant. The remaining 13 km”, and “◯ △ park” relating to each object are virtually displayed over the actual scenery. The setting of the display form such as whether or not to display the image of the object is performed by the following items.
「伝言表示」を「ON」としたときには、乗員或いは友人によって設定された伝言(メッセージ、落書き)が、車両走行中に所定条件下で、バーチャル画像として視認している現実の風景に重畳して仮想表示される「伝言表示」が実行されることになる。 When “message display” is set to “ON”, a message (message, graffiti) set by a passenger or a friend is superimposed on a real scene visually recognized as a virtual image under a predetermined condition while the vehicle is running. Virtually displayed “message display” is executed.
また、「広告表示」を「ON」としたときには、車両走行中に、このシステムに広告を提供する契約を行っている企業、店舗からの広告を受信することを受諾したことになり、設定されている広告メッセージが、バーチャル画像として視認している現実の風景に重畳して仮想表示する「広告表示」が所定条件下で実行されることになる。 Also, when “Advertisement Display” is set to “ON”, it means that it has been accepted to receive advertisements from companies and stores that have contracted to provide advertisements to this system while the vehicle is running. The “advertisement display” in which the displayed advertisement message is superimposed on the actual landscape visually recognized as a virtual image is displayed under predetermined conditions.
図6の例では、「NAVI表示」、「伝言表示」、「広告表示」のいずれもが「ON」とされている。
又、本実施態様では、「NAVI表示」、「伝言表示」、「広告表示」を、地域ごとに選択できるように構成されている。例えば、一般的に地元では、地理に明るいので「NAVI表示」は不要となるので、特定の地域でのみ、「NAVI表示」を「OFF」とできる。また、初めて行く目的地にドライブするとき、その目的地の周辺地域でのみ、「NAVI表示」を「ON」とすることもできる。「伝言表示」、「広告表示」についても、同様である。
In the example of FIG. 6, “NAVI display”, “message display”, and “advertisement display” are all “ON”.
In the present embodiment, “NAVI display”, “message display”, and “advertisement display” can be selected for each region. For example, in general, “NAVI display” is not necessary in the local area because it is bright in geography. Therefore, “NAVI display” can be set to “OFF” only in a specific area. In addition, when driving to a destination to go for the first time, “NAVI display” can be set to “ON” only in the peripheral area of the destination. The same applies to “message display” and “advertisement display”.
次に、「仮想物体表示物の優先順位設定」で、2種類の仮想物体表示物(バーチャル画像)の表示を同時に実行できないとき、どちらを優先的に行うかを設定する。例えば、バーチャル画像の表示が音声ガイダンスを伴う設定となっていると、「NAVI表示」における「目的地の富士山です」との音声ガイダンスと、「広告表示」における「RX−8誕生」との音声ガイダンスが時間的にオーバラップしてしまうことがあるので、このようなオーバラップに対処する設定である。図示の例では、1.伝言、2.NAVI、3.広告の順に、優先順位が付けられている。したがって、伝言とNAVIがオーバラップしたときには、まず「伝言表示」が実行され、次いで「NAVI表示」が実行されることになる。 Next, in “virtual object display object priority setting”, which of the two types of virtual object display objects (virtual images) cannot be executed simultaneously is set. For example, if the display of the virtual image is set to include voice guidance, the voice guidance of “It is Mt. Fuji of the destination” in “NAVI display” and the voice of “Birth of RX-8” in “Advertisement display” Since the guidance may overlap in time, this setting is for dealing with such overlap. In the example shown, Message, 2. NAVI, 3. Priorities are given in the order of advertisements. Therefore, when the message and the NAVI overlap, the “message display” is executed first, and then the “NAVI display” is executed.
次に、「仮想物体の表示設定」の項で、仮想物体(バーチャル画像)の表示状態を設定する。まず、「拡大率」の項で、仮想表示される対象物のバーチャル画像(例えば、図8のガソリンスタンドのバーチャル画像)の大きさ、文字の大きさを設定する。大きさは、「等倍」、「2倍」、「3倍」または「自動」のいずれかから選択される。「等倍」は、対象物の車両からの見かけ上の大きさと同じ大きさ(等倍)またはデフォルト設定されている文字の大きさを意味し、「2倍」、「3倍」は、この等倍の2倍または3倍を意味する。また、「自動」は、対象物との距離が所定より大きいときには、拡大表示(例えば2倍の表示)とし、所定以下となると、等倍表示に切り替える設定である。図6の例では、「等倍」が選択されている。 Next, the display state of the virtual object (virtual image) is set in the section “Virtual Object Display Settings”. First, the size of the virtual image (for example, the virtual image of the gas station in FIG. 8) of the object to be virtually displayed and the size of the characters are set in the “magnification” section. The size is selected from “same size”, “2 times”, “3 times” or “automatic”. “Same size” means the same size (same size) as the apparent size of the object from the vehicle, or the default character size. “2 times” and “3 times” It means 2 times or 3 times the same magnification. In addition, “automatic” is a setting in which enlarged display (for example, double display) is performed when the distance to the object is greater than a predetermined value, and switching to the normal display is performed when the distance is less than the predetermined value. In the example of FIG. 6, “same size” is selected.
次いで、「同時表示数」の項で、同時に表示されるバーチャル画像の数が設定される。表示されるバーチャル画像の数が多くなること等を防止するための設定である。本実施態様では、「標準」、「最少」、「少なめ」、「多め」、「最多」のいずれかから選択するように構成され、図6の例では、「標準」が設定されている。この項も地域毎に設定可能である。 Next, the number of virtual images to be displayed at the same time is set in the item “number of simultaneous displays”. This is a setting for preventing an increase in the number of displayed virtual images. In this embodiment, it is configured to select one of “standard”, “minimum”, “less”, “more”, and “most”, and “standard” is set in the example of FIG. This item can also be set for each region.
次いで、「重畳表示」の項で、バーチャル画像同士がオーバラップする際の取扱いを設定する。本実施態様では、「禁止」または「許容」のいずれを選択し、「禁止」を選択したときには、「ずらして表示」または「禁止」のいずれかを選択する。「許容」を選択したときは、複数のバーチャル画像のオーバーラップして表示される場合がある。また、「ずらして表示」を選択すると、所定位置に表示したのでは重なってしまうバーチャル画像が、重ならない程度にずらして表示される。また、「禁止」を選択すると、バーチャル画像がオーバーラップする場合には、重なる複数のバーチャル画像の全て、または、一以外を禁止してしまう。 Next, in the “superimposed display” section, handling when virtual images overlap is set. In this embodiment, either “prohibited” or “allowed” is selected, and when “prohibited” is selected, either “shifted display” or “prohibited” is selected. When “Allow” is selected, a plurality of virtual images may be displayed overlapping each other. When “shift display” is selected, virtual images that overlap if displayed at a predetermined position are displayed so as not to overlap. If “prohibited” is selected, if the virtual images overlap, all of the overlapping virtual images or other than one are prohibited.
最後に、「対象表示エリア」の項で、どの領域に仮想物体(バーチャル画像)を表示するかを設定する。本実施態様では、「標準」、「狭く」、「広く」、「最大」のいずれかを選択する。例えば、「広く」はフロントガラス全体を通した領域を対象とし、「標準」はフロントガラスの右半分(運転席前方部分)のみを通した領域を対象とし、「狭く」はフロントガラスの右半分(運転席前方部分)の一部のみを通した領域対象とし、最大はフロントガラスの他、側方のガラスを通した領域も対象とする設定である。図6の例では、「標準」が選択されている。 Finally, in the “target display area” section, it is set in which area the virtual object (virtual image) is displayed. In this embodiment, any one of “standard”, “narrow”, “wide”, and “maximum” is selected. For example, “wide” covers the area through the entire windshield, “standard” covers the area through only the right half of the windshield (the front part of the driver's seat), and “narrow” means the right half of the windshield. It is a setting that targets only a part of (the front part of the driver's seat) through the area, and the maximum is an area through the side glass in addition to the windshield. In the example of FIG. 6, “standard” is selected.
次に、「仮想物体の表示時間」の項で、仮想物体(バーチャル画像)の表示継続時間を設定する。本実施態様では、「連続時間」、「合計時間」の2種類が特定される。「連続時間」は1回の表示の継続時間であり、視認可能であれば表示し続ける「見える間ずっと」と、表示開示から15秒経過で表示を終了する「15秒」とから選択される。図6の例では、「15秒」が選択されている。
また、「合計時間」は、視認可能となった対象物(富士山)が、道路が曲がっている等の理由で視認不可能となり、再度、視認可能となったときのような複数回の表示の合計時間を規制するものであり、図6の例では、「3分」が選択されている。したがって、図7の例では、走行中、矢印と「目的地の富士山です」のバーチャル画像を、最長で合計3分しか表示されない。
Next, the display duration of the virtual object (virtual image) is set in the section “Virtual Object Display Time”. In this embodiment, two types of “continuous time” and “total time” are specified. “Continuous time” is the duration of one display, and is selected from “While visible” if it is visible, and “15 seconds” when the display is terminated after 15 seconds from display disclosure. . In the example of FIG. 6, “15 seconds” is selected.
In addition, the “total time” indicates that the object (Mt. Fuji) that has become visible becomes invisible for reasons such as a curved road, and is displayed multiple times as when it becomes visible again. The total time is regulated, and “3 minutes” is selected in the example of FIG. Therefore, in the example of FIG. 7, the arrow and the virtual image of “Destination Mt. Fuji” are displayed for a total of only 3 minutes at the longest during traveling.
最後に、「その他の設定」で、「音声案内の併用」、「オブジェクト表示併用」、「乗員毎に表示補正を行う」、「拡大/縮小/削除機能を行う」の項の設定を行う。
「音声案内の併用」をONとすると、図7の例で、「目的地の富士山です」とのバーチャル画像が表示されると同時、「目的地の富士山です」との音声ガイダンスが実行される。
また、本実施態様は、対象物の見かけ上の位置をバーチャル画像の矢印と名称で示す構成が基本であるが、「オブジェクト表示併用」をONとすると、図8のように、写真、イラスト等による「ガソリンスタンド」のバーチャル画像がオブジェクト表示として、現実の風景中のガソリンスタンドの位置に仮想表示され、このバーチャル画像(オブジェクト)を差す矢印と名称が表示される。
Finally, in “Other Settings”, the following settings are made: “Simultaneous use of voice guidance”, “Combination of object display”, “Perform display correction for each occupant”, and “Perform enlargement / reduction / deletion function”.
When “Voice Guidance” is set to ON, in the example shown in FIG. 7, a voice image “Destination Mt. Fuji” is simultaneously displayed when a virtual image “Destination Mt. Fuji” is displayed. .
In addition, the present embodiment basically has a configuration in which the apparent position of an object is indicated by an arrow and a name of a virtual image, but when “object display combined use” is set to ON, as shown in FIG. The virtual image of “gas station” by is virtually displayed as an object display at the position of the gas station in the actual landscape, and an arrow and name indicating this virtual image (object) are displayed.
車両に複数の乗員が乗車しているときには、乗車位置の違いに起因して、乗員毎に車外の風景の見え方が異なる。この結果、図8で表示されたガソリンスタンドのバーチャル画像は、全ての乗員にとって、ガソリンスタンドの実際の位置と重なって見えるわけではない。「乗員毎に表示補正を行う」は、このようなズレを補正するためのものである。「乗員毎に表示補正を行う」をONとすると、シートセンサの検出結果に基づいて、乗員の位置を検出し、乗員毎にバーチャル画像の表示位置を補正し、各乗員が適正な位置に表示されたバーチャル画像を視認できるようにする。なお、補正されたバーチャル画像は、補正対象となった乗員のみが視認できるような方法で仮想表示されるのが好ましい。 When a plurality of occupants are on the vehicle, the appearance of the scenery outside the vehicle is different for each occupant due to the difference in the boarding position. As a result, the gas station virtual image displayed in FIG. 8 does not appear to overlap with the actual position of the gas station for all passengers. “Perform display correction for each occupant” is for correcting such a shift. When “Perform display correction for each occupant” is ON, the position of the occupant is detected based on the detection result of the seat sensor, the display position of the virtual image is corrected for each occupant, and each occupant is displayed at an appropriate position. To make the virtual image visible. Note that the corrected virtual image is preferably displayed in a virtual manner in such a way that only the occupant who is the correction target can visually recognize it.
最後に、「拡大/縮小/削除機能を行う」の項の設定を行う。この項をONとすると、乗員からの音声による指示で表示中のバーチャル画像の表示態様を変更することができる。「拡大/縮小/削除機能を行う」をONとしておくと、図8のようなバーチャル画像が表示されているとき、乗員からの「○△公園の表示を大きく」等の指示で、○×公園のバーチャル画像が大きくなる。また、音声による指示で、縮小あるいは削除も可能となる。 Finally, the setting of “Perform the enlargement / reduction / deletion function” is performed. When this item is set to ON, the display mode of the virtual image being displayed can be changed by an instruction by voice from the occupant. When “Perform enlargement / reduction / deletion function” is turned ON, when a virtual image as shown in FIG. The virtual image becomes larger. In addition, it is possible to reduce or delete by voice instructions.
図6の画面による基本項目の設定が終了すると、次いで、図に示されているようなイニシャル設定IIのNAVI関連の設定画面がユーザのパソコン6の画面に表示される。この設定画面では、「NAVI表示」において、どのような表示を行うか等が設定される。以下、詳細に説明する。 When the setting of the basic items on the screen of FIG. 6 is completed, a setting screen related to NAVI of the initial setting II as shown in the figure is displayed on the screen of the user's personal computer 6. In this setting screen, what kind of display is to be performed in “NAVI display” is set. Details will be described below.
まず、「仮想物体の表示項目」の項で、どのような表示を行うかを選択する。本実施態様では、「目的地」、「施設」、「先導車」、「誘導矢印」、「目印」の項目が準備されている。
「目的地」をONとしておくと、経路誘導において設定された目的地が、バーチャル画像の表示対象となる。すなわち、「富士山」を目的地とした経路誘導中に、富士山が視認できるようなると、図7のようなバーチャル画像が仮想表示される。
「施設」をONとすると、ガソリンスタンド、コンビニエンスストア、レストラン、ホテル、温泉地、公共或いはその他の建物などの施設が、バーチャル画像が仮想表示される対象物として設定される。どのような施設に対して表示が行われるかは、他の項目で設定する。また、「施設」ONのときに、選択可能となる「詳細情報」をONとすると、各施設の詳細情報が、バーチャル画像の矢印に加えて、表示される。例えば、施設が温泉ホテルであれば、その温泉の泉質に関する情報が表示される。
First, in the “display item of virtual object” item, what kind of display is to be performed is selected. In this embodiment, items of “Destination”, “Facilities”, “Leading vehicle”, “Guidance arrow”, and “Mark” are prepared.
When “Destination” is set to ON, the destination set in the route guidance becomes a display target of the virtual image. In other words, when Mt. Fuji is visible during route guidance for “Mt. Fuji” as a destination, a virtual image as shown in FIG. 7 is virtually displayed.
When “facility” is set to ON, facilities such as gas stations, convenience stores, restaurants, hotels, hot springs, public buildings, and other buildings are set as objects on which virtual images are virtually displayed. What kind of facility is displayed is set by other items. Further, when “detailed information” that can be selected when “facility” is ON, detailed information of each facility is displayed in addition to the arrow of the virtual image. For example, if the facility is a hot spring hotel, information about the quality of the hot spring is displayed.
「先導車」をONとすると、バーチャル画像による先導車が仮想表示され、この先導車によって経路誘導が行われる。すなわち、右折すべき交差点では、この先導車が右折するので、この先導車を追走することで、所定の径路に沿って目的に到着することができる。先導車に代えて、動物、あるいは、他の物体が先導する構成でもよい。
「誘導矢印」をONとすると、バーチャル画像による矢印で、経路誘導が行われる。すなわち、現実の風景に重畳されるバーチャル画像の矢印によって、公知のナビゲーション装置のモニタ画面上に表示される矢印と同様の経路誘導が行われる。
「目印」をONとすると、経路誘導中に、経路上の目印となるような建物等が、バーチャル画像による矢印で指示される。
When “leading vehicle” is turned ON, the leading vehicle based on the virtual image is virtually displayed, and route guidance is performed by this leading vehicle. That is, at the intersection to be turned right, the leading vehicle turns to the right, and by following the leading vehicle, the vehicle can arrive at the destination along a predetermined path. Instead of the leading vehicle, a configuration in which an animal or another object leads may be used.
When the “guidance arrow” is set to ON, route guidance is performed with an arrow based on a virtual image. That is, the route guidance similar to the arrow displayed on the monitor screen of a known navigation device is performed by the arrow of the virtual image superimposed on the actual landscape.
When the “mark” is set to ON, a building or the like that serves as a mark on the route is instructed by an arrow on the virtual image during route guidance.
次に、「表示施設設定」の項で、どのようなジャンルの施設に関する情報を、バーチャル画像で通知するかを決定する。本実施態様では、図9に示されているように、「登録施設」、「コンビニ」、「道の駅」、「ガソリンスタンド」、「娯楽関係」、「飲食関係」、「イベント関係」、「名所」等の項目から、位置情報を得たい施設ジャンルを選択するように構成されている。
「登録施設」は、ユーザがマニュアルで別途、設定した施設を通知の対象として設定するための項である。この項を使って、例えば、目的地までの経路にあるレストランを登録しておくことができる。また、「コンビニ」、「ガソリンスタンド」では、詳細設定で、特定チェーン(例えば、セブンイレブン)のコンビニエンスストアや特定の石油会社(エネオス)のガソリンスタンドを設定可能となっている。また、「飲食関係」では、詳細設定で、フランス料理、和食、寿司、うどん等の提供される料理の種別を特定可能となっている。さらに、「イベント関係」、「名所」においても同様に、詳細なジャンルを特定可能とされている。
Next, in the “display facility setting” section, it is determined what kind of genre information about the facility is to be notified in the virtual image. In this embodiment, as shown in FIG. 9, “registration facility”, “convenience store”, “road station”, “gas station”, “entertainment relationship”, “food-related relationship”, “event relationship”, The facility genre for which position information is to be obtained is selected from items such as “famous places”.
“Registered facility” is a section for setting a facility set separately by the user manually as a notification target. Using this term, for example, a restaurant on the route to the destination can be registered. In the “convenience store” and “gas station”, it is possible to set a convenience store of a specific chain (for example, 7-Eleven) and a gas station of a specific oil company (Eneos) by detailed setting. Further, in “food and drink relations”, it is possible to specify the type of food to be provided, such as French cuisine, Japanese food, sushi, udon, etc., in detailed settings. Further, in the “event relation” and “famous place”, a detailed genre can be specified similarly.
次に、「対象表示エリア」の項で、「NAVI表示」の対象となる範囲を特定する。本実施態様は、図9に示されているように、「標準」、「狭い」、「広い」、「最大」から設定するように構成されている。「標準」では、例えば、前方1キロ、側方500メートルの範囲に存在する施設を「NAVI表示」の対象とするように設定されている。このように対象表示エリアを限定することにより、市街地で極めて多くのバーチャル画像が表示されて視界が妨げられることが防止される。 Next, in the “target display area” section, the range that is the target of “NAVI display” is specified. As shown in FIG. 9, the present embodiment is configured to set from “standard”, “narrow”, “wide”, and “maximum”. In “standard”, for example, a facility existing within a range of 1 km in front and 500 meters to the side is set as a target of “NAVI display”. By limiting the target display area in this way, it is possible to prevent an extremely large number of virtual images from being displayed in an urban area and obstructing the field of view.
次に、「仮想物体の表示時間」の項で、仮想物体(バーチャル画像)の表示継続時間を設定する。本実施態様では、「連続時間」、「合計時間」の2種類が特定される。「連続時間」は1回の表示の継続時間であり、視認可能であれば表示し続ける「見える間ずっと」と、表示開示から15秒経過で表示を終了する「15秒」とから選択される。図6の例では、「15秒」が選択されている。
また、「合計時間」は、視認可能となったもの(ガソリンスタンド)が、道路が曲がっている等の理由で一旦、視認不可能となり、再度、視認可能となったときのような複数回の表示の合計時間を規制するものであり、図9の例では、「3分」が選択されている。
Next, the display duration of the virtual object (virtual image) is set in the section “Virtual Object Display Time”. In this embodiment, two types of “continuous time” and “total time” are specified. “Continuous time” is the duration of one display, and is selected from “While visible” if it is visible, and “15 seconds” when the display is terminated after 15 seconds from display disclosure. . In the example of FIG. 6, “15 seconds” is selected.
In addition, the “total time” is the number of times that a visible item (gas station) once became unrecognizable due to a curved road, etc. The total display time is restricted. In the example of FIG. 9, “3 minutes” is selected.
次に、「目的地設定機能」の項で、走行中に目的地を設定できる機能に関する設定を行う。この「目的地設定機能」は、走行中に、運転者等の乗員がバーチャル画像のよって表示されている対象物を特定すると、その対象物が目的地として設定され、その目的地に対して経路誘導を行わせる機能である。本実施態様では、乗員による特定方法として、「音声」と、「指差し」とが設定されている。「音声」をONとすると音声による目的地入力が可能となる。すなわち、図8のようなバーチャル画像が表示されている状態で、運転者等の乗員が音声で、「目的地は○△公園」と指示すると、音声対話装置56がこの指示を認識し、○△公園が目的地として設定される。また、「指差し」をONとすると、指差しによる目的地入力が可能となる。すなわち、図8のようなバーチャル画像が表示されている状態で、運転者等の乗員が指で「○△公園」を差し、ここが「目的地」と音声入力すると、その動作がアイカメラ50を介して入力されて、○△公園が目的地として設定される。
Next, in the “Destination Setting Function” section, settings relating to a function that can set the destination while traveling are performed. This “Destination Setting Function” is used when a driver or other occupant identifies an object displayed by a virtual image while traveling, the object is set as the destination, and a route to the destination is set. This is a function to induce. In the present embodiment, “speech” and “pointing” are set as the identification method by the occupant. When “Voice” is turned ON, the destination can be input by voice. That is, in the state where the virtual image as shown in FIG. 8 is displayed, when a passenger such as a driver gives a voice and instructs “the destination is ○ △ park”, the
最後に、グループ走行に関する登録を行う。この登録は、グループで走行する場合に、グループで走行する複数の車両において同一内容の情報を共有することにより、コミュニケーションを成立させるために行う登録であり、グループのメンバの一人、通常はリーダが、登録を行う。
まず、グループ走行を行う他の車両に搭載されている車両用情報提供装置1のID(例えば0001、0002、00341、0055)を入力することにより、グループ走行を行うメンバーを特定する。次いで、グループ中のリーダを特定する。次いで、登録したグループ内で共通して表示する「グループメンバーで表示する施設」を設定する。この設定方法は、上記「表示施設設定」と同一である。ここで設定された施設に関する情報は、登録されているグループ全員に一律に提供されることになる。
Finally, registration for group travel is performed. This registration is a registration performed to establish communication by sharing the same information among a plurality of vehicles traveling in a group when traveling in a group. One member of the group, usually a leader, , Register.
First, by inputting the ID (for example, 0001, 0002, 00341, 0055) of the vehicle
更に、「通知機能」の設定を行う。この通気機能は、グループ走行中の全車両が共通の情報を得られたときに、その旨を各車両に通知する機能である。例えば、5台でグループ走行中に、全車両から富士山が見える状態となったとき、図7の「目的地の富士山です」の文字の色を、全ての車両において白から青に変更して、全ての車両から富士山が見えるようなったことを全ての車両で認識できるようにする機能である。
本実施態様では、「情報が共有できる状態になったら通知する」、「通知しない」を選択し、「情報が共有できる状態になったら通知する」を選択したときには、通知方法として、表示の色が変わる「色」と、「全車両から富士山が見えるようになりました」等の音声ガイダンスが行われる「音声」のいずれかが選択される。
Furthermore, the “notification function” is set. This ventilation function is a function for notifying each vehicle when common information is obtained for all the vehicles traveling in the group. For example, if you can see Mt.Fuji from all the vehicles while driving with a group of five, change the color of the text “Destination Mt. Fuji” in FIG. 7 from white to blue on all vehicles. This function allows all vehicles to recognize that Mt. Fuji can be seen from all vehicles.
In this embodiment, when “notify when information can be shared” or “not notify” is selected and “notify when information can be shared” is selected, a display color is displayed as a notification method. One of “color” that changes and “voice” in which voice guidance such as “Mt. Fuji can be seen from all vehicles” is performed is selected.
図9の設定は、「地域別」、「時間帯別」、「曜日別」、「乗員別」に、それぞれ、異なった設定ができるように構成されている。 The settings in FIG. 9 are configured so that different settings can be made for “by region”, “by time zone”, “by day of the week”, and “by passenger”.
上述のようにして登録された種々のデータは、情報センタ2のデータベース12の各データ18、20、22等に保存される(ステップS2)。
Various data registered as described above are stored in the
次いで、上記のような設定を行ったユーザが、車両用情報提供装置1(あるいは自宅のパソコン6)から目的地および必要な経路情報を情報センタ2に送信すると(ステップS3)、情報センタ2は、設定された目的地までの地図情報を地図データ14から読み出して目的地までの経路に関する配信用地図データを作成する。さらに、この地図データに、ステップS1での設定に基づいてバーチャル画像によるNAVI表示、伝言表示、広告表示を行うためのデータを組み込む加工を行い、加工したデータをユーザの車両用情報提供装置1に送信する(ステップS4)。目的地までの経路上で表示される地図に表示される地域に関連する広告を、地図データに組み込む構成とするのが好ましい。
ユーザの車両の車両用情報提供装置1は、送信されてきた加工済みの地図データを受信し、これに基づいて、目的地への経路誘導を開始する(ステップS5)。
Next, when the user who has made the above settings transmits the destination and necessary route information from the vehicle information providing apparatus 1 (or the home personal computer 6) to the information center 2 (step S3), the
The vehicle
次いで、車両用情報提供装置1は、バーチャル画像を表示すべき条件が成立しているか否かを判定する(ステップS6)。NAVI表示に関しては、バーチャル画像による情報提供を行うべき対象物が周辺にあるか否かを判定する。また、伝言表示、広告表示かんしては、イニシャル設定で設定された表示条件が成立しているか否かが判定される。
この判定は、GPS受信機44等の検出結果に基づく自車位置と受信した加工済み地図データ内に表示すべき対象物及びその位置に関する情報等に基づいて行う。ステップS6でYESのときには、ステップS7に進み、車両の乗員がその対象物または伝言等の背景となる区域を視認可能であるか否かを判定する。「視認可能」には、現実の風景中で、対象物を肉眼で直接、識別可能な場合の他に、対象物が車両から離れているため、対象物が小さすぎて肉眼で識別することはできないが、この対象物が存在している場所(位置)を見渡すことができる状態が含まれる。
この判定は、自車の位置および方向、地図情報に含まれる車両の現在位置周辺の建物、地形等三次元データ、対象物の位置情報、CCDカメラ54による前方車両の存否の検出結果等に基づいて行われる。ステップS6またはステップS7でNOのときは、ステップS6に戻る。
Next, the vehicle
This determination is made based on the vehicle position based on the detection result of the
This determination is based on the position and direction of the own vehicle, three-dimensional data such as buildings around the current position of the vehicle included in the map information, topography, position information of the object, detection result of the presence or absence of the preceding vehicle by the
ステップS7でYESのときには、表示すべきバーチャル画像の表示位置および表示方法の演算が行われる(ステップS8)。バーチャル画像の表示位置は、対象となる乗員が、視認している風景中の所定位置にバーチャル画像が存在していると認識できるように設定される。すなわち、図7の例であれば、乗員が現実の風景中の富士山を矢印が差していると認識できる位置に、バーチャル画像である矢印および「目的地の富士山です」との情報の表示位置が設定される。図8の例の場合も同様に、表示位置が設定される。
具体的には、乗員(例えば、運転者)の目の位置をアイカメラの映像等から推定し、この目の位置、車両の現在位置及び方向、地図データ等に基づいて、乗員が視認している現実の風景中の所定位置にバーチャル画像が配置されるように、バーチャル画像の配置位置が演算される。
この際、乗員が複数いる場合には、各乗員の目の位置を検出し、乗員毎にバーチャル画像の表示位置を設定する構成であるのが好ましい。
When YES is determined in the step S7, the display position and display method of the virtual image to be displayed are calculated (step S8). The display position of the virtual image is set so that the target occupant can recognize that the virtual image is present at a predetermined position in the scenery being viewed. That is, in the example of FIG. 7, the position where the occupant can recognize Mt. Fuji in the actual landscape as being pointed by the arrow is the virtual image arrow and the display position of the information “Mt. Fuji at the destination”. Is set. Similarly, in the case of the example in FIG. 8, the display position is set.
Specifically, the eye position of an occupant (for example, a driver) is estimated from an image of an eye camera, etc., and the occupant visually recognizes the position of the eye, the current position and direction of the vehicle, map data, and the like. The placement position of the virtual image is calculated so that the virtual image is placed at a predetermined position in the actual landscape.
At this time, when there are a plurality of occupants, it is preferable that the positions of the eyes of each occupant are detected and the display position of the virtual image is set for each occupant.
また、バーチャル画像の表示方法は、イニシャル設定に応じて、図7のような「矢印」と名称とによる表示、図8のような対象物(ガソリンスタンド)のバーチャル画像とその施設名(ガソリンスタンド)とによる表示などが適宜、設定される。また、表示されるバーチャル画像(例えば矢印)の色、明るさは、背景となる現実の景色の色、明るさ等に応じて、適宜設定される。背景となる現実の景色の色、明るさは、CCDカメラ54の画像等から検出される。
さらに、バーチャル画像の大きさも設定される、大きさの設定は、図6に沿って説明した「拡大率」の項での設定等に基づいて行われる。
Also, the virtual image display method is based on the initial setting and display with “arrows” and names as shown in FIG. 7, and the virtual image of the object (gas station) and its facility name (gas station) as shown in FIG. ) And the like are appropriately set. In addition, the color and brightness of the displayed virtual image (for example, an arrow) are appropriately set according to the color, brightness, and the like of the actual scenery serving as the background. The color and brightness of the actual scenery as the background are detected from the image of the
Further, the size of the virtual image is also set. The size setting is performed based on the setting in the “magnification ratio” section described with reference to FIG.
また、夜間、或いは、悪天候による視界不良時には、対象物を視覚的に識別できない場合が多いので、このような条件下では、自動的にオブジェクト表示を追加する構成でもよい。 In addition, since there are many cases where the object cannot be visually identified at night or when visibility is poor due to bad weather, the object display may be automatically added under such conditions.
次いで、ステップS9に進み、バーチャル画像の表示禁止条件に該当するか否かを判定する。禁止条件とは、バーチャル画像の表示により、車両の安全な運行が妨げられるような条件等である。具体的には、車両が旋回しているとき、周辺の交通量が多いとき、表示されるバーチャル画像が信号、道路標識等の交通標識とオーバラップしてしまうとき等である。さらに、バーチャル表示によって画像情報が提供される対象物が極めて近い距離にあるとき、表示されるバーチャル画像の数が所定数より多くなったときも、表示禁止条件に該当する。 Next, the process proceeds to step S9, and it is determined whether or not the virtual image display prohibition condition is satisfied. The prohibition condition is a condition that prevents safe operation of the vehicle by displaying a virtual image. Specifically, when the vehicle is turning, when there is a lot of traffic around the vehicle, or when the displayed virtual image overlaps a traffic sign such as a signal or a road sign. Further, when the object for which image information is provided by virtual display is at a very close distance, the display prohibition condition also applies when the number of virtual images to be displayed exceeds a predetermined number.
ステップS9でYESのときには、ステップS10で表示禁止処理を行い、ステップS6に戻る。ステップS9でNOのときには、ステップS11に進み、バーチャル画像の表示を実行する。ステップS9でNOのときに、ステップS10の表示禁止処理に代えて、交通標識とオーバラップしない位置にバーチャル画像の表示位置をずらす処理を行って、あるいは、表示するバーチャル画像の数を減らす処理を行った後、ステップS11に進む構成でもよい。
ステップS11では、例えば、図7および図8に示されているようなバーチャル表示がステップS1で設定に基づいて実行される。バーチャル画像が、友人等の他人からの伝言表示であったときには、伝言表示を実行した旨を情報センタ2を介して送り主の友人等に伝える機能を備えたものであってもよい。
When YES is determined in the step S9, a display prohibiting process is performed in a step S10, and the process returns to the step S6. If NO in step S9, the process proceeds to step S11 to display a virtual image. When NO in step S9, instead of the display prohibition process in step S10, a process of shifting the display position of the virtual image to a position that does not overlap with the traffic sign or a process of reducing the number of virtual images to be displayed After performing, the structure which progresses to step S11 may be sufficient.
In step S11, for example, virtual display as shown in FIGS. 7 and 8 is executed based on the setting in step S1. When the virtual image is a message display from another person such as a friend, the virtual image may be provided with a function of notifying the sender's friend or the like via the
次いで、ステップS12に進み、表示されているバーチャル画像の一つが、乗員によって指定されたか否かが判定される。指定方法としては、バーチャル画像を見た乗員が「○△公園」と音声によって行う方法、バーチャル画像を見た乗員がそのバーチャル画像を指さして「この公園」と指定する方法等がある。このような音声はマイク60によって収集され、指差しの動作はCCDカメラ54によって撮影されてCPU30に送られ、指定された対象物が検出される。
Next, the process proceeds to step S12, and it is determined whether one of the displayed virtual images is designated by the occupant. As a designation method, there are a method in which an occupant who has seen a virtual image performs “O Δ Park” by voice and a occupant who has seen the virtual image points to the virtual image and designates “this park”. Such sound is collected by the
次いで、ステップS13に進み、指定されたバーチャル画像の表示態様を変更する処理を行う。具体的には、色、大きさを変更したり、特定の乗員、例えば運転者にしか見えなかったバーチャル画像を他の乗員も視認可能な状態に変更する処理などが行われる。この表示態様の変更は、各乗員の乗車位置の違いを補正して行われるのが好ましい。
この表示態様の変更に加えて、バーチャル画像によって表示されている対象物の詳細情報、例えば、公園ならその由来をバーチャル画像で表示する構成でもよい。
表示態様の変更に先だって、指定を行った乗員に対して、表示態様の変更を行う対象物がこの乗員が指定した対象物であるか否かの確認を行う構成でも良い。この確認は、指定を行った乗員に対して表示されているバーチャル画像のうち、表示態様の変更を行う対象物(例えば、△△公園)のバーチャル画像の色を変更したり、「△△公園ですか」などと音声で行われるのが好ましい。
Next, the process proceeds to step S13, and processing for changing the display mode of the designated virtual image is performed. Specifically, processing such as changing the color and size, or changing a virtual image that was visible only to a specific occupant, for example, a driver, to a state that other occupants can also visually recognize is performed. This display mode change is preferably performed by correcting the difference in the boarding position of each occupant.
In addition to the change of the display mode, the detailed information of the object displayed by the virtual image, for example, the origin of the object in the case of a park may be displayed by the virtual image.
Prior to the change of the display mode, the configuration may be such that the occupant who has made the designation confirms whether or not the object whose display mode is to be changed is the one designated by the occupant. This confirmation can be made by changing the color of the virtual image of an object (for example, ΔΔ park) whose display mode is to be changed among the virtual images displayed for the designated occupant, It is preferable to be performed by voice such as “?”.
次いで、ステップS14に進み、表示の終了条件が満たされたか否かを判定する。終了条件としては、バーチャル表示を行っている対象物を乗員が視認できなくなった、所定回数より多く表示された、表示時間或いは合計表示時間が所定値を越えた、表示エリア外に出た、操作パネル等からマニュアでOFFにされた等がある。この終了条件は、各バーチャル画像毎に判断される。ステップS14でYESのときには、ステップS15に進み、該当するバーチャル画像の表示を終了する。 Next, the process proceeds to step S14, and it is determined whether or not the display end condition is satisfied. The end condition is that the occupant is no longer able to see the target object that is being displayed in virtual, the display time is more than the specified number of times, the display time or total display time exceeds the specified value, and the operation is out of the display area. The panel is turned off manually. This end condition is determined for each virtual image. If YES in step S14, the process proceeds to step S15, and the display of the corresponding virtual image is terminated.
さらに、ステップS16に進み、目的地に到着したか否かを判定し、目的地に到着したときは処理を終了し、到着していないときには、ステップS6に戻る。 Furthermore, it progresses to step S16, it is determined whether it arrived at the destination, a process is complete | finished when it arrives at the destination, and when it has not arrived, it returns to step S6.
上述したように、本実施態様の車両用情報提供装置は、車両の現在位置・向きと、乗員の目(瞳)の位置・視線と、地図データ等に基づいて、バーチャル画像の矢印を、乗員が視認している風景の中で対象物を差すように表示する。したがって、車両の現在位置、向きが正確に車両用情報提供装置1に入力されないと、バーチャル画像の矢印が差す位置が不正確となる。また、乗員の目の位置等が変化した場合も同様である。このような状態で、ヴァーチャル画像に基づいて指定された対象物の表示変更(ステップS13)を行うと、不正確な指定に基づく表示変更が行われることがある。すなわち、乗員が望んでいない対象物の表示が変更される可能性がある。
As described above, the vehicle information providing apparatus according to the present embodiment displays an arrow of a virtual image based on the current position / orientation of the vehicle, the position / line of sight of the occupant's eyes (pupil), map data, and the like. Is displayed in such a way that the object is inserted in the scenery that is visually recognized. Therefore, if the current position and direction of the vehicle are not accurately input to the vehicle
このため、本実施態様では、ステップS13で表示変更が変更される対象物の指定に先だって、バーチャル画像(矢印)が対象物を差す正確さ(対象物の特定精度)を検出し、検出した特定精度を乗員に通知するとともに、特定精度が悪いときには、対象物の指定を実行させない処理を行っている。以下、この処理を図10のフローチャートに沿って説明する。 For this reason, in this embodiment, prior to the designation of the object whose display change is to be changed in step S13, the accuracy (identification accuracy of the object) detected by the virtual image (arrow) is detected and the detected identification is detected. In addition to notifying the occupant of the accuracy, a process for not specifying the object is performed when the specific accuracy is poor. Hereinafter, this process will be described with reference to the flowchart of FIG.
まず、ステップS20で、対象物の特定精度を検出する。本実施態様の車両用情報提供装置1において、バーチャル画像の矢印が対象物を正確に差せなくなる要因としては、種々の要因が挙げられる。
この要因は、車両側の要因と、対象物側の要因に大別できる。車両側の要因としては、悪路走行によって車両が上下に振動したとき、ハンドル操作によって車両の向き(挙動)が変化したとき、乗員が姿勢を変えて目の位置が変化したとき、GPS(GDOP)の精度不良により車両の現在位置特定精度が悪化したとき等がある。また、対象物側の要因としては、対象物が見かけ上小さく、矢印がズレてしまうとき、表示すべき対象物が複数、隣接しているためどの矢印がどの対象物を差しているかが不明確になるとき等がある。
First, in step S20, the specific accuracy of the object is detected. In the vehicle
This factor can be broadly divided into a factor on the vehicle side and a factor on the object side. The factors on the vehicle side are: when the vehicle vibrates up and down due to bad road driving, when the direction of the vehicle (behavior) changes due to steering operation, when the occupant changes posture and the position of the eyes changes, GPS (GDOP ), The current position specifying accuracy of the vehicle deteriorates. Further, factors of the object side, the apparent object small, when the arrow is deviated, plurality of objects to be displayed, either pointing to any arrow which object since adjacent unclear There are times when it becomes.
本実施態様は、車両の振動、車両の挙動、車両の乗員の姿勢変化、車両の現在位置特定精度、表示すべき複数の対象物の見かけ上の間隔、表示すべき対象物の見かけ上の大きさ、表示すべき対象物までの距離を想定される要因とし、これらの要因のそれぞれに所定の重み付けをして、対象物毎の最終的な特定精度を算出するように構成されている。
尚、これらの全てを用いない構成、または、他の要因を用いた構成でもよい。
In this embodiment, the vibration of the vehicle, the behavior of the vehicle, the posture change of the occupant of the vehicle, the accuracy of specifying the current position of the vehicle, the apparent interval between a plurality of objects to be displayed, and the apparent size of the object to be displayed. The distance to the object to be displayed is assumed as a factor, and each of these factors is given a predetermined weight to calculate the final specific accuracy for each object.
In addition, the structure which does not use all of these, or the structure using another factor may be sufficient.
本実施態様では、車両の振動が大きいとき、車両の挙動が大きく変化するとき、車両の乗員の姿勢変化が大きいとき、車両の現在位置特定精度が悪いとき、表示すべき複数の対象物の見かけ上の間隔が小さいとき、表示すべき対象物の見かけ上の大きさが小さいとき、表示すべき対象物までの距離が近くないときには、それぞれ、特定精度が悪くなるとして、対象物の特定精度が算出される。具体的には、車両に搭載された種々のセンサの数値に所定の重み付けがなされ、対象物毎の最終的な特定精度が算出される。 In this embodiment, when the vibration of the vehicle is large, when the behavior of the vehicle changes greatly, when the posture change of the vehicle occupant is large, when the current position specifying accuracy of the vehicle is poor, the appearance of a plurality of objects to be displayed When the upper interval is small, when the apparent size of the target object to be displayed is small, and when the distance to the target object to be displayed is not close, the specific accuracy becomes worse. Calculated. Specifically, predetermined weights are given to numerical values of various sensors mounted on the vehicle, and the final specific accuracy for each object is calculated.
次に、ステップS21に進み、車両が停車中であるか否かが判定される。NOすなわち停車中でないときは、正確な指定が行えないとして、処理を終了する。ステップS21でYESのときは、ステップS22に進み、特定精度に関する情報をバーチャル画像として表示する。この表示は、他のバーチャル画像(対象物を差す矢印と「○○市体育館」等の名称)と同様に乗員が視認している風景に重畳されることにより表示される。 Next, it progresses to step S21 and it is determined whether the vehicle is stopping. When NO, that is, when the vehicle is not stopped, it is determined that accurate designation cannot be performed, and the process is terminated. When YES is determined in the step S21, the process proceeds to a step S22 to display information relating to the specific accuracy as a virtual image. This display is displayed by being superimposed on the scenery that the occupant is viewing in the same manner as other virtual images (an arrow pointing to the object and a name such as “XX City Gymnasium”).
図11は、特定精度に関する情報70が重畳されている風景の一例である。図11に示されているように、本実施態様では、特定精度に関する情報70は、フロントガラスの最下部に表示される。図11の例では、特定精度に関する情報70は、特定精度を示すインジケータ部72と、特定精度悪化の原因を示す原因表示部72と、この原因に対処する対処法を表示する対処法表示部76とを備えている。
FIG. 11 is an example of a landscape on which
この例では、インジケータ部72は、3つの点灯可能な○を備え、この○の点灯数で特定精度が示される。また、原因表示部72には、現在の特定精度悪化の原因として主要なものが挙げられ、この例では、「GDOPが悪化」と「ドライバの姿勢変化」が挙げられている。特定精度悪化の原因は、上記特定精度の算出工程で、どの要因が大きかったが検出され、この検出結果に基づいて、表示される。また、この悪化原因の内、後者に関しては、乗員側で対処可能であるため、対処法表示部76に「静止してください」とのメッセージが表示されている。
In this example, the
次いで、ステップS23に進み、ステップS20で算出された特定精度をしきい値と比較することによって、特定精度が「良い」か「悪い」かを判定する。「良い」ときにはステップS24に進み、バーチャル画像で位置情報が表示された対象物の指定を許容し、「悪い」ときにはステップS25に進み、バーチャル画像で位置情報が表示された対象物の指定を禁止する。 Next, the process proceeds to step S23, and the specific accuracy calculated in step S20 is compared with a threshold value to determine whether the specific accuracy is “good” or “bad”. When “good”, the process proceeds to step S24, and designation of the object whose position information is displayed on the virtual image is permitted. When “bad”, the process proceeds to step S25, and designation of the object whose position information is displayed on the virtual image is prohibited. To do.
本発明は上記実施形態に限定されることなく、特許請求の範囲に記載された技術事項の範囲内で種々の変更又は変形が可能である。
上記実施態様では、乗員がバーチャルに基づいて対象物を指定するときに特定精度に関する情報を表示する構成であったが、このような情報を、常時、あるいは、停車時のみに表示する構成でも良い。
また、特定精度に関する情報の内容、および、表示形態は、図11の例に限定されるものではない。
The present invention is not limited to the above-described embodiments, and various changes or modifications can be made within the scope of the technical matters described in the claims.
In the above embodiment, when the occupant designates the object based on the virtual, the information on the specific accuracy is displayed. However, such information may be displayed at all times or only when the vehicle is stopped. .
Moreover, the content of information regarding the specific accuracy and the display form are not limited to the example of FIG.
上記の車両用情報提供装置は、車両の現在位置・向きと、乗員の目(瞳)の位置・視線と、地図データ等に基づいて、バーチャル画像の矢印を、乗員が視認している風景の中で対象物を差すように表示する。したがって、乗員が姿勢を変化させると、これに追従して、バーチャル画像の表示位置に変更されることなる。しかしながら、対象物の特定精度が悪いときには、バーチャル画像の矢印が適切な位置を差さないため、乗員が、無意識に姿勢すなわち視線を動かし、バーチャル画像の矢印が何を差しているかを探ることがある。 The vehicle information providing apparatus described above is based on the current position / orientation of the vehicle, the position / line of sight of the occupant's eyes (pupil), map data, and the like. The object is displayed so as to point inside. Therefore, when the occupant changes his / her posture, the display position of the virtual image is changed following this. However, when the accuracy of identifying the object is poor, the virtual image arrow does not point to the appropriate position, so the occupant may unconsciously move his or her posture, that is, the line of sight, to find out what the virtual image arrow points to .
このような視線の動きに、バーチャル画像の矢印が素早く追従すると、乗員は、視線を動かすと、バーチャル画像の矢印が追いかけてくるように感じ、極めて不愉快である。したがって、上記実施態様に、特定精度が所定値より悪い時には、乗員の視線の移動に起因する、バーチャル画像の表示位置の変更速度を遅くする構成を採用しても良い。 When the arrow of the virtual image quickly follows the movement of the line of sight, the occupant feels that the arrow of the virtual image is chasing when moving the line of sight, which is extremely unpleasant. Therefore, when the specific accuracy is worse than the predetermined value, the above embodiment may adopt a configuration in which the change speed of the display position of the virtual image caused by the movement of the sight line of the occupant is slowed down.
1:車両用情報提供装置
2:情報センタ
4:インターネット
10:ホストコンピュータ
12:データベース
30:CPU
32:送受信装置
50:アイカメラ
52:バーチャル画像表示装置
1: Vehicle information providing device 2: Information center 4: Internet 10: Host computer 12: Database 30: CPU
32: Transmission / reception device 50: Eye camera 52: Virtual image display device
Claims (18)
前記車両の走行中、前記乗員が前記設定された対象物を視認可能であるか否かを判定する視認判定手段と、
前記設定された対象物を視認可能であると判定されたときに、該視認可能な対象物を示す画像情報を前記乗員が視認している現実の風景に重畳して表示することによって、該乗員に前記対象物の前記風景内での見かけ上の位置を視覚的に知らせる位置情報表示手段と、
前記対象物の特定精度を検出する精度検出手段と、
前記特定精度に関する情報を前記乗員に通知する精度通知手段と、を備えている、
ことを特徴とする車両用情報提供装置。 A vehicle information providing device that visually provides position information of a preset object to a vehicle occupant,
Visual determination means for determining whether or not the occupant can visually recognize the set object while the vehicle is traveling;
When it is determined that the set object can be visually recognized, the occupant is displayed by superimposing and displaying the image information indicating the visually observable object on the actual scenery that the occupant is visually recognizing. Position information display means for visually informing the apparent position of the object in the landscape;
Accuracy detection means for detecting the specific accuracy of the object;
Accuracy notifying means for notifying the occupant of information relating to the specific accuracy,
An information providing apparatus for a vehicle characterized by the above.
請求項1に記載の車両用情報提供装置。 The accuracy detecting means detects the specific accuracy based on vehicle vibration;
The vehicle information providing apparatus according to claim 1.
請求項1または2に記載の車両用情報提供装置。 The accuracy detection means detects the specific accuracy based on the behavior of the vehicle;
The vehicle information providing device according to claim 1 or 2.
請求項1ないし3のいずれか1項に記載の車両用情報提供装置。 The accuracy detecting means detects the specific accuracy based on a posture change of a vehicle occupant;
The vehicle information providing device according to any one of claims 1 to 3.
請求項1ないし4のいずれか1項に記載の車両用情報提供装置。 The accuracy detecting means detects the specific accuracy based on the current position specific accuracy of the vehicle;
The vehicular information providing device according to any one of claims 1 to 4.
請求項1ないし5のいずれか1項に記載の車両用情報提供装置。 The accuracy detecting means detects the specific accuracy based on an apparent interval between a plurality of objects to be displayed;
The vehicle information providing device according to any one of claims 1 to 5.
請求項1ないし6のいずれか1項に記載の車両用情報提供装置。 The accuracy detecting means detects the specific accuracy based on an apparent size of an object to be displayed;
The vehicular information providing device according to any one of claims 1 to 6.
請求項1ないし7のいずれか1項に記載の車両用情報提供装置。 The accuracy detecting means detects the specific accuracy based on a distance to an object to be displayed;
The vehicular information provision device according to any one of claims 1 to 7.
請求項1ないし8のいずれか1項に記載の車両用情報提供装置。 The accuracy notification means notifies the cause of deterioration of the specific accuracy,
The vehicle information providing device according to any one of claims 1 to 8.
請求項1ないし9のいずれか1項に記載の車両用情報提供装置。 The accuracy notification means notifies the coping method for the cause of deterioration of the specific accuracy;
The vehicular information providing device according to any one of claims 1 to 9.
前記対象物指定手段による対象物の特定が行われているときに、前記精度通知手段が、前記通知を行う、
請求項1ないし10のいずれか1項に記載の車両用情報提供装置。 An object designating means for identifying an object provided with the image information and designated by one of the occupants;
When the object is specified by the object specifying means, the accuracy notification means performs the notification.
The vehicle information providing device according to any one of claims 1 to 10.
請求項11に記載の車両用情報提供装置。 When the specific accuracy is worse than a predetermined value, further comprising a specific prohibition means for prohibiting the specification of the target by the target specifying means,
The vehicle information providing apparatus according to claim 11.
請求項1ないし12のいずれか1項に記載の車両用情報提供装置。 The accuracy notification means always performs the notification.
The vehicle information providing device according to any one of claims 1 to 12.
請求項1ないし12のいずれか1項に記載の車両用情報提供装置。 When the vehicle is actually running, the vehicle further comprises notification restriction means for restricting the notification by the accuracy notification means.
The vehicle information providing device according to any one of claims 1 to 12.
請求項1ないし14のいずれか1項に記載の車両用情報提供装置。 When the specific accuracy is lower than a predetermined value, the position information display means delays the change of the display position of the image information in response to the sight line change of the occupant.
The vehicle information providing device according to any one of claims 1 to 14.
請求項1ないし15のいずれか1項に記載の車両用情報提供装置。 The accuracy notification means notifies the specific accuracy by superimposing the information on the actual scenery that the occupant is viewing.
The vehicle information providing device according to any one of claims 1 to 15.
前記車両の走行中、前記乗員が前記設定された対象物を視認可能であるか否かを判定するステップと、
前記設定された対象物を視認可能であると判定されたときに、該視認可能な対象物を示す画像情報を前記乗員が視認している現実の風景に重畳して表示することによって、該乗員に前記対象物の前記風景内での見かけ上の位置を視覚的に知らせるステップと、
前記対象物の特定精度を検出するステップと、
前記特定精度に関する情報を前記乗員に通知するステップと、を備えている、
ことを特徴とする車両用情報提供方法。 A vehicle information providing method for visually providing position information of a preset object to a vehicle occupant,
Determining whether the occupant can visually recognize the set object while the vehicle is traveling;
When it is determined that the set object can be visually recognized, the occupant is displayed by superimposing and displaying the image information indicating the visually observable object on the actual scenery that the occupant is visually recognizing. Visually informing the apparent position of the object in the landscape;
Detecting the specific accuracy of the object;
Notifying the occupant of information relating to the specific accuracy, and
A method for providing information for vehicles.
前記車両の走行中、前記乗員が前記設定された対象物を視認可能であるか否かを判定し、
前記設定された対象物を視認可能であると判定されたときに、該視認可能な対象物を示す画像情報を前記乗員が視認している現実の風景に重畳して表示することによって、該乗員に前記対象物の前記風景内での見かけ上の位置を視覚的に知らせ、
前記対象物の特定精度を検出し、
前記特定精度に関する情報を前記乗員に通知するように車両用情報提供装置を作動させる、
ことを特徴とするプログラム。 A program for operating a vehicle information providing device for visually providing position information of a preset object to a vehicle occupant;
Determining whether or not the occupant can visually recognize the set object while the vehicle is traveling;
When it is determined that the set object can be visually recognized, the occupant is displayed by superimposing and displaying the image information indicating the visually observable object on the actual scenery that the occupant is visually recognizing. Visually informing the apparent position of the object in the landscape,
Detecting the specific accuracy of the object;
Activating an information providing device for a vehicle so as to notify the occupant of information relating to the specific accuracy;
A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003340745A JP3931338B2 (en) | 2003-09-30 | 2003-09-30 | Vehicle information providing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003340745A JP3931338B2 (en) | 2003-09-30 | 2003-09-30 | Vehicle information providing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005106649A true JP2005106649A (en) | 2005-04-21 |
JP3931338B2 JP3931338B2 (en) | 2007-06-13 |
Family
ID=34535550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003340745A Expired - Fee Related JP3931338B2 (en) | 2003-09-30 | 2003-09-30 | Vehicle information providing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3931338B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2013111388A1 (en) * | 2012-01-23 | 2015-05-11 | 三菱電機株式会社 | Information display device |
CN104916156A (en) * | 2015-06-26 | 2015-09-16 | 深圳市车米云图科技有限公司 | Method for acquiring vehicle parking position information and device thereof |
EP3278318A1 (en) * | 2015-03-31 | 2018-02-07 | Valeo Schalter und Sensoren GmbH | Method for supplying, on a communication interface, height data about an object located in the surroundings of a motor vehicle, sensor device, processing device and motor vehicle |
WO2020129247A1 (en) * | 2018-12-21 | 2020-06-25 | 三菱電機株式会社 | Information processing device, information processing method, and information processing program |
JP2020138696A (en) * | 2019-03-01 | 2020-09-03 | 日産自動車株式会社 | Vehicle information display method and vehicle information display device |
WO2024090344A1 (en) * | 2022-10-24 | 2024-05-02 | 日本精機株式会社 | Display control device, projection display device, display system, and display control method |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0580697A (en) * | 1991-09-25 | 1993-04-02 | Sumitomo Electric Ind Ltd | Vehicle guiding device |
JPH0672186A (en) * | 1992-08-25 | 1994-03-15 | Canon Inc | Information display device |
JPH06247184A (en) * | 1993-03-01 | 1994-09-06 | Aisin Seiki Co Ltd | Display device on vehicle |
JP2000211452A (en) * | 1999-01-20 | 2000-08-02 | Toyota Motor Corp | Travel path shape display device and map data base recording medium |
JP2000275057A (en) * | 1999-03-24 | 2000-10-06 | Denso Corp | Vehicle guide device |
JP2002139342A (en) * | 2000-10-31 | 2002-05-17 | Denso Corp | Communication terminal |
JP2002267470A (en) * | 2001-03-14 | 2002-09-18 | Toyota Motor Corp | System and method for presenting information |
JP2003215228A (en) * | 2002-01-23 | 2003-07-30 | Hitachi Ltd | Mobile terminal with position indication function and position indication method |
-
2003
- 2003-09-30 JP JP2003340745A patent/JP3931338B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0580697A (en) * | 1991-09-25 | 1993-04-02 | Sumitomo Electric Ind Ltd | Vehicle guiding device |
JPH0672186A (en) * | 1992-08-25 | 1994-03-15 | Canon Inc | Information display device |
JPH06247184A (en) * | 1993-03-01 | 1994-09-06 | Aisin Seiki Co Ltd | Display device on vehicle |
JP2000211452A (en) * | 1999-01-20 | 2000-08-02 | Toyota Motor Corp | Travel path shape display device and map data base recording medium |
JP2000275057A (en) * | 1999-03-24 | 2000-10-06 | Denso Corp | Vehicle guide device |
JP2002139342A (en) * | 2000-10-31 | 2002-05-17 | Denso Corp | Communication terminal |
JP2002267470A (en) * | 2001-03-14 | 2002-09-18 | Toyota Motor Corp | System and method for presenting information |
JP2003215228A (en) * | 2002-01-23 | 2003-07-30 | Hitachi Ltd | Mobile terminal with position indication function and position indication method |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2013111388A1 (en) * | 2012-01-23 | 2015-05-11 | 三菱電機株式会社 | Information display device |
EP3278318A1 (en) * | 2015-03-31 | 2018-02-07 | Valeo Schalter und Sensoren GmbH | Method for supplying, on a communication interface, height data about an object located in the surroundings of a motor vehicle, sensor device, processing device and motor vehicle |
CN104916156A (en) * | 2015-06-26 | 2015-09-16 | 深圳市车米云图科技有限公司 | Method for acquiring vehicle parking position information and device thereof |
WO2020129247A1 (en) * | 2018-12-21 | 2020-06-25 | 三菱電機株式会社 | Information processing device, information processing method, and information processing program |
JP2020138696A (en) * | 2019-03-01 | 2020-09-03 | 日産自動車株式会社 | Vehicle information display method and vehicle information display device |
JP7267776B2 (en) | 2019-03-01 | 2023-05-02 | 日産自動車株式会社 | VEHICLE INFORMATION DISPLAY METHOD AND VEHICLE INFORMATION DISPLAY DEVICE |
WO2024090344A1 (en) * | 2022-10-24 | 2024-05-02 | 日本精機株式会社 | Display control device, projection display device, display system, and display control method |
Also Published As
Publication number | Publication date |
---|---|
JP3931338B2 (en) | 2007-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3972366B2 (en) | Vehicle information providing device | |
JP3931336B2 (en) | Vehicle information providing device | |
JP3931339B2 (en) | Vehicle information providing device | |
JP4805763B2 (en) | Car navigation system | |
JP3931338B2 (en) | Vehicle information providing device | |
JP3890595B2 (en) | Vehicle information providing device | |
JP3890596B2 (en) | Vehicle information providing device | |
JP2005207781A (en) | Image display apparatus, method, and program for vehicle | |
JP3931337B2 (en) | Vehicle information providing device | |
JP3890594B2 (en) | Vehicle information providing device | |
JP3651001B2 (en) | Route guidance device, route guidance method, and route guidance program | |
JP3650995B2 (en) | Route guidance device, route guidance method, and route guidance program | |
JP3704708B2 (en) | Route guidance device, route guidance method, and route guidance program | |
JP3931335B2 (en) | Vehicle information providing device | |
JP3931334B2 (en) | Vehicle information providing device | |
JP3931333B2 (en) | Vehicle information providing device | |
JP3650998B2 (en) | Route guidance device, route guidance method, and route guidance program | |
JP3650997B2 (en) | Route guidance device, route guidance method, and route guidance program | |
JP2004037152A (en) | Apparatus and method for guiding path, and program for guiding path | |
JP3704707B2 (en) | Route guidance device, route guidance method, and route guidance program | |
JP3651000B2 (en) | Route guidance device, route guidance method, and route guidance program | |
JP3650999B2 (en) | Route guidance device, route guidance method, and route guidance program | |
JP3650996B2 (en) | Route guidance device, route guidance method, and route guidance program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060710 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061113 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070304 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |