JP2015069656A - Three-dimensional (3d) navigation - Google Patents
Three-dimensional (3d) navigation Download PDFInfo
- Publication number
- JP2015069656A JP2015069656A JP2014198779A JP2014198779A JP2015069656A JP 2015069656 A JP2015069656 A JP 2015069656A JP 2014198779 A JP2014198779 A JP 2014198779A JP 2014198779 A JP2014198779 A JP 2014198779A JP 2015069656 A JP2015069656 A JP 2015069656A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- graphic elements
- component
- driver
- hud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0127—Head-up displays characterised by optical features comprising devices increasing the depth of field
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
Abstract
Description
本出願は、2013年3月15日に出願された「動的焦点面を有する立体ヘッド・アップ・ディスプレイ」と題する、シリアル番号:13/832918(代理人整理番号:HRA−36332.01)の係属中の米国非仮特許出願の一部継続(CIP)出願である。上記出願の全体が参照により本明細書に組み込まれる。 This application is entitled “Stereoscopic head-up display with dynamic focal plane” filed on March 15, 2013, serial number: 13/832918 (attorney docket number: HRA-36332.01). This is a continuation-in-part (CIP) application of a pending US non-provisional patent application. The entire application is incorporated herein by reference.
運転者の利便性を向上するために、運転者に情報を表示するヘッド・アップ・ディスプレイ(HUD)を乗り物に具備することができる。該HUDにより表示される情報は、運転者が運転している間、乗り物のフロント・ガラスに投影されて、運転者の視界に提示することができる。運転者の視界に情報を表示することで、運転者は、提示された情報を運転中に見るために、フロント・ガラスから目を離す(たとえば、センター・ダッシュボード上の計器表示の方を向く)必要がなくなる。 In order to improve the convenience for the driver, the vehicle can be provided with a head-up display (HUD) for displaying information to the driver. The information displayed by the HUD can be projected on the windshield of the vehicle and presented to the driver's view while the driver is driving. By displaying information in the driver's field of view, the driver looks away from the windshield to view the information presented while driving (eg, facing the instrument display on the center dashboard) ) No need.
HUDは、通常乗り物のセンター・ダッシュボードに表示される乗り物情報、例えば、乗り物の速度、燃料レベル、エンジン温度等に関する情報を表示することができる。さらに、HUDは、地図情報及び通信イベント(例えば、ナビゲーションの指示、運転の指示、警告、警報等)を運転者に提示することができる。乗り物用HUDは、乗り物のダッシュボードで用いた方法と同様の方法で、例えば、グラフィック要素として現われるゲージやテキスト・ボックスをフロント・ガラス上に表示することによって、運転者に情報を表示することができる。さらに、乗り物用HUDは、リアル・タイム情報で乗り物周囲の物理的環境を拡張する拡張現実グラフィック要素を表示することもできる。 The HUD can display vehicle information that is typically displayed on the vehicle's center dashboard, such as information regarding vehicle speed, fuel level, engine temperature, and the like. Further, the HUD can present map information and communication events (for example, navigation instructions, driving instructions, warnings, warnings, etc.) to the driver. A vehicle HUD can display information to the driver in a manner similar to that used in the vehicle dashboard, for example, by displaying gauges and text boxes that appear as graphic elements on the windshield. it can. Furthermore, the vehicle HUD can also display augmented reality graphic elements that extend the physical environment around the vehicle with real-time information.
しかし、乗り物に使用される既存のHUDデバイスでは、拡張現実グラフィック要素を、一貫性のある奥行き手がかりで表示することができない場合がある。したがって、既存の乗り物用HUDが表示する拡張現実グラフィック要素は、表面的な重なりとして提示される可能性がある。 However, existing HUD devices used in vehicles may not be able to display augmented reality graphic elements with consistent depth cues. Therefore, augmented reality graphic elements displayed by existing vehicle HUDs may be presented as superficial overlap.
本節の簡単な説明は、以降の詳細な説明に記載されている概念を選択して簡略化した形で紹介するために提供する。この簡単な説明は、特許請求範囲の主題事項を広範囲に渡って外観する意図はなく、特許請求範囲の主題事項の主要な要素又は本質的な特徴を特定するものでもなく、特許請求範囲の主題事項の範囲を限定するために用いることを意図するものでもない。 A brief description of this section is provided to select and introduce in simplified form the concepts described in the detailed description that follows. This brief description is not intended to present the subject matter of the claims broadly, nor is it intended to identify key elements or essential features of the subject matter of the claims. It is not intended to be used to limit the scope of matters.
1つの実施態様によれば、乗り物の運転者の視野にグラフィック要素を表示するための乗り物用ヘッド・アップ・ディスプレイ・デバイスは、第1のプロジェクタ及び第1のアクチュエータを有する。第1のプロジェクタは、運転者の視野内の第1の焦点面上に第1のグラフィック要素を投影するように構成することができる。第1の焦点面は、運転者の視線に略垂直に、かつ、乗り物から離れた距離に配向することができる。第1のプロジェクタは、第1のアクチュエータ上に設置することができる。第1のアクチュエータは、第1のプロジェクタを直線的に移動するように構成することができる。第1のプロジェクタを直線的に移動することにより、第1のグラフィック要素の第1の焦点面を運転者の視線方向に移動することができる。 According to one embodiment, a vehicle head-up display device for displaying a graphic element in a vehicle driver's field of view includes a first projector and a first actuator. The first projector may be configured to project the first graphic element onto a first focal plane within the driver's field of view. The first focal plane can be oriented substantially perpendicular to the driver's line of sight and at a distance away from the vehicle. The first projector can be installed on the first actuator. The first actuator can be configured to move the first projector linearly. By moving the first projector linearly, the first focal plane of the first graphic element can be moved in the direction of the driver's line of sight.
別の実施態様によれば、乗り物用ヘッド・アップ・ディスプレイ・システムは、乗り物用ヘッド・アップ・ディスプレイ・デバイス及び、制御部を含む。乗り物用ヘッド・アップ・ディスプレイ・デバイスは、乗り物運転者の視野内にグラフィック要素を表示し、第1のプロジェクタと第2のプロジェクタを有する。第1のプロジェクタは、第1のグラフィック要素を運転者の視野内の第1の焦点面上に投影するように構成することができる。第1の焦点面は、運転者の視線に対してほぼ垂直に配向させることができる。第1のプロジェクタは、運転者の視線の方向に第1の焦点面を移動させるように構成することができる。第2のプロジェクタは、第2のグラフィック要素を運転者の視野内の第2の焦点面上に投影するように構成することができる。第2の焦点面は、静止し、かつ、地面に対して略平行に配向することができる。前記制御部は、1つ又は複数の対応する乗り物制御システムと通信し、乗り物用ヘッド・アップ・ディスプレイ・デバイスを制御して、1つ又は複数の該対応する乗り物制御システムとの通信に基づいて前記第1及び第2のグラフィック要素を表示するように構成することができる。 According to another embodiment, a vehicle head-up display system includes a vehicle head-up display device and a controller. The vehicle head-up display device displays a graphic element in the field of view of the vehicle driver and has a first projector and a second projector. The first projector may be configured to project the first graphic element onto a first focal plane in the driver's field of view. The first focal plane can be oriented substantially perpendicular to the driver's line of sight. The first projector can be configured to move the first focal plane in the direction of the driver's line of sight. The second projector may be configured to project the second graphic element onto a second focal plane in the driver's field of view. The second focal plane can be stationary and oriented substantially parallel to the ground. The controller communicates with one or more corresponding vehicle control systems, controls a vehicle head-up display device, and based on communication with the one or more corresponding vehicle control systems The first and second graphic elements can be configured to be displayed.
さらに別の実施態様によれば、乗り物用ヘッド・アップ・ディスプレイに拡張現実グラフィック要素を提示する方法は、運転者の視野内の第1の焦点面に第1のグラフィック要素及び運転者の視野内の第2の焦点面上に第2のグラフィック要素を投影することを含む。第1の焦点面は、運転者の視線に対して略垂直に配向することができ、第2の焦点面は、静止して、地面に対して略平行に配向することができる。該方法には、第1の焦点面を運転者の視野の方向に移動させること又は合わせることを含むことができる。 According to yet another embodiment, a method for presenting an augmented reality graphic element on a vehicle head-up display includes a first graphic element in a first focal plane within the driver's field of view and the driver's field of view. Projecting a second graphic element onto the second focal plane of the image. The first focal plane can be oriented substantially perpendicular to the driver's line of sight, and the second focal plane can be stationary and oriented substantially parallel to the ground. The method can include moving or aligning the first focal plane in the direction of the driver's field of view.
3次元(3−D)ナビゲーションのための技術やシステムの1つ又は複数の実施形態が本明細書において開示される。例えば、3Dナビゲーション・システムは、移動するように見えるグラフィック要素又はアバターを、乗り物の乗員の視野に投影することができる。1つ又は複数の実施形態において、ヘッド・アップ・ディスプレイ(HUD)コンポーネントは、該グラフィック要素又はアバターを乗り物周囲の環境内の1つ又は複数の焦点面上に投影するように構成することができる。言い換えれば、該HUDコンポーネントは、複数のグラフィック要素又は複数のアバターを複数の調整可能な距離つまり複数の焦点調整可能な焦点面に投影して、1つのアバター又はグラフィック要素が移動、飛行、アニメーション等をしているという感覚を乗り物の乗員に与えることができる。 One or more embodiments of techniques and systems for three-dimensional (3-D) navigation are disclosed herein. For example, a 3D navigation system can project graphical elements or avatars that appear to move into the vehicle occupant's field of view. In one or more embodiments, a heads up display (HUD) component can be configured to project the graphic element or avatar onto one or more focal planes in the environment surrounding the vehicle. . In other words, the HUD component projects a plurality of graphic elements or avatars onto a plurality of adjustable distances, i.e. a plurality of adjustable focal planes, so that one avatar or graphic element moves, flies, animations, etc. This gives the vehicle occupant a sense of
例えば、前記HUDコンポーネントは、1つのアバターを1つ又は複数の異なる焦点面上に連続的に投影することにより該アバターに「アニメーション」させる又は動きを与えるように構成することができる。これら複数の焦点面上への投影は、例えば、HUDコンポーネントのプロジェクタを移動させるアクチュエータを用いて実現してもよい。この結果、グラフィック要素やアバターに対応した焦点調節や輻輳などの奥行き手がかりが、大体において維持される。1つの経路が第1の位置から第2の位置に向かって生成される場合、前記HUDコンポーネントは、乗り物の運転者や乗員が「追跡」するべき1つ又は複数のグラフィック要素を生成することができる。該HUDコンポーネントは、複数の焦点面上に投影又は、投影された複数のグラフィック要素を1つの焦点面から別の焦点面に移動することができるので、グラフィック要素又は投影された画像は、より現実的で、鏡に映った画像と同じように見える。 For example, the HUD component can be configured to “animate” or give motion to an avatar by continuously projecting the avatar onto one or more different focal planes. The projection onto the plurality of focal planes may be realized by using, for example, an actuator that moves the projector of the HUD component. As a result, depth cues such as focus adjustment and convergence corresponding to graphic elements and avatars are generally maintained. If a route is generated from a first location to a second location, the HUD component may generate one or more graphic elements that a vehicle driver or occupant should “track”. it can. The HUD component can project onto a plurality of focal planes or move a plurality of projected graphic elements from one focal plane to another, so that a graphic element or projected image is more realistic. It looks the same as the image in the mirror.
乗り物の乗員がナビゲーション案内を要求すると、アバター等のグラフィック要素を提示することができる。該アバターは、例えば、仲間の乗り物を追跡している場合に乗員や運転者の目に入るものと同じように、乗り物の前で移動、滑空、飛行等をするように見える。さらに、該アバターは、実際の乗り物のように、障害状況、障害物、歩行者、物の破片、窪み、等の周りをナビゲートするように見えてもよい。1つ又は複数の実施形態では、アバターは、実時間の交通に応じて、「運転」し、移動し、移動するように見える。例えば、運転者や乗り物が線路を横切る必要のある経路の場合、アバターは、列車が横切るときには線路で停止する。別の例では、アバターは、車線変更を、他の乗り物に「衝突」又は、その他、交通妨害のように見えないようにして、行う。 When a vehicle occupant requests navigation guidance, a graphic element such as an avatar can be presented. The avatar appears to move, glide, fly, etc. in front of the vehicle, similar to what an occupant or driver sees when tracking a fellow vehicle, for example. In addition, the avatar may appear to navigate around obstacle situations, obstacles, pedestrians, object debris, depressions, etc., like an actual vehicle. In one or more embodiments, the avatar appears to “drive”, move, and move in response to real-time traffic. For example, if the route requires a driver or vehicle to cross the track, the avatar will stop on the track when the train crosses. In another example, the avatar makes a lane change so that it does not look like a “collision” or other traffic obstruction to other vehicles.
以下の説明及び添付の図面では、いくつかの例示的な実施態様及び実装について説明する。これらは、1つ又は複数の実施態様を用いるさまざまな方法の説明であるが、そのうちの幾つかに過ぎない。本発明の他の実施態様、利点又は新規な特徴は、以下の詳細な説明から、添付の図面と併せて考慮すると明らかになるであろう。 The following description and the annexed drawings set forth some illustrative embodiments and implementations. These are descriptions of various methods using one or more embodiments, but only a few of them. Other embodiments, advantages or novel features of the invention will become apparent from the following detailed description when considered in conjunction with the accompanying drawings.
本発明の実施態様は、添付の図面と合わせてみると以下の詳細な説明から理解できる。図面の要素、構成等は、必ずしも同じ縮尺で描かれていない場合がある。したがって、例えば、議論の明確化のために、同一のものの寸法が、任意に、拡張又は縮尺されていることがある。 Embodiments of the present invention can be understood from the following detailed description when taken in conjunction with the accompanying drawings. Elements, configurations, etc. in the drawings are not necessarily drawn to scale. Thus, for example, the same dimensions may be arbitrarily expanded or reduced for clarity of discussion.
図面に示された実施態様又は実施例を、特定の用語を用いて以下に開示する。しかしながら、開示された実施態様又は実施例は限定を意図するものではないことは理解されたい。開示された実施態様における任意の変更、修正及び、本明細書に開示された原理のさらなる応用は、関連技術の当業者には通常想到できると考えられる。 The embodiments or examples shown in the drawings are disclosed below using specific terminology. However, it should be understood that the disclosed embodiments or examples are not intended to be limiting. Any changes, modifications, and further applications of the principles disclosed herein will generally be conceivable to one skilled in the relevant arts in the disclosed embodiments.
本明細書の1つ又は複数の図面に関して、1つ又は複数の境界線、例えば、図2の境界線116等は、単に説明のために、互いに異なる高さ、幅、周囲長、アスペクト比、形状等で描かれており、かつ、必ずしも縮尺が合うように描かれていない。例えば、破線又は点線は異なる境界を表すために使用されるので、もし、破線や点線がお互いの上に引かれるとすると、これらの線は図面中では識別できない。このため、1つ又は複数の図で、互いに異なる寸法で少し離れて描かれ、相互に区別可能にしている。別の例として、境界が不規則な形状に対応している場合、破線や点線等で描かれたボックスのような境界は、1つ又は複数の例において、必ずしも1つのコンポーネント全体を含むとは限らない。逆に、描かれたボックスは、必ずしも、1つ又は複数の例において、単に対応する1つのコンポーネントのみを含むとは限らず、また、1つ又は複数の他のコンポーネントの一部を含むことがありうる。
With respect to one or more of the drawings herein, one or more borders, such as
運転者の直接視野内の環境要素の上に、乗り物用HUDデバイスによって視覚可能に配置されたグラフィック要素は、視野相似拡張現実要素又は等角拡張現実グラフィック要素と呼ばれることが多い。視野相似拡張現実グラフィック要素を乗り物の運転者に正常に提示することは、正確に奥行き手がかりを再現するための乗り物用HUDデバイスの能力に依存することがある。この奥行き手がかりには、焦点調節や輻輳が含まれる。焦点調節とは、目の筋肉が活発に屈折力を変化させて、焦点を種々の距離に変化させる奥行き手がかりである。輻輳とは、両眼の互いの方向への同時的又は並行的な内向き回転であり、1つのオブジェクトを見る際に両眼単一像を維持するために行われる。 Graphic elements that are visually placed by the vehicle HUD device over environmental elements in the driver's direct field of view are often referred to as field-like augmented reality elements or conformal augmented reality graphic elements. The successful presentation of field-similar augmented reality graphic elements to the vehicle driver may depend on the vehicle's ability to accurately reproduce the depth cues. This depth cue includes focus adjustment and convergence. Focus adjustment is a depth cue that causes the eye muscles to actively change refractive power and change the focus to various distances. Convergence is a simultaneous or parallel inward rotation of both eyes in the direction of each other, performed to maintain a single binocular image when viewing one object.
本明細書で説明する実施例では、乗り物の運転者1人について述べることがあるが、乗客など、1人又は複数の他の乗員の視野内に、グラフィック要素を投影、提示、レンダリングすることができる。このため、これらの実施例は限定を意図するものではなく、単に、例示的な応用の1つ又は複数の実施形態を説明するために開示されている。 The embodiments described herein may describe one vehicle driver, but may project, present, and render graphic elements within the field of view of one or more other occupants, such as passengers. it can. As such, these examples are not intended to be limiting and are disclosed merely to illustrate one or more embodiments of exemplary applications.
HUDデバイスが、乗り物のフロント・ガラス上にグラフィック要素を表示するとき、焦点調節によって、人間の目が環境要素とHUDデバイスによって表示された情報との間を移動することが起きる。輻輳によって、両眼がフロント・ガラスの向こうの環境の中の点へ集中し、これによってフロント・ガラスに表示されたHUDグラフィック要素が二重の像に見える可能性がある。したがって、視野相似拡張現実グラフィック要素を正しく再現された奥行き手がかりでレンダリングするためには、グラフィック要素は、乗り物のフロント・ガラス上というよりむしろ、実環境と同じ空間(例えば、対応する焦点面)上にレンダリングする必要がある。 When the HUD device displays a graphic element on the vehicle windshield, the focus adjustment causes the human eye to move between the environmental element and the information displayed by the HUD device. Convergence can cause both eyes to concentrate on a point in the environment beyond the windshield, which can cause the HUD graphic element displayed on the windshield to appear as a double image. Thus, to render a field-similar augmented reality graphic element with correctly reproduced depth cues, the graphic element is on the same space as the real environment (eg, the corresponding focal plane) rather than on the vehicle windshield. Need to be rendered.
乗り物の運転者がフロント・ガラスを通して環境を見ている間、運転者の視野にグラフィック要素を表示するために、乗り物用ヘッド・アップ・ディスプレイ・デバイスが提供される。該ヘッド・アップ・ディスプレイ・デバイスには、運転者がフロント・ガラスを通して環境を見ている間、運転者の視野内の前方焦点面上にグラフィック要素を投影する1つ又は複数のプロジェクタと、運転者がフロント・ガラスを通して環境を見ている間、運転者の視野内の地表に平行な焦点面上にグラフィック要素を投影する、1つ又は複数のプロジェクタと、を含む。前方焦点面にグラフィック要素を投影するプロジェクタは、運転者の視線の方向に前方焦点面を移動させるように、該プロジェクタを直線的に移動させるアクチュエータに搭載することができる。該地表に平行な焦点面に投影するプロジェクタは、地表に平行な焦点面が静止するように固定して配置することができる。 A vehicle head-up display device is provided for displaying graphic elements in the driver's field of view while the vehicle driver is viewing the environment through the windshield. The head-up display device includes one or more projectors that project graphic elements onto a front focal plane in the driver's field of view while the driver is viewing the environment through the windshield; One or more projectors that project graphic elements onto a focal plane parallel to the ground in the driver's field of view while the person is viewing the environment through the windshield. The projector that projects the graphic element on the front focal plane can be mounted on an actuator that linearly moves the projector so as to move the front focal plane in the direction of the driver's line of sight. The projector that projects onto the focal plane parallel to the ground surface can be fixedly arranged so that the focal plane parallel to the ground surface is stationary.
図1を参照して、正しく再現された奥行き手がかりで、立体的視野相似拡張現実グラフィック要素(例えば、実環境と同じ空間にレンダリングされた、3次元又は「3−D」グラフィック要素)をレンダリングすることができる乗り物用の立体ヘッド・アップ・ディスプレイ・システム100(「HUDシステム100」又は「HUDコンポーネント100」)について説明する。HUDシステム100は、乗り物用ヘッド・アップ・ディスプレイ・デバイス102(「HUDデバイス102」)と制御部104又は(又は「制御コンポーネント104」)とを含む。図2を参照すると、HUDシステム100は乗り物106に設けることができ、運転席108、ダッシュボード筐体110及び、フロント・ガラス112を有する。
Referring to FIG. 1, render a stereoscopic field-similar augmented reality graphic element (eg, a three-dimensional or “3-D” graphic element rendered in the same space as the real environment) with correctly reproduced depth cues. A three-dimensional head-up display system 100 ("
乗り物106の構成は、例えば、運転席108、ダッシュボード筐体110及びフロント・ガラス112の相対位置に関しては、従来のものでよい。本明細書に記載のHUDシステム100を収容するために、ダッシュボード筐体110によって、HUDシステム100が収容される収容空間が画定される。さらに、ダッシュボード筐体110は、ダッシュボード筐体110の上面によって確定されるHUDの出射孔114を有する。ダッシュボード筐体110内に収容されるHUDシステム100は、視野相似拡張現実グラフィック要素などのグラフィック要素を、HUD出射孔114を介してフロント・ガラス112に投影する。フロント・ガラス112は、HUDシステム100用の表示画面として使用することができる。以下でさらに詳細に説明するように、拡張現実グラフィック要素は、実環境と同じ空間にあるかのように運転者に対してレンダリングすることができる。
The configuration of the
乗り物106の運転者は運転席108に着座したまま乗り物106を運転する。したがって、運転者は、乗り物106内の運転席108の着座位置に位置的制約を受ける。この位置的制約を考慮して、HUDシステム100は、運転者の視野が、乗り物内のアイ・ボックス116から出ているという仮定を用いて設計することができる。アイ・ボックス116は、運転者が運転席108に着座している間、運転者の眼が置かれる乗り物106の内部の領域を含むと考えることができる。
The driver of the
アイ・ボックス116は、運転席108の位置及び形勢に関係なく、運転者のあらゆる可能な頭の位置を包含するように大きさを決めることができる。又は、HUDシステム100は、運転席108の位置及び形勢を検出して、これに基づきアイ・ボックス116の位置とサイズを調整するように構成することができる。1つ又は複数の実施形態では、HUDシステム100は、アイ・ボックス116が固定したサイズを有し、固定位置にあると仮定して設計することができる。たとえば、該アイ・ボックスは、20 cm x 10 cm×10 cmのサイズを持つことができる。いずれにしても、HUDシステム100は、運転者の目がアイ・ボックス116内にあり、運転者が乗り物106のフロント・ガラス112を介して前方に向いている/見ているときに、運転者に視野相似拡張現実グラフィック要素を表示するように構成することができる。図2のアイ・ボックス116は、乗り物106の運転者用に図示されているが、アイ・ボックス116は、乗り物の他の乗員を1人又は複数含むように設定してもよい。1つ又は複数の実施形態において、1つ又は複数の追加のアイ・ボックス又はHUDデバイスは、例えば、乗客や他の乗員用に具備され得る。
The
HUDデバイス102は、運転者が乗り物106のフロント・ガラス112を通して環境を見ている間、乗り物106の運転者の視野に1つ又は複数のグラフィック要素を表示する。運転者の目がアイ・ボックス116内にあり、運転者がフロント・ガラス112を介して前方を向いている/見ている間、運転者がフロント・ガラス112を介して見ている任意のグラフィック要素や環境要素は、運転者の視野内にあると考えることができる。本明細書で使用される場合、乗り物106の運転者の視野は、運転者が乗り物106のフロント・ガラス112を通して環境を見ている間、乗り物106内にあるダッシュボード・ディスプレイを除いて、フロント・ガラス112を通して見える領域を含むように意図されている。言い換えれば、HUDデバイス102は、運転者が道路から目を逸らせて見なくてもグラフィック要素を見ることができるようにグラフィック要素を提示する。
The
図1に戻って、HUDシステム100のHUDデバイス102には、第1のプロジェクタ118、第2のプロジェクタ120、第3のプロジェクタ122及び第4のプロジェクタ124が含まれる。第1のプロジェクタ118及び第3のプロジェクタ122は、第1のビーム・スプリッタ126と第1の対物レンズ128とを共有し、第2のプロジェクタ120及び第4のプロジェクタ124は第2のビーム・スプリッタ130及び第2の対物レンズ132とを共有する。この結果、第1のプロジェクタ118と第3のプロジェクタ122の出力は、第1のビーム・スプリッタ126で受信され、かつ、第1の対物レンズ128に向けられ、かつ第1の対物レンズ128を通って、単一の出力に統合される。同様に、第2のプロジェクタ120及び第4のプロジェクタ124の出力は、第2のビーム・スプリッタ130で受信され、かつ、第2の対物レンズ132に向けられ、かつ、第2の対物レンズ132を通って単一の出力に統合される。
Returning to FIG. 1, the
HUDデバイス102は、さらに、第1及び第2の対物レンズ128、132からの出力を受信するように構成されて、第1及び第2の対物レンズ128、132の下流に配置された第3のビーム・スプリッタ134を有する。第1及び第2の対物レンズ128、132からの出力は、第3のビーム・スプリッタ134で単一出力に統合され、該単一出力は第1、第2、第3及び第4のプロジェクタ118、120、122、124の全ての出力の組み合わせにすることができ、第3の対物レンズ136と接眼レンズ138の方へ向けられ、かつ通って、次に、HUD出射孔114から出てフロント・ガラス112に向けられる。フロント・ガラス112は、HUDシステム100用の表示画面として使用することができる。
The
第1のプロジェクタ118、第2のプロジェクタ120、第3のプロジェクタ122及び第4のプロジェクタ124のそれぞれは、プロジェクタ・ユニット140、142、144、146及び、拡散スクリーン148、150、152、154を含む。該拡散スクリーン148、150、152、154は、プロジェクタ・ユニット140、142、144、146からの設置距離に確実に固定されて、かつ、プロジェクタ・ユニット140、142、144、146から出射された光が拡散スクリーン148、150、152、154を通過するようにプロジェクタ・ユニット140、142、144、146に対して配置される。プロジェクタ・ユニット140、142、144、146は、対応する拡散スクリーン148、150、152、154を通過する画像要素又はグラフィック要素を投影する発光ユニットにすることができる。拡散スクリーン148、150、152、154は、HUDデバイス102の光学系の他の部分に対して発光画像ソース又は(又は、オブジェクト)として働き、かつ、拡散スクリーン148、150、152、154を出た光の大部分が、拡散スクリーン148、150、152、154の後の光学系(例えば、第1のビーム・スプリッタ126、第1の対物レンズ128、第2のビーム・スプリッタ130、第2の対物レンズ132、第3のビーム・スプリッタ134、第3の対物レンズ136及び接眼レンズ138)に確実に進むようにする。同時に、拡散スクリーン148、150、152、154は、運転者の頭がアイ・ボックス116内で動いていても、画像要素やグラフィック要素の明るさが一定のままであるように、最終的には光がアイ・ボックス116を満たすように光を拡散する。このようにして、拡散スクリーン148、150、152、154を用いることで、画像要素やグラフィック要素(複数可)の異なる部分がアイ・ボックス116内の異なる点から見えることを実質的に防ぎ、これによって、わずかな頭の動きに伴って異なる視覚動作が発生することを防止する。
Each of the
プロジェクタ・ユニット140、142、144、146は、本明細書記載の用途に適した、任意の発光ユニットの形をとることができる。プロジェクタ・ユニット140、142、144、146は、本明細書記載の用途に従って画像要素やグラフィック要素の投影が可能な任意の光発光ユニットの形をとることができる。同様に、拡散スクリーン148、150、152、154は、本明細書記載の用途に適した任意の光拡散スクリーンの形をとることができる。
第1のプロジェクタ118は、HUDデバイス102の第1のアクチュエータ156に取り付けることができる。第1のアクチュエータ156は、第1のプロジェクタ118を、第1のビーム・スプリッタ126に向かう又は、第1のビーム・スプリッタ126から離間する、直線的な方向に移動させることが可能なリニア・アクチュエータであり得る。さらに、第3のプロジェクタ122は、HUDデバイス102の第2のアクチュエータ158に取り付けることができる。第2のアクチュエータは、第3のプロジェクタ122を、直線方向に、第1のビーム・スプリッタ126に向かう又は第1のビーム・スプリッタ126から離間する方向に移動させることが可能なリニア・アクチュエータであり得る。第1及び第2のアクチュエータ156、158は、本明細書記載の用途に適した任意のリニア・アクチュエータの形をとることができる。第1のプロジェクタ118及び第3のプロジェクタ122の直線的な移動能力によって、第1のプロジェクタ118及び第3のプロジェクタ122が動的焦点面又は可動焦点面上にグラフィック要素を投影することが可能になる。第1及び第3のプロジェクタ118、122とは対照的に、第2及び第4のプロジェクタ120、124はHUDデバイス102内に固定配置され、したがって、静止焦点面上にグラフィック要素を投影することができる。
The
第1、第2、第3及び第4のプロジェクタ118、120、122、124を用いて、HUDデバイス102は、グラフィック要素(視野相似拡張現実グラフィック要素又はそれ以外のグラフィック要素)を、フロント・ガラス112を介して運転者が見る環境内の4つの異なる焦点面にレンダリングすることができる。この点に関して、第1のプロジェクタ118は第1のグラフィック要素160を第1の焦点面162に投影するように構成することができ、第2のプロジェクタ120は第2のグラフィック要素164を第2の焦点面166に投影するように構成することができ、第3のプロジェクタ122は第3のグラフィック要素168を第3の焦点面170に投影するように構成することができ、第4のプロジェクタ124は第4のグラフィック要素172を第4の焦点面174に投影するように構成することができる(図3及び図4を参照して後述する)。第1、第2、第3及び第4のグラフィック要素160、164、168、172及び対応する第1、第2、第3及び第4の焦点面162、166、170、174のすべてを、運転者がフロント・ガラス112を介して前方をみながら乗り物106を運転し、かつ、運転者の目がアイ・ボックス116内にあるとき、運転者の視野内の環境にレンダリングすることができる。
Using the first, second, third and
図3及び図4を参照して、第1、第2、第3及び第4のグラフィック要素160、164、168、172の第1、第2、第3及び第4の焦点面162、166、170、174への投影に関して、地表面176と運転者の視線178とを参照しながら説明する。ここで、地表面176は、乗り物106の前方の道路の表面である。説明を簡略にするため、地表面176は、ほぼ平坦な面であると仮定する。運転者の視線178は、アイ・ボックス116から前方に、地表面176に対して略平行に延びる線である。本明細書で使用するとき、視線178の方向は、視線178に沿って運転者と乗り物106に向かう又は運転者と乗り物106から離間して延びる方向である。
3 and 4, the first, second, third and fourth
第1の焦点面162は、運転者の視線178に対して略垂直に配向することができる前方焦点面である。第3の焦点面170もまた、運転者の視線178に対して略垂直に配向可能な前方焦点面である。第1及び第3の焦点面162、170は、視線178の方向で、前向き(乗り物106から離間する方向)及び後ろ向き(乗り物106に向かう方向)の両方に移動可能な動的焦点面とすることができる。第2焦点面166は、地表面176に略平行に配向可能な、地表に平行な焦点面であり、かつ、地表面176上に配置して第2焦点面166が地表焦点面になるようにすることができる。第4の焦点面174もまた、地表面176に略平行に配向可能な、地表に平行な焦点面であり、かつ、地表面176の上方に配置することができる。第4の焦点面174は、地表面176及び運転者の視線178の上方に配置して、空や天井の焦点面にすることができる。その結果、第2、第4の焦点面166、174は静止焦点面にすることができる。
The first
図4を参照すると、第1、第2、第3及び第4のグラフィック要素160、164、168、172は、異なる情報を運転者に提示するために使用することができる。第1、第2、第3及び第4のグラフィック要素160、164、168、172によって表示される情報の細かな種類は、変更することができる。例えば、第1のグラフィック要素160及び第3のグラフィック要素168は、危険状況や障害物を迂回するように指示する警告を運転者に提示することができる。また、道路交通法規(例えば、停止標識、譲れ(YIELD)標識、等)に対応するナビゲーション命令や運転の命令を表示することができる。第2のグラフィック要素164及び第4のグラフィック要素172は、地表面176上に提示されるグラフィカルな重ね書きとして運転者に対してナビゲーション命令を提示することができ、また、運転者に乗り物周辺標識を提示することができる。第1、第2、第3及び第4のグラフィック要素160、164、168、172は、本明細書に記載したものとは異なる情報又はグラフィック要素を運転者に提示してもよく、かつ、第1、第2、第3及び第4のグラフィック要素160、164、168、172の部分的な組を提示してもよい。
Referring to FIG. 4, the first, second, third and fourth
図1に戻って、制御部104には、1つ又は複数の乗り物制御システム180と通信してHUDデバイス102を制御することができる、1つ又は複数のコンピュータ、(例えば、算術計算用の)プロセッサ又は、他の任意のデバイスを含むことができる。1つ又は複数の乗り物制御システム180(本明細書中では「乗り物制御システム180」又は「乗り物制御コンポーネント180」)は、任意の乗り物制御システム180の形態(複数可)をとって、乗り物106の制御を主導的又は受動的に円滑化するために用いることができる。乗り物制御システム180は、乗り物106の操作に関係する運転条件及び環境条件を検知する1つ又は複数のセンサ(図示せず)を含むか又は該センサと通信することができる。
Returning to FIG. 1, the
HUDシステム100の動作を概略的にみると、制御部104は、乗り物制御システム180と通信し、乗り物制御システム180との通信に基づいて、乗り物106の運転者に提示するグラフィック要素の種類及び位置を決定する。制御部104 は、第1、第2、第3及び第4のプロジェクタ118、120、122、124によって第1、第2、第3及び第4のグラフィック要素160、164、168、172として提示されるべきグラフィック要素の種類を決定し、かつ、第1、第2、第3及び第4のプロジェクタ118、120、122、124を制御して、第1、第2、第3及び第4のグラフィック要素160、164、168、172を決定されたグラフィック要素として投影させる。制御部104は、第1のグラフィック要素の目標位置と第3のグラフィック要素の目標位置を、第1及び第3のグラフィック要素160、168が前記環境内で運転者に対してレンダリングされるべき目標位置として決定することができる。制御部104は、次に、第1及び第2のアクチュエータ156、158を制御して、第1及び第3のプロジェクタ118、122を直線的に移動させ、第1及び第3の焦点面162、170を、それぞれ第1及び第3のグラフィック要素の目標位置に移動させることができる。
Looking briefly at the operation of the
このようにして、第1のプロジェクタ118は、第1のグラフィック要素160を第1の焦点面162上に投影する。第1の焦点面162は、運転者の視線に対して略垂直に配向させることができ、第1のアクチュエータ156による第1のプロジェクタ118の直線運動を通して運転者の視線178の方向を、乗り物106へ向かう方へ又は乗り物106から離れる方へ、移動することができる。第2のプロジェクタ120は、第2のグラフィック要素164を第2の焦点面166へ投影する。第2の焦点面166は、静止させ、地表面176に平行に配向させ、かつ、地表面176の上に配置することができる。第3のプロジェクタ122は、第3のグラフィック要素168を第3の焦点面170上投影する。第3の焦点面170は運転者の視線に対して略垂直に配向され、第2のアクチュエータ158による第3のプロジェクタ122の直線運動を通して、運転者の視線178の方向を乗り物106へ向かう方へ又は乗り物106から離れる方へ移動可能又は調整可能である。第4のプロジェクタ124は、第4のグラフィック要素172を第4の焦点面174上に投影することができる。第4の焦点面174は、静止しており、地表面176に平行に配向され、運転者の視線178の上方に配置することができる。制御部104は、第1及び第2のアクチュエータ156、158を制御して、第1及び第3のプロジェクタ118、122を移動させ、第1及び第3の焦点面162、170を移動させる。
In this way, the
第1及び第3のプロジェクタ118、122に、第1及び第3のグラフィック要素160、168を、運転者の視線178に略垂直に配向された第1及び第3の焦点面162、170上に投影させることによって、乗り物106から異なる距離にあるオブジェクトの焦点を調整することができる。これによって、運転者に対する、第1及び第3のグラフィック要素160、168の正確な奥行き手がかりの提供が容易になり、特に、HUDシステム100を乗り物用アプリケーションとすることができるので、移動プラットフォームとして働く乗り物106に具備することができる。
First and
第2及び第4のプロジェクタ120、124は、第2及び第4のグラフィック要素164、172を第2及び第4の静的焦点面166、174上に投影すると同時に、第2及び第4の焦点面166、174を、切れ目なく連続させることができる。第2及び第4の焦点面166、174を地面176に平行にするために、第2及び第4のプロジェクタ120、124の拡散スクリーン150、154は傾斜させることができる。HUDデバイス102の光学系は、歪みが非常に小さく、地面に平行な焦点面にある画像に対してほぼテレセントリックであるので、光線が光軸と平行に近い。このことによって、第2及び第4の焦点面166、174が傾いている間、投射された第2及び第4のグラフィック要素164、172を歪みなく又は倍率を変えずに投影又はレンダリングすることが可能になる。したがって、この結果生じる第2及び第4のグラフィック要素164、172は、地表面176に平行で連続した焦点面(第2及び第4の焦点面166、174)上に表示される。この点で、第2及び第4のグラフィック要素164、172は、線分の代わりに実際の3次元(3−D)の立体形状でレンダリングして、奥行き知覚を強めるために単眼手がかりを追加することもできる。
The second and
連続し、静止した第2及び第4の焦点面166、174によって、第2及び第4のグラフィック要素164、172 に対する運転者の奥行き知覚が容易になる。連続し、静止した第2及び第4の焦点面166、174によって、3−D空間における前後方向(例えば、運転者の視線178の方向)全体に渡って実際の像又はグラフィック要素の正しい生成が可能になり、適切な運動視差手がかりの生成が可能になる。したがって、運転者の頭が、横から横へ又は上下に移動しても、運転者には、第2及び第4のグラフィック要素164、172が動き回ることなく、むしろ、環境内での位置が固定されているように見える。したがって、HUDシステム100は、運転者の頭部の動きを補償するための、頭部追跡機能を必要としない。
The continuous and stationary second and fourth
前記の、運転者に提示可能な例示的な情報に関して、乗り物制御システム180は、危険状況や障害物の検出、ナビゲーション、ナビゲーション命令、乗り物周辺(例えば、死角)モニタ等の機能を実行可能な処理及びセンサを有することができる。乗り物制御システム180は、他の乗り物制御機能(例えば、高速道路合流支援等)を実行可能な処理及びセンサを含むことができる。該他の乗り物制御機能は、HUDシステム100を用いて運転者に提示される情報に代替的又は追加的に結合することができる。乗り物制御システム180によって実行される機能に関係なく、前記機能を実行するための乗り物制御システム180の細かな動作形態は、関連するセンサ及び処理を含めて、HUDシステム100の動作と関連付けられなくてよい。
With respect to the exemplary information that can be presented to the driver, the
制御部104は、乗り物制御システム180と通信し、乗り物制御システム180から、乗り物106の動作に関連する、上記又は(又は、他の)機能に対応する入力を受信する。制御部104は、次に、HUDデバイス102を、乗り物制御システム180から受信した入力に基づいて制御する。ここで、制御部104と乗り物制御システム180の一方又は両方が、第1、第2、第3及び第4のグラフィック要素160、164、168、172として表示されるグラフィック要素の種類、第1、第2、第3及び第4のグラフィック要素160、164、168、172の位置及び、第1、第2、第3及び第4のグラフィック要素160、164、168、172のどれを表示するかを決定する。上記の決定は、運転者がナビゲーション機能を用いているかどうかなど、運転者によって用いられる1つ又は複数の乗り物機能に基づくこともできる。
The
制御部104又は乗り物制御システム180のどちらを使用して前記決定を行うかに関わらず、制御部104は、HUDデバイス102を制御して適切なグラフィック要素を適切な位置に表示させる。このような制御には、第1、第2、第3及び第4のプロジェクタ118、120、122、124を制御して、第1、第2、第3及び第4のグラフィック要素160、164、168、172を適切に投影する処理を含んでもよい。該制御には、第1及び第2のアクチュエータ156、158を制御して、第1及び第3のプロジェクタ118、122を直線的に移動させ、第1及び第3の焦点面162、170を適切な位置(例えば、目標位置)に移動させるようにする処理を含んでもよい。例えば、156、158のような1つ又は複数のアクチュエータが、162、170のような、1つ又は複数の焦点面を移動させるように構成することができる。第3の焦点面170に関しては、例えば、第3の焦点面170と乗り物106のフロント・ガラス(例えば、302)の間の距離は、距離170’の調整によって調整することができる。同様に、距離162’ を調整して、焦点面162の目標位置を変えることができる。
Regardless of whether the determination is made using the
第1、第2、第3及び第4のグラフィック要素160、164、168、172に関連する、前記の例示的な情報を参照して、HUDシステム100の動作が、乗り物制御システム180を有する乗り物106に言及しながら説明する。該乗り物制御システム180では、以下の機能、危険状況や障害物の検出と警告機能、ナビゲーション機能、ナビゲーション命令機能及び、乗り物周辺(例えば、死角)モニタ機能等が可能になる。再度述べるが、乗り物106は、上記機能の一部又は追加機能を有することができ、HUDシステム100を上記機能の一部又は追加的な機能に関連して用いてもよい。上記機能に関するHUDシステム100の説明は単なる例示であり、HUDシステム100の説明を容易にするために用いている。制御部104と乗り物制御システム180のうちの1つ又は両方が、HUDシステム100の動作に関連する決定を行うことができるが、以下の説明では、制御部104が、乗り物制御システム180から受け取った入力に基づいて決定を行うように構成されているものとして説明する。
With reference to the exemplary information associated with the first, second, third, and fourth
障害物検知及び警告機能に関する情報は、HUDデバイス102の第1のプロジェクタ118によって投影される視野相似拡張現実グラフィック要素として、運転者に提示することができる。この点に関して、乗り物制御システム180は、乗り物106が走行している道路上のさまざまな障害物を検出することができる。例えば、障害物には、道路を横断する歩行者、他の乗り物、動物、車道上の破片、窪み、等がある。これらの障害物の検出は、乗り物106に設けられたセンサ(図示せず)によって感知された環境からの情報を処理することによってなされる。また、障害物検出は任意の方法で行うことができる。
Information regarding obstacle detection and warning functions can be presented to the driver as a visual field-similar augmented reality graphic element projected by the
障害物を検出すると、乗り物制御システム180は、障害物の情報を制御部104に伝達する。制御部104は、乗り物制御システム180からの障害物情報を受信すると、第1のグラフィック要素160として提示するグラフィック要素の種類及び第1のグラフィック要素の目標位置を、受信した障害物情報に基づいて決定する。フラッシュ・アイコン、その他の表示等、さまざまな種類のグラフィック要素を用いることができるが、本明細書の例では、障害物を検出したときに提示される「譲れ(YIELD)」標識に関して説明する。
When the obstacle is detected, the
図4を説明すると、乗り物制御システム180が検出した障害物は、乗り物106が走行中の道路を横断する歩行者182である場合がある。図4の運転者の例示の視野では、乗り物106は、歩行者182が横断している道路を走行している。したがって、乗り物制御システム180は、歩行者182に関する障害物情報を制御部104に送信することができる。前記障害物情報に基づいて、制御部104は、第1のグラフィック要素160として表示するべきグラフィック要素の種類を決定することができる。この場合、例えば、該グラフィック要素は「譲れ(YIELD)」標識とすることができるが、他の図形を用いてもよい。制御部104は、第1のグラフィック要素の目標位置を、第1のグラフィック要素160が投影されレンダリングされて、運転者によって、歩行者182と同じ奥行き(例えば、焦点面)にあると知覚されるように、決定することができる。また、制御部104を、例えば、歩行者182が歩くときに、第1のグラフィック要素160が歩行者182を「追跡」又は「追尾」するように第1のグラフィック要素の目標位置を調整するように、構成することができる。
Referring to FIG. 4, the obstacle detected by the
制御部104は、次に、第1のプロジェクタ118を制御して、「譲れ(YIELD)」標識を第1のグラフィック要素160として投影し、かつ、第1のアクチュエータ156を制御して直線的に第1のプロジェクタ118を移動させ、第1のグラフィック要素160が投影、レンダリングされて、運転者によって(例えば、運転者の目はアイ・ボックス116内にあり、運転者がフロント・ガラス112越しに前方を見ている間)歩行者182と同じ奥行きにあると知覚されるようにすることができる。第1のアクチュエータ156は、第1のグラフィック要素160を第1の焦点面162上に投影するように制御される。第1の焦点面162は、第1のグラフィック要素の目標位置に配置され、視線178に対して略垂直に配向することができる。
The
乗り物106と歩行者182が道路を通行するとき、両者間の相対的距離が変化する。この距離の変化は、乗り物制御システム180によって制御部104に伝達することができ、これに応じて第1のグラフィック要素の目標位置を変えることができ、かつ、第1のアクチュエータ156を制御部104によって制御して第1の焦点面162を移動させて、(例えば、変化した/変化している)目標位置にとどまるようにすることができる。このようにして、第1のグラフィック要素160を運転者の視線178の方向に沿って移動可能な第1の焦点面162上に投影し、第1のグラフィック要素160に対応する奥行き手がかりを正しく再生して、運転者が正確に第1のグラフィック要素160(例えば、検出された障害物)の位置を判定できるようにすることができる。
When the
さらに、前記ナビゲーション機能に関する情報を、運転者に、HUDデバイス102の第2のプロジェクタ120によって投影された視野相似拡張現実グラフィック要素として提示することができる。この点に関して、乗り物制御システム180は、運転者からのナビゲーション要求(例えば、所望の場所の入力)を受信すると、所望の場所に到達するために運転者が通るべきナビゲーション経路を生成する。該ナビゲーション経路には、運転者が従うべき一連の運転指図が含まれ、該指図には、所望の場所に至る経路上の道路に至るための命令等が含まれる。ナビゲーション機能は任意の方法で実行することができる。ナビゲーション機能が起動されると、乗り物制御システム180は、ナビゲーション機能に関する運転指図を制御部104に伝達する。
Further, the information regarding the navigation function can be presented to the driver as a visual field similarity augmented reality graphic element projected by the
制御部104 は、乗り物制御システム180から運転指図を受信し、第2のグラフィック要素164として提示するグラフィック要素の種類を決定する。ナビゲーション機能に関連するグラフィック要素の前記種類には、現在の道路を進み続ける(例えば、直線や矢印等)、左折又は右折して次の交差道路に入る(例えば、左/右向きの矢印又は適切な方向に曲がった線)、高速道路に入る、合流する又は高速道路から出る(例えば、適切な通路を示す線又は矢印)等を、運転者に指示するグラフィック要素を含まれる。制御部104は、乗り物制御システム180から伝達された運転指図に基づいて、第2のグラフィック要素164として提示するべき適切なグラフィック要素を選択する。
The
図4の運転者の視野の例を参照すると、乗り物制御システム180のナビゲーション機能によって決定された運転経路のための運転指図には、左折して次の道路に入る指示を含んでいる。したがって、制御部104は、第2のプロジェクタ120を制御して、左折のグラフィック要素を第2のグラフィック要素164として第2の焦点面166上に生成・投影する。図4に示すように、第2焦点面166は、地表面176に平行に配向され、地表面176上に置くことができる。上述のように、第2のプロジェクタ120は、HUDデバイス102に固定的に配置して、第2の焦点面166が静止するようにできる。上述のように、第2の焦点面166は切れ目なくつなぐことができ、第2のグラフィック要素164を、運転者に対して適切な奥行き手がかりで3−D画像としてレンダリングすることができる。
Referring to the driver view example of FIG. 4, the driving instructions for the driving route determined by the navigation function of the
同様に、ナビゲーション命令機能に関する情報は、運転者に対して、HUDデバイス102の第3のプロジェクタ122によって投影された視野相似拡張現実グラフィック要素として提示される。ここで、乗り物制御システム180は、センサ又は、データベースに格納されて地図と関連付けられた情報を用いて、乗り物106が走行している道路をモニタし、かつ、該道路上の走行に関する次のナビゲーション命令を決定することができる。例えば、乗り物制御システム180は、乗り物106が走行している道路上の次に必要になる停止、譲れ(YIELD)又は他の状況(本明細書では、「道路状況」と総称する)を検出することができる。乗り物制御システム180は、検出された道路状況に関連するナビゲーション命令(例えば、停止の道路状況に対応付けられた停止命令等)を決定する。ナビゲーション命令機能は任意の方法で実行することができるが、実行方法の詳細は、必ずしもHUDシステム100の動作に関係しない。また、道路状況には、他の事柄の中では、道路区間の交通量、障害事象、障害物、気象状況、道路区間の表面の状況又は、道路又は道路区間の一部に関連した制限速度、等が含まれる。つまり、道路状況は、概して言えば、例えば、運転中の、加速、減速、迂回、停止、警戒等を行うための理由を含むことができる。
Similarly, information regarding the navigation command function is presented to the driver as a field-similar augmented reality graphic element projected by the
乗り物制御システム180は、道路状況又は道路状況に対応するナビゲーション命令、ならびに道路状況の位置に関する情報を、制御部104に伝達する。したがって、制御部104は、第3のプロジェクタ122を制御して、第3のグラフィック要素168を投影し、道路状況又は対応するナビゲーション命令に関する情報を運転者に伝達することができる。制御部104は、道路状況又はナビゲーション命令情報、ならびに位置情報を、乗り物制御システム180から受信して、第3のグラフィック要素168として表示するべきグラフィック要素の種類及び第3のグラフィック要素の目標位置を決定することができる。
The
さまざまな種類のグラフィック要素を、ナビゲーション命令機能と組み合わせて使用することができる。例えば、:STOP(停止)標識、譲れ(YIELD)標識、ONE WAY(一方通行)標識、NO TURN ON RED(赤で旋回禁止)標識等がある。グラフィック要素の種類は、道路状況に対応付けられたナビゲーション命令を伝達するために選択することができる。どのような種類のグラフィック要素を、制御部104が、第3のグラフィック要素168として使用するかを決定しても、該グラフィック要素は、運転状況の位置に表示されるように投影することができる。この点において、第3のグラフィック要素の目標位置は、第3のグラフィック要素168を運転者の視野の中でレンダリングするべき位置として、検出された道路状況の乗り物106に対する位置に基づいて、決定する必要がある。
Various types of graphic elements can be used in combination with the navigation instruction function. For example: STOP (stop) sign, YIELD sign, ONE WAY (one-way) sign, NO TURN ON RED (red turn prohibited) sign, etc. The type of graphic element can be selected to convey navigation instructions associated with road conditions. Whatever type of graphic element is determined by the
制御部104は、第3のプロジェクタ122を制御して、適切なグラフィック要素を第3のグラフィック要素168として投影するように構成することができる。該制御部は、第2のアクチュエータ158を制御して第3のプロジェクタを直線的に移動させ、第3のグラフィック要素16を、運転者が(例えば、運転者の目がアイ・ボックス116内にあり、運転者がフロント・ガラス112を通して前方を覗き込んでいる間)、道路状況と同一の奥行きにある(例えば、同一の焦点面を有する)と知覚するように、投影、かつレンダリングすることができる。第2のアクチュエータ158を制御して、第3のグラフィック要素168を第3の焦点面170上に投影するようにできる。該第3の焦点面170は、第3のグラフィック要素の目標位置に配置して、視線178に略垂直に配向することができる。制御部104は、第2のアクチュエータ158を制御して、第3のプロジェクタ122を連続的、直線的に移動させ、第3の焦点面170が、乗り物106と検出された道路状況(例えば、第3のグラフィック要素の目標位置)の間の距離の変化(乗り物制御システム180によって検出され、制御部104に伝達される)に応じて移動するようにできる。該変化は、例えば、検出された道路状況に向かって乗り物106が走行する結果、発生する。
The
図4における運転者の視点からの視野の例では、乗り物106は、乗り物106が停止すべき十字路に近づいている。従って、乗り物制御システム180は、交差点入り口の位置に停止の道路状況を検出し、停止道路状況に対応するナビゲーション命令が停止命令であるべきだと判断する。停止道路状況又は命令、ならびに停止道路状況の位置が制御部104に伝達される。制御部104は、STOP標示を第3のグラフィック要素168として表示すべきであると判断する。制御部104は、第3のグラフィック要素168(例えば、STOP標示)が、十字路の入り口の位置に表示されるべきであると判断する。こうして、交差点の入り口の位置を、第3のグラフィック要素の目標位置であると判断することができる。
In the example of the field of view from the driver's viewpoint in FIG. 4, the
制御部104は、第3のプロジェクタ122を制御して、「STOP」標示を第3のグラフィック要素168として投影することができ、かつ、第2のアクチュエータ158を制御して第3のプロジェクタ122を移動し、第3のグラフィック要素168を、運転者が(例えば、運転者の目がアイ・ボックス116内にあり、運転者がフロント・ガラス112を通して前方を見ている間)、十字路の入り口と同一の奥行きにあると知覚するように投影し、かつレンダリングすることができる。第2のアクチュエータ158は、第3のグラフィック要素168が第3の焦点面170上に投影されるように、制御することができる。第3の焦点面170は、第3のグラフィック要素の目標位置におかれ、視線178に略垂直に配向することができる。乗り物106が道路を走行しているとき、乗り物106と十字路の入り口との相対距離が変化する。この距離の変化は、乗り物制御システム180によって制御部104に伝達することができ、したがって第3のグラフィック要素の目標位置を変えることができ、かつ、第2のアクチュエータ158を制御部104が制御して、第3の焦点面170を移動させ、第3の焦点面170が(例えば、変更された/変更中の)第3のグラフィック要素の目標位置に留まるようにすることができる。このように、第3のグラフィック要素168を、運転者の視線178の方向に沿って移動可能な第3の焦点面170上に投影して、第3のグラフィック要素168に対応する奥行き手がかりを正確に再現し、運転者が正確に第3のグラフィック要素168(例えば、検出された道路状況)の位置を判定できるようにすることができる。
The
乗り物周囲(例えば、死角)のモニタ機能に関連する情報は、運転者に対して、HUDデバイス102の第4のプロジェクタ124によって提示することができる。この点に関して、乗り物制御システム180は、他の乗り物の存在を、乗り物106のすぐ周り又は周辺の領域において検出することができる。乗り物106のすぐ周りの他の乗り物の検出は、乗り物106に具備されたセンサが検知する、周囲に関する情報を処理することによって行うことができる。乗り物周辺の判定は任意の方法で行うことができる。
Information related to the monitoring function around the vehicle (eg, blind spot) can be presented to the driver by the
乗り物周囲の情報は、乗り物制御システム180によって決定され、制御部104に伝達される。制御部104は、乗り物周辺情報を乗り物制御システム180から受信し、もし行うなら、どのように第4の焦点面174に投影された第4のグラフィック要素172を変更するかを決定する。この点で、第4のグラフィック要素172として、乗り物周辺(例えば、死角)モニタ機能を支援するために使用されるグラフィック要素は、図4に示す乗り物周辺標識とすることができる。
Information about the surroundings of the vehicle is determined by the
乗り物周辺標識には、乗り物106を表す中央のマーカーと、乗り物106を直接取り囲む場所を表す8つの周囲マーカーとが含まれる。乗り物制御システム180は、乗り物106の直近にある乗り物の位置に関する情報を伝達し、かつ、制御部104は、第4のプロジェクタ124を制御して、第4のグラフィック要素172を変更し、1つ又は複数の対応する8つの周囲マーカーを強調表示させる。8つの周囲マーカーの強調表示によって、乗り物106を直接取り囲む領域にある他の乗り物の位置を運転者に示す。
The vehicle perimeter sign includes a central marker representing the
図4において、第4のグラフィック要素172は、第4の焦点面174上に投影することができる。第4の焦点面174は、地表面176に平行に配向することができ、かつ、地表面176及び視線178の上方に配置することができる。上述のように、第4のプロジェクタ124は、HUDデバイス102内に固定的に配置して、第4の焦点面174が静止しているようにすることができる。上述のように、第4の焦点面174は、切れ目なく連続するようにでき、第4のグラフィック要素172を、3−D画像として適切な奥行き手がかりで運転者にレンダリングするようにできる。
In FIG. 4, the fourth
第4のグラフィック要素172は、図4の乗り物周辺標識とは異なる形で提供することができる。任意の事象において、第4のグラフィック要素172は第4の焦点面174上に投影することができる。該第4の焦点面174は、地表面176に平行に配向することができ、地表面176と運転者の視線178の上方に配置することができる。したがって、第4グラフィック要素172は空の焦点面上に提示することができる。これは、第4のグラフィック要素172によって伝達される情報が、環境と相互作用する必要がないので、適切であろう。
The fourth
上記のHUDシステム100は、グラフィック要素を、そのうちのいくつかは視野相似拡張現実グラフィック要素として、連続的に変化する焦点距離に、かつ、運転者の視線178の方向に沿って前から後ろに連続的に変化する焦点を有する、地表に平行な焦点面に、投影できる。したがって、奥行き知覚の手がかりが改善され、焦点調節を容易にし、同時に又は並行して又は(又は、ほぼ同時に)、運転者が環境に払う注意を増すことができる。これによって、運転者が、グラフィック要素を介して提示された情報だけでなく、環境を観測することが可能になる。この点で、実験を通して、本願発明者は、空間認知が焦点手がかりに大きく影響され得ること及び、本明細書に記載のHUDシステム100の、焦点面調整機能と共に、グラフィック要素を、連続し、かつ静止した、地表に平行な焦点面上に表示する機能が、空間認知を改善すると判断した。この目的に対して、空間認知の大幅な改善は、本明細書に記載した、焦点手がかりを調整するときの方が、グラフィック要素のサイズを調整するときよりも、観察される。
The
HUDデバイス102の構成では、ビーム・スプリッタ126、130、134及び、レンズ128、132、136、138を含めて、HUDデバイス102のサイズを比較的コンパクトにすることができる。さらに、レンズ128、132、136、138によって、奥行きの範囲は、乗り物106の前方数メートルから、HUDデバイス102の光学系に割り当てられた物理空間内で無限遠まで拡大することができる。さらにまた、ビーム・スプリッタ126、130、134は光結合器として使用することができ、第1、第2、第3及び第4のプロジェクタ118、120、122、124からの異なる投射光線の組のすべてを、レンズ128、132、136、138を介して合流させて、第1、第2、第3及び第4のプロジェクタ118、120、122、124からの個別の画像を、運転者の視野に投影される1つの統合画像又は(又は、例えば、グラフィック要素)に結合することができる。
In the configuration of the
1つ又は複数の実施形態において、上に開示した及びその他の、特徴及び機能のうちのいくつか又は、その代替又は変形を所望のように組み合わせて、多くの他の異なるシステム又は応用とすることができる。また、該システム又は応用における、現在予見できない又は予期できない多様な代替、修正、変形又は改良が、以下の特許請求の範囲によって包含することを意図した技術の当業者によって、後になされてもよい。 In one or more embodiments, any of the above-disclosed and other features and functions, or alternatives or variations thereof, may be combined as desired into many other different systems or applications. Can do. Also, various alternatives, modifications, variations or improvements presently unforeseeable or unforeseeable in the system or application may be made later by those skilled in the art which are intended to be covered by the following claims.
例えば、より少ない又はより多いプロジェクタを、HUDシステム100において用いて、より少ない又はより多いグラフィック要素を投影してもよい。さらに、HUDシステム100は、前方の焦点面にグラフィック要素を投影する2つのプロジェクタと地面に平行な焦点面にグラフィック要素を投影する2つのプロジェクタを有するものとして記載されているが、前方の焦点面と地面に平行な焦点面の割合は変えることができる。HUDシステム100に対応する上述の乗り物の機能は代表的な事例であり、変更又は修正することができる。
For example, fewer or more projectors may be used in the
さらにまた、前方焦点面を移動するしくみは、上述したものから変更することができる。例えば、プロジェクタ全体(例えば、第1及び第2のアクチュエータ156、158を用いて、第1及び第3のプロジェクタ118、122)を移動させるのではなく、単に拡散スクリーン(例えば、第1及び第3のプロジェクタ118、122の拡散スクリーン148、152)を、各々のプロジェクタ・ユニット(例えば、プロジェクタ・ユニット140、144)に対して相対的に移動させるようにしてもよい。
Furthermore, the mechanism for moving the front focal plane can be changed from that described above. For example, rather than moving the entire projector (e.g., the first and
さらに、HUDシステム100は乗り物106を参照して説明し、該乗り物106は屋外用四輪自動車であったが、HUDシステム100は、異なる種類の乗り物で使用することができる。例えば、該HUDシステムは、海上の乗り物(例えば、ボート)、空中の乗り物(例えば、飛行機又はジェット機)又は屋内使用を意図した乗り物(例えば、輸送用カート、フォークリフトなどの資材取り扱い用乗り物等)に設けてもよい。
Further, although the
図5は、1つ又は複数の実施形態による、3Dナビゲーション・システム500の構成の1例の説明図である。システム500は、HUDコンポーネント100と、乗り物制御コンポーネント180と、制御コンポーネント104と、ナビゲーション・コンポーネント540と、奥行きマップ・コンポーネント550と、奥行きバッファ・コンポーネント560と、1つ又は複数のセンサ・コンポーネント570と、1つ又は複数の制御エリア・ネットワーク(CAN)580とを含むことができる。HUDコンポーネント100は、図1のHUDシステム100のような乗り物用立体HUDシステムとすることができ、前述のコンポーネントを含むことができる。1つ又は複数の実施形態において、HUDコンポーネント100は、特に、3−D・HUD、距離可変HUD、拡張現実HUD(AR−HUD)等とすることができる。
FIG. 5 is an illustration of an example configuration of a
ナビゲーション・コンポーネント540は、起点位置(例えば、点A)と1つ又は複数の目的位置(例えば点B)を受信又は識別するように構成することができる。該ナビゲーション・コンポーネント540は、例えば、点Aから点Bへ至る1つ又は複数の経路群を計算又は決定するように構成することができる。一般に、ナビゲーション・コンポーネント540は、1つの乗り物に対応する。例えば、ナビゲーション・コンポーネント540は、乗り物に搭載し、該乗り物の1つ又は複数のシステム又は1つ又は複数のコンポーネントと統合し、乗り物内に収容し、乗り物の1つ又は複数のコンポーネントと連結又は通信接続し又は、乗り物内に配置する、等が可能である。いずれの場合においても、ナビゲーション・コンポーネント540は、起点位置と目的位置を特定するか又は受信することができる。1つ又は複数の実施形態において、ナビゲーション・コンポーネント540は、乗り物の現在位置又は現在座標を決定するように構成できるテレマティックス・コンポーネント(図示せず)を含むことができる。
The
さらに、ナビゲーション・コンポーネント540は、起点位置から1つ又は複数の目的位置までの1つ又は複数の経路群を生成するように構成することができる。1つ又は複数の実施形態においては、ナビゲーション・コンポーネント540は、乗り物の現在位置又は現在座標から1つ又は複数の目的位置までの1つ又は複数の経路群を生成するように構成することができる。前記1つ又は複数の経路群の中のある1つの経路には、1つ又は複数の部分又は経路の1つ又は複数の部分を含むことができる。例えば、該1つの経路の1つ又は複数の部分には、1つ又は複数の道路区間又は道路区間の1つ又は複数の交差点に対応する1つ又は複数のナビゲーション命令又はナビゲーション操作を含むことができる。言い換えれば、該経路の1つ又は複数の部分には、1つ又は複数の旋回、ナビゲーション操作、道路区間、交差点、目印又は該経路に沿った他の要素を含むことができる。ナビゲーション・コンポーネント540は、これらの旋回、ナビゲーション操作、目印等のうちの1つ又は複数を識別し、かつ、それに応じて1つ又は複数のナビゲーション指示又は1つ又は複数のナビゲーション命令を、乗り物の運転者等へ発行するように構成することができる。
Further, the
ナビゲーション・コンポーネント540は、前記1つ又は複数のナビゲーション指示やナビゲーション命令を、音声プロンプト、視覚プロンプト、触覚プロンプト等を介して発行することができる。例えば、ナビゲーション・コンポーネント540は、1つ又は複数のプロンプトを1つ又は複数の制御エリア・ネットワーク(CAN)580を経由して送信することにより、1つ又は複数の周辺コンポーネント(図示せず)とインタフェース接続することができる。ナビゲーション・コンポーネント540は、「メインストリートで左折」のような可聴命令の再生、表示部の左側部分の光のフラッシュ又は、ステアリング・ホイールの振動等を起こして、運転者に運転動作をとる必要があることを示すことができる。ナビゲーション・コンポーネント540は、1つ又は複数の他のコンポーネントと協調して1つ又は複数の運転命令の送信又は配信を円滑に行うことができる。
The
例えば、HUDコンポーネント100は、1つ又は複数のナビゲーション命令又は1つ又は複数のナビゲーション操作を、1つ又は複数のグラフィック要素又はアバターとして、乗り物の乗員又は運転者の視野に投影するように構成することができる。これらのナビゲーション命令は、ナビゲーション・コンポーネント540から(例えば、直接的又は間接的に)受信することができる。HUDコンポーネント100は、連続する複数の焦点面上にアバターを投影して、該アバターが、図2のアイ・ボックス116からの視野を持つ、運転者等の乗員には、動いて見えるようにすることができる。このようにして、HUDコンポーネント100は、運転者が該運転者の視野内の立体画像を認識できるようにする。ここで、該立体画像は、乗り物の運転者が追従するべき「仮想的」誘導用乗り物として働くことができる。言い換えれば、乗り物の運転者には、彼又は彼女が、単に、例えば、目的位置までの誘導用乗り物に追従しているように見える。加えて、本明細書中に後で記載されるように、1つ又は複数の他のナビゲーション指示やナビゲーション命令が、立体的な表示位置確保記号(placeholder)、マーカー又は旗竿として投影されることがある。
For example, the
HUDコンポーネント100は1つ又は複数のグラフィック要素を投影するように構成することができる。該グラフィック要素は、視野相似拡張現実グラフィック要素、等角拡張現実グラフィック要素、アバター、アイコン等とすることができる。これらのグラフィック要素は、HUDコンポーネント100により、立体的に投影することができる。この結果、該グラフィック要素に対応する1つ又は複数の視覚的手がかり又は1つ又は複数の奥行き手がかりをほぼ維持することができる。これらの1つ又は複数の視覚的な手がかり又は奥行き手がかりの維持は、グラフィック要素を動的焦点面又は可動焦点面上に投影又はレンダリングすることにより実現することができる。すなわち、HUDコンポーネント100は、1つ又は複数のグラフィック要素を移動可能又は調整可能な焦点面上に投影又はレンダリングするように構成することができる。動的焦点面又は可動焦点面は、例えば、図1及び図3を参照して説明したように、乗り物の乗員の視線のような通路や線路に沿って移動又は調節することができる。言い換えれば、該動的な焦点面は、乗り物又はフロント・ガラスに向かう方向に又は離反する方向に移動可能にすることができる。
The
1つ又は複数の実施形態において、焦点面は、例えば、HUDコンポーネント100のプロジェクタ又はスクリーンの、アクチュエータの使用による移動の結果として、動的にすることができる。すなわち、HUDコンポーネント100の1つ又は複数のプロジェクタを直線的に移動するように構成することができ、それによって、各々のプロジェクタが、1つ又は複数のグラフィック要素を、動的、移動可能又は調節可能な焦点面上に投影することが可能になる。該焦点面は、プロジェクタの動きに合わせて移動する。他の実施形態では、1つ又は複数の他の手段又は代替え手段を調整のために用いることができる。
In one or more embodiments, the focal plane can be dynamic, for example, as a result of movement of the projector or screen of the
別のし方で説明すると、グラフィック要素を、動的な、可動な又は調節可能な焦点面に投影したときに、該グラフィック要素は、乗り物との間の距離(例えば、図3の距離162’又は距離170’)を調整している焦点面上に投影することができる。HUDコンポーネント100のプロジェクタは、グラフィック要素を可動焦点面上に投影又はレンダリングすることができるので、投影されるグラフィック要素の焦点を、乗り物からさまざまな距離に調整することができる。上述のように、1つ又は複数の焦点面を、乗り物の乗員の視線に略垂直又は略平行に配向することができる。つまり、焦点面は地面に垂直又は地面に並行にすることができる。また、前記焦点面の1つ又は複数が乗員の視線又は地面に対して可動に又は静止することができる。これによって、グラフィック要素に対応付けられた奥行き手がかりを、運転者等の乗り物の乗員に対して、乗り物が移動又は走行する(従って、例えば、移動プラットフォームとして働く)ときに、正確に提示することができる。
Stated another way, when a graphic element is projected onto a dynamic, movable or adjustable focal plane, the graphic element may be distant from the vehicle (eg,
図5のHUDコンポーネント100は、立体的視野相似拡張現実グラフィック要素を投影又はレンダリングするように構成することができる。この意味は、これらのグラフィック要素が、さまざまな距離で表示されるように投影することができるということである。言い換えれば、HUDコンポーネント100は、グラフィック要素を複数の焦点面に又は焦点調節可能な方法で投影することができる。さらに別のし方で説明すると、HUDコンポーネント100によって投影されるグラフィック要素の焦点面は、歩道上の歩行者の隣のように、フロント・ガラスの向こう側に延びる距離に調整することができ、これによって、乗員が操作環境や運行環境に集中できるようになり、乗り物のフロント・ガラス又はインストルメント・パネルと運転環境の間で目の焦点を切り替えるようなことは必要なくなる。このように、3Dナビゲーション・システム500によって安全性を増すことができる。
The
したがって、グラフィック要素は、乗員の直接視野内の環境に(例えば、HUDコンポーネント100によって)投影又は視覚的に配置することができる。これは、該グラフィック要素を、実環境と同じ空間にレンダリングすることができることを意味し、フロント・ガラス上へのレンダリングを意味しない。そして、該グラフィック要素に対応する奥行き手がかりを、正確に正しく再現することを可能にする。その結果、グラフィック要素は実世界のオブジェクト(例えば、道路)と同じ焦点面に投影することができ、乗り物の乗員が、例えば、道路から離れた方に目をやらないでグラフィック要素を見ることができるようにする。 Thus, the graphic elements can be projected or visually positioned (eg, by the HUD component 100) in an environment within the occupant's direct field of view. This means that the graphic element can be rendered in the same space as the real environment, not rendering on the windshield. Then, the depth cue corresponding to the graphic element can be accurately and correctly reproduced. As a result, graphic elements can be projected onto the same focal plane as real-world objects (eg, roads), allowing vehicle occupants to view graphic elements without looking away from the road, for example. It can be so.
これらの複数の焦点面又は調節可能な焦点面を実現できる理由は、HUDコンポーネント100のプロジェクタが移動するとき、光線を再成又は変形して、投影されるグラフィック要素又は仮想オブジェクトがフロント・ガラスより遠くに見える又は、フロント・ガラス上にない焦点面を持つようにすることができるからである。つまり、投影されたグラフィック要素又は仮想オブジェクトは、遠く(例えば、10メートル先)にある実在のオブジェクト(例えば、歩行者、乗り物、標識等)と同様の焦点特性を持つことができる。光線は、フロント・ガラスで反射され、出射光線は発散するので、これによって「反射」画像、すなわち実像が生成され、該画像はグラフィック要素として投影される。
The reason that these multiple focal planes or adjustable focal planes can be realized is that when the projector of the
前記光線はフロント・ガラスで反射されるのであり、(例えば、特別なコーティングを施したような)フロント・ガラスから放出される又は、出現するということではないので、乗員が頭を動かしたときにグラフィック要素を再レンダリングする必要はない。例えば、図3の連続した静止焦点面によって、光学的に「正しい」つまり実像を3次元空間内の前後方向(例えば、乗員の視線の方向)に沿って生成することが可能になる。それにより適切な運動視差手がかりの生成が可能になる。したがって、乗員の頭部が動いたとき、これらの焦点面に対応したグラフィック要素は、環境内の位置が固定して見え、揺動するようには見えない。上述のように、これは、HUDコンポーネント100が、乗員の頭部の動を補償するための頭部追跡機能を必要としないことを意味する。
When the occupant moves his head, the rays are reflected off the windshield and are not emitted or appear from the windshield (eg, with a special coating). There is no need to re-render the graphic elements. For example, the continuous stationary focal plane of FIG. 3 makes it possible to generate an optically “correct” or real image along the front-rear direction in the three-dimensional space (eg, the direction of the sight line of the occupant). This makes it possible to generate appropriate motion parallax cues. Therefore, when the occupant's head moves, the graphic elements corresponding to these focal planes appear to be fixed in position in the environment and do not appear to swing. As mentioned above, this means that the
HUDコンポーネント100はベクトル・ベースではなく、ラスタ・ベースにすることができる。この意味は、HUDコンポーネント100によって投影されるグラフィック要素がビット・マップであるか、ドット・マトリクス構造を有するか又は矩形状格子の画素であるということである。さらに、HUDコンポーネント100は、異なる陰影、透明度、色、明るさ等を持つ1つ又は複数のグラフィック要素の1つ又は複数の部分を投影するように構成することができる。
The
このように、HUDコンポーネント100は、グラフィック要素又はアバターを、さまざまな自由度でレンダリング又は投影するように構成することができる。すなわち、焦点調節を維持して、乗員の両目が能動的に屈折力を変化させ、焦点面に投影されたグラフィック要素に集中するようにできる。同様に、グラフィック要素が「より近く」に移動するように投影されるとき(例えば、連続的に近くなる焦点面上に投影することによって)、輻輳を維持して、乗員がグラフィック要素の同時並行的な内向き回転を得ることができるようにすることができる。
As such, the
1つ又は複数の実施形態では、HUDコンポーネント100は、グラフィック要素を、乗り物の運転者又は搭乗者が、ナビゲーション命令、ナビゲーション操作、又は、ナビゲーション指示として従うべき、アバター又は移動アバターとして投影することができる。例えば、HUDコンポーネント100は、1つ又は複数のグラフィック要素を、移動アバター、表示位置確保記号、識別子、フラグポール、マーカー等として投影又はレンダリングするように構成することができる。これらのグラフィック要素は、乗り物の周囲環境の周りの1つ又は複数の焦点面上に投影され、乗り物の乗員の視野に投影することができる。HUDコンポーネント100によって投影されたアバター又はグラフィック要素は、乗り物の運転者を経路の1つ又は複数の部分に渡って誘導し、かつ、障害物の周りを、縫うように進む、ナビゲート、移動、又は走行するように投影されることによって、障害物、障害状況又は道路状況との衝突を回避させることができる。センサ・コンポーネント570は、1つ又は複数の障害物や道路状況を感知するように構成され、制御コンポーネント104は、HUDコンポーネント100にグラフィック要素を投影するように指示して、例えば、交通規制用樽を回避するため車線変更すること等によって、道路状況の周りを走行又は迂回するようにすることができる。
In one or more embodiments, the
1つ又は複数の実施形態では、センサ・コンポーネント570は、乗り物周囲の又は乗り物を取り囲む環境内の1つ又は複数の道路状況を感知、識別、又は検出するように構成することができる。センサ・コンポーネント570は、道路区間、歩道、オブジェクト、歩行者、他の乗り物、障害状況、障害物、破片、窪み、路面状況(例えば、氷、雨、砂、砂利など)、交通状況又は交通標識(例えば、赤信号、制限速度標識、停止標識、踏切、列車など)を検出又は識別することができる。これらの道路状況は、制御コンポーネント104又は乗り物制御コンポーネント180に送信される。例えば、1つ又は複数のCAN580は、センサ・コンポーネント570と、制御コンポーネント104又は乗り物制御コンポーネント180との間の通信を容易にするために用いることができる。1つ又は複数の実施形態において、センサ・コンポーネント570は、1つ又は複数の撮像デバイス、マイクロフォン、死角モニタ、駐車場センサ、近接センサ、対物センサ、赤外線センサ、動きセンサ等を含むことができる。
In one or more embodiments, the
乗り物制御コンポーネント180は、1つ又は複数の道路状況に関するデータ又は、乗り物周囲の環境(例えば、操作環境、運転環境、周辺環境等)に関連するデータを受信するように構成することができる。1つ又は複数の実施形態では、乗り物制御コンポーネント180は、1つ又は複数の道路状況をセンサ・コンポーネント570から受信することができる。さらに、乗り物制御コンポーネント180は、1つ又は複数の道路状況を、1つ又は複数の他のソース、例えば、サーバ(図示せず)又はデータベース(図示せず)から受信することができる。乗り物制御コンポーネント180は、サーバ、サード・パーティ、データベース又は他のものに、テレマティクス・コンポーネント(図示せず)を介して起動されたテレマティックス・チャネルを介して、通信接続することができる。このように、乗り物制御コンポーネント180は、起点位置から目的位置に至る経路の1つ又は複数の部分に関する情報を収集することができる。
The
例えば、乗り物制御コンポーネント180は、道路区間の交通情報を含む道路状況情報(例えば、道路上の事故があった場合に交通が混雑しているかどうか、等)を受信することができる。さらに、乗り物制御コンポーネント180は、経路の1つ又は複数の道路区間に対応する速度制限情報を受信することができる。この情報は、1つ又は複数のグラフィック要素を乗り物の運転者や乗員に投影する方法を決定するために使用する。すなわち、ある道路区間が毎時65マイル(104.605km)の速度制限に対応しているが、(例えば、センサ・コンポーネント570によって検出される)乗り物の現在速度が毎時25マイル(40.233km)である場合、乗り物制御コンポーネント180は、HUDコンポーネント100に指示してアバターを投影させ、該アバターが該道路区間に入るときに加速するように表示する。
For example, the
別の例として、センサ・コンポーネント570が、乗り物が走行している現在車線の交通規制用樽を検出した場合、乗り物制御コンポーネント180はこの情報を受信し、車線変更のナビゲーション命令がHUDコンポーネント100によって投影される必要があるという決定を行うことができる。該指示は1つ又は複数のCAN580を通ってHUDコンポーネント100に送信することができる。該HUDコンポーネント100は、車線変更又は位置移動のアバター又はグラフィック要素を、検出された交通規制用樽に対応して投影、レンダリング、又はアニメーション化することができる。言い換えれば、HUDコンポーネント100は、交通規制用樽を縫うように進む又は該交通規制用樽の周りを通過するように表示されるアバター又はアイコンを投影することができる。該交通規制用樽は、該乗り物を囲む操作環境の中で該乗り物の前方に位置している。また、乗り物制御コンポーネント180を構成して、HUDコンポーネント100に、実際の乗り物が車線変更する際に表示するように、該乗り物のアバターの上に方向指示灯を投影させることができる。さらに、乗り物制御コンポーネント180は、アバターが交通規制用樽に近づくにつれて、アバターの知覚速度を調整することができる。これは、アバター又はグラフィック要素を、より近い焦点面に連続的に投影することによって又はグラフィック要素の動的焦点面を調整することによって、該動的焦点面と乗り物又は乗り物のフロント・ガラスとの間の距離が減少するようにして実現することができる。(逆に、アバターを、加速するように投影することが望ましい場合、動的焦点面を、該動的焦点面と乗り物又は該乗り物のフロント・ガラスとの間の距離が増加するように調整することができる)。
As another example, if the
言い換えれば、乗り物制御コンポーネント180は1つ又は複数の道路状況を受信するように構成することができる。該1つ又は複数の道路状況のうちの1つには、1つ又は複数の道路区間の交通情報又は1つ又は複数の道路区間に対応する速度制限情報が含まれる。さらに、乗り物制御コンポーネント180は、HUDコンポーネント100を起動して、1つ又は複数のグラフィック要素を、1つ又は複数の道路状況、例えば、道路区間の制限速度及び該乗り物の現在速度、に基づいて、投影させるように構成することができる。このように、乗り物制御システム180は、1つ又は複数の適切なアクション(例えば、停止、加速、車線変更、減速等)又は、ナビゲーション命令を決定して、HUDコンポーネント100によって投影されるようにすることができる。
In other words, the
1つ又は複数の実施形態において、システム500は、HUDコンポーネント100によって投影される1つ又は複数のグラフィック要素の1つ又は複数の側面を管理する視野管理コンポーネント(図示せず)を含むことができる。1つ又は複数の実施形態において、制御コンポーネント104は、該側面の1つ又は複数又は乗り物制御コンポーネント180に関連する機能を管理するように構成することができる。たとえば、制御コンポーネント104は、1つ又は複数の道路状況を受信するように構成することができる。
In one or more embodiments, the
制御コンポーネント104は、HUDコンポーネント100によって表示、投影、アニメーション化又はレンダリング等がなされるグラフィック要素の種類を決定するように構成することができる。例えば、乗り物が比較的直線的な道路区間を含む経路の1つ又は複数の部分に沿って走行しているとき、制御コンポーネント104は、アバターであるグラフィック要素を投影する。該アバターは、乗り物や誘導用乗り物として表示又は投影される。乗り物が、1つ又は複数の曲がり角又は他のナビゲーション操作を含む経路の1つ又は複数の部分に沿って走行している場面では、制御コンポーネント104は、HUDコンポーネント100に指示して、1つ又は複数の曲がり角に対応する場所にマーカーであるグラフィック要素を投影させることができる。例えば、経路に第1の通りから第2の通りへの右折が含まれる場合、制御コンポーネント104は、HUDコンポーネント100に指示して、マーカー又は識別子を、第1の通りと第2の通りの交差点に、該交差点に向かって又は該交差点の周り等に、投影させることができる。このように、制御コンポーネント104は、表示されるべきグラフィック要素の1つ又は複数の種類(例えば、マーカー、識別子、旗竿、誘導用アバター等)を決定するように構成することができる。
The
さらに、制御コンポーネント104は、グラフィック要素を投影する位置を1つ又は複数決定するように構成することができる。言い換えれば、制御コンポーネント104は、いつ、どこにグラフィック要素を投影するか、又はどのようにグラフィック要素を表示するかを決定することができる。グラフィック要素の位置には、焦点面、乗り物又は乗り物のフロント・ガラスから該焦点面までの距離、例えば、x、y、z軸のx座標、y座標、z座標等を含まれる。該場所は、1つ又は複数のグラフィック要素に対する目標位置と呼ぶことができる。1つ又は複数の実施形態においては、制御コンポーネント104は、1つ又は複数のグラフィック要素の1つ又は複数の焦点面と乗り物(又は、例えば、乗り物のフロント・ガラス)との間の距離を、経路の1つ又は複数の部分に対応する1つ又は複数の道路状況、乗り物の現在位置、乗り物の現在速度、等に基づいて、調整するように構成することができる
Further, the
すなわち、道路区間(例えば、乗り物が現在配置されている又は位置している経路の部分)が毎時65マイル(104.605km)の速度制限(例えば、道路状況)に対応し、該乗り物の(例えば、センサ・コンポーネント570によって検出される)現在速度が毎時25マイル(40.233km)(例えば、乗り物の現在速度)である場合、制御コンポーネント104は、HUDコンポーネント100に指示して、毎時約65マイル(104.605km)で走行しているように表示されるアバター又はグラフィック要素を投影するように構成することができる。1つ又は複数の実施形態においては、該アバターを、毎時25マイル(40.233km)から毎時65マイル(104.605km)への漸次的加速を表すように投影することができる。これは、該アバターの焦点面と該乗り物との間の距離を適宜調整することができることを意味する。例えば、該乗り物がほぼ同じペースで加速する場面では、該焦点面と該乗り物との間の距離は、ほぼ同じままであってよい。該乗り物が、該アバターよりも遅いペースで加速する場合、該焦点面と乗り物との間の距離が大きくなるように、制御コンポーネント104によって調整することができる。いずれの場合にも、上記調整は、該乗り物の現在位置又は該乗り物の現在速度、ならびに関連する経路の道路状況に基づいて行うことができる。
That is, a road segment (eg, the portion of the route on which the vehicle is currently located or located) corresponds to a speed limit of 65 miles per hour (eg, 104.605 km) (eg, road conditions) , Detected by sensor component 570), if the current speed is 25 mph (40.233 km) (eg, the current speed of the vehicle),
さらに、制御コンポーネント104は、グラフィック要素のサイズを、該グラフィック要素の焦点面と該乗り物の距離に従って又は基づいて、HUDコンポーネント100と連携して、調整又は決定するように構成することができる。これは、制御コンポーネント104が、グラフィック要素、誘導用アイコン又はアバターの高さ、サイズ、幅、奥行き、等を、目標とする知覚像に基づいて調整することができることを意味する。例えば、アバターが加速してみえるようにするために、制御コンポーネント104は、アバターのサイズを収縮又は縮小するように調整しながら、同時に、アバターを連続的に遠ざかる焦点面上に投影するか、又は、動的焦点面を該乗り物から次第に遠ざかるように調整することができる。
Further, the
1つ又は複数の実施形態においては、該グラフィック要素のサイズは、ナビゲーション命令又はメッセージの重要度の表示として用いることができる。言い換えれば、メッセージやナビゲーション命令がより重要になるほど、より大きなアバター、アイコン又はグラフィック要素を投影する。 In one or more embodiments, the size of the graphic element can be used as an indication of the importance of a navigation instruction or message. In other words, the more important the message or navigation instruction, the larger the avatar, icon or graphic element that is projected.
制御コンポーネント104は、1つ又は複数のグラフィック要素に対する1つ又は複数の動作を、HUDコンポーネント100が投影することを決定するように構成することができる。例えば、制御コンポーネント104は、HUDコンポーネント100に指示を出して、アバターを投影させ、該アバターが加速、減速、停止、車線変更、車線変更前の方向指示灯の始動、フラッシュ、点滅、アバターの向きや角度の変更、アバターの色の変更等を行うようにすることができる。さらに、制御コンポーネント104は、1つ又は複数のグラフィック要素の目標位置を、道路状況、乗り物の現在位置、乗り物の現在速度又は、その他の属性、特性、又は測定結果に基づいて、調整することができる。1つ又は複数の実施形態において、制御コンポーネント104は、1つ又は複数のCAN580を介して、ナビゲーション・コンポーネント540とインタフェース接続又は通信することができる。
The
制御コンポーネント104は、乗り物の運転者又は乗員の妨害になる可能性のある障害状況、混乱又は他の状況を緩和するように構成することができる。1つ又は複数の実施形態において、制御コンポーネント104は、水平位置をセンサ・コンポーネント570等から受信して、かつ、グラフィック要素を水平面又は空の面に投影するように構成することができる。該制御コンポーネントは、1つ又は複数のグラフィック要素の色、透明度又は陰影を、一日の時間帯、該経路に関連する交通混雑度、該経路に対する運転者の熟知度、等に基づいて、決定又は調整するように構成することができる。
The
奥行きマップ・コンポーネント550は、操作環境のような、乗り物の周囲又は乗り物を取り囲む環境の奥行きマップを構築する又は受信するように構成することができる。HUDコンポーネント100は、該奥行きマップを用いて、これに従って、1つ又は複数のグラフィック要素を投影することができる。これは、仮にアバターが角を曲がり、建物に隠れている(例えば、建物が、乗り物の乗員の視線と、グラフィック要素やアバターの知覚位置又は目標位置の間にある)場合、HUDコンポーネント100が、見えるべきものの線上にあるアバター又はグラフィック要素の1つ又は複数の部分の投影を有効化又は無効化することができることを意味する。
The
奥行きマップ・コンポーネント550は、奥行きマップを、サーバ又はサード・パーティのサーバから受信するように構成することができる。例えば、奥行きマップ・コンポーネント550は、奥行きマップを、サーバから、テレマティックス・コンポーネント(図示せず)を介して起動したテレマティックス・チャネルを介してダウンロードすることができる。他の実施形態では、センサ・コンポーネント570は、奥行きマップを構築するために奥行きマップ・コンポーネント550が使用できる奥行き情報を検出するように構成することができる。すなわち、奥行きマップ・コンポーネント550は、1つ又は複数のセンサとインタフェース接続又は通信して、奥行きマップを構築する又は、事前構築された奥行きマップをデータベースから受信することができる。いずれにしても、奥行きマップ・コンポーネント550は、奥行き情報に基づいた奥行きマップを構築するか又は受信することができる。奥行きマップは、乗り物周囲の環境又は領域内の1つ又は複数の表面、オブジェクト、障害状況、空間的形状等の距離を表している。
The
奥行きマップは、制御コンポーネント104に渡す又は送信することができる。該制御コンポーネント104は、これに応じて、HUDコンポーネント100に指示して、1つ又は複数のグラフィック要素をレンダリングすることができる。例えば、HUDコンポーネント100は、グラフィック要素を、乗り物の乗員に対応するアイ・ボックスの高さ、乗り物の位置、かつ、前記領域の奥行きマップに基づいて、投影又はレンダリングする。該奥行きマップは、主導的に感知又は、データベースから受信することができる。HUDコンポーネント100は、1つ又は複数のグラフィック要素を奥行きマップに基づいて投影して、乗り物の1人又は複数の乗員に対して一つの遠近図を表示することができる。
The depth map can be passed to or transmitted to the
奥行きバッファ・コンポーネント560は、乗り物の1人又は複数の乗員の遠近制御を、奥行きマップ・コンポーネント550が生成又は受信した奥行きマップを用いて、容易化するように構成することができる。すなわち、該奥行きバッファ・コンポーネントは、グラフィック要素が乗員に視覚的に「正確に」見えるように、グラフィック要素のレンダリングを容易化するように構成することができる。例えば、グラフィック要素が実世界のオブジェクトの背後に投影される必要がある場合、奥行きバッファ・コンポーネント560は、グラフィック要素の一部を投影又はレンダリングしないで、該グラフィック要素の一部を乗員から「隠す」ことができる。言い換えれば、奥行きバッファ・コンポーネント560は、グラフィック要素のどの部分(例えば、画素)を、描画、投影又はレンダリングするか、及びどの部分をしないかを制御することができる。この目的のために、奥行きバッファ・コンポーネント560は、1つ又は複数の該グラフィック要素の1つ又は複数の部分のレンダリングを、奥行きマップに基づいて、有効化又は無効化するように構成することができる。
The
さらに、奥行きバッファ・コンポーネント560は、実世界のオブジェクトを不鮮明にし、それにより、乗り物の乗員が見ることができるものを隠すように構成することができる。例えば、奥行きバッファ・コンポーネント560は、HUDコンポーネント100に白色のグラフィック要素を投影するように指示して、該グラフィック要素が、看板等のような実世界のオブジェクト(例えば、センサ・コンポーネント570によって検出される)を覆うようにすることができる。その結果、乗員には該看板が見えないか又は、不鮮明に見えることになる。このように、該奥行きバッファ・コンポーネントは、減損現実を可能にするグラフィック要素を提供することにより、乗り物の運転者や乗員の混乱を緩和するように構成することができる。
Additionally, the
HUDコンポーネント100によって投影することができるナビゲーション命令の例としては、誘導車への追従、加速(例えば、動的焦点面を、該焦点面から乗り物までの距離が増加するように変化させ、それにより、運転者又は乗員が該グラフィック要素に持ち得る遠近感を調整する)、減速(例えば、焦点面と乗り物との間の距離が減少するように調整する)、車線変更(例えば、グラフィック要素の目標位置を調整する)、障害状況の迂回、旋回、到着、場所のマーキング等がある。1例として、制御コンポーネント104は、歩行者が道路区間、道路、横断歩道等に足を踏み入れた場合、HUDコンポーネント100に指示して、アバターが減速するように投影させることができる。別の例として、制御部104は、HUDコンポーネント100に指示して、旋回の角度、道路区間に対応する制限速度、氷等の道路状況に基づいてアバターを減速するように投影することができる。すなわち、氷が路面にある場合、制御部104はHUDコンポーネント100に指示して、氷が路面に存在しない場合よりも遅く進むアバターを投影させることができる。
Examples of navigation commands that can be projected by the
1つ又は複数の実施形態では、制御コンポーネント100は、次の曲がり角又は交差点をマーカー、旗の柱、旗竿、識別子等でマーク又は識別することができる。例えば、HUDコンポーネント100は、表示位置確保記号又はマーカーを、乗り物の乗員の眺望に沿って、レンダリング又は投影することができる。奥行きマップ・コンポーネント550は、建物、樹木等の複数の現実のオブジェクトが、表示位置確保記号の1つ又は複数の部分に対する視線の妨げとして作用するような奥行きマップを提供するように構成することができる。1例として、表示位置確保記号が100フィート(30.48m)の知覚されるべき高さを有し、かつ50フィート(15.24m)の高さの建物が表示位置確保記号の前にある場合、奥行きバッファ・コンポーネント560は、表示位置確保記号のグラフィック要素の下部のレンダリング又は投影を無効化することによって、視線を妨げるように補正することができ、このようにして、運転者又は乗員の視点に応じて表示位置確保記号をレンダリングすることができる。
In one or more embodiments, the
1つ又は複数の実施形態において、1つ又は複数のグラフィック要素が、乗り物の乗員の視野に、前記経路(例えば、誘導車追従モード)に基づいて投影される。1つ又は複数の実施形態で、グラフィック要素を、アバター又は他の誘導用アイコンとして投影することができる。アバターは、乗り物周囲の現実世界の環境に向かって、飛んでいるように見え、かつ、表示される。アバターは、3−D空間内または3次元の中で移動、運行又は、「飛ぶ」ことができる。このため、アバターやグラフィック要素は3−D内で移動するように見え、それによって、アバターに追従する乗員又は運転者に対して、より直感的な感覚や安心感を与えることができる。一例として、アバター、グラフィック要素又は誘導用アイコンを、高さやサイズが乗り物の乗員からの知覚距離に基づいて変化して見えるように投影することができる。該アバターは、移動するアバターを1つ又は複数の異なる焦点面上に順次投影することによって、アニメーション化することができる。さらに、該アバターは、実際の乗り物がするように、障害状況、障害物、歩行者、破片、窪み、等の周りを迂回するように見えてもよい。1つ又は複数の実施形態において、アバターは、実時間の交通状況に則して、「運転する」、移動する、移動するように見えることがある。アバターは、他の乗り物と「衝突」する、または、交通を妨害するようには見えないような形で、車線を変更することができる。別の例としては、ある経路で運転者や乗り物が線路を横切る必要がある場合、該アバターは列車が交差するときに該線路で停止することができる。他の実施形態では、HUDコンポーネント100は、一時停止の標識又は赤信号で停止する、又は、交通法規を遵守するアバター又はグラフィック要素を投影するように構成することができる。目的地に到着した場合、HUDコンポーネント100は、例えば、休息のポーズをしたアバターをレンダリング又は投影するように構成することができる。
In one or more embodiments, one or more graphic elements are projected onto a vehicle occupant's field of view based on the path (eg, guided vehicle following mode). In one or more embodiments, the graphic element can be projected as an avatar or other guidance icon. The avatar appears to be flying and displayed towards the real world environment around the vehicle. An avatar can move, navigate or “fly” in 3-D space or in three dimensions. For this reason, an avatar and a graphic element seem to move within 3-D, and can give a more intuitive feeling and a sense of security to the crew member or driver who follows an avatar by it. As an example, an avatar, graphic element or guidance icon can be projected such that the height or size appears to change based on the perceived distance from the vehicle occupant. The avatar can be animated by sequentially projecting the moving avatar onto one or more different focal planes. Further, the avatar may appear to bypass around obstacle situations, obstacles, pedestrians, debris, dents, etc. as an actual vehicle does. In one or more embodiments, an avatar may appear to “drive”, move, or move according to real-time traffic conditions. The avatar can change lanes in such a way that it does not appear to "clash" with other vehicles or obstruct traffic. As another example, if a driver or vehicle needs to cross a track on a route, the avatar can stop on the track when the train crosses. In other embodiments, the
このように、3Dナビゲーション・システム500は、直感的なメッセージ、命令又は指示を、運転者等の乗り物の乗員に対して生成することができる。該命令は遠近に関する1つ又は複数の属性に基づくことができ、該遠近は立体的な3−Dグラフィック要素を1つ又は複数の調整可能な焦点面に沿って投影又はレンダリングするHUDコンポーネントの性能によって決まる。例えば、3−D効果は、距離、遠近、知覚距離、道路状況等に基づいて決めることができる。
In this manner, the
図6は、1つ又は複数の実施形態による、3−Dナビゲーションの方法のフロー図の1例600の説明図である。602において、経路を、起点位置から目的位置まで生成する。1つ又は複数の実施形態において、該起点位置又は目的位置は、例えば全地球測位システム(GPS)ユニットから、テレマティックス・チャネルを介して受信することができる。604において、1つ又は複数のグラフィック要素を、乗り物の乗員の視野内の1つ又は複数の焦点面に投影する。ここで、グラフィック要素は、アバター、画像、アイコン、識別子、マーカー等として表示することができる。さらに、これらのグラフィック要素は、前記経路の1つ又は複数の部分に基づくことができる。この意味は、これらのグラフィック要素を、乗り物が位置する可能性のある前記経路の一部(例えば、乗り物の現在位置)に応じてさまざまな距離に投影することができると言うことである。
FIG. 6 is an illustration of an
606において、焦点面と該乗り物との間の距離を、前記経路の1つ又は複数の部分に対応する道路状況に基づいて調整する。さらに、前記距離は、また、該乗り物の現在速度に基づいて調整することができる。例えば、乗り物が時速65マイル(104.605km)の速度制限がつけられた経路の一部に沿って走行し、かつ、該乗り物の現在速度が毎時25マイル(40.233km)である場合、投影されたグラフィック要素とアバターの焦点面の間の距離を増加させる(例えば、運転者や乗員に加速するよう指示するため)。言い換えれば、該グラフィック要素を、毎時約65マイル(104.605km)で走行して見えるように投影することができ、それによって、乗員又は運転者に、加速してアバターに「追いつく」ように促すことができる(例えば、誘導用乗り物への追従に似せて又は、それをシミュレーションして)。 At 606, the distance between the focal plane and the vehicle is adjusted based on road conditions corresponding to one or more portions of the route. Furthermore, the distance can also be adjusted based on the current speed of the vehicle. For example, if a vehicle travels along a part of a route with a speed limit of 65 mph (104.605 km) and the current speed of the vehicle is 25 mph (40.233 km) Increase the distance between the rendered graphic element and the focal plane of the avatar (eg, to instruct the driver or occupant to accelerate). In other words, the graphic element can be projected to appear to run at about 65 miles per hour (104.605 km), thereby urging the occupant or driver to accelerate and "catch up" the avatar. (E.g., mimicking following a guidance vehicle or simulating it).
図7Aは、1つ又は複数の実施形態による、3−Dナビゲーション用のアバターの1例700の説明図である。図7Aのアバター700は、乗り物の前方に表われ、要素、障害状況、通行物、道路状況等の周りで、飛行、滑空、移動、操縦等をすることができる。図7Bは、1つ又は複数の実施形態による、3−Dナビゲーション用のアバター(複数可)の1例710の説明図である。図7Bのアバター(複数可)710は高い視野から見えるもので、例えば、アバター710の若干後方からの鳥瞰図で見えるようなものである。1つ又は複数のアバター710が1つ又は複数の異なる焦点面又は目標位置に投影され、それによって、運転者又は乗員に、実際の乗り物を追尾しているような感覚を与えることがわかる。
FIG. 7A is an illustration of an
図8Aは、1つ又は複数の実施形態による、3−Dナビゲーション用のアバターの1例800の説明図である。図8Aのアバター800は、反時計回りに回転して、左折を示している。図8Bは、1つ又は複数の実施形態による、3−Dナビゲーション用のアバターの1例810の説明図である。1つ又は複数の実施形態において、図8Bのアバター810は、点滅、フラッシュ、色の変更等によって、左折を指示することができる。例えば、紙飛行機のアバター810の左の翼は、光る又は明るさが変わって、次に左折することを示すことができる。1つ又は複数の実施形態において、アバターを該乗り物に近い焦点面に投影して、該アバターが旋回する前に「減速」して見えるようにすることができる。
FIG. 8A is an illustration of an
図9Aは、1つ又は複数の実施形態による、3−Dナビゲーション用のアバターの1例900の説明図である。図9Bは、1つ又は複数の実施形態による、3−Dナビゲーション用のアバターの1例910の説明図である。図9Aのアバター900は、例えば、乗り物の運転者が減速するためのナビゲーション命令として投影することができる。図9Bにおいて、アバター910は地平の上又は空の面に投影されて、該アバター910が、運転者又は乗員が該乗り物の周囲環境の1つ又は複数の部分を見る邪魔にならないようにする。
FIG. 9A is an illustration of an
さらに別の実施形態では、本明細書で開示する技術の1つ又は複数の実施形態を実装するように構成された、プロセッサ実行可能命令を含むコンピュータ可読媒体が含まれる。前記方法で考案されたコンピュータ可読媒体、又は、コンピュータ可読デバイスの実施形態を図10に示す。図10では、実装1000には、コンピュータ可読データ1006が符号化されて記録されているCD−R、DVD−R、フラッシュ・ドライブ、ハード・ディスク・ドライブのプラッタのような、コンピュータ可読媒体1008が含まれる。1006に示すような、複数の0又は1を含むバイナリ・データ等のコンピュータ可読データ1006には、本明細書に記載の原理の1つ又は複数に従って動作するように構成されたコンピュータ命令のセットを順に含んでいる。このような一実施形態1000では、プロセッサ実行可能なコンピュータ命令1004が、図6の方法600のような方法1002を実行するように構成されている。別の実施形態では、図5のシステム500のようなシステムを実装するように、プロセッサ実行可能命令1004を構成している。上記のようなコンピュータ可読媒体の多くは、本明細書で紹介した技術に従って動作するように、本技術分野の当業者によって考案される。
In yet another embodiment, a computer-readable medium that includes processor-executable instructions configured to implement one or more embodiments of the technology disclosed herein is included. FIG. 10 shows an embodiment of a computer readable medium or a computer readable device devised by the above method. In FIG. 10,
本願で使用されるように、「コンポーネント」、「モジュール」、「システム」、「インタフェース」等の用語は、一般に、コンピュータに関連する実体、ハードウェア、ハードウェアとソフトウェアの組み合わせ、ソフトウェア又は実行中のソフトウェアのどれかを指すように意図されている。例えば、一つのコンポーネントは、プロセッサ上で実行中のプロセス、プロセッサ、オブジェクト、実行可能ファイル、実行スレッド、プログラム又は、コンピュータである可能性があるが、これに限定されない。説明によっては、制御部で実行中のアプリケーション及び、該制御部の両方ともがコンポーネントであり得る。プロセス又は、実行スレッド内に存在する1つ又は複数のコンポーネント及び、1つのコンポーネントが1台のコンピュータに局在又は、2台以上のコンピュータ間に分散することができる。 As used herein, the terms “component”, “module”, “system”, “interface”, etc., generally refer to computer-related entities, hardware, a combination of hardware and software, software or running Is intended to point to any of the software. For example, a component can be, but is not limited to being, a process running on a processor, a processor, an object, an executable, an execution thread, a program, or a computer. Depending on the description, both the application running on the control unit and the control unit may be components. One or more components present in a process or execution thread and one component can be localized on one computer or distributed between two or more computers.
さらに、特許請求された主題は、開示された主題を実装するコンピュータを制御するソフトウェア、ファームウェア、ハードウェア又は、それらの任意の組み合わせを製造するために標準プログラミング又はエンジニアリングの技術を用いた、方法、装置又は製造物品として実現される。本明細書で使用される用語「製造物品」は、任意のコンピュータ可読デバイス、コンピュータ可読キャリア又はコンピュータ可読媒体からアクセス可能なコンピュータプログラムを包含することを意図している。もちろん、特許請求された主題の範囲又は思想から逸脱することなく、該構成に多くの改変を加えることができる。 Further, the claimed subject matter uses methods of standard programming or engineering to produce software, firmware, hardware, or any combination thereof that controls a computer that implements the disclosed subject matter, Realized as a device or manufactured article. The term “article of manufacture” as used herein is intended to encompass a computer program accessible from any computer readable device, computer readable carrier, or computer readable medium. Of course, many modifications may be made to the structure without departing from the scope or spirit of the claimed subject matter.
図11及び、以下の議論では、本明細書に記載された1つ又は複数の条件の実施形態の実施に適したコンピューティング環境について説明する。
図11の動作環境は、適切な動作環境の単なる一例であり、動作環境の使用範囲又は機能範囲に関して何ら限定を示唆するものではない。例示のコンピューティング・デバイスには、パーソナル・コンピュータ、サーバ・コンピュータ、ハンドヘルド・デバイス又はラップトップ・デバイス、携帯電話、携帯情報端末(PDA)、メディア・プレーヤ等のモバイル機器、マルチプロセッサ・システム、消費者向け電子機器、ミニ・コンピュータ、メインフレーム・コンピュータ、任意の上記システム又はデバイスを含む分散コンピューティング環境、等がある。
FIG. 11 and the following discussion describe a computing environment suitable for implementing one or more of the condition embodiments described herein.
The operating environment of FIG. 11 is merely an example of a suitable operating environment and does not suggest any limitation with respect to the usage range or functional range of the operating environment. Exemplary computing devices include personal computers, server computers, handheld or laptop devices, mobile devices such as mobile phones, personal digital assistants (PDAs), media players, multiprocessor systems, consumption Consumer electronics, mini computers, mainframe computers, distributed computing environments including any of the above systems or devices, and the like.
一般に、実施形態は、1つ又は複数のコンピューティング・デバイスによって実行される「コンピュータ可読命令」の概略的な流れで説明されている。コンピュータ可読命令は、後述するように、コンピュータ可読媒体によって配布される。コンピュータ可読命令は、1つ又は複数のタスクを実行するか又は、1つ又は複数の抽象データ型を実装するような、関数、オブジェクト、アプリケーション・プログラミング・インタフェース(API)、データ構造等のプログラム・モジュールとして実装される。通常、コンピュータ可読命令の機能は、さまざまな環境に望ましいように組み合わせられているか又は、分散されている。 In general, embodiments are described in the general flow of “computer readable instructions” executed by one or more computing devices. The computer readable instructions are distributed by computer readable media as described below. A computer readable instruction is a program, such as a function, object, application programming interface (API), data structure, etc., that performs one or more tasks or implements one or more abstract data types. Implemented as a module. In general, the functionality of computer-readable instructions is combined or distributed as desired in various environments.
図11は、本明細書で提供される1つ又は複数の実施形態を実装するように構成されたコンピューティング・デバイス1112を含むシステム1100の説明図である。一つの構成では、コンピューティング・デバイス1112は、1つ又は複数の処理ユニット1116及びメモリ1118を含む。メモリ1118は、コンピューティング・デバイスの詳細な構成及び種類に応じて、RAMのような不揮発性にすることができ、ROM、フラッシュ・メモリのような揮発性にすることができ、又はその2つの組み合わせにすることができる。該構成は、図11では、破線1114で示されている。
FIG. 11 is an illustration of a
他の実施形態において、デバイス1112は、追加の特徴又は機能を有する。例えば、デバイス1112は、着脱可能な記憶装置又は、着脱不可能な記憶装置を有することができる。これには、磁気記憶装置、光学記憶装置等の付加的な記憶装置を含むが、これらに限定されない。このような付加的な記憶装置は、図11では、記憶部1120で示されている。1つ又は複数の実施形態では、本明細書で提供される1つ又は複数の実施形態を実装するコンピュータ可読命令は、記憶部1120に格納されている。記憶部1120には、オペレーティング・システム、アプリケーション・プログラム等を実装する他のコンピュータ可読命令を格納することができる。コンピュータ可読命令は、例えば、処理ユニット1116による実行の為にメモリ1118にロードされる。
In other embodiments,
本明細書で使用される用語「コンピュータ可読媒体」には、コンピュータ記憶媒体を含む。コンピュータ記憶媒体には、コンピュータ可読命令又は他のデータのような情報を記憶するための任意の方法又は技術が実装された、揮発性及び不揮発性の、着脱可能及び着脱不可能な媒体を含む。メモリ1118と記憶部1120は、コンピュータ記憶媒体の例である。コンピュータ記憶媒体には、RAM、ROM、EEPROM、フラッシュ・メモリ又は他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)又は他の光記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置又は他の磁気記憶装置又は、所望の情報を格納するために使用することができ、かつ、デバイス1112によってアクセスすることができる、その他の任意の媒体が含まれるが、これに限定されない。上記のような任意のコンピュータ記憶媒体が、デバイス1112の一部である。
The term “computer-readable medium” as used herein includes computer storage media. Computer storage media includes volatile and non-volatile removable and non-removable media implemented with any method or technique for storing information such as computer-readable instructions or other data. The
用語「コンピュータ可読媒体」には、通信媒体が含まれる。通信媒体には、通常、コンピュータ可読命令又は他のデータが、搬送波又は他の伝送機構のような「変調データ信号」の形で取り込まれ、かつ、任意の情報配信媒体が含まれる。用語「変調データ信号」には、情報を信号に符号化するように設定又は変更された1つ又は複数の特性を有する信号が含まれる。 The term “computer-readable medium” includes communication media. Communication media typically embodies computer readable instructions or other data in the form of a “modulated data signal” such as a carrier wave or other transport mechanism, and includes any information delivery media. The term “modulated data signal” includes a signal that has one or more of its characteristics set or changed in such a manner as to encode information in the signal.
デバイス1112には、キー・ボード、マウス、ペン、音声入力装置、タッチ入力装置、赤外線カメラ、ビデオ入力装置又は他の任意の入力デバイスのような、入力デバイス(複数可)1124が含まれる。1つ又は複数のディスプレイ、スピーカ、プリンタ又は他の任意の出力デバイスのような出力デバイス(複数可)1122を、デバイス1112に含むことができる。入力デバイス(複数可)1124と出力デバイス(複数可)1122は、有線接続、無線接続又はそれらの任意の組み合わせを介してデバイス1112と接続される。1つ又は複数の実施形態において、別のコンピューティング・デバイスからの入力デバイス又は出力デバイス(複数可)が、コンピューティング・デバイス1112用の入力装置(複数可)1124又は出力デバイス(複数可)1122として使用される。デバイス1112は、1つ又は複数の他のデバイスとの通信を容易にするために、通信接続部(複数可)1126を含むことができる。
1つ又は複数の実施形態によれば、起点位置と目的位置を受信するように構成されたナビゲーション・コンポーネントを具備する、3次元(3−D)ナビゲーション・システムが提供される。該ナビゲーション・コンポーネントは、一つの乗り物に対応付けられ、起点位置から目的位置への経路を生成するように構成することができる。該経路の1つ又は複数の部分には、1つ又は複数の道路区間又は該道路区間の1つ又は複数の交差点に関連する1つ又は複数のナビゲーション命令を含むことができる。該システムは、乗り物の周囲環境の周りの1つ又は複数の焦点面上に1つ又は複数のグラフィック要素を投影するように構成されたヘッド・アップ・ディスプレイ(HUD)コンポーネントを含むことができる。該HUDコンポーネントは、該経路に基づいて、該乗り物の乗員の視野に1つ又は複数のグラフィック要素を投影するように構成することができる。該システムは、1つ又は複数のグラフィック要素の1つ又は複数の焦点面と該乗り物との間の距離を、該経路の1つ又は複数の部分に対応する1つ又は複数の道路状況及び該乗り物の現在位置に基づいて、調整するように構成された制御コンポーネントを含むことができる。 According to one or more embodiments, a three-dimensional (3-D) navigation system is provided that includes a navigation component configured to receive an origin location and a destination location. The navigation component is associated with one vehicle and can be configured to generate a route from a starting position to a destination position. One or more portions of the route may include one or more navigation instructions associated with one or more road sections or one or more intersections of the road sections. The system may include a head up display (HUD) component configured to project one or more graphic elements onto one or more focal planes around the vehicle's surrounding environment. The HUD component may be configured to project one or more graphic elements onto the vehicle occupant's field of view based on the path. The system determines a distance between one or more focal planes of one or more graphic elements and the vehicle, one or more road conditions corresponding to one or more portions of the route, and the A control component can be included that is configured to adjust based on the current position of the vehicle.
1つ又は複数の実施形態では、該制御コンポーネントは、1つ又は複数の道路状況や乗り物の現在位置に基づいて、1つ又は複数のグラフィック要素の目標位置を調節するように構成することができる。前記システムは、1つ又は複数の道路状況を受信するように構成された乗り物制御コンポーネントを含むことができる。さらに、該システムは、1つ又は複数の道路状況を検出するように構成されたセンサ・コンポーネントを含むことができる。該1つ又は複数の道路状況のうちのある一つの道路状況には、1つ又は複数の道路区間の交通情報、又は、1つ又は複数の該道路区間に対応する速度制限情報を含むことができる。さらに、道路状況には、例えば、障害状況、障害物、歩行者、破片又は窪みを含むことができる。 In one or more embodiments, the control component can be configured to adjust the target position of one or more graphic elements based on one or more road conditions or the current position of the vehicle. . The system can include a vehicle control component configured to receive one or more road conditions. Further, the system can include a sensor component configured to detect one or more road conditions. One road condition of the one or more road conditions may include traffic information of one or more road sections or speed limit information corresponding to the one or more road sections. it can. Furthermore, the road conditions can include, for example, obstacle conditions, obstacles, pedestrians, debris or depressions.
前記システムは、乗り物の周囲環境の奥行きマップを構築するように構成された奥行きマップ・コンポーネントを含むことができる。該HUDコンポーネントは、該環境の奥行きマップに基づいて、1つ又は複数のグラフィック要素を投影するように構成することができる。奥行きマップ・コンポーネントは、奥行き情報に基づく奥行きマップを構築するように構成することができる。1つ又は複数の実施形態において、該システムは、乗り物の周囲環境からの奥行き情報を検出するように構成されたセンサ・コンポーネントを含むことができる。該奥行きマップ・コンポーネントは、テレマティックス・チャネルに基づく奥行きマップを受信するように構成することができる。該システムは、該奥行きマップに基づいて、1つ又は複数のグラフィック要素の1つ又は複数の部分のレンダリングを有効又は無効にするように構成された奥行きバッファ・コンポーネントを含むことができる。 The system can include a depth map component configured to build a depth map of the surrounding environment of the vehicle. The HUD component can be configured to project one or more graphic elements based on a depth map of the environment. The depth map component can be configured to build a depth map based on the depth information. In one or more embodiments, the system can include a sensor component configured to detect depth information from the vehicle's surrounding environment. The depth map component can be configured to receive a depth map based on a telematics channel. The system can include a depth buffer component configured to enable or disable rendering of one or more portions of one or more graphic elements based on the depth map.
該HUDコンポーネントは、旗竿、マーカー、識別子のような1つ又は複数のグラフィック要素を、移動アバター又は表示位置確保記号として投影するように構成することができる。 The HUD component can be configured to project one or more graphic elements, such as flagpoles, markers, identifiers, as mobile avatars or display location securing symbols.
1つ又は複数の実施形態によれば、乗り物に対して起点位置から目的位置に至る経路を生成することを含む、3次元(3−D)ナビゲーションのための方法が提供される。該経路の1つ又は複数の部分には、1つ又は複数の道路区間又は該道路区間の1つ又は複数の交差点に関連する1つ又は複数のナビゲーション命令を含むことができる。該方法は、乗り物の周囲の環境の周りの1つ又は複数の焦点面上に、1つ又は複数のグラフィック要素を投影することを含むことができる。1つ又は複数のグラフィック要素を、該経路に基づいて該乗り物の乗員の視野に投影することができる。該方法は、1つ又は複数のグラフィック要素の1つ又は複数の焦点面と該乗り物との間の距離を、該経路の1つ又は複数の部分に関連する1つ又は複数の道路状況と乗り物の現在位置とに基づいて、調整することを含むことができる。該方法の1つ又は複数の部分は、処理ユニットを介して実行することができる。 According to one or more embodiments, a method for three-dimensional (3-D) navigation is provided that includes generating a route from a starting location to a destination location for a vehicle. One or more portions of the route may include one or more navigation instructions associated with one or more road sections or one or more intersections of the road sections. The method can include projecting one or more graphic elements onto one or more focal planes around the environment surrounding the vehicle. One or more graphic elements can be projected onto the occupant's field of view of the vehicle based on the path. The method includes determining a distance between one or more focal planes of one or more graphic elements and the vehicle, one or more road conditions and vehicles associated with one or more portions of the route. Adjusting based on the current position of the current position. One or more parts of the method may be performed via the processing unit.
該方法は、1つ又は複数のグラフィック要素の目標位置を、1つ又は複数の道路状況と乗り物の現在位置に基づいて調整することを含むことができる。該方法は、1つ又は複数の道路状況の受信又は検出を含むことができる。該1つ又は複数の道路状況のうちのある1つの道路状況には、1つ又は複数の該道路区間の交通情報、1つ又は複数の該道路区間に対応する速度制限情報、障害状況、障害物、歩行者、破片又は窪みを含むことができる。 The method may include adjusting the target position of the one or more graphic elements based on the one or more road conditions and the current position of the vehicle. The method can include receiving or detecting one or more road conditions. One road condition of the one or more road conditions includes traffic information of one or more of the road sections, speed limit information corresponding to the one or more of the road sections, fault conditions, and faults. It can include objects, pedestrians, debris or depressions.
前記方法は、特に、乗り物の周囲環境の奥行きマップを構築すること、該環境の奥行きマップに基づいて1つ又は複数のグラフィック要素を投影すること、乗り物の周囲環境から奥行き情報を検出すること、該検出した奥行き情報に基づいて奥行きマップを構築すること、奥行きマップに基づいて1つ又は複数のグラフィック要素の1つ又は複数の部分のレンダリングを有効化又は無効化することを含むことができる。 The method includes, among other things, constructing a depth map of the vehicle's ambient environment, projecting one or more graphic elements based on the environment's depth map, detecting depth information from the vehicle's ambient environment, Constructing a depth map based on the detected depth information can include enabling or disabling rendering of one or more portions of one or more graphic elements based on the depth map.
1つ又は複数の実施態様によると、コンピュータ可読記憶媒体には、コンピュータの処理ユニットを介して実行されるときに複数の動作を行うコンピュータ実行可能命令が含まれる。該動作に含まれるステップには、乗り物に対して起点位置から目的位置に至る経路を生成するステップであって、該経路の1つ又は複数の部分が1つ又は複数の道路区間、又は道路区間の1つ又は複数の交差点に関連する1つ又は複数のナビゲーション命令を含むようなステップ、1つ又は複数のグラフィック要素を該乗り物の周囲環境の周りの1つ又は複数の焦点面に投影するステップであって、該グラフィック要素の1つ又は複数を該経路に基づいて該乗り物の乗員の視野に投影するようなステップ又は、該経路の1つ又は複数の部分に関連する1つ又は複数の道路状況と乗り物の現在位置とに基づいて、1つ又は複数のグラフィック要素の1つ又は複数の焦点面と乗り物との間の距離を調整するステップが含まれる。 According to one or more embodiments, a computer-readable storage medium includes computer-executable instructions that perform a plurality of operations when executed through a processing unit of a computer. The step included in the operation is a step of generating a route from the starting position to the target position for the vehicle, wherein one or more parts of the route are one or more road sections, or road sections Projecting one or more graphical elements onto one or more focal planes around the vehicle's surrounding environment, including one or more navigation instructions associated with the one or more intersections Projecting one or more of the graphic elements onto a field of view of an occupant of the vehicle based on the route, or one or more roads associated with one or more portions of the route Adjusting the distance between one or more focal planes of the one or more graphic elements and the vehicle based on the situation and the current position of the vehicle is included.
1つ又は複数の実施形態においては、1つ又は複数のグラフィック要素を投影するステップは、ラスタ・ベースのグラフィックスを利用する。さらに、1つ又は複数の実施態様では、移動するアバターとして1つ又は複数のグラフィック要素を投影するステップ又は、1つ又は複数の異なる焦点面上に移動アバターを順次投影することによって、移動アバターをアニメーション化するステップを介して、1つ又は複数のナビゲーション命令を提供することを含む。 In one or more embodiments, projecting the one or more graphic elements utilizes raster-based graphics. Further, in one or more embodiments, the moving avatar is projected by projecting one or more graphic elements as moving avatars or sequentially projecting the moving avatar onto one or more different focal planes. Providing one or more navigation instructions via the animating step.
本願特許請求の範囲の主題は、構造的特徴又は方法論的作用を特定の言語で説明したが、本願主題は、必ずしも、上述の特定の特徴又は作用に限定されるものではないことを理解されたい。むしろ、上述の特定の特徴及び作用は、例示的な実施形態として開示している。 While the claimed subject matter has described structural features or methodological actions in a particular language, it should be understood that the subject matter is not necessarily limited to the particular features or actions described above. . Rather, the specific features and acts described above are disclosed as example embodiments.
実施形態の各種動作が、本明細書に示されている。該動作の1つ又は複数又は全てが説明される順序は、これらの動作が順序に依存していることを意味すると必ずしも解釈されるべきではない。代替えの順序は、本明細書の説明に基づいて理解できるであろう。さらに、必ずしも、全ての動作を、本明細書で提供される各実施形態に示すことができているわけではない。 Various operations of the embodiments are described herein. The order in which one or more or all of the operations are described should not necessarily be construed as implying that these operations are order dependent. Alternative sequences will be understood based on the description herein. Moreover, not all operations can be illustrated in the embodiments provided herein.
本出願で使用される場合、「又は」は、包括的な「又は」を意味し、排他的な「又は」を意味することを意図していない。また、本出願で使用される冠詞「a」及び「an」は、特に断りがない限り、又は、文脈から単数形を指示していることが明らかでない限りは、一般的に、「1つ又は複数」と解釈されたい。さらに、少なくともAとBの一方、及び/又は同様の表現は、一般的には、A又はB、又はAとB両方を意味する。さらに、「含む(includes)」、「有している(having)」、「有する(has)」、「持つ(with)」又は、これらの変形が、前記の詳細な説明又は、特許請求の範囲で使用される限りでは、該用語は、用語「含む(comprising)」と同様に包含することを意味している。 As used in this application, “or” means generic “or” and is not intended to mean an exclusive “or”. Also, the articles “a” and “an” as used in this application generally refer to “one or more” unless the context clearly dictates or unless otherwise clear from the context. Should be interpreted as "multiple". Furthermore, at least one of A and B and / or similar expressions generally means A or B, or both A and B. Further, “includes”, “having”, “has”, “with”, or variations thereof are described in the foregoing detailed description or claims. As used herein, the term is meant to encompass as well as the term “comprising”.
さらに、特に断りがない限り、「第1」、「第2」等は、一時的な、態様、空間的な態様、順序付け、等を意味する意図はない。むしろ、このような用語は、単に、特徴、要素、項目等に対する、識別子、名前等として使用されている。例えば、第1のチャネル及び第2のチャネルは、一般に、チャネルA及びチャネルB又は、2つの異なるチャネル又は2つの等しいチャネル又は、同一のチャネルに対応する。 Further, unless otherwise specified, “first”, “second”, etc. are not intended to mean temporary, spatial, ordering, etc. Rather, such terms are merely used as identifiers, names, etc., for features, elements, items, etc. For example, the first channel and the second channel generally correspond to channel A and channel B or two different channels or two equal channels or the same channel.
本開示では1つ又は複数の実装に関して図示及び説明してきたが、同等の変更及び修正が、本明細書及び添付図面の読書及び理解に基づいて行われ得るであろう。本発明は、そのような修正及び変更を全て含み、以下の特許請求の範囲によってのみ限定される。 Although this disclosure has illustrated and described with respect to one or more implementations, equivalent changes and modifications may be made based on reading and understanding of this specification and the accompanying drawings. The present invention includes all such modifications and changes and is limited only by the scope of the following claims.
100 ヘッド・アップ・ディスプレイ・システム、HUDシステム、HUDコンポーネント
102 ヘッド・アップ・ディスプレイ・デバイス、HUDデバイス
104 制御部、制御コンポーネント
106 乗り物
108 運転席
110 ダッシュボード筐体
112 フロント・ガラス
114 HUD出射孔
116 アイ・ボックス
118、120、122、124 第1、第2、第3、第4のプロジェクタ
126、130、134 第1、第2、第3のビーム・スプリッタ
128、132、136 第1、第2、第3の対物レンズ
138 接眼レンズ
140、142、144、146 プロジェクタ・ユニット
148、150、152、154 拡散スクリーン
156、158 第1、第2のアクチュエータ
160、164、168、172 第1、第2、第3及び、第4のグラフィック要素
162、166、170、174 第1、第2、第3及び第4の焦点面
162’、170’ 距離
176 地表面
178 運転者の視線
180 乗り物制御システム、乗り物制御コンポーネント
182 歩行者
200 HUDシステムを具備する乗り物
300 乗り物及び4焦点面の一例の側面図
302 フロント・ガラス
400 運転者の視野及び、グラフィック要素の1例
1000 コンピュータ可読媒体/デバイスの実施形態
1002 方法
1004 プロセッサ実行可能命令
1006 コンピュータ可読データ
1008 コンピュータ可読媒体
1100 コンピューティング・デバイスを含むシステム
1112 コンピューティング・デバイス
1114 処理ユニッ及びメモリ
1116 処理ユニット
1118 メモリ
1120 記憶部
1122 出力デバイス
1124 入力デバイス
1126 通信接続部
1128 ネットワーク
1130 コンピューティング・デバイス
DESCRIPTION OF SYMBOLS 100 Head-up display system, HUD system, HUD component 102 Head-up display device, HUD device 104 Control part, control component 106 Vehicle 108 Driver's seat 110 Dashboard housing 112 Front glass 114 HUD exit hole 116 Eye box 118, 120, 122, 124 First, second, third, fourth projector 126, 130, 134 First, second, third beam splitter 128, 132, 136 First, second , Third objective lens 138 eyepiece 140, 142, 144, 146 projector unit 148, 150, 152, 154 diffusion screen 156, 158 first, second actuator 160, 164, 168, 172 first, 2, third and fourth graphic elements 162, 166, 170, 174 first, second, third and fourth focal planes 162 ', 170' distance 176 ground surface 178 driver's line of sight 180 vehicle control system , Vehicle control component 182 pedestrian 200 vehicle with HUD system 300 side view of example vehicle and 4 focal planes 302 windshield 400 driver view and example of graphic elements 1000 computer readable media / device embodiments 1002 Method 1004 Processor-executable instructions 1006 Computer-readable data 1008 Computer-readable medium 1100 System including computing device 1112 Computing device 1114 Processing unit and memory 1116 Processing unit 111 8 Memory 1120 Storage unit 1122 Output device 1124 Input device 1126 Communication connection unit 1128 Network 1130 Computing device
Claims (20)
1つ又は複数のグラフィック要素を、該乗り物を囲む環境の周囲にある1つ又は複数の焦点面上に投影するヘッド・アップ・ディスプレイ・コンポーネントと、
1つ又は複数の該グラフィック要素の1つ又は複数の該焦点面と該乗り物との間の距離を、該経路の1つ又は複数の部分に対応する1つ又は複数の道路状況及び、該乗り物の現在位置に基づいて調整する制御コンポーネントと、
を含むことを特徴とする、3次元ナビゲーション・システム。 It is configured to receive a starting position and a destination position and generate a route from the starting position to the destination position, and one or more parts of the route are one or more road sections or the road A navigation component that includes one or more navigation instructions corresponding to one or more intersections of a section and is associated with a vehicle;
A head-up display component that projects one or more graphic elements onto one or more focal planes surrounding the environment surrounding the vehicle;
One or more road conditions corresponding to one or more portions of the route, the distance between one or more of the focal planes of the one or more graphic elements and the vehicle, and the vehicle A control component that adjusts based on the current position of the
A three-dimensional navigation system comprising:
1つ又は複数のグラフィック要素を、該乗り物を囲む環境の周囲にある1つ又は複数の焦点面上に投影し、1つ又は複数の該グラフィック要素を、該経路に基づき、該乗り物の乗員の視野内に投影するステップと、
1つ又は複数の該グラフィック要素の1つ又は複数の焦点面と該乗り物との間の距離を、該経路の1つ又は複数の部分に対応する1つ又は複数の道路状況及び、該乗り物の現在位置に基づいて調整するステップと、を含み、
該生成するステップ又は調整するステップは、処理ユニットを介して実行されること、を特徴とする3次元ナビゲーション方法。 Generating a route from a starting position to a destination position for a vehicle, wherein one or more portions of the route include one or more road sections or one or more of the road sections Including one or more navigation instructions corresponding to the intersection;
One or more graphic elements are projected onto one or more focal planes surrounding the environment surrounding the vehicle, and the one or more graphic elements are projected based on the path of the occupant of the vehicle. Projecting into the field of view;
The distance between one or more focal planes of the one or more graphic elements and the vehicle, the one or more road conditions corresponding to one or more parts of the route, and the vehicle's Adjusting based on the current position,
3. The three-dimensional navigation method, wherein the generating step or the adjusting step is performed through a processing unit.
該検出した奥行き情報に基づき、前記奥行きマップを構築するステップと、を含むことを特徴とする請求項14に記載の方法。 Detecting depth information from the environment surrounding the vehicle;
15. The method of claim 14, comprising building the depth map based on the detected depth information.
1つ又は複数のグラフィック要素を、該乗り物を囲む環境の周囲にある1つ又は複数の焦点面上に投影し、1つ又は複数の該グラフィック要素を、該経路に基づき、該乗り物の乗員の視野内に投影するステップと、
1つ又は複数の該グラフィック要素の1つ又は複数の該焦点面と該乗り物との間の距離を、該経路の1つ又は複数の部分に対応する1つ又は複数の道路状況及び、該乗り物の現在位置に基づいて調整するステップと、を含む動作を、
コンピュータの処理ユニットを介して実行されるときに、実行するコンピュータ実行可能命令を含む、ことを特徴とするコンピュータ可読記憶媒体。 Generating a route from a starting position to a destination position for a vehicle, wherein one or more portions of the route are one or more road sections or one or more intersections of the road sections Including one or more navigation instructions corresponding to
One or more graphic elements are projected onto one or more focal planes surrounding the environment surrounding the vehicle, and the one or more graphic elements are projected based on the path of the occupant of the vehicle. Projecting into the field of view;
One or more road conditions corresponding to one or more portions of the route, the distance between one or more of the focal planes of the one or more graphic elements and the vehicle, and the vehicle Adjusting based on the current position of
A computer-readable storage medium comprising computer-executable instructions for execution when executed through a processing unit of a computer.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/041,614 US20160054563A9 (en) | 2013-03-14 | 2013-09-30 | 3-dimensional (3-d) navigation |
US14/041,614 | 2013-09-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015069656A true JP2015069656A (en) | 2015-04-13 |
Family
ID=52673399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014198779A Pending JP2015069656A (en) | 2013-09-30 | 2014-09-29 | Three-dimensional (3d) navigation |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2015069656A (en) |
CN (1) | CN104512336B (en) |
DE (1) | DE102014219567A1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016166887A1 (en) * | 2015-04-17 | 2016-10-20 | 三菱電機株式会社 | Display control apparatus, display system, display control method, and display control program |
CN106296813A (en) * | 2015-05-14 | 2017-01-04 | 上海市测绘院 | Three-dimensional static map producing method |
JP2017073026A (en) * | 2015-10-08 | 2017-04-13 | 株式会社デンソー | Drive support device |
JP2019103049A (en) * | 2017-12-06 | 2019-06-24 | アイシン精機株式会社 | Periphery monitoring device |
KR20190133393A (en) * | 2018-05-23 | 2019-12-03 | 주식회사 프라젠 | Transparent pillar device |
WO2020076090A1 (en) * | 2018-10-10 | 2020-04-16 | 네이버랩스 주식회사 | Three-dimensional augmented reality head-up display for positioning virtual image on ground by means of windshield reflection method |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015217258A1 (en) * | 2015-09-10 | 2017-03-16 | Robert Bosch Gmbh | Method and device for representing a vehicle environment of a vehicle |
US11004426B2 (en) | 2015-09-25 | 2021-05-11 | Apple Inc. | Zone identification and indication system |
JP6330111B2 (en) * | 2015-09-30 | 2018-05-23 | 富士フイルム株式会社 | Imaging apparatus and control method thereof |
JP6554175B2 (en) * | 2015-10-09 | 2019-07-31 | マクセル株式会社 | Head-up display device |
CN105730237A (en) * | 2016-02-04 | 2016-07-06 | 京东方科技集团股份有限公司 | Traveling auxiliary device and method |
CN107449440A (en) * | 2016-06-01 | 2017-12-08 | 北京三星通信技术研究有限公司 | The display methods and display device for prompt message of driving a vehicle |
US10399564B2 (en) * | 2016-10-25 | 2019-09-03 | Ford Global Technologies, Llc | Vehicle roundabout management |
RU2700915C1 (en) | 2016-11-23 | 2019-09-23 | Айбиэс Оф Америка | Control system, managing system, drive unit of paper-making machine and control method |
CN107554425B (en) * | 2017-08-23 | 2019-06-21 | 江苏泽景汽车电子股份有限公司 | A kind of vehicle-mounted head-up display AR-HUD of augmented reality |
CN109990797A (en) * | 2017-12-29 | 2019-07-09 | 周秦娜 | A kind of control method of the augmented reality navigation display for HUD |
CN108225734B (en) * | 2018-01-05 | 2021-07-02 | 宁波均胜科技有限公司 | Error calibration system based on HUD system and error calibration method thereof |
DE102018202201B4 (en) | 2018-02-13 | 2020-06-10 | Bayerische Motoren Werke Aktiengesellschaft | Sensor device and method for environment detection of a vehicle |
DE102018202200B4 (en) | 2018-02-13 | 2022-11-10 | Bayerische Motoren Werke Aktiengesellschaft | Sensor device for detecting the surroundings of a vehicle |
CN108896066A (en) * | 2018-03-23 | 2018-11-27 | 江苏泽景汽车电子股份有限公司 | A kind of augmented reality head up display and its navigation implementation method |
DE102018206910A1 (en) * | 2018-05-04 | 2019-11-07 | Audi Ag | Method for determining a user authorization of at least one roadway by a motor vehicle and control device and display screen for a motor vehicle |
CN108583437A (en) * | 2018-05-07 | 2018-09-28 | 温州中佣科技有限公司 | A kind of vehicle driving system |
JP2021535519A (en) * | 2018-09-24 | 2021-12-16 | コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. | Augmented reality DSRC data visualization |
CN110132301B (en) * | 2019-05-28 | 2023-08-25 | 浙江吉利控股集团有限公司 | Leading type vehicle navigation method and system |
DE102020200047A1 (en) | 2020-01-06 | 2021-07-08 | Volkswagen Aktiengesellschaft | Method and device for displaying virtual navigation elements |
CN113155117A (en) * | 2020-01-23 | 2021-07-23 | 阿里巴巴集团控股有限公司 | Navigation system, method and device |
US11920299B2 (en) | 2020-03-06 | 2024-03-05 | Ibs Of America | Formation detection system and a process of controlling |
DE102020211211A1 (en) * | 2020-09-07 | 2022-03-10 | Volkswagen Aktiengesellschaft | Method for preparing a navigation maneuver of a vehicle |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222583B1 (en) * | 1997-03-27 | 2001-04-24 | Nippon Telegraph And Telephone Corporation | Device and system for labeling sight images |
KR20100070973A (en) * | 2008-12-18 | 2010-06-28 | 박호철 | Head-up display navigation apparatus, system and service implementation method thereof |
KR101768101B1 (en) * | 2009-10-30 | 2017-08-30 | 엘지전자 주식회사 | Information displaying apparatus and method thereof |
US8892357B2 (en) * | 2010-09-20 | 2014-11-18 | Honeywell International Inc. | Ground navigational display, system and method displaying buildings in three-dimensions |
US8781170B2 (en) * | 2011-12-06 | 2014-07-15 | GM Global Technology Operations LLC | Vehicle ghosting on full windshield display |
-
2014
- 2014-09-26 DE DE201410219567 patent/DE102014219567A1/en not_active Ceased
- 2014-09-29 JP JP2014198779A patent/JP2015069656A/en active Pending
- 2014-09-29 CN CN201410515899.0A patent/CN104512336B/en active Active
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016166887A1 (en) * | 2015-04-17 | 2016-10-20 | 三菱電機株式会社 | Display control apparatus, display system, display control method, and display control program |
JPWO2016166887A1 (en) * | 2015-04-17 | 2017-11-02 | 三菱電機株式会社 | Display control apparatus, display system, display control method, and display control program |
DE112015006458B4 (en) | 2015-04-17 | 2019-05-23 | Mitsubishi Electric Corporation | Display control device, display system, display control method and display control program |
US10410423B2 (en) | 2015-04-17 | 2019-09-10 | Mitsubishi Electric Corporation | Display control device for controlling stereoscopic display of superimposed display object, display system, display control method and computer readable medium |
CN106296813A (en) * | 2015-05-14 | 2017-01-04 | 上海市测绘院 | Three-dimensional static map producing method |
JP2017073026A (en) * | 2015-10-08 | 2017-04-13 | 株式会社デンソー | Drive support device |
JP2019103049A (en) * | 2017-12-06 | 2019-06-24 | アイシン精機株式会社 | Periphery monitoring device |
JP7000822B2 (en) | 2017-12-06 | 2022-01-19 | 株式会社アイシン | Peripheral monitoring device |
KR20190133393A (en) * | 2018-05-23 | 2019-12-03 | 주식회사 프라젠 | Transparent pillar device |
KR102457275B1 (en) | 2018-05-23 | 2022-10-19 | 주식회사 프라젠 | Transparent pillar device |
WO2020076090A1 (en) * | 2018-10-10 | 2020-04-16 | 네이버랩스 주식회사 | Three-dimensional augmented reality head-up display for positioning virtual image on ground by means of windshield reflection method |
US11865915B2 (en) | 2018-10-10 | 2024-01-09 | Naver Labs Corporation | Three-dimensional augmented reality head-up display for positioning virtual image on ground by means of windshield reflection method |
Also Published As
Publication number | Publication date |
---|---|
CN104512336A (en) | 2015-04-15 |
CN104512336B (en) | 2019-03-12 |
DE102014219567A1 (en) | 2015-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10215583B2 (en) | Multi-level navigation monitoring and control | |
JP2015069656A (en) | Three-dimensional (3d) navigation | |
US20140268353A1 (en) | 3-dimensional (3-d) navigation | |
US20140362195A1 (en) | Enhanced 3-dimensional (3-d) navigation | |
US9164281B2 (en) | Volumetric heads-up display with dynamic focal plane | |
CN104515531B (en) | 3- dimension (3-D) navigation system and method for enhancing | |
US9393870B2 (en) | Volumetric heads-up display with dynamic focal plane | |
JP6861375B2 (en) | Display system, information presentation system, display system control method, program, and mobile | |
US9482540B2 (en) | Navigation display method and system | |
JP6201690B2 (en) | Vehicle information projection system | |
JP7113259B2 (en) | Display system, information presentation system including display system, display system control method, program, and mobile object including display system | |
JP6342704B2 (en) | Display device | |
JP6883759B2 (en) | Display systems, display system control methods, programs, and mobiles | |
JP2011121401A (en) | Display device, display method, and movement body | |
JP2006501443A (en) | Method and apparatus for displaying navigation information on a vehicle | |
JP2012035745A (en) | Display device, image data generating device, and image data generating program | |
JP2015080988A (en) | Vehicle information projection system and projection device | |
WO2019097762A1 (en) | Superimposed-image display device and computer program | |
JP6796806B2 (en) | Display system, information presentation system, display system control method, program, and mobile | |
JP2016107947A (en) | Information providing device, information providing method, and control program for providing information | |
WO2019131296A1 (en) | Head-up display device | |
JP2019087259A (en) | Superposition image display device and computer program | |
WO2019230492A1 (en) | Vehicular display device | |
JP2021076415A (en) | Superimposed image display apparatus and computer program | |
JP2021000961A (en) | Display control device, display device, display control method, and program |