JP2015069656A - Three-dimensional (3d) navigation - Google Patents

Three-dimensional (3d) navigation Download PDF

Info

Publication number
JP2015069656A
JP2015069656A JP2014198779A JP2014198779A JP2015069656A JP 2015069656 A JP2015069656 A JP 2015069656A JP 2014198779 A JP2014198779 A JP 2014198779A JP 2014198779 A JP2014198779 A JP 2014198779A JP 2015069656 A JP2015069656 A JP 2015069656A
Authority
JP
Japan
Prior art keywords
vehicle
graphic elements
component
driver
hud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014198779A
Other languages
Japanese (ja)
Inventor
藤村、希久雄
Kikuo Fujimura
ン・ソー・ヒン、ビクター
Victor Ng-Thow-Hing
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/041,614 external-priority patent/US20160054563A9/en
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2015069656A publication Critical patent/JP2015069656A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional navigation system using a three-dimensional head-up display having a dynamic focal plane.SOLUTION: An HUD component performs: projecting a graphic element on a focal plane throughout a vehicle surrounding environment; three-dimensional visualization of the graphic element by moving the focal plane or adjusting a distance between the focal plane and a vehicle, and adjusting a target position of the graphic element, enabling projection of the graphic element as an avatar, and, namely adjusting the distance of the focal plane and the target position, enabling three-dimensional projection of the graphic element along x, y, z axes; and sequentially projecting a moving avatar on different focal planes, animating the avatar. This makes it possible to provide a passenger with a feeling of the avatar approaching or departing from the vehicle.

Description

関連出願の相互参照Cross-reference of related applications

本出願は、2013年3月15日に出願された「動的焦点面を有する立体ヘッド・アップ・ディスプレイ」と題する、シリアル番号:13/832918(代理人整理番号:HRA−36332.01)の係属中の米国非仮特許出願の一部継続(CIP)出願である。上記出願の全体が参照により本明細書に組み込まれる。   This application is entitled “Stereoscopic head-up display with dynamic focal plane” filed on March 15, 2013, serial number: 13/832918 (attorney docket number: HRA-36332.01). This is a continuation-in-part (CIP) application of a pending US non-provisional patent application. The entire application is incorporated herein by reference.

運転者の利便性を向上するために、運転者に情報を表示するヘッド・アップ・ディスプレイ(HUD)を乗り物に具備することができる。該HUDにより表示される情報は、運転者が運転している間、乗り物のフロント・ガラスに投影されて、運転者の視界に提示することができる。運転者の視界に情報を表示することで、運転者は、提示された情報を運転中に見るために、フロント・ガラスから目を離す(たとえば、センター・ダッシュボード上の計器表示の方を向く)必要がなくなる。   In order to improve the convenience for the driver, the vehicle can be provided with a head-up display (HUD) for displaying information to the driver. The information displayed by the HUD can be projected on the windshield of the vehicle and presented to the driver's view while the driver is driving. By displaying information in the driver's field of view, the driver looks away from the windshield to view the information presented while driving (eg, facing the instrument display on the center dashboard) ) No need.

HUDは、通常乗り物のセンター・ダッシュボードに表示される乗り物情報、例えば、乗り物の速度、燃料レベル、エンジン温度等に関する情報を表示することができる。さらに、HUDは、地図情報及び通信イベント(例えば、ナビゲーションの指示、運転の指示、警告、警報等)を運転者に提示することができる。乗り物用HUDは、乗り物のダッシュボードで用いた方法と同様の方法で、例えば、グラフィック要素として現われるゲージやテキスト・ボックスをフロント・ガラス上に表示することによって、運転者に情報を表示することができる。さらに、乗り物用HUDは、リアル・タイム情報で乗り物周囲の物理的環境を拡張する拡張現実グラフィック要素を表示することもできる。   The HUD can display vehicle information that is typically displayed on the vehicle's center dashboard, such as information regarding vehicle speed, fuel level, engine temperature, and the like. Further, the HUD can present map information and communication events (for example, navigation instructions, driving instructions, warnings, warnings, etc.) to the driver. A vehicle HUD can display information to the driver in a manner similar to that used in the vehicle dashboard, for example, by displaying gauges and text boxes that appear as graphic elements on the windshield. it can. Furthermore, the vehicle HUD can also display augmented reality graphic elements that extend the physical environment around the vehicle with real-time information.

しかし、乗り物に使用される既存のHUDデバイスでは、拡張現実グラフィック要素を、一貫性のある奥行き手がかりで表示することができない場合がある。したがって、既存の乗り物用HUDが表示する拡張現実グラフィック要素は、表面的な重なりとして提示される可能性がある。   However, existing HUD devices used in vehicles may not be able to display augmented reality graphic elements with consistent depth cues. Therefore, augmented reality graphic elements displayed by existing vehicle HUDs may be presented as superficial overlap.

本節の簡単な説明は、以降の詳細な説明に記載されている概念を選択して簡略化した形で紹介するために提供する。この簡単な説明は、特許請求範囲の主題事項を広範囲に渡って外観する意図はなく、特許請求範囲の主題事項の主要な要素又は本質的な特徴を特定するものでもなく、特許請求範囲の主題事項の範囲を限定するために用いることを意図するものでもない。   A brief description of this section is provided to select and introduce in simplified form the concepts described in the detailed description that follows. This brief description is not intended to present the subject matter of the claims broadly, nor is it intended to identify key elements or essential features of the subject matter of the claims. It is not intended to be used to limit the scope of matters.

1つの実施態様によれば、乗り物の運転者の視野にグラフィック要素を表示するための乗り物用ヘッド・アップ・ディスプレイ・デバイスは、第1のプロジェクタ及び第1のアクチュエータを有する。第1のプロジェクタは、運転者の視野内の第1の焦点面上に第1のグラフィック要素を投影するように構成することができる。第1の焦点面は、運転者の視線に略垂直に、かつ、乗り物から離れた距離に配向することができる。第1のプロジェクタは、第1のアクチュエータ上に設置することができる。第1のアクチュエータは、第1のプロジェクタを直線的に移動するように構成することができる。第1のプロジェクタを直線的に移動することにより、第1のグラフィック要素の第1の焦点面を運転者の視線方向に移動することができる。   According to one embodiment, a vehicle head-up display device for displaying a graphic element in a vehicle driver's field of view includes a first projector and a first actuator. The first projector may be configured to project the first graphic element onto a first focal plane within the driver's field of view. The first focal plane can be oriented substantially perpendicular to the driver's line of sight and at a distance away from the vehicle. The first projector can be installed on the first actuator. The first actuator can be configured to move the first projector linearly. By moving the first projector linearly, the first focal plane of the first graphic element can be moved in the direction of the driver's line of sight.

別の実施態様によれば、乗り物用ヘッド・アップ・ディスプレイ・システムは、乗り物用ヘッド・アップ・ディスプレイ・デバイス及び、制御部を含む。乗り物用ヘッド・アップ・ディスプレイ・デバイスは、乗り物運転者の視野内にグラフィック要素を表示し、第1のプロジェクタと第2のプロジェクタを有する。第1のプロジェクタは、第1のグラフィック要素を運転者の視野内の第1の焦点面上に投影するように構成することができる。第1の焦点面は、運転者の視線に対してほぼ垂直に配向させることができる。第1のプロジェクタは、運転者の視線の方向に第1の焦点面を移動させるように構成することができる。第2のプロジェクタは、第2のグラフィック要素を運転者の視野内の第2の焦点面上に投影するように構成することができる。第2の焦点面は、静止し、かつ、地面に対して略平行に配向することができる。前記制御部は、1つ又は複数の対応する乗り物制御システムと通信し、乗り物用ヘッド・アップ・ディスプレイ・デバイスを制御して、1つ又は複数の該対応する乗り物制御システムとの通信に基づいて前記第1及び第2のグラフィック要素を表示するように構成することができる。   According to another embodiment, a vehicle head-up display system includes a vehicle head-up display device and a controller. The vehicle head-up display device displays a graphic element in the field of view of the vehicle driver and has a first projector and a second projector. The first projector may be configured to project the first graphic element onto a first focal plane in the driver's field of view. The first focal plane can be oriented substantially perpendicular to the driver's line of sight. The first projector can be configured to move the first focal plane in the direction of the driver's line of sight. The second projector may be configured to project the second graphic element onto a second focal plane in the driver's field of view. The second focal plane can be stationary and oriented substantially parallel to the ground. The controller communicates with one or more corresponding vehicle control systems, controls a vehicle head-up display device, and based on communication with the one or more corresponding vehicle control systems The first and second graphic elements can be configured to be displayed.

さらに別の実施態様によれば、乗り物用ヘッド・アップ・ディスプレイに拡張現実グラフィック要素を提示する方法は、運転者の視野内の第1の焦点面に第1のグラフィック要素及び運転者の視野内の第2の焦点面上に第2のグラフィック要素を投影することを含む。第1の焦点面は、運転者の視線に対して略垂直に配向することができ、第2の焦点面は、静止して、地面に対して略平行に配向することができる。該方法には、第1の焦点面を運転者の視野の方向に移動させること又は合わせることを含むことができる。   According to yet another embodiment, a method for presenting an augmented reality graphic element on a vehicle head-up display includes a first graphic element in a first focal plane within the driver's field of view and the driver's field of view. Projecting a second graphic element onto the second focal plane of the image. The first focal plane can be oriented substantially perpendicular to the driver's line of sight, and the second focal plane can be stationary and oriented substantially parallel to the ground. The method can include moving or aligning the first focal plane in the direction of the driver's field of view.

3次元(3−D)ナビゲーションのための技術やシステムの1つ又は複数の実施形態が本明細書において開示される。例えば、3Dナビゲーション・システムは、移動するように見えるグラフィック要素又はアバターを、乗り物の乗員の視野に投影することができる。1つ又は複数の実施形態において、ヘッド・アップ・ディスプレイ(HUD)コンポーネントは、該グラフィック要素又はアバターを乗り物周囲の環境内の1つ又は複数の焦点面上に投影するように構成することができる。言い換えれば、該HUDコンポーネントは、複数のグラフィック要素又は複数のアバターを複数の調整可能な距離つまり複数の焦点調整可能な焦点面に投影して、1つのアバター又はグラフィック要素が移動、飛行、アニメーション等をしているという感覚を乗り物の乗員に与えることができる。   One or more embodiments of techniques and systems for three-dimensional (3-D) navigation are disclosed herein. For example, a 3D navigation system can project graphical elements or avatars that appear to move into the vehicle occupant's field of view. In one or more embodiments, a heads up display (HUD) component can be configured to project the graphic element or avatar onto one or more focal planes in the environment surrounding the vehicle. . In other words, the HUD component projects a plurality of graphic elements or avatars onto a plurality of adjustable distances, i.e. a plurality of adjustable focal planes, so that one avatar or graphic element moves, flies, animations, etc. This gives the vehicle occupant a sense of

例えば、前記HUDコンポーネントは、1つのアバターを1つ又は複数の異なる焦点面上に連続的に投影することにより該アバターに「アニメーション」させる又は動きを与えるように構成することができる。これら複数の焦点面上への投影は、例えば、HUDコンポーネントのプロジェクタを移動させるアクチュエータを用いて実現してもよい。この結果、グラフィック要素やアバターに対応した焦点調節や輻輳などの奥行き手がかりが、大体において維持される。1つの経路が第1の位置から第2の位置に向かって生成される場合、前記HUDコンポーネントは、乗り物の運転者や乗員が「追跡」するべき1つ又は複数のグラフィック要素を生成することができる。該HUDコンポーネントは、複数の焦点面上に投影又は、投影された複数のグラフィック要素を1つの焦点面から別の焦点面に移動することができるので、グラフィック要素又は投影された画像は、より現実的で、鏡に映った画像と同じように見える。   For example, the HUD component can be configured to “animate” or give motion to an avatar by continuously projecting the avatar onto one or more different focal planes. The projection onto the plurality of focal planes may be realized by using, for example, an actuator that moves the projector of the HUD component. As a result, depth cues such as focus adjustment and convergence corresponding to graphic elements and avatars are generally maintained. If a route is generated from a first location to a second location, the HUD component may generate one or more graphic elements that a vehicle driver or occupant should “track”. it can. The HUD component can project onto a plurality of focal planes or move a plurality of projected graphic elements from one focal plane to another, so that a graphic element or projected image is more realistic. It looks the same as the image in the mirror.

乗り物の乗員がナビゲーション案内を要求すると、アバター等のグラフィック要素を提示することができる。該アバターは、例えば、仲間の乗り物を追跡している場合に乗員や運転者の目に入るものと同じように、乗り物の前で移動、滑空、飛行等をするように見える。さらに、該アバターは、実際の乗り物のように、障害状況、障害物、歩行者、物の破片、窪み、等の周りをナビゲートするように見えてもよい。1つ又は複数の実施形態では、アバターは、実時間の交通に応じて、「運転」し、移動し、移動するように見える。例えば、運転者や乗り物が線路を横切る必要のある経路の場合、アバターは、列車が横切るときには線路で停止する。別の例では、アバターは、車線変更を、他の乗り物に「衝突」又は、その他、交通妨害のように見えないようにして、行う。   When a vehicle occupant requests navigation guidance, a graphic element such as an avatar can be presented. The avatar appears to move, glide, fly, etc. in front of the vehicle, similar to what an occupant or driver sees when tracking a fellow vehicle, for example. In addition, the avatar may appear to navigate around obstacle situations, obstacles, pedestrians, object debris, depressions, etc., like an actual vehicle. In one or more embodiments, the avatar appears to “drive”, move, and move in response to real-time traffic. For example, if the route requires a driver or vehicle to cross the track, the avatar will stop on the track when the train crosses. In another example, the avatar makes a lane change so that it does not look like a “collision” or other traffic obstruction to other vehicles.

以下の説明及び添付の図面では、いくつかの例示的な実施態様及び実装について説明する。これらは、1つ又は複数の実施態様を用いるさまざまな方法の説明であるが、そのうちの幾つかに過ぎない。本発明の他の実施態様、利点又は新規な特徴は、以下の詳細な説明から、添付の図面と併せて考慮すると明らかになるであろう。   The following description and the annexed drawings set forth some illustrative embodiments and implementations. These are descriptions of various methods using one or more embodiments, but only a few of them. Other embodiments, advantages or novel features of the invention will become apparent from the following detailed description when considered in conjunction with the accompanying drawings.

本発明の実施態様は、添付の図面と合わせてみると以下の詳細な説明から理解できる。図面の要素、構成等は、必ずしも同じ縮尺で描かれていない場合がある。したがって、例えば、議論の明確化のために、同一のものの寸法が、任意に、拡張又は縮尺されていることがある。   Embodiments of the present invention can be understood from the following detailed description when taken in conjunction with the accompanying drawings. Elements, configurations, etc. in the drawings are not necessarily drawn to scale. Thus, for example, the same dimensions may be arbitrarily expanded or reduced for clarity of discussion.

1つ又は複数の実施形態による、乗り物用ヘッド・アップ・ディスプレイ・システムの一例の模式図である。1 is a schematic diagram of an example vehicle head-up display system, according to one or more embodiments. FIG.

1つ又は複数の実施形態による、乗り物用ヘッド・アップ・ディスプレイ・システムを具備する乗り物の一例の模式図である。1 is a schematic diagram of an example of a vehicle comprising a vehicle head-up display system according to one or more embodiments. FIG.

1つ又は複数の実施形態による、乗り物用ヘッド・アップ・ディスプレイ・システムによってグラフィック要素が投影される乗り物及び4焦点面の一例の側面図である。1 is a side view of an example of a vehicle and a four focal plane onto which a graphic element is projected by a vehicle head-up display system, according to one or more embodiments. FIG.

1つ又は複数の実施形態による、乗り物を運転しながらフロント・ガラスから見た運転者の視野と、乗り物用ヘッド・アップ・ディスプレイ・システムによって投影された例示的なグラフィック要素と、の1例の説明図である。One example of a driver's field of view from a windshield while driving a vehicle and exemplary graphic elements projected by the vehicle head-up display system, according to one or more embodiments. It is explanatory drawing.

1つ又は複数の実施形態による、3Dナビゲーション・システムの構成図の1例の説明図である。FIG. 3 is an illustration of an example of a block diagram of a 3D navigation system, according to one or more embodiments.

1つ又は複数の実施形態による、3−Dナビゲーションの方法のフロー図の1例の説明図である。FIG. 4 is an illustration of an example flow diagram of a method of 3-D navigation, according to one or more embodiments.

1つ又は複数の実施形態による、3−Dナビゲーション用アバターの1例の 説明図である。FIG. 6 is an illustration of an example of a 3-D navigation avatar according to one or more embodiments.

1つ又は複数の実施形態による、3−Dナビゲーション用アバターの1例の 説明図である。FIG. 6 is an illustration of an example of a 3-D navigation avatar according to one or more embodiments.

1つ又は複数の実施形態による、3−Dナビゲーション用アバターの1例の 説明図である。FIG. 6 is an illustration of an example of a 3-D navigation avatar according to one or more embodiments.

1つ又は複数の実施形態による、3−Dナビゲーション用アバターの1例の 説明図である。FIG. 6 is an illustration of an example of a 3-D navigation avatar according to one or more embodiments.

1つ又は複数の実施形態による、3−Dナビゲーション用アバターの1例の 説明図である。FIG. 6 is an illustration of an example of a 3-D navigation avatar according to one or more embodiments.

1つ又は複数の実施形態による、3−Dナビゲーション用アバターの1例の 説明図である。FIG. 6 is an illustration of an example of a 3-D navigation avatar according to one or more embodiments.

1つ又は複数の実施形態による、本明細書に記載された1つ又は複数の条件を統合して実装するように構成されたプロセッサ実行可能命令を格納する、コンピュータ可読媒体又はコンピュータ可読デバイスの1例の説明図である。One of the computer-readable media or computer-readable devices storing processor-executable instructions configured to integrate and implement one or more of the conditions described herein, according to one or more embodiments. It is explanatory drawing of an example.

1つ又は複数の実施形態による、本明細書に記載された条件の1つ又は複数が実装された、コンピューティング環境の1例の説明図である。FIG. 6 is an illustration of an example computing environment in which one or more of the conditions described herein are implemented, according to one or more embodiments.

図面に示された実施態様又は実施例を、特定の用語を用いて以下に開示する。しかしながら、開示された実施態様又は実施例は限定を意図するものではないことは理解されたい。開示された実施態様における任意の変更、修正及び、本明細書に開示された原理のさらなる応用は、関連技術の当業者には通常想到できると考えられる。   The embodiments or examples shown in the drawings are disclosed below using specific terminology. However, it should be understood that the disclosed embodiments or examples are not intended to be limiting. Any changes, modifications, and further applications of the principles disclosed herein will generally be conceivable to one skilled in the relevant arts in the disclosed embodiments.

本明細書の1つ又は複数の図面に関して、1つ又は複数の境界線、例えば、図2の境界線116等は、単に説明のために、互いに異なる高さ、幅、周囲長、アスペクト比、形状等で描かれており、かつ、必ずしも縮尺が合うように描かれていない。例えば、破線又は点線は異なる境界を表すために使用されるので、もし、破線や点線がお互いの上に引かれるとすると、これらの線は図面中では識別できない。このため、1つ又は複数の図で、互いに異なる寸法で少し離れて描かれ、相互に区別可能にしている。別の例として、境界が不規則な形状に対応している場合、破線や点線等で描かれたボックスのような境界は、1つ又は複数の例において、必ずしも1つのコンポーネント全体を含むとは限らない。逆に、描かれたボックスは、必ずしも、1つ又は複数の例において、単に対応する1つのコンポーネントのみを含むとは限らず、また、1つ又は複数の他のコンポーネントの一部を含むことがありうる。   With respect to one or more of the drawings herein, one or more borders, such as border 116 in FIG. 2, are for purposes of illustration only and have different heights, widths, perimeters, aspect ratios, It is drawn in shape and the like, and is not necessarily drawn to scale. For example, broken lines or dotted lines are used to represent different boundaries, so if broken lines or dotted lines are drawn on top of each other, these lines cannot be identified in the drawing. For this reason, in one or more figures, they are drawn slightly apart from each other and are distinguishable from each other. As another example, if a boundary corresponds to an irregular shape, a boundary such as a box drawn with a dashed line, dotted line, etc., does not necessarily include an entire component in one or more examples. Not exclusively. Conversely, a drawn box does not necessarily include only one corresponding component in one or more examples, and may include part of one or more other components. It is possible.

運転者の直接視野内の環境要素の上に、乗り物用HUDデバイスによって視覚可能に配置されたグラフィック要素は、視野相似拡張現実要素又は等角拡張現実グラフィック要素と呼ばれることが多い。視野相似拡張現実グラフィック要素を乗り物の運転者に正常に提示することは、正確に奥行き手がかりを再現するための乗り物用HUDデバイスの能力に依存することがある。この奥行き手がかりには、焦点調節や輻輳が含まれる。焦点調節とは、目の筋肉が活発に屈折力を変化させて、焦点を種々の距離に変化させる奥行き手がかりである。輻輳とは、両眼の互いの方向への同時的又は並行的な内向き回転であり、1つのオブジェクトを見る際に両眼単一像を維持するために行われる。   Graphic elements that are visually placed by the vehicle HUD device over environmental elements in the driver's direct field of view are often referred to as field-like augmented reality elements or conformal augmented reality graphic elements. The successful presentation of field-similar augmented reality graphic elements to the vehicle driver may depend on the vehicle's ability to accurately reproduce the depth cues. This depth cue includes focus adjustment and convergence. Focus adjustment is a depth cue that causes the eye muscles to actively change refractive power and change the focus to various distances. Convergence is a simultaneous or parallel inward rotation of both eyes in the direction of each other, performed to maintain a single binocular image when viewing one object.

本明細書で説明する実施例では、乗り物の運転者1人について述べることがあるが、乗客など、1人又は複数の他の乗員の視野内に、グラフィック要素を投影、提示、レンダリングすることができる。このため、これらの実施例は限定を意図するものではなく、単に、例示的な応用の1つ又は複数の実施形態を説明するために開示されている。   The embodiments described herein may describe one vehicle driver, but may project, present, and render graphic elements within the field of view of one or more other occupants, such as passengers. it can. As such, these examples are not intended to be limiting and are disclosed merely to illustrate one or more embodiments of exemplary applications.

HUDデバイスが、乗り物のフロント・ガラス上にグラフィック要素を表示するとき、焦点調節によって、人間の目が環境要素とHUDデバイスによって表示された情報との間を移動することが起きる。輻輳によって、両眼がフロント・ガラスの向こうの環境の中の点へ集中し、これによってフロント・ガラスに表示されたHUDグラフィック要素が二重の像に見える可能性がある。したがって、視野相似拡張現実グラフィック要素を正しく再現された奥行き手がかりでレンダリングするためには、グラフィック要素は、乗り物のフロント・ガラス上というよりむしろ、実環境と同じ空間(例えば、対応する焦点面)上にレンダリングする必要がある。   When the HUD device displays a graphic element on the vehicle windshield, the focus adjustment causes the human eye to move between the environmental element and the information displayed by the HUD device. Convergence can cause both eyes to concentrate on a point in the environment beyond the windshield, which can cause the HUD graphic element displayed on the windshield to appear as a double image. Thus, to render a field-similar augmented reality graphic element with correctly reproduced depth cues, the graphic element is on the same space as the real environment (eg, the corresponding focal plane) rather than on the vehicle windshield. Need to be rendered.

乗り物の運転者がフロント・ガラスを通して環境を見ている間、運転者の視野にグラフィック要素を表示するために、乗り物用ヘッド・アップ・ディスプレイ・デバイスが提供される。該ヘッド・アップ・ディスプレイ・デバイスには、運転者がフロント・ガラスを通して環境を見ている間、運転者の視野内の前方焦点面上にグラフィック要素を投影する1つ又は複数のプロジェクタと、運転者がフロント・ガラスを通して環境を見ている間、運転者の視野内の地表に平行な焦点面上にグラフィック要素を投影する、1つ又は複数のプロジェクタと、を含む。前方焦点面にグラフィック要素を投影するプロジェクタは、運転者の視線の方向に前方焦点面を移動させるように、該プロジェクタを直線的に移動させるアクチュエータに搭載することができる。該地表に平行な焦点面に投影するプロジェクタは、地表に平行な焦点面が静止するように固定して配置することができる。   A vehicle head-up display device is provided for displaying graphic elements in the driver's field of view while the vehicle driver is viewing the environment through the windshield. The head-up display device includes one or more projectors that project graphic elements onto a front focal plane in the driver's field of view while the driver is viewing the environment through the windshield; One or more projectors that project graphic elements onto a focal plane parallel to the ground in the driver's field of view while the person is viewing the environment through the windshield. The projector that projects the graphic element on the front focal plane can be mounted on an actuator that linearly moves the projector so as to move the front focal plane in the direction of the driver's line of sight. The projector that projects onto the focal plane parallel to the ground surface can be fixedly arranged so that the focal plane parallel to the ground surface is stationary.

図1を参照して、正しく再現された奥行き手がかりで、立体的視野相似拡張現実グラフィック要素(例えば、実環境と同じ空間にレンダリングされた、3次元又は「3−D」グラフィック要素)をレンダリングすることができる乗り物用の立体ヘッド・アップ・ディスプレイ・システム100(「HUDシステム100」又は「HUDコンポーネント100」)について説明する。HUDシステム100は、乗り物用ヘッド・アップ・ディスプレイ・デバイス102(「HUDデバイス102」)と制御部104又は(又は「制御コンポーネント104」)とを含む。図2を参照すると、HUDシステム100は乗り物106に設けることができ、運転席108、ダッシュボード筐体110及び、フロント・ガラス112を有する。   Referring to FIG. 1, render a stereoscopic field-similar augmented reality graphic element (eg, a three-dimensional or “3-D” graphic element rendered in the same space as the real environment) with correctly reproduced depth cues. A three-dimensional head-up display system 100 ("HUD system 100" or "HUD component 100") for a vehicle is described. The HUD system 100 includes a vehicle head-up display device 102 (“HUD device 102”) and a controller 104 or (or “control component 104”). Referring to FIG. 2, the HUD system 100 can be provided on a vehicle 106 and includes a driver's seat 108, a dashboard housing 110, and a windshield 112.

乗り物106の構成は、例えば、運転席108、ダッシュボード筐体110及びフロント・ガラス112の相対位置に関しては、従来のものでよい。本明細書に記載のHUDシステム100を収容するために、ダッシュボード筐体110によって、HUDシステム100が収容される収容空間が画定される。さらに、ダッシュボード筐体110は、ダッシュボード筐体110の上面によって確定されるHUDの出射孔114を有する。ダッシュボード筐体110内に収容されるHUDシステム100は、視野相似拡張現実グラフィック要素などのグラフィック要素を、HUD出射孔114を介してフロント・ガラス112に投影する。フロント・ガラス112は、HUDシステム100用の表示画面として使用することができる。以下でさらに詳細に説明するように、拡張現実グラフィック要素は、実環境と同じ空間にあるかのように運転者に対してレンダリングすることができる。   The configuration of the vehicle 106 may be conventional with respect to the relative positions of the driver's seat 108, the dashboard housing 110, and the windshield 112, for example. In order to accommodate the HUD system 100 described herein, a dashboard housing 110 defines an accommodation space in which the HUD system 100 is accommodated. Further, the dashboard housing 110 has a HUD exit hole 114 defined by the upper surface of the dashboard housing 110. The HUD system 100 housed in the dashboard housing 110 projects a graphic element such as a visual field similarity augmented reality graphic element onto the windshield 112 through the HUD exit hole 114. The windshield 112 can be used as a display screen for the HUD system 100. As described in more detail below, augmented reality graphic elements can be rendered to the driver as if they were in the same space as the real environment.

乗り物106の運転者は運転席108に着座したまま乗り物106を運転する。したがって、運転者は、乗り物106内の運転席108の着座位置に位置的制約を受ける。この位置的制約を考慮して、HUDシステム100は、運転者の視野が、乗り物内のアイ・ボックス116から出ているという仮定を用いて設計することができる。アイ・ボックス116は、運転者が運転席108に着座している間、運転者の眼が置かれる乗り物106の内部の領域を含むと考えることができる。   The driver of the vehicle 106 drives the vehicle 106 while sitting on the driver's seat 108. Therefore, the driver is subjected to positional restrictions on the seating position of the driver's seat 108 in the vehicle 106. In view of this positional constraint, the HUD system 100 can be designed with the assumption that the driver's field of view is out of the eye box 116 in the vehicle. The eye box 116 can be considered to include the area inside the vehicle 106 where the driver's eyes are placed while the driver is seated in the driver's seat 108.

アイ・ボックス116は、運転席108の位置及び形勢に関係なく、運転者のあらゆる可能な頭の位置を包含するように大きさを決めることができる。又は、HUDシステム100は、運転席108の位置及び形勢を検出して、これに基づきアイ・ボックス116の位置とサイズを調整するように構成することができる。1つ又は複数の実施形態では、HUDシステム100は、アイ・ボックス116が固定したサイズを有し、固定位置にあると仮定して設計することができる。たとえば、該アイ・ボックスは、20 cm x 10 cm×10 cmのサイズを持つことができる。いずれにしても、HUDシステム100は、運転者の目がアイ・ボックス116内にあり、運転者が乗り物106のフロント・ガラス112を介して前方に向いている/見ているときに、運転者に視野相似拡張現実グラフィック要素を表示するように構成することができる。図2のアイ・ボックス116は、乗り物106の運転者用に図示されているが、アイ・ボックス116は、乗り物の他の乗員を1人又は複数含むように設定してもよい。1つ又は複数の実施形態において、1つ又は複数の追加のアイ・ボックス又はHUDデバイスは、例えば、乗客や他の乗員用に具備され得る。   The eye box 116 can be sized to encompass any possible head position of the driver, regardless of the position and attitude of the driver's seat 108. Alternatively, the HUD system 100 can be configured to detect the position and attitude of the driver's seat 108 and adjust the position and size of the eye box 116 based thereon. In one or more embodiments, the HUD system 100 can be designed assuming that the eye box 116 has a fixed size and is in a fixed position. For example, the eye box can have a size of 20 cm x 10 cm x 10 cm. In any case, the HUD system 100 allows the driver's eyes to be in the eye box 116 when the driver is looking forward / looking through the windshield 112 of the vehicle 106. Can be configured to display field-similar augmented reality graphic elements. Although the eye box 116 of FIG. 2 is illustrated for a driver of the vehicle 106, the eye box 116 may be configured to include one or more other occupants of the vehicle. In one or more embodiments, one or more additional eye boxes or HUD devices may be provided, for example, for passengers or other passengers.

HUDデバイス102は、運転者が乗り物106のフロント・ガラス112を通して環境を見ている間、乗り物106の運転者の視野に1つ又は複数のグラフィック要素を表示する。運転者の目がアイ・ボックス116内にあり、運転者がフロント・ガラス112を介して前方を向いている/見ている間、運転者がフロント・ガラス112を介して見ている任意のグラフィック要素や環境要素は、運転者の視野内にあると考えることができる。本明細書で使用される場合、乗り物106の運転者の視野は、運転者が乗り物106のフロント・ガラス112を通して環境を見ている間、乗り物106内にあるダッシュボード・ディスプレイを除いて、フロント・ガラス112を通して見える領域を含むように意図されている。言い換えれば、HUDデバイス102は、運転者が道路から目を逸らせて見なくてもグラフィック要素を見ることができるようにグラフィック要素を提示する。   The HUD device 102 displays one or more graphic elements in the driver's view of the vehicle 106 while the driver is viewing the environment through the windshield 112 of the vehicle 106. Any graphic that the driver is looking through the windshield 112 while the driver's eyes are in the eye box 116 and the driver is looking forward / looking through the windshield 112 Elements and environmental elements can be considered within the driver's view. As used herein, the driver's view of the vehicle 106 is the front, except for the dashboard display that is in the vehicle 106, while the driver is viewing the environment through the windshield 112 of the vehicle 106. It is intended to include the area visible through the glass 112. In other words, the HUD device 102 presents graphic elements so that the driver can see the graphic elements without looking away from the road.

図1に戻って、HUDシステム100のHUDデバイス102には、第1のプロジェクタ118、第2のプロジェクタ120、第3のプロジェクタ122及び第4のプロジェクタ124が含まれる。第1のプロジェクタ118及び第3のプロジェクタ122は、第1のビーム・スプリッタ126と第1の対物レンズ128とを共有し、第2のプロジェクタ120及び第4のプロジェクタ124は第2のビーム・スプリッタ130及び第2の対物レンズ132とを共有する。この結果、第1のプロジェクタ118と第3のプロジェクタ122の出力は、第1のビーム・スプリッタ126で受信され、かつ、第1の対物レンズ128に向けられ、かつ第1の対物レンズ128を通って、単一の出力に統合される。同様に、第2のプロジェクタ120及び第4のプロジェクタ124の出力は、第2のビーム・スプリッタ130で受信され、かつ、第2の対物レンズ132に向けられ、かつ、第2の対物レンズ132を通って単一の出力に統合される。   Returning to FIG. 1, the HUD device 102 of the HUD system 100 includes a first projector 118, a second projector 120, a third projector 122, and a fourth projector 124. The first projector 118 and the third projector 122 share the first beam splitter 126 and the first objective lens 128, and the second projector 120 and the fourth projector 124 are the second beam splitter. 130 and the second objective lens 132 are shared. As a result, the outputs of the first projector 118 and the third projector 122 are received by the first beam splitter 126 and directed to the first objective lens 128 and pass through the first objective lens 128. Integrated into a single output. Similarly, the outputs of the second projector 120 and the fourth projector 124 are received by the second beam splitter 130, directed to the second objective lens 132, and passed through the second objective lens 132. Integrated into a single output through.

HUDデバイス102は、さらに、第1及び第2の対物レンズ128、132からの出力を受信するように構成されて、第1及び第2の対物レンズ128、132の下流に配置された第3のビーム・スプリッタ134を有する。第1及び第2の対物レンズ128、132からの出力は、第3のビーム・スプリッタ134で単一出力に統合され、該単一出力は第1、第2、第3及び第4のプロジェクタ118、120、122、124の全ての出力の組み合わせにすることができ、第3の対物レンズ136と接眼レンズ138の方へ向けられ、かつ通って、次に、HUD出射孔114から出てフロント・ガラス112に向けられる。フロント・ガラス112は、HUDシステム100用の表示画面として使用することができる。   The HUD device 102 is further configured to receive output from the first and second objective lenses 128, 132 and is arranged downstream of the first and second objective lenses 128, 132. It has a beam splitter 134. Outputs from the first and second objective lenses 128, 132 are combined into a single output by a third beam splitter 134, which outputs the first, second, third, and fourth projectors 118. , 120, 122, 124 can be a combination of all outputs, directed toward and through the third objective lens 136 and eyepiece 138 and then out of the HUD exit aperture 114 Directed to the glass 112. The windshield 112 can be used as a display screen for the HUD system 100.

第1のプロジェクタ118、第2のプロジェクタ120、第3のプロジェクタ122及び第4のプロジェクタ124のそれぞれは、プロジェクタ・ユニット140、142、144、146及び、拡散スクリーン148、150、152、154を含む。該拡散スクリーン148、150、152、154は、プロジェクタ・ユニット140、142、144、146からの設置距離に確実に固定されて、かつ、プロジェクタ・ユニット140、142、144、146から出射された光が拡散スクリーン148、150、152、154を通過するようにプロジェクタ・ユニット140、142、144、146に対して配置される。プロジェクタ・ユニット140、142、144、146は、対応する拡散スクリーン148、150、152、154を通過する画像要素又はグラフィック要素を投影する発光ユニットにすることができる。拡散スクリーン148、150、152、154は、HUDデバイス102の光学系の他の部分に対して発光画像ソース又は(又は、オブジェクト)として働き、かつ、拡散スクリーン148、150、152、154を出た光の大部分が、拡散スクリーン148、150、152、154の後の光学系(例えば、第1のビーム・スプリッタ126、第1の対物レンズ128、第2のビーム・スプリッタ130、第2の対物レンズ132、第3のビーム・スプリッタ134、第3の対物レンズ136及び接眼レンズ138)に確実に進むようにする。同時に、拡散スクリーン148、150、152、154は、運転者の頭がアイ・ボックス116内で動いていても、画像要素やグラフィック要素の明るさが一定のままであるように、最終的には光がアイ・ボックス116を満たすように光を拡散する。このようにして、拡散スクリーン148、150、152、154を用いることで、画像要素やグラフィック要素(複数可)の異なる部分がアイ・ボックス116内の異なる点から見えることを実質的に防ぎ、これによって、わずかな頭の動きに伴って異なる視覚動作が発生することを防止する。   Each of the first projector 118, the second projector 120, the third projector 122, and the fourth projector 124 includes projector units 140, 142, 144, and 146 and diffusion screens 148, 150, 152, and 154. . The diffusion screens 148, 150, 152, and 154 are securely fixed at installation distances from the projector units 140, 142, 144, and 146, and are emitted from the projector units 140, 142, 144, and 146. Are arranged with respect to the projector units 140, 142, 144, 146 so as to pass through the diffusion screens 148, 150, 152, 154. The projector units 140, 142, 144, 146 can be light emitting units that project image or graphic elements that pass through corresponding diffusion screens 148, 150, 152, 154. Diffusion screens 148, 150, 152, 154 act as luminescent image sources or (or objects) to other parts of the optical system of HUD device 102 and exit diffusion screens 148, 150, 152, 154 Most of the light is optically behind the diffusing screens 148, 150, 152, 154 (eg, first beam splitter 126, first objective lens 128, second beam splitter 130, second objective). Lens 132, third beam splitter 134, third objective lens 136 and eyepiece 138). At the same time, the diffusing screens 148, 150, 152, and 154 will ultimately allow the brightness of the image and graphic elements to remain constant even when the driver's head is moving within the eye box 116. Diffuse the light so that it fills the eye box 116. In this way, the use of the diffusing screens 148, 150, 152, 154 substantially prevents different portions of the image element and / or graphic element (s) from being seen from different points in the eye box 116. Prevents different visual movements from occurring with slight head movements.

プロジェクタ・ユニット140、142、144、146は、本明細書記載の用途に適した、任意の発光ユニットの形をとることができる。プロジェクタ・ユニット140、142、144、146は、本明細書記載の用途に従って画像要素やグラフィック要素の投影が可能な任意の光発光ユニットの形をとることができる。同様に、拡散スクリーン148、150、152、154は、本明細書記載の用途に適した任意の光拡散スクリーンの形をとることができる。   Projector units 140, 142, 144, and 146 may take the form of any light emitting unit suitable for the applications described herein. Projector units 140, 142, 144, 146 may take the form of any light emitting unit capable of projecting image elements and graphic elements in accordance with the applications described herein. Similarly, the diffusing screens 148, 150, 152, 154 can take the form of any light diffusing screen suitable for the applications described herein.

第1のプロジェクタ118は、HUDデバイス102の第1のアクチュエータ156に取り付けることができる。第1のアクチュエータ156は、第1のプロジェクタ118を、第1のビーム・スプリッタ126に向かう又は、第1のビーム・スプリッタ126から離間する、直線的な方向に移動させることが可能なリニア・アクチュエータであり得る。さらに、第3のプロジェクタ122は、HUDデバイス102の第2のアクチュエータ158に取り付けることができる。第2のアクチュエータは、第3のプロジェクタ122を、直線方向に、第1のビーム・スプリッタ126に向かう又は第1のビーム・スプリッタ126から離間する方向に移動させることが可能なリニア・アクチュエータであり得る。第1及び第2のアクチュエータ156、158は、本明細書記載の用途に適した任意のリニア・アクチュエータの形をとることができる。第1のプロジェクタ118及び第3のプロジェクタ122の直線的な移動能力によって、第1のプロジェクタ118及び第3のプロジェクタ122が動的焦点面又は可動焦点面上にグラフィック要素を投影することが可能になる。第1及び第3のプロジェクタ118、122とは対照的に、第2及び第4のプロジェクタ120、124はHUDデバイス102内に固定配置され、したがって、静止焦点面上にグラフィック要素を投影することができる。   The first projector 118 can be attached to the first actuator 156 of the HUD device 102. The first actuator 156 is a linear actuator capable of moving the first projector 118 in a linear direction toward or away from the first beam splitter 126. It can be. Further, the third projector 122 can be attached to the second actuator 158 of the HUD device 102. The second actuator is a linear actuator that can move the third projector 122 in a linear direction toward the first beam splitter 126 or away from the first beam splitter 126. obtain. The first and second actuators 156, 158 can take the form of any linear actuator suitable for the applications described herein. The linear movement capabilities of the first projector 118 and the third projector 122 allow the first projector 118 and the third projector 122 to project graphic elements on a dynamic focal plane or a movable focal plane. Become. In contrast to the first and third projectors 118, 122, the second and fourth projectors 120, 124 are fixedly disposed within the HUD device 102, and are thus capable of projecting graphic elements onto the stationary focal plane. it can.

第1、第2、第3及び第4のプロジェクタ118、120、122、124を用いて、HUDデバイス102は、グラフィック要素(視野相似拡張現実グラフィック要素又はそれ以外のグラフィック要素)を、フロント・ガラス112を介して運転者が見る環境内の4つの異なる焦点面にレンダリングすることができる。この点に関して、第1のプロジェクタ118は第1のグラフィック要素160を第1の焦点面162に投影するように構成することができ、第2のプロジェクタ120は第2のグラフィック要素164を第2の焦点面166に投影するように構成することができ、第3のプロジェクタ122は第3のグラフィック要素168を第3の焦点面170に投影するように構成することができ、第4のプロジェクタ124は第4のグラフィック要素172を第4の焦点面174に投影するように構成することができる(図3及び図4を参照して後述する)。第1、第2、第3及び第4のグラフィック要素160、164、168、172及び対応する第1、第2、第3及び第4の焦点面162、166、170、174のすべてを、運転者がフロント・ガラス112を介して前方をみながら乗り物106を運転し、かつ、運転者の目がアイ・ボックス116内にあるとき、運転者の視野内の環境にレンダリングすることができる。   Using the first, second, third and fourth projectors 118, 120, 122, 124, the HUD device 102 can display graphic elements (field-similar augmented reality graphic elements or other graphic elements) as windshields. Rendered to four different focal planes in the environment viewed by the driver via 112. In this regard, the first projector 118 can be configured to project the first graphic element 160 onto the first focal plane 162, and the second projector 120 can cause the second graphic element 164 to be projected to the second focal plane 162. The third projector 122 can be configured to project onto the focal plane 166, the third projector 122 can be configured to project the third graphic element 168 onto the third focal plane 170, and the fourth projector 124 can The fourth graphic element 172 can be configured to project onto the fourth focal plane 174 (described below with reference to FIGS. 3 and 4). Driving all of the first, second, third and fourth graphic elements 160, 164, 168, 172 and the corresponding first, second, third and fourth focal planes 162, 166, 170, 174 When a person drives the vehicle 106 looking forward through the windshield 112 and the driver's eyes are in the eye box 116, it can be rendered into an environment within the driver's field of view.

図3及び図4を参照して、第1、第2、第3及び第4のグラフィック要素160、164、168、172の第1、第2、第3及び第4の焦点面162、166、170、174への投影に関して、地表面176と運転者の視線178とを参照しながら説明する。ここで、地表面176は、乗り物106の前方の道路の表面である。説明を簡略にするため、地表面176は、ほぼ平坦な面であると仮定する。運転者の視線178は、アイ・ボックス116から前方に、地表面176に対して略平行に延びる線である。本明細書で使用するとき、視線178の方向は、視線178に沿って運転者と乗り物106に向かう又は運転者と乗り物106から離間して延びる方向である。   3 and 4, the first, second, third and fourth focal planes 162, 166 of the first, second, third and fourth graphic elements 160, 164, 168, 172, 170 and 174 will be described with reference to the ground surface 176 and the driver's line of sight 178. Here, the ground surface 176 is the surface of the road ahead of the vehicle 106. For simplicity of explanation, it is assumed that the ground surface 176 is a substantially flat surface. The driver's line of sight 178 is a line extending forwardly from the eye box 116 and substantially parallel to the ground surface 176. As used herein, the direction of the line of sight 178 is a direction that extends along the line of sight 178 toward the driver and the vehicle 106 or away from the driver and the vehicle 106.

第1の焦点面162は、運転者の視線178に対して略垂直に配向することができる前方焦点面である。第3の焦点面170もまた、運転者の視線178に対して略垂直に配向可能な前方焦点面である。第1及び第3の焦点面162、170は、視線178の方向で、前向き(乗り物106から離間する方向)及び後ろ向き(乗り物106に向かう方向)の両方に移動可能な動的焦点面とすることができる。第2焦点面166は、地表面176に略平行に配向可能な、地表に平行な焦点面であり、かつ、地表面176上に配置して第2焦点面166が地表焦点面になるようにすることができる。第4の焦点面174もまた、地表面176に略平行に配向可能な、地表に平行な焦点面であり、かつ、地表面176の上方に配置することができる。第4の焦点面174は、地表面176及び運転者の視線178の上方に配置して、空や天井の焦点面にすることができる。その結果、第2、第4の焦点面166、174は静止焦点面にすることができる。   The first focal plane 162 is a front focal plane that can be oriented substantially perpendicular to the driver's line of sight 178. The third focal plane 170 is also a front focal plane that can be oriented substantially perpendicular to the driver's line of sight 178. The first and third focal planes 162 and 170 are dynamic focal planes that can move both in the forward direction (a direction away from the vehicle 106) and backward (in the direction toward the vehicle 106) in the direction of the line of sight 178. Can do. The second focal plane 166 is a focal plane parallel to the ground that can be oriented substantially parallel to the ground surface 176, and is disposed on the ground surface 176 so that the second focal plane 166 becomes the ground focal plane. can do. The fourth focal plane 174 is also a focal plane parallel to the ground surface that can be oriented substantially parallel to the ground surface 176 and can be disposed above the ground surface 176. The fourth focal plane 174 can be placed above the ground surface 176 and the driver's line of sight 178 to provide a sky or ceiling focal plane. As a result, the second and fourth focal planes 166 and 174 can be stationary focal planes.

図4を参照すると、第1、第2、第3及び第4のグラフィック要素160、164、168、172は、異なる情報を運転者に提示するために使用することができる。第1、第2、第3及び第4のグラフィック要素160、164、168、172によって表示される情報の細かな種類は、変更することができる。例えば、第1のグラフィック要素160及び第3のグラフィック要素168は、危険状況や障害物を迂回するように指示する警告を運転者に提示することができる。また、道路交通法規(例えば、停止標識、譲れ(YIELD)標識、等)に対応するナビゲーション命令や運転の命令を表示することができる。第2のグラフィック要素164及び第4のグラフィック要素172は、地表面176上に提示されるグラフィカルな重ね書きとして運転者に対してナビゲーション命令を提示することができ、また、運転者に乗り物周辺標識を提示することができる。第1、第2、第3及び第4のグラフィック要素160、164、168、172は、本明細書に記載したものとは異なる情報又はグラフィック要素を運転者に提示してもよく、かつ、第1、第2、第3及び第4のグラフィック要素160、164、168、172の部分的な組を提示してもよい。   Referring to FIG. 4, the first, second, third and fourth graphic elements 160, 164, 168, 172 can be used to present different information to the driver. The fine types of information displayed by the first, second, third and fourth graphic elements 160, 164, 168, 172 can be changed. For example, the first graphic element 160 and the third graphic element 168 can present a warning to the driver instructing to bypass a dangerous situation or an obstacle. In addition, navigation commands and driving commands corresponding to road traffic regulations (eg, stop signs, YIELD signs, etc.) can be displayed. The second graphic element 164 and the fourth graphic element 172 can present navigation instructions to the driver as a graphical overlay that is presented on the ground surface 176 and also provides the driver with a vehicle perimeter sign. Can be presented. The first, second, third and fourth graphic elements 160, 164, 168, 172 may present different information or graphic elements to the driver than those described herein, and A partial set of the first, second, third and fourth graphic elements 160, 164, 168, 172 may be presented.

図1に戻って、制御部104には、1つ又は複数の乗り物制御システム180と通信してHUDデバイス102を制御することができる、1つ又は複数のコンピュータ、(例えば、算術計算用の)プロセッサ又は、他の任意のデバイスを含むことができる。1つ又は複数の乗り物制御システム180(本明細書中では「乗り物制御システム180」又は「乗り物制御コンポーネント180」)は、任意の乗り物制御システム180の形態(複数可)をとって、乗り物106の制御を主導的又は受動的に円滑化するために用いることができる。乗り物制御システム180は、乗り物106の操作に関係する運転条件及び環境条件を検知する1つ又は複数のセンサ(図示せず)を含むか又は該センサと通信することができる。   Returning to FIG. 1, the controller 104 may include one or more computers (eg, for arithmetic calculations) that can communicate with one or more vehicle control systems 180 to control the HUD device 102. A processor or any other device may be included. One or more vehicle control systems 180 (herein “vehicle control system 180” or “vehicle control component 180”) take the form of any vehicle control system 180 (s) and It can be used to facilitate control either passively or passively. The vehicle control system 180 may include or communicate with one or more sensors (not shown) that sense driving and environmental conditions related to the operation of the vehicle 106.

HUDシステム100の動作を概略的にみると、制御部104は、乗り物制御システム180と通信し、乗り物制御システム180との通信に基づいて、乗り物106の運転者に提示するグラフィック要素の種類及び位置を決定する。制御部104 は、第1、第2、第3及び第4のプロジェクタ118、120、122、124によって第1、第2、第3及び第4のグラフィック要素160、164、168、172として提示されるべきグラフィック要素の種類を決定し、かつ、第1、第2、第3及び第4のプロジェクタ118、120、122、124を制御して、第1、第2、第3及び第4のグラフィック要素160、164、168、172を決定されたグラフィック要素として投影させる。制御部104は、第1のグラフィック要素の目標位置と第3のグラフィック要素の目標位置を、第1及び第3のグラフィック要素160、168が前記環境内で運転者に対してレンダリングされるべき目標位置として決定することができる。制御部104は、次に、第1及び第2のアクチュエータ156、158を制御して、第1及び第3のプロジェクタ118、122を直線的に移動させ、第1及び第3の焦点面162、170を、それぞれ第1及び第3のグラフィック要素の目標位置に移動させることができる。   Looking briefly at the operation of the HUD system 100, the control unit 104 communicates with the vehicle control system 180, and based on the communication with the vehicle control system 180, the types and positions of graphic elements presented to the driver of the vehicle 106. To decide. The control unit 104 is presented as first, second, third and fourth graphic elements 160, 164, 168, 172 by the first, second, third and fourth projectors 118, 120, 122, 124. The type of graphic element to be determined and the first, second, third and fourth projectors 118, 120, 122, 124 are controlled to provide the first, second, third and fourth graphics. Elements 160, 164, 168, 172 are projected as determined graphic elements. The control unit 104 determines the target position of the first graphic element and the target position of the third graphic element, and the target that the first and third graphic elements 160 and 168 are to be rendered to the driver within the environment. It can be determined as a position. Next, the control unit 104 controls the first and second actuators 156 and 158 to linearly move the first and third projectors 118 and 122, and the first and third focal planes 162, 170 can be moved to the target positions of the first and third graphic elements, respectively.

このようにして、第1のプロジェクタ118は、第1のグラフィック要素160を第1の焦点面162上に投影する。第1の焦点面162は、運転者の視線に対して略垂直に配向させることができ、第1のアクチュエータ156による第1のプロジェクタ118の直線運動を通して運転者の視線178の方向を、乗り物106へ向かう方へ又は乗り物106から離れる方へ、移動することができる。第2のプロジェクタ120は、第2のグラフィック要素164を第2の焦点面166へ投影する。第2の焦点面166は、静止させ、地表面176に平行に配向させ、かつ、地表面176の上に配置することができる。第3のプロジェクタ122は、第3のグラフィック要素168を第3の焦点面170上投影する。第3の焦点面170は運転者の視線に対して略垂直に配向され、第2のアクチュエータ158による第3のプロジェクタ122の直線運動を通して、運転者の視線178の方向を乗り物106へ向かう方へ又は乗り物106から離れる方へ移動可能又は調整可能である。第4のプロジェクタ124は、第4のグラフィック要素172を第4の焦点面174上に投影することができる。第4の焦点面174は、静止しており、地表面176に平行に配向され、運転者の視線178の上方に配置することができる。制御部104は、第1及び第2のアクチュエータ156、158を制御して、第1及び第3のプロジェクタ118、122を移動させ、第1及び第3の焦点面162、170を移動させる。   In this way, the first projector 118 projects the first graphic element 160 onto the first focal plane 162. The first focal plane 162 can be oriented substantially perpendicular to the driver's line of sight and directs the driver's line of sight 178 through linear motion of the first projector 118 by the first actuator 156. It is possible to move toward or away from the vehicle 106. The second projector 120 projects the second graphic element 164 onto the second focal plane 166. The second focal plane 166 can be stationary, oriented parallel to the ground surface 176, and disposed on the ground surface 176. The third projector 122 projects the third graphic element 168 on the third focal plane 170. Third focal plane 170 is oriented substantially perpendicular to the driver's line of sight, and through the linear motion of third projector 122 by second actuator 158, the direction of driver's line of sight 178 is directed toward vehicle 106. Alternatively, it can be moved or adjusted away from the vehicle 106. The fourth projector 124 can project the fourth graphic element 172 onto the fourth focal plane 174. The fourth focal plane 174 is stationary, oriented parallel to the ground surface 176, and can be positioned above the driver's line of sight 178. The control unit 104 controls the first and second actuators 156 and 158 to move the first and third projectors 118 and 122 and move the first and third focal planes 162 and 170.

第1及び第3のプロジェクタ118、122に、第1及び第3のグラフィック要素160、168を、運転者の視線178に略垂直に配向された第1及び第3の焦点面162、170上に投影させることによって、乗り物106から異なる距離にあるオブジェクトの焦点を調整することができる。これによって、運転者に対する、第1及び第3のグラフィック要素160、168の正確な奥行き手がかりの提供が容易になり、特に、HUDシステム100を乗り物用アプリケーションとすることができるので、移動プラットフォームとして働く乗り物106に具備することができる。   First and third projectors 118, 122 have first and third graphic elements 160, 168 on first and third focal planes 162, 170 oriented substantially perpendicular to the driver's line of sight 178. By projecting, the focus of an object at a different distance from the vehicle 106 can be adjusted. This facilitates the provision of accurate depth cues to the driver for the first and third graphic elements 160, 168, and in particular the HUD system 100 can be a vehicle application, thus serving as a mobile platform. The vehicle 106 can be provided.

第2及び第4のプロジェクタ120、124は、第2及び第4のグラフィック要素164、172を第2及び第4の静的焦点面166、174上に投影すると同時に、第2及び第4の焦点面166、174を、切れ目なく連続させることができる。第2及び第4の焦点面166、174を地面176に平行にするために、第2及び第4のプロジェクタ120、124の拡散スクリーン150、154は傾斜させることができる。HUDデバイス102の光学系は、歪みが非常に小さく、地面に平行な焦点面にある画像に対してほぼテレセントリックであるので、光線が光軸と平行に近い。このことによって、第2及び第4の焦点面166、174が傾いている間、投射された第2及び第4のグラフィック要素164、172を歪みなく又は倍率を変えずに投影又はレンダリングすることが可能になる。したがって、この結果生じる第2及び第4のグラフィック要素164、172は、地表面176に平行で連続した焦点面(第2及び第4の焦点面166、174)上に表示される。この点で、第2及び第4のグラフィック要素164、172は、線分の代わりに実際の3次元(3−D)の立体形状でレンダリングして、奥行き知覚を強めるために単眼手がかりを追加することもできる。   The second and fourth projectors 120, 124 project the second and fourth graphic elements 164, 172 onto the second and fourth static focal planes 166, 174 at the same time as the second and fourth focal points. The surfaces 166, 174 can be continuous without breaks. In order to make the second and fourth focal planes 166, 174 parallel to the ground 176, the diffusing screens 150, 154 of the second and fourth projectors 120, 124 can be tilted. The optical system of the HUD device 102 has very little distortion and is almost telecentric with respect to an image in a focal plane parallel to the ground, so that the light beam is nearly parallel to the optical axis. This allows the projected second and fourth graphic elements 164, 172 to be projected or rendered without distortion or without changing magnification while the second and fourth focal planes 166, 174 are tilted. It becomes possible. Accordingly, the resulting second and fourth graphic elements 164, 172 are displayed on a continuous focal plane (second and fourth focal planes 166, 174) parallel to the ground surface 176. In this regard, the second and fourth graphic elements 164, 172 render with actual three-dimensional (3-D) solid shapes instead of line segments and add monocular cues to enhance depth perception. You can also.

連続し、静止した第2及び第4の焦点面166、174によって、第2及び第4のグラフィック要素164、172 に対する運転者の奥行き知覚が容易になる。連続し、静止した第2及び第4の焦点面166、174によって、3−D空間における前後方向(例えば、運転者の視線178の方向)全体に渡って実際の像又はグラフィック要素の正しい生成が可能になり、適切な運動視差手がかりの生成が可能になる。したがって、運転者の頭が、横から横へ又は上下に移動しても、運転者には、第2及び第4のグラフィック要素164、172が動き回ることなく、むしろ、環境内での位置が固定されているように見える。したがって、HUDシステム100は、運転者の頭部の動きを補償するための、頭部追跡機能を必要としない。   The continuous and stationary second and fourth focal planes 166, 174 facilitate the driver's perception of depth relative to the second and fourth graphic elements 164, 172. The continuous and stationary second and fourth focal planes 166, 174 provide the correct generation of actual images or graphic elements across the entire anteroposterior direction in 3-D space (eg, in the direction of the driver's line of sight 178). This makes it possible to generate appropriate motion parallax cues. Thus, even if the driver's head moves from side to side or up and down, the driver does not move the second and fourth graphic elements 164, 172 around, but rather has a fixed position in the environment. Looks like it has been. Thus, the HUD system 100 does not require a head tracking function to compensate for the driver's head movement.

前記の、運転者に提示可能な例示的な情報に関して、乗り物制御システム180は、危険状況や障害物の検出、ナビゲーション、ナビゲーション命令、乗り物周辺(例えば、死角)モニタ等の機能を実行可能な処理及びセンサを有することができる。乗り物制御システム180は、他の乗り物制御機能(例えば、高速道路合流支援等)を実行可能な処理及びセンサを含むことができる。該他の乗り物制御機能は、HUDシステム100を用いて運転者に提示される情報に代替的又は追加的に結合することができる。乗り物制御システム180によって実行される機能に関係なく、前記機能を実行するための乗り物制御システム180の細かな動作形態は、関連するセンサ及び処理を含めて、HUDシステム100の動作と関連付けられなくてよい。   With respect to the exemplary information that can be presented to the driver, the vehicle control system 180 can perform functions such as detection of dangerous situations and obstacles, navigation, navigation commands, vehicle periphery (for example, blind spot) monitoring, and the like. And a sensor. The vehicle control system 180 can include processes and sensors that can perform other vehicle control functions (eg, highway merge assistance, etc.). The other vehicle control functions can alternatively or additionally be coupled to information presented to the driver using the HUD system 100. Regardless of the function performed by the vehicle control system 180, the detailed operational configuration of the vehicle control system 180 to perform the function, including the associated sensors and processes, is not associated with the operation of the HUD system 100. Good.

制御部104は、乗り物制御システム180と通信し、乗り物制御システム180から、乗り物106の動作に関連する、上記又は(又は、他の)機能に対応する入力を受信する。制御部104は、次に、HUDデバイス102を、乗り物制御システム180から受信した入力に基づいて制御する。ここで、制御部104と乗り物制御システム180の一方又は両方が、第1、第2、第3及び第4のグラフィック要素160、164、168、172として表示されるグラフィック要素の種類、第1、第2、第3及び第4のグラフィック要素160、164、168、172の位置及び、第1、第2、第3及び第4のグラフィック要素160、164、168、172のどれを表示するかを決定する。上記の決定は、運転者がナビゲーション機能を用いているかどうかなど、運転者によって用いられる1つ又は複数の乗り物機能に基づくこともできる。   The controller 104 communicates with the vehicle control system 180 and receives input from the vehicle control system 180 corresponding to the above or (or other) functions related to the operation of the vehicle 106. Next, the control unit 104 controls the HUD device 102 based on the input received from the vehicle control system 180. Here, one or both of the control unit 104 and the vehicle control system 180 may display the types of graphic elements displayed as the first, second, third, and fourth graphic elements 160, 164, 168, 172, The position of the second, third and fourth graphic elements 160, 164, 168, 172 and which of the first, second, third and fourth graphic elements 160, 164, 168, 172 to display. decide. The above determination can also be based on one or more vehicle functions used by the driver, such as whether the driver is using a navigation function.

制御部104又は乗り物制御システム180のどちらを使用して前記決定を行うかに関わらず、制御部104は、HUDデバイス102を制御して適切なグラフィック要素を適切な位置に表示させる。このような制御には、第1、第2、第3及び第4のプロジェクタ118、120、122、124を制御して、第1、第2、第3及び第4のグラフィック要素160、164、168、172を適切に投影する処理を含んでもよい。該制御には、第1及び第2のアクチュエータ156、158を制御して、第1及び第3のプロジェクタ118、122を直線的に移動させ、第1及び第3の焦点面162、170を適切な位置(例えば、目標位置)に移動させるようにする処理を含んでもよい。例えば、156、158のような1つ又は複数のアクチュエータが、162、170のような、1つ又は複数の焦点面を移動させるように構成することができる。第3の焦点面170に関しては、例えば、第3の焦点面170と乗り物106のフロント・ガラス(例えば、302)の間の距離は、距離170’の調整によって調整することができる。同様に、距離162’ を調整して、焦点面162の目標位置を変えることができる。   Regardless of whether the determination is made using the controller 104 or the vehicle control system 180, the controller 104 controls the HUD device 102 to display the appropriate graphic element at the appropriate location. Such control includes controlling the first, second, third, and fourth projectors 118, 120, 122, 124 to provide first, second, third, and fourth graphic elements 160, 164, 168 and 172 may be appropriately projected. For this control, the first and second actuators 156 and 158 are controlled to move the first and third projectors 118 and 122 linearly, and the first and third focal planes 162 and 170 are appropriately adjusted. A process of moving to a different position (for example, a target position) may be included. For example, one or more actuators, such as 156, 158, can be configured to move one or more focal planes, such as 162,170. With respect to the third focal plane 170, for example, the distance between the third focal plane 170 and the windshield (eg, 302) of the vehicle 106 can be adjusted by adjusting the distance 170 '. Similarly, the distance 162 'can be adjusted to change the target position of the focal plane 162.

第1、第2、第3及び第4のグラフィック要素160、164、168、172に関連する、前記の例示的な情報を参照して、HUDシステム100の動作が、乗り物制御システム180を有する乗り物106に言及しながら説明する。該乗り物制御システム180では、以下の機能、危険状況や障害物の検出と警告機能、ナビゲーション機能、ナビゲーション命令機能及び、乗り物周辺(例えば、死角)モニタ機能等が可能になる。再度述べるが、乗り物106は、上記機能の一部又は追加機能を有することができ、HUDシステム100を上記機能の一部又は追加的な機能に関連して用いてもよい。上記機能に関するHUDシステム100の説明は単なる例示であり、HUDシステム100の説明を容易にするために用いている。制御部104と乗り物制御システム180のうちの1つ又は両方が、HUDシステム100の動作に関連する決定を行うことができるが、以下の説明では、制御部104が、乗り物制御システム180から受け取った入力に基づいて決定を行うように構成されているものとして説明する。   With reference to the exemplary information associated with the first, second, third, and fourth graphic elements 160, 164, 168, 172, the operation of the HUD system 100 includes a vehicle control system 180. Description will be made with reference to 106. The vehicle control system 180 enables the following functions, such as detection and warning functions for dangerous situations and obstacles, navigation functions, navigation command functions, and vehicle periphery (for example, blind spot) monitoring functions. Again, the vehicle 106 may have some or additional functions of the above functions, and the HUD system 100 may be used in connection with some or additional functions of the above functions. The description of the HUD system 100 regarding the above functions is merely an example, and is used to facilitate the description of the HUD system 100. One or both of the controller 104 and the vehicle control system 180 can make decisions related to the operation of the HUD system 100, but in the following description, the controller 104 received from the vehicle control system 180. The description will be made assuming that the determination is made based on the input.

障害物検知及び警告機能に関する情報は、HUDデバイス102の第1のプロジェクタ118によって投影される視野相似拡張現実グラフィック要素として、運転者に提示することができる。この点に関して、乗り物制御システム180は、乗り物106が走行している道路上のさまざまな障害物を検出することができる。例えば、障害物には、道路を横断する歩行者、他の乗り物、動物、車道上の破片、窪み、等がある。これらの障害物の検出は、乗り物106に設けられたセンサ(図示せず)によって感知された環境からの情報を処理することによってなされる。また、障害物検出は任意の方法で行うことができる。   Information regarding obstacle detection and warning functions can be presented to the driver as a visual field-similar augmented reality graphic element projected by the first projector 118 of the HUD device 102. In this regard, the vehicle control system 180 can detect various obstacles on the road on which the vehicle 106 is traveling. For example, obstacles include pedestrians crossing roads, other vehicles, animals, debris on roadways, depressions, and the like. These obstacles are detected by processing information from the environment sensed by a sensor (not shown) provided on the vehicle 106. Obstacle detection can be performed by any method.

障害物を検出すると、乗り物制御システム180は、障害物の情報を制御部104に伝達する。制御部104は、乗り物制御システム180からの障害物情報を受信すると、第1のグラフィック要素160として提示するグラフィック要素の種類及び第1のグラフィック要素の目標位置を、受信した障害物情報に基づいて決定する。フラッシュ・アイコン、その他の表示等、さまざまな種類のグラフィック要素を用いることができるが、本明細書の例では、障害物を検出したときに提示される「譲れ(YIELD)」標識に関して説明する。   When the obstacle is detected, the vehicle control system 180 transmits the obstacle information to the control unit 104. When receiving the obstacle information from the vehicle control system 180, the control unit 104 determines the type of the graphic element to be presented as the first graphic element 160 and the target position of the first graphic element based on the received obstacle information. decide. While various types of graphic elements can be used, such as flash icons, other displays, etc., the examples herein will be described with reference to a “YIELD” indicator that is presented when an obstacle is detected.

図4を説明すると、乗り物制御システム180が検出した障害物は、乗り物106が走行中の道路を横断する歩行者182である場合がある。図4の運転者の例示の視野では、乗り物106は、歩行者182が横断している道路を走行している。したがって、乗り物制御システム180は、歩行者182に関する障害物情報を制御部104に送信することができる。前記障害物情報に基づいて、制御部104は、第1のグラフィック要素160として表示するべきグラフィック要素の種類を決定することができる。この場合、例えば、該グラフィック要素は「譲れ(YIELD)」標識とすることができるが、他の図形を用いてもよい。制御部104は、第1のグラフィック要素の目標位置を、第1のグラフィック要素160が投影されレンダリングされて、運転者によって、歩行者182と同じ奥行き(例えば、焦点面)にあると知覚されるように、決定することができる。また、制御部104を、例えば、歩行者182が歩くときに、第1のグラフィック要素160が歩行者182を「追跡」又は「追尾」するように第1のグラフィック要素の目標位置を調整するように、構成することができる。   Referring to FIG. 4, the obstacle detected by the vehicle control system 180 may be a pedestrian 182 crossing a road on which the vehicle 106 is traveling. In the driver's exemplary view of FIG. 4, the vehicle 106 is traveling on the road that the pedestrian 182 is crossing. Therefore, the vehicle control system 180 can transmit obstacle information regarding the pedestrian 182 to the control unit 104. Based on the obstacle information, the control unit 104 can determine the type of graphic element to be displayed as the first graphic element 160. In this case, for example, the graphic element may be a “YIELD” indicator, but other graphics may be used. The controller 104 perceives the target position of the first graphic element as being at the same depth (eg, focal plane) as the pedestrian 182 by the driver being projected and rendered by the first graphic element 160. Can be determined. Further, the control unit 104 may adjust the target position of the first graphic element so that the first graphic element 160 “tracks” or “tracks” the pedestrian 182 when the pedestrian 182 walks, for example. It can be configured.

制御部104は、次に、第1のプロジェクタ118を制御して、「譲れ(YIELD)」標識を第1のグラフィック要素160として投影し、かつ、第1のアクチュエータ156を制御して直線的に第1のプロジェクタ118を移動させ、第1のグラフィック要素160が投影、レンダリングされて、運転者によって(例えば、運転者の目はアイ・ボックス116内にあり、運転者がフロント・ガラス112越しに前方を見ている間)歩行者182と同じ奥行きにあると知覚されるようにすることができる。第1のアクチュエータ156は、第1のグラフィック要素160を第1の焦点面162上に投影するように制御される。第1の焦点面162は、第1のグラフィック要素の目標位置に配置され、視線178に対して略垂直に配向することができる。   The controller 104 then controls the first projector 118 to project a “YIELD” sign as the first graphic element 160 and controls the first actuator 156 to linearly. The first projector 118 is moved and the first graphic element 160 is projected and rendered by the driver (eg, the driver's eyes are in the eye box 116 and the driver is over the windshield 112). It can be perceived to be at the same depth as the pedestrian 182 (while looking forward). The first actuator 156 is controlled to project the first graphic element 160 onto the first focal plane 162. The first focal plane 162 can be located at the target location of the first graphic element and can be oriented substantially perpendicular to the line of sight 178.

乗り物106と歩行者182が道路を通行するとき、両者間の相対的距離が変化する。この距離の変化は、乗り物制御システム180によって制御部104に伝達することができ、これに応じて第1のグラフィック要素の目標位置を変えることができ、かつ、第1のアクチュエータ156を制御部104によって制御して第1の焦点面162を移動させて、(例えば、変化した/変化している)目標位置にとどまるようにすることができる。このようにして、第1のグラフィック要素160を運転者の視線178の方向に沿って移動可能な第1の焦点面162上に投影し、第1のグラフィック要素160に対応する奥行き手がかりを正しく再生して、運転者が正確に第1のグラフィック要素160(例えば、検出された障害物)の位置を判定できるようにすることができる。   When the vehicle 106 and the pedestrian 182 pass on the road, the relative distance between them changes. This change in distance can be transmitted to the control unit 104 by the vehicle control system 180, the target position of the first graphic element can be changed accordingly, and the first actuator 156 is controlled by the control unit 104. To move the first focal plane 162 to remain at the target position (eg, changed / changed). In this way, the first graphic element 160 is projected onto the first focal plane 162 that is movable along the direction of the driver's line of sight 178, and the depth cue corresponding to the first graphic element 160 is correctly reproduced. Thus, the driver can accurately determine the position of the first graphic element 160 (eg, detected obstacle).

さらに、前記ナビゲーション機能に関する情報を、運転者に、HUDデバイス102の第2のプロジェクタ120によって投影された視野相似拡張現実グラフィック要素として提示することができる。この点に関して、乗り物制御システム180は、運転者からのナビゲーション要求(例えば、所望の場所の入力)を受信すると、所望の場所に到達するために運転者が通るべきナビゲーション経路を生成する。該ナビゲーション経路には、運転者が従うべき一連の運転指図が含まれ、該指図には、所望の場所に至る経路上の道路に至るための命令等が含まれる。ナビゲーション機能は任意の方法で実行することができる。ナビゲーション機能が起動されると、乗り物制御システム180は、ナビゲーション機能に関する運転指図を制御部104に伝達する。   Further, the information regarding the navigation function can be presented to the driver as a visual field similarity augmented reality graphic element projected by the second projector 120 of the HUD device 102. In this regard, when the vehicle control system 180 receives a navigation request (eg, input of a desired location) from the driver, the vehicle control system 180 generates a navigation path that the driver must take to reach the desired location. The navigation route includes a series of driving instructions to be followed by the driver, and the instructions include instructions for reaching a road on the route to a desired location. The navigation function can be performed in any way. When the navigation function is activated, the vehicle control system 180 transmits a driving instruction regarding the navigation function to the control unit 104.

制御部104 は、乗り物制御システム180から運転指図を受信し、第2のグラフィック要素164として提示するグラフィック要素の種類を決定する。ナビゲーション機能に関連するグラフィック要素の前記種類には、現在の道路を進み続ける(例えば、直線や矢印等)、左折又は右折して次の交差道路に入る(例えば、左/右向きの矢印又は適切な方向に曲がった線)、高速道路に入る、合流する又は高速道路から出る(例えば、適切な通路を示す線又は矢印)等を、運転者に指示するグラフィック要素を含まれる。制御部104は、乗り物制御システム180から伝達された運転指図に基づいて、第2のグラフィック要素164として提示するべき適切なグラフィック要素を選択する。   The control unit 104 receives the driving instruction from the vehicle control system 180 and determines the type of graphic element to be presented as the second graphic element 164. For the types of graphic elements associated with the navigation function, continue on the current road (eg straight line or arrow), turn left or right and enter the next crossing road (eg left / right arrow or appropriate A graphic element is included that directs the driver to turn in a direction), enter the highway, merge or exit the highway (eg, a line or arrow indicating an appropriate passage), and the like. The control unit 104 selects an appropriate graphic element to be presented as the second graphic element 164 based on the driving instruction transmitted from the vehicle control system 180.

図4の運転者の視野の例を参照すると、乗り物制御システム180のナビゲーション機能によって決定された運転経路のための運転指図には、左折して次の道路に入る指示を含んでいる。したがって、制御部104は、第2のプロジェクタ120を制御して、左折のグラフィック要素を第2のグラフィック要素164として第2の焦点面166上に生成・投影する。図4に示すように、第2焦点面166は、地表面176に平行に配向され、地表面176上に置くことができる。上述のように、第2のプロジェクタ120は、HUDデバイス102に固定的に配置して、第2の焦点面166が静止するようにできる。上述のように、第2の焦点面166は切れ目なくつなぐことができ、第2のグラフィック要素164を、運転者に対して適切な奥行き手がかりで3−D画像としてレンダリングすることができる。   Referring to the driver view example of FIG. 4, the driving instructions for the driving route determined by the navigation function of the vehicle control system 180 include an instruction to turn left and enter the next road. Therefore, the control unit 104 controls the second projector 120 to generate and project a left-turn graphic element on the second focal plane 166 as the second graphic element 164. As shown in FIG. 4, the second focal plane 166 is oriented parallel to the ground surface 176 and can be placed on the ground surface 176. As described above, the second projector 120 can be fixedly disposed on the HUD device 102 so that the second focal plane 166 is stationary. As described above, the second focal plane 166 can be continuous and the second graphic element 164 can be rendered as a 3-D image with appropriate depth cues for the driver.

同様に、ナビゲーション命令機能に関する情報は、運転者に対して、HUDデバイス102の第3のプロジェクタ122によって投影された視野相似拡張現実グラフィック要素として提示される。ここで、乗り物制御システム180は、センサ又は、データベースに格納されて地図と関連付けられた情報を用いて、乗り物106が走行している道路をモニタし、かつ、該道路上の走行に関する次のナビゲーション命令を決定することができる。例えば、乗り物制御システム180は、乗り物106が走行している道路上の次に必要になる停止、譲れ(YIELD)又は他の状況(本明細書では、「道路状況」と総称する)を検出することができる。乗り物制御システム180は、検出された道路状況に関連するナビゲーション命令(例えば、停止の道路状況に対応付けられた停止命令等)を決定する。ナビゲーション命令機能は任意の方法で実行することができるが、実行方法の詳細は、必ずしもHUDシステム100の動作に関係しない。また、道路状況には、他の事柄の中では、道路区間の交通量、障害事象、障害物、気象状況、道路区間の表面の状況又は、道路又は道路区間の一部に関連した制限速度、等が含まれる。つまり、道路状況は、概して言えば、例えば、運転中の、加速、減速、迂回、停止、警戒等を行うための理由を含むことができる。   Similarly, information regarding the navigation command function is presented to the driver as a field-similar augmented reality graphic element projected by the third projector 122 of the HUD device 102. Here, the vehicle control system 180 uses a sensor or information stored in a database and associated with the map to monitor the road on which the vehicle 106 is traveling, and to perform next navigation related to traveling on the road. Instructions can be determined. For example, the vehicle control system 180 detects the next required stop, yield (YIELD) or other situation (collectively referred to herein as “road situation”) on the road on which the vehicle 106 is traveling. be able to. The vehicle control system 180 determines a navigation command (for example, a stop command associated with the stopped road condition) related to the detected road condition. The navigation instruction function can be executed in any way, but the details of the execution method are not necessarily related to the operation of the HUD system 100. In addition, road conditions include, among other things, traffic volume on road sections, obstacle events, obstacles, weather conditions, surface conditions on road sections, or speed limits related to roads or parts of road sections, Etc. are included. That is, road conditions can generally include, for example, reasons for driving, accelerating, decelerating, detouring, stopping, alerting, and the like.

乗り物制御システム180は、道路状況又は道路状況に対応するナビゲーション命令、ならびに道路状況の位置に関する情報を、制御部104に伝達する。したがって、制御部104は、第3のプロジェクタ122を制御して、第3のグラフィック要素168を投影し、道路状況又は対応するナビゲーション命令に関する情報を運転者に伝達することができる。制御部104は、道路状況又はナビゲーション命令情報、ならびに位置情報を、乗り物制御システム180から受信して、第3のグラフィック要素168として表示するべきグラフィック要素の種類及び第3のグラフィック要素の目標位置を決定することができる。   The vehicle control system 180 transmits a road condition or a navigation command corresponding to the road condition and information on the position of the road condition to the control unit 104. Accordingly, the control unit 104 can control the third projector 122 to project the third graphic element 168 and transmit information regarding road conditions or corresponding navigation commands to the driver. The control unit 104 receives the road condition or navigation command information and the position information from the vehicle control system 180, and determines the type of graphic element to be displayed as the third graphic element 168 and the target position of the third graphic element. Can be determined.

さまざまな種類のグラフィック要素を、ナビゲーション命令機能と組み合わせて使用することができる。例えば、:STOP(停止)標識、譲れ(YIELD)標識、ONE WAY(一方通行)標識、NO TURN ON RED(赤で旋回禁止)標識等がある。グラフィック要素の種類は、道路状況に対応付けられたナビゲーション命令を伝達するために選択することができる。どのような種類のグラフィック要素を、制御部104が、第3のグラフィック要素168として使用するかを決定しても、該グラフィック要素は、運転状況の位置に表示されるように投影することができる。この点において、第3のグラフィック要素の目標位置は、第3のグラフィック要素168を運転者の視野の中でレンダリングするべき位置として、検出された道路状況の乗り物106に対する位置に基づいて、決定する必要がある。   Various types of graphic elements can be used in combination with the navigation instruction function. For example: STOP (stop) sign, YIELD sign, ONE WAY (one-way) sign, NO TURN ON RED (red turn prohibited) sign, etc. The type of graphic element can be selected to convey navigation instructions associated with road conditions. Whatever type of graphic element is determined by the control unit 104 as the third graphic element 168, the graphic element can be projected to be displayed at the position of the driving situation. . At this point, the target position of the third graphic element is determined based on the detected position of the road condition relative to the vehicle 106 as the position where the third graphic element 168 is to be rendered in the driver's field of view. There is a need.

制御部104は、第3のプロジェクタ122を制御して、適切なグラフィック要素を第3のグラフィック要素168として投影するように構成することができる。該制御部は、第2のアクチュエータ158を制御して第3のプロジェクタを直線的に移動させ、第3のグラフィック要素16を、運転者が(例えば、運転者の目がアイ・ボックス116内にあり、運転者がフロント・ガラス112を通して前方を覗き込んでいる間)、道路状況と同一の奥行きにある(例えば、同一の焦点面を有する)と知覚するように、投影、かつレンダリングすることができる。第2のアクチュエータ158を制御して、第3のグラフィック要素168を第3の焦点面170上に投影するようにできる。該第3の焦点面170は、第3のグラフィック要素の目標位置に配置して、視線178に略垂直に配向することができる。制御部104は、第2のアクチュエータ158を制御して、第3のプロジェクタ122を連続的、直線的に移動させ、第3の焦点面170が、乗り物106と検出された道路状況(例えば、第3のグラフィック要素の目標位置)の間の距離の変化(乗り物制御システム180によって検出され、制御部104に伝達される)に応じて移動するようにできる。該変化は、例えば、検出された道路状況に向かって乗り物106が走行する結果、発生する。   The control unit 104 can be configured to control the third projector 122 to project an appropriate graphic element as the third graphic element 168. The control unit controls the second actuator 158 to linearly move the third projector, and the third graphic element 16 is moved by the driver (for example, the driver's eyes are in the eye box 116). And while the driver is looking forward through the windshield 112, can be projected and rendered to perceive that it is at the same depth as the road conditions (eg, having the same focal plane). it can. The second actuator 158 can be controlled to project the third graphic element 168 onto the third focal plane 170. The third focal plane 170 can be positioned at the target location of the third graphic element and oriented substantially perpendicular to the line of sight 178. The control unit 104 controls the second actuator 158 to move the third projector 122 continuously and linearly, and the third focal plane 170 is detected as the vehicle 106 (for example, the first road condition). 3 (target position of the three graphic elements) can be moved in response to a change in distance (detected by the vehicle control system 180 and transmitted to the control unit 104). The change occurs, for example, as a result of the vehicle 106 traveling toward the detected road condition.

図4における運転者の視点からの視野の例では、乗り物106は、乗り物106が停止すべき十字路に近づいている。従って、乗り物制御システム180は、交差点入り口の位置に停止の道路状況を検出し、停止道路状況に対応するナビゲーション命令が停止命令であるべきだと判断する。停止道路状況又は命令、ならびに停止道路状況の位置が制御部104に伝達される。制御部104は、STOP標示を第3のグラフィック要素168として表示すべきであると判断する。制御部104は、第3のグラフィック要素168(例えば、STOP標示)が、十字路の入り口の位置に表示されるべきであると判断する。こうして、交差点の入り口の位置を、第3のグラフィック要素の目標位置であると判断することができる。   In the example of the field of view from the driver's viewpoint in FIG. 4, the vehicle 106 is approaching the crossroad where the vehicle 106 should stop. Accordingly, the vehicle control system 180 detects a stop road condition at the intersection entrance position, and determines that the navigation instruction corresponding to the stop road condition should be a stop instruction. The stop road condition or command and the position of the stop road condition are transmitted to the control unit 104. The control unit 104 determines that the STOP indication should be displayed as the third graphic element 168. The control unit 104 determines that the third graphic element 168 (eg, a STOP indication) should be displayed at the entrance position of the crossroads. Thus, the position of the entrance of the intersection can be determined as the target position of the third graphic element.

制御部104は、第3のプロジェクタ122を制御して、「STOP」標示を第3のグラフィック要素168として投影することができ、かつ、第2のアクチュエータ158を制御して第3のプロジェクタ122を移動し、第3のグラフィック要素168を、運転者が(例えば、運転者の目がアイ・ボックス116内にあり、運転者がフロント・ガラス112を通して前方を見ている間)、十字路の入り口と同一の奥行きにあると知覚するように投影し、かつレンダリングすることができる。第2のアクチュエータ158は、第3のグラフィック要素168が第3の焦点面170上に投影されるように、制御することができる。第3の焦点面170は、第3のグラフィック要素の目標位置におかれ、視線178に略垂直に配向することができる。乗り物106が道路を走行しているとき、乗り物106と十字路の入り口との相対距離が変化する。この距離の変化は、乗り物制御システム180によって制御部104に伝達することができ、したがって第3のグラフィック要素の目標位置を変えることができ、かつ、第2のアクチュエータ158を制御部104が制御して、第3の焦点面170を移動させ、第3の焦点面170が(例えば、変更された/変更中の)第3のグラフィック要素の目標位置に留まるようにすることができる。このように、第3のグラフィック要素168を、運転者の視線178の方向に沿って移動可能な第3の焦点面170上に投影して、第3のグラフィック要素168に対応する奥行き手がかりを正確に再現し、運転者が正確に第3のグラフィック要素168(例えば、検出された道路状況)の位置を判定できるようにすることができる。   The control unit 104 can control the third projector 122 to project the “STOP” indication as the third graphic element 168, and can control the second actuator 158 to control the third projector 122. The third graphic element 168 is moved by the driver (eg, while the driver's eyes are in the eye box 116 and the driver is looking forward through the windshield 112) It can be projected and rendered so that it is perceived to be at the same depth. The second actuator 158 can be controlled such that the third graphic element 168 is projected onto the third focal plane 170. The third focal plane 170 can be at a target position of the third graphic element and can be oriented substantially perpendicular to the line of sight 178. When the vehicle 106 is traveling on the road, the relative distance between the vehicle 106 and the entrance of the crossroad changes. This change in distance can be communicated to the control unit 104 by the vehicle control system 180, thus changing the target position of the third graphic element, and the control unit 104 controls the second actuator 158. Thus, the third focal plane 170 can be moved so that the third focal plane 170 remains at the target position of the third graphic element (eg, changed / being changed). In this way, the third graphic element 168 is projected onto the third focal plane 170 that is movable along the direction of the driver's line of sight 178 so that the depth cues corresponding to the third graphic element 168 are accurate. And the driver can accurately determine the position of the third graphic element 168 (eg, detected road condition).

乗り物周囲(例えば、死角)のモニタ機能に関連する情報は、運転者に対して、HUDデバイス102の第4のプロジェクタ124によって提示することができる。この点に関して、乗り物制御システム180は、他の乗り物の存在を、乗り物106のすぐ周り又は周辺の領域において検出することができる。乗り物106のすぐ周りの他の乗り物の検出は、乗り物106に具備されたセンサが検知する、周囲に関する情報を処理することによって行うことができる。乗り物周辺の判定は任意の方法で行うことができる。   Information related to the monitoring function around the vehicle (eg, blind spot) can be presented to the driver by the fourth projector 124 of the HUD device 102. In this regard, the vehicle control system 180 can detect the presence of other vehicles in the area immediately around or around the vehicle 106. The detection of other vehicles immediately around the vehicle 106 can be performed by processing information related to the surroundings detected by a sensor provided in the vehicle 106. The determination around the vehicle can be performed by any method.

乗り物周囲の情報は、乗り物制御システム180によって決定され、制御部104に伝達される。制御部104は、乗り物周辺情報を乗り物制御システム180から受信し、もし行うなら、どのように第4の焦点面174に投影された第4のグラフィック要素172を変更するかを決定する。この点で、第4のグラフィック要素172として、乗り物周辺(例えば、死角)モニタ機能を支援するために使用されるグラフィック要素は、図4に示す乗り物周辺標識とすることができる。   Information about the surroundings of the vehicle is determined by the vehicle control system 180 and transmitted to the control unit 104. The controller 104 receives vehicle periphery information from the vehicle control system 180 and, if so, determines how to change the fourth graphic element 172 projected on the fourth focal plane 174. In this regard, as the fourth graphic element 172, the graphic element used to support the vehicle periphery (eg, blind spot) monitoring function may be the vehicle periphery indicator shown in FIG.

乗り物周辺標識には、乗り物106を表す中央のマーカーと、乗り物106を直接取り囲む場所を表す8つの周囲マーカーとが含まれる。乗り物制御システム180は、乗り物106の直近にある乗り物の位置に関する情報を伝達し、かつ、制御部104は、第4のプロジェクタ124を制御して、第4のグラフィック要素172を変更し、1つ又は複数の対応する8つの周囲マーカーを強調表示させる。8つの周囲マーカーの強調表示によって、乗り物106を直接取り囲む領域にある他の乗り物の位置を運転者に示す。   The vehicle perimeter sign includes a central marker representing the vehicle 106 and eight surrounding markers representing locations directly surrounding the vehicle 106. The vehicle control system 180 communicates information about the position of the vehicle in the immediate vicinity of the vehicle 106, and the control unit 104 controls the fourth projector 124 to change the fourth graphic element 172, Alternatively, a plurality of corresponding eight surrounding markers are highlighted. Eight surrounding marker highlights indicate to the driver the location of other vehicles in the area directly surrounding the vehicle 106.

図4において、第4のグラフィック要素172は、第4の焦点面174上に投影することができる。第4の焦点面174は、地表面176に平行に配向することができ、かつ、地表面176及び視線178の上方に配置することができる。上述のように、第4のプロジェクタ124は、HUDデバイス102内に固定的に配置して、第4の焦点面174が静止しているようにすることができる。上述のように、第4の焦点面174は、切れ目なく連続するようにでき、第4のグラフィック要素172を、3−D画像として適切な奥行き手がかりで運転者にレンダリングするようにできる。   In FIG. 4, the fourth graphic element 172 can be projected onto the fourth focal plane 174. The fourth focal plane 174 can be oriented parallel to the ground surface 176 and can be positioned above the ground surface 176 and line of sight 178. As described above, the fourth projector 124 can be fixedly disposed within the HUD device 102 so that the fourth focal plane 174 is stationary. As described above, the fourth focal plane 174 can be continuous without interruption, and the fourth graphic element 172 can be rendered to the driver with appropriate depth cues as a 3-D image.

第4のグラフィック要素172は、図4の乗り物周辺標識とは異なる形で提供することができる。任意の事象において、第4のグラフィック要素172は第4の焦点面174上に投影することができる。該第4の焦点面174は、地表面176に平行に配向することができ、地表面176と運転者の視線178の上方に配置することができる。したがって、第4グラフィック要素172は空の焦点面上に提示することができる。これは、第4のグラフィック要素172によって伝達される情報が、環境と相互作用する必要がないので、適切であろう。   The fourth graphic element 172 may be provided in a different form than the vehicle perimeter sign of FIG. In any event, the fourth graphic element 172 can be projected onto the fourth focal plane 174. The fourth focal plane 174 can be oriented parallel to the ground surface 176 and can be positioned above the ground surface 176 and the driver's line of sight 178. Accordingly, the fourth graphic element 172 can be presented on an empty focal plane. This may be appropriate because the information conveyed by the fourth graphic element 172 need not interact with the environment.

上記のHUDシステム100は、グラフィック要素を、そのうちのいくつかは視野相似拡張現実グラフィック要素として、連続的に変化する焦点距離に、かつ、運転者の視線178の方向に沿って前から後ろに連続的に変化する焦点を有する、地表に平行な焦点面に、投影できる。したがって、奥行き知覚の手がかりが改善され、焦点調節を容易にし、同時に又は並行して又は(又は、ほぼ同時に)、運転者が環境に払う注意を増すことができる。これによって、運転者が、グラフィック要素を介して提示された情報だけでなく、環境を観測することが可能になる。この点で、実験を通して、本願発明者は、空間認知が焦点手がかりに大きく影響され得ること及び、本明細書に記載のHUDシステム100の、焦点面調整機能と共に、グラフィック要素を、連続し、かつ静止した、地表に平行な焦点面上に表示する機能が、空間認知を改善すると判断した。この目的に対して、空間認知の大幅な改善は、本明細書に記載した、焦点手がかりを調整するときの方が、グラフィック要素のサイズを調整するときよりも、観察される。   The HUD system 100 described above has graphic elements, some of which are visual-field-augmented augmented reality graphic elements, continuously changing focal length and front-to-back along the direction of the driver's line of sight 178. Can be projected onto a focal plane parallel to the earth's surface with a constantly changing focal point. Accordingly, depth perception cues can be improved, facilitating focus adjustment, and increasing the driver's attention to the environment at the same time or in parallel or (or nearly simultaneously). This allows the driver to observe the environment as well as the information presented via graphic elements. In this regard, through experimentation, the inventor has shown that spatial perception can be greatly influenced by focus cues and that the graphic elements, along with the focal plane adjustment function of the HUD system 100 described herein, are continuous, and It was determined that the ability to display on a stationary, parallel focal plane would improve spatial cognition. For this purpose, a significant improvement in spatial cognition is observed when adjusting the focus cues described herein, rather than when adjusting the size of the graphic elements.

HUDデバイス102の構成では、ビーム・スプリッタ126、130、134及び、レンズ128、132、136、138を含めて、HUDデバイス102のサイズを比較的コンパクトにすることができる。さらに、レンズ128、132、136、138によって、奥行きの範囲は、乗り物106の前方数メートルから、HUDデバイス102の光学系に割り当てられた物理空間内で無限遠まで拡大することができる。さらにまた、ビーム・スプリッタ126、130、134は光結合器として使用することができ、第1、第2、第3及び第4のプロジェクタ118、120、122、124からの異なる投射光線の組のすべてを、レンズ128、132、136、138を介して合流させて、第1、第2、第3及び第4のプロジェクタ118、120、122、124からの個別の画像を、運転者の視野に投影される1つの統合画像又は(又は、例えば、グラフィック要素)に結合することができる。   In the configuration of the HUD device 102, including the beam splitters 126, 130, 134 and the lenses 128, 132, 136, 138, the size of the HUD device 102 can be relatively compact. Furthermore, the lenses 128, 132, 136, and 138 can extend the depth range from a few meters in front of the vehicle 106 to infinity in the physical space assigned to the optics of the HUD device 102. Furthermore, the beam splitters 126, 130, 134 can be used as optical combiners, with different sets of projection rays from the first, second, third and fourth projectors 118, 120, 122, 124. All are merged through lenses 128, 132, 136, 138 and individual images from the first, second, third and fourth projectors 118, 120, 122, 124 are brought into the driver's field of view. It can be combined into one integrated image or (or graphic element, for example) to be projected.

1つ又は複数の実施形態において、上に開示した及びその他の、特徴及び機能のうちのいくつか又は、その代替又は変形を所望のように組み合わせて、多くの他の異なるシステム又は応用とすることができる。また、該システム又は応用における、現在予見できない又は予期できない多様な代替、修正、変形又は改良が、以下の特許請求の範囲によって包含することを意図した技術の当業者によって、後になされてもよい。   In one or more embodiments, any of the above-disclosed and other features and functions, or alternatives or variations thereof, may be combined as desired into many other different systems or applications. Can do. Also, various alternatives, modifications, variations or improvements presently unforeseeable or unforeseeable in the system or application may be made later by those skilled in the art which are intended to be covered by the following claims.

例えば、より少ない又はより多いプロジェクタを、HUDシステム100において用いて、より少ない又はより多いグラフィック要素を投影してもよい。さらに、HUDシステム100は、前方の焦点面にグラフィック要素を投影する2つのプロジェクタと地面に平行な焦点面にグラフィック要素を投影する2つのプロジェクタを有するものとして記載されているが、前方の焦点面と地面に平行な焦点面の割合は変えることができる。HUDシステム100に対応する上述の乗り物の機能は代表的な事例であり、変更又は修正することができる。   For example, fewer or more projectors may be used in the HUD system 100 to project fewer or more graphic elements. Further, although the HUD system 100 is described as having two projectors that project graphic elements onto a front focal plane and two projectors that project graphic elements onto a focal plane parallel to the ground, the front focal plane is described. The ratio of the focal plane parallel to the ground can be varied. The vehicle functions described above corresponding to the HUD system 100 are exemplary and can be changed or modified.

さらにまた、前方焦点面を移動するしくみは、上述したものから変更することができる。例えば、プロジェクタ全体(例えば、第1及び第2のアクチュエータ156、158を用いて、第1及び第3のプロジェクタ118、122)を移動させるのではなく、単に拡散スクリーン(例えば、第1及び第3のプロジェクタ118、122の拡散スクリーン148、152)を、各々のプロジェクタ・ユニット(例えば、プロジェクタ・ユニット140、144)に対して相対的に移動させるようにしてもよい。   Furthermore, the mechanism for moving the front focal plane can be changed from that described above. For example, rather than moving the entire projector (e.g., the first and third projectors 118, 122 using the first and second actuators 156, 158), simply a diffusing screen (e.g., the first and third projectors). Diffusing screens 148, 152) of the projectors 118, 122 may be moved relative to each projector unit (eg, projector units 140, 144).

さらに、HUDシステム100は乗り物106を参照して説明し、該乗り物106は屋外用四輪自動車であったが、HUDシステム100は、異なる種類の乗り物で使用することができる。例えば、該HUDシステムは、海上の乗り物(例えば、ボート)、空中の乗り物(例えば、飛行機又はジェット機)又は屋内使用を意図した乗り物(例えば、輸送用カート、フォークリフトなどの資材取り扱い用乗り物等)に設けてもよい。   Further, although the HUD system 100 is described with reference to a vehicle 106, the vehicle 106 was an outdoor four-wheel vehicle, the HUD system 100 can be used with different types of vehicles. For example, the HUD system can be used on marine vehicles (eg, boats), aerial vehicles (eg, airplanes or jets), or vehicles intended for indoor use (eg, transportation carts, material handling vehicles such as forklifts, etc.). It may be provided.

図5は、1つ又は複数の実施形態による、3Dナビゲーション・システム500の構成の1例の説明図である。システム500は、HUDコンポーネント100と、乗り物制御コンポーネント180と、制御コンポーネント104と、ナビゲーション・コンポーネント540と、奥行きマップ・コンポーネント550と、奥行きバッファ・コンポーネント560と、1つ又は複数のセンサ・コンポーネント570と、1つ又は複数の制御エリア・ネットワーク(CAN)580とを含むことができる。HUDコンポーネント100は、図1のHUDシステム100のような乗り物用立体HUDシステムとすることができ、前述のコンポーネントを含むことができる。1つ又は複数の実施形態において、HUDコンポーネント100は、特に、3−D・HUD、距離可変HUD、拡張現実HUD(AR−HUD)等とすることができる。   FIG. 5 is an illustration of an example configuration of a 3D navigation system 500 in accordance with one or more embodiments. The system 500 includes a HUD component 100, a vehicle control component 180, a control component 104, a navigation component 540, a depth map component 550, a depth buffer component 560, and one or more sensor components 570. One or more control area networks (CAN) 580 may be included. The HUD component 100 can be a vehicle stereoscopic HUD system, such as the HUD system 100 of FIG. 1, and can include the components described above. In one or more embodiments, the HUD component 100 may be a 3-D HUD, a variable distance HUD, an augmented reality HUD (AR-HUD), etc., among others.

ナビゲーション・コンポーネント540は、起点位置(例えば、点A)と1つ又は複数の目的位置(例えば点B)を受信又は識別するように構成することができる。該ナビゲーション・コンポーネント540は、例えば、点Aから点Bへ至る1つ又は複数の経路群を計算又は決定するように構成することができる。一般に、ナビゲーション・コンポーネント540は、1つの乗り物に対応する。例えば、ナビゲーション・コンポーネント540は、乗り物に搭載し、該乗り物の1つ又は複数のシステム又は1つ又は複数のコンポーネントと統合し、乗り物内に収容し、乗り物の1つ又は複数のコンポーネントと連結又は通信接続し又は、乗り物内に配置する、等が可能である。いずれの場合においても、ナビゲーション・コンポーネント540は、起点位置と目的位置を特定するか又は受信することができる。1つ又は複数の実施形態において、ナビゲーション・コンポーネント540は、乗り物の現在位置又は現在座標を決定するように構成できるテレマティックス・コンポーネント(図示せず)を含むことができる。   The navigation component 540 can be configured to receive or identify an origin location (eg, point A) and one or more destination locations (eg, point B). The navigation component 540 can be configured to calculate or determine one or more routes from point A to point B, for example. In general, the navigation component 540 corresponds to one vehicle. For example, the navigation component 540 may be mounted on a vehicle, integrated with one or more systems or components of the vehicle, housed within the vehicle, coupled to one or more components of the vehicle, or Communication connection or placement in a vehicle is possible. In either case, the navigation component 540 can identify or receive the origin location and the destination location. In one or more embodiments, the navigation component 540 can include a telematics component (not shown) that can be configured to determine the current position or current coordinates of the vehicle.

さらに、ナビゲーション・コンポーネント540は、起点位置から1つ又は複数の目的位置までの1つ又は複数の経路群を生成するように構成することができる。1つ又は複数の実施形態においては、ナビゲーション・コンポーネント540は、乗り物の現在位置又は現在座標から1つ又は複数の目的位置までの1つ又は複数の経路群を生成するように構成することができる。前記1つ又は複数の経路群の中のある1つの経路には、1つ又は複数の部分又は経路の1つ又は複数の部分を含むことができる。例えば、該1つの経路の1つ又は複数の部分には、1つ又は複数の道路区間又は道路区間の1つ又は複数の交差点に対応する1つ又は複数のナビゲーション命令又はナビゲーション操作を含むことができる。言い換えれば、該経路の1つ又は複数の部分には、1つ又は複数の旋回、ナビゲーション操作、道路区間、交差点、目印又は該経路に沿った他の要素を含むことができる。ナビゲーション・コンポーネント540は、これらの旋回、ナビゲーション操作、目印等のうちの1つ又は複数を識別し、かつ、それに応じて1つ又は複数のナビゲーション指示又は1つ又は複数のナビゲーション命令を、乗り物の運転者等へ発行するように構成することができる。   Further, the navigation component 540 can be configured to generate one or more routes from the origin location to one or more destination locations. In one or more embodiments, the navigation component 540 can be configured to generate one or more groups of routes from the vehicle's current position or current coordinates to one or more destination positions. . One path in the one or more path groups may include one or more parts or one or more parts of the path. For example, one or more portions of the one route may include one or more navigation instructions or navigation operations corresponding to one or more road sections or one or more intersections of road sections. it can. In other words, one or more portions of the route may include one or more turns, navigation operations, road segments, intersections, landmarks, or other elements along the route. The navigation component 540 identifies one or more of these turns, navigation operations, landmarks, etc., and accordingly sends one or more navigation instructions or one or more navigation instructions to the vehicle. It can be configured to be issued to a driver or the like.

ナビゲーション・コンポーネント540は、前記1つ又は複数のナビゲーション指示やナビゲーション命令を、音声プロンプト、視覚プロンプト、触覚プロンプト等を介して発行することができる。例えば、ナビゲーション・コンポーネント540は、1つ又は複数のプロンプトを1つ又は複数の制御エリア・ネットワーク(CAN)580を経由して送信することにより、1つ又は複数の周辺コンポーネント(図示せず)とインタフェース接続することができる。ナビゲーション・コンポーネント540は、「メインストリートで左折」のような可聴命令の再生、表示部の左側部分の光のフラッシュ又は、ステアリング・ホイールの振動等を起こして、運転者に運転動作をとる必要があることを示すことができる。ナビゲーション・コンポーネント540は、1つ又は複数の他のコンポーネントと協調して1つ又は複数の運転命令の送信又は配信を円滑に行うことができる。   The navigation component 540 can issue the one or more navigation instructions and navigation commands via audio prompts, visual prompts, tactile prompts, and the like. For example, the navigation component 540 transmits one or more prompts via one or more control area networks (CAN) 580 to one or more peripheral components (not shown). Can be interfaced. The navigation component 540 needs to take a driving action to the driver by reproducing an audible command such as “turn left on the main street”, flashing light on the left side of the display, or vibrating the steering wheel. You can show that there is. The navigation component 540 can facilitate the transmission or delivery of one or more driving instructions in coordination with one or more other components.

例えば、HUDコンポーネント100は、1つ又は複数のナビゲーション命令又は1つ又は複数のナビゲーション操作を、1つ又は複数のグラフィック要素又はアバターとして、乗り物の乗員又は運転者の視野に投影するように構成することができる。これらのナビゲーション命令は、ナビゲーション・コンポーネント540から(例えば、直接的又は間接的に)受信することができる。HUDコンポーネント100は、連続する複数の焦点面上にアバターを投影して、該アバターが、図2のアイ・ボックス116からの視野を持つ、運転者等の乗員には、動いて見えるようにすることができる。このようにして、HUDコンポーネント100は、運転者が該運転者の視野内の立体画像を認識できるようにする。ここで、該立体画像は、乗り物の運転者が追従するべき「仮想的」誘導用乗り物として働くことができる。言い換えれば、乗り物の運転者には、彼又は彼女が、単に、例えば、目的位置までの誘導用乗り物に追従しているように見える。加えて、本明細書中に後で記載されるように、1つ又は複数の他のナビゲーション指示やナビゲーション命令が、立体的な表示位置確保記号(placeholder)、マーカー又は旗竿として投影されることがある。   For example, the HUD component 100 is configured to project one or more navigation instructions or one or more navigation operations as one or more graphic elements or avatars onto a vehicle occupant or driver's field of view. be able to. These navigation instructions may be received from the navigation component 540 (eg, directly or indirectly). The HUD component 100 projects an avatar onto successive focal planes so that the avatar appears to move to an occupant, such as a driver, with a field of view from the eye box 116 of FIG. be able to. In this way, the HUD component 100 allows the driver to recognize a stereoscopic image within the driver's field of view. Here, the stereoscopic image can serve as a “virtual” guidance vehicle that the vehicle driver should follow. In other words, it appears to the driver of the vehicle that he or she is simply following, for example, a guidance vehicle to the target position. In addition, as will be described later in this specification, one or more other navigation instructions or navigation commands may be projected as a three-dimensional placeholder, marker or flagpole. is there.

HUDコンポーネント100は1つ又は複数のグラフィック要素を投影するように構成することができる。該グラフィック要素は、視野相似拡張現実グラフィック要素、等角拡張現実グラフィック要素、アバター、アイコン等とすることができる。これらのグラフィック要素は、HUDコンポーネント100により、立体的に投影することができる。この結果、該グラフィック要素に対応する1つ又は複数の視覚的手がかり又は1つ又は複数の奥行き手がかりをほぼ維持することができる。これらの1つ又は複数の視覚的な手がかり又は奥行き手がかりの維持は、グラフィック要素を動的焦点面又は可動焦点面上に投影又はレンダリングすることにより実現することができる。すなわち、HUDコンポーネント100は、1つ又は複数のグラフィック要素を移動可能又は調整可能な焦点面上に投影又はレンダリングするように構成することができる。動的焦点面又は可動焦点面は、例えば、図1及び図3を参照して説明したように、乗り物の乗員の視線のような通路や線路に沿って移動又は調節することができる。言い換えれば、該動的な焦点面は、乗り物又はフロント・ガラスに向かう方向に又は離反する方向に移動可能にすることができる。   The HUD component 100 can be configured to project one or more graphic elements. The graphic elements can be visual field-like augmented reality graphic elements, conformal augmented reality graphic elements, avatars, icons, and the like. These graphic elements can be projected in three dimensions by the HUD component 100. As a result, one or more visual cues or one or more depth cues corresponding to the graphic element can be substantially maintained. Maintenance of these one or more visual cues or depth cues can be achieved by projecting or rendering the graphic element onto a dynamic or movable focal plane. That is, the HUD component 100 can be configured to project or render one or more graphic elements onto a movable or adjustable focal plane. The dynamic focal plane or the movable focal plane can be moved or adjusted along a path or track, such as the line of sight of a vehicle occupant, as described with reference to FIGS. In other words, the dynamic focal plane can be movable in a direction toward or away from the vehicle or windshield.

1つ又は複数の実施形態において、焦点面は、例えば、HUDコンポーネント100のプロジェクタ又はスクリーンの、アクチュエータの使用による移動の結果として、動的にすることができる。すなわち、HUDコンポーネント100の1つ又は複数のプロジェクタを直線的に移動するように構成することができ、それによって、各々のプロジェクタが、1つ又は複数のグラフィック要素を、動的、移動可能又は調節可能な焦点面上に投影することが可能になる。該焦点面は、プロジェクタの動きに合わせて移動する。他の実施形態では、1つ又は複数の他の手段又は代替え手段を調整のために用いることができる。   In one or more embodiments, the focal plane can be dynamic, for example, as a result of movement of the projector or screen of the HUD component 100 through the use of an actuator. That is, one or more projectors of the HUD component 100 can be configured to move linearly, whereby each projector can dynamically, moveably or adjust one or more graphic elements. It is possible to project onto a possible focal plane. The focal plane moves in accordance with the movement of the projector. In other embodiments, one or more other means or alternative means may be used for adjustment.

別のし方で説明すると、グラフィック要素を、動的な、可動な又は調節可能な焦点面に投影したときに、該グラフィック要素は、乗り物との間の距離(例えば、図3の距離162’又は距離170’)を調整している焦点面上に投影することができる。HUDコンポーネント100のプロジェクタは、グラフィック要素を可動焦点面上に投影又はレンダリングすることができるので、投影されるグラフィック要素の焦点を、乗り物からさまざまな距離に調整することができる。上述のように、1つ又は複数の焦点面を、乗り物の乗員の視線に略垂直又は略平行に配向することができる。つまり、焦点面は地面に垂直又は地面に並行にすることができる。また、前記焦点面の1つ又は複数が乗員の視線又は地面に対して可動に又は静止することができる。これによって、グラフィック要素に対応付けられた奥行き手がかりを、運転者等の乗り物の乗員に対して、乗り物が移動又は走行する(従って、例えば、移動プラットフォームとして働く)ときに、正確に提示することができる。   Stated another way, when a graphic element is projected onto a dynamic, movable or adjustable focal plane, the graphic element may be distant from the vehicle (eg, distance 162 ′ of FIG. 3). Alternatively, the distance 170 ′) can be projected onto the adjusting focal plane. The projector of the HUD component 100 can project or render graphic elements onto a movable focal plane so that the projected graphic elements can be focused at various distances from the vehicle. As described above, one or more focal planes can be oriented substantially perpendicular or substantially parallel to the line of sight of the vehicle occupant. That is, the focal plane can be perpendicular to the ground or parallel to the ground. Also, one or more of the focal planes may be movable or stationary with respect to the occupant's line of sight or the ground. This allows the depth cues associated with the graphic elements to be accurately presented to a vehicle occupant, such as a driver, when the vehicle moves or travels (and thus acts as a mobile platform, for example). it can.

図5のHUDコンポーネント100は、立体的視野相似拡張現実グラフィック要素を投影又はレンダリングするように構成することができる。この意味は、これらのグラフィック要素が、さまざまな距離で表示されるように投影することができるということである。言い換えれば、HUDコンポーネント100は、グラフィック要素を複数の焦点面に又は焦点調節可能な方法で投影することができる。さらに別のし方で説明すると、HUDコンポーネント100によって投影されるグラフィック要素の焦点面は、歩道上の歩行者の隣のように、フロント・ガラスの向こう側に延びる距離に調整することができ、これによって、乗員が操作環境や運行環境に集中できるようになり、乗り物のフロント・ガラス又はインストルメント・パネルと運転環境の間で目の焦点を切り替えるようなことは必要なくなる。このように、3Dナビゲーション・システム500によって安全性を増すことができる。   The HUD component 100 of FIG. 5 can be configured to project or render a stereoscopic field-like augmented reality graphic element. This means that these graphic elements can be projected to be displayed at various distances. In other words, the HUD component 100 can project graphic elements onto multiple focal planes or in a focusable manner. In yet another way, the focal plane of the graphic element projected by the HUD component 100 can be adjusted to a distance extending beyond the windshield, such as next to a pedestrian on the sidewalk, This allows the occupant to focus on the operating and operating environment and eliminates the need to switch eye focus between the vehicle windshield or instrument panel and the driving environment. Thus, safety can be increased by the 3D navigation system 500.

したがって、グラフィック要素は、乗員の直接視野内の環境に(例えば、HUDコンポーネント100によって)投影又は視覚的に配置することができる。これは、該グラフィック要素を、実環境と同じ空間にレンダリングすることができることを意味し、フロント・ガラス上へのレンダリングを意味しない。そして、該グラフィック要素に対応する奥行き手がかりを、正確に正しく再現することを可能にする。その結果、グラフィック要素は実世界のオブジェクト(例えば、道路)と同じ焦点面に投影することができ、乗り物の乗員が、例えば、道路から離れた方に目をやらないでグラフィック要素を見ることができるようにする。   Thus, the graphic elements can be projected or visually positioned (eg, by the HUD component 100) in an environment within the occupant's direct field of view. This means that the graphic element can be rendered in the same space as the real environment, not rendering on the windshield. Then, the depth cue corresponding to the graphic element can be accurately and correctly reproduced. As a result, graphic elements can be projected onto the same focal plane as real-world objects (eg, roads), allowing vehicle occupants to view graphic elements without looking away from the road, for example. It can be so.

これらの複数の焦点面又は調節可能な焦点面を実現できる理由は、HUDコンポーネント100のプロジェクタが移動するとき、光線を再成又は変形して、投影されるグラフィック要素又は仮想オブジェクトがフロント・ガラスより遠くに見える又は、フロント・ガラス上にない焦点面を持つようにすることができるからである。つまり、投影されたグラフィック要素又は仮想オブジェクトは、遠く(例えば、10メートル先)にある実在のオブジェクト(例えば、歩行者、乗り物、標識等)と同様の焦点特性を持つことができる。光線は、フロント・ガラスで反射され、出射光線は発散するので、これによって「反射」画像、すなわち実像が生成され、該画像はグラフィック要素として投影される。   The reason that these multiple focal planes or adjustable focal planes can be realized is that when the projector of the HUD component 100 moves, the light rays are reconstructed or deformed so that the projected graphic elements or virtual objects are better than the windshield. This is because it can have a focal plane that appears far away or is not on the windshield. That is, the projected graphic element or virtual object can have the same focus characteristics as a real object (eg, pedestrian, vehicle, sign, etc.) that is far away (eg, 10 meters away). The rays are reflected off the windshield and the outgoing rays diverge, thereby creating a “reflected” image, ie a real image, which is projected as a graphic element.

前記光線はフロント・ガラスで反射されるのであり、(例えば、特別なコーティングを施したような)フロント・ガラスから放出される又は、出現するということではないので、乗員が頭を動かしたときにグラフィック要素を再レンダリングする必要はない。例えば、図3の連続した静止焦点面によって、光学的に「正しい」つまり実像を3次元空間内の前後方向(例えば、乗員の視線の方向)に沿って生成することが可能になる。それにより適切な運動視差手がかりの生成が可能になる。したがって、乗員の頭部が動いたとき、これらの焦点面に対応したグラフィック要素は、環境内の位置が固定して見え、揺動するようには見えない。上述のように、これは、HUDコンポーネント100が、乗員の頭部の動を補償するための頭部追跡機能を必要としないことを意味する。   When the occupant moves his head, the rays are reflected off the windshield and are not emitted or appear from the windshield (eg, with a special coating). There is no need to re-render the graphic elements. For example, the continuous stationary focal plane of FIG. 3 makes it possible to generate an optically “correct” or real image along the front-rear direction in the three-dimensional space (eg, the direction of the sight line of the occupant). This makes it possible to generate appropriate motion parallax cues. Therefore, when the occupant's head moves, the graphic elements corresponding to these focal planes appear to be fixed in position in the environment and do not appear to swing. As mentioned above, this means that the HUD component 100 does not require a head tracking function to compensate for occupant head movement.

HUDコンポーネント100はベクトル・ベースではなく、ラスタ・ベースにすることができる。この意味は、HUDコンポーネント100によって投影されるグラフィック要素がビット・マップであるか、ドット・マトリクス構造を有するか又は矩形状格子の画素であるということである。さらに、HUDコンポーネント100は、異なる陰影、透明度、色、明るさ等を持つ1つ又は複数のグラフィック要素の1つ又は複数の部分を投影するように構成することができる。   The HUD component 100 can be raster based rather than vector based. This means that the graphic element projected by the HUD component 100 is a bit map, has a dot matrix structure, or is a pixel in a rectangular grid. Further, the HUD component 100 can be configured to project one or more portions of one or more graphic elements having different shading, transparency, color, brightness, etc.

このように、HUDコンポーネント100は、グラフィック要素又はアバターを、さまざまな自由度でレンダリング又は投影するように構成することができる。すなわち、焦点調節を維持して、乗員の両目が能動的に屈折力を変化させ、焦点面に投影されたグラフィック要素に集中するようにできる。同様に、グラフィック要素が「より近く」に移動するように投影されるとき(例えば、連続的に近くなる焦点面上に投影することによって)、輻輳を維持して、乗員がグラフィック要素の同時並行的な内向き回転を得ることができるようにすることができる。   As such, the HUD component 100 can be configured to render or project graphic elements or avatars with varying degrees of freedom. That is, the focus adjustment can be maintained so that the occupant's eyes actively change their refractive power and concentrate on the graphic elements projected on the focal plane. Similarly, when a graphic element is projected to move “closer” (eg, by projecting onto a contiguous focal plane), congestion is maintained and the occupant is able to simultaneously Inward rotation can be obtained.

1つ又は複数の実施形態では、HUDコンポーネント100は、グラフィック要素を、乗り物の運転者又は搭乗者が、ナビゲーション命令、ナビゲーション操作、又は、ナビゲーション指示として従うべき、アバター又は移動アバターとして投影することができる。例えば、HUDコンポーネント100は、1つ又は複数のグラフィック要素を、移動アバター、表示位置確保記号、識別子、フラグポール、マーカー等として投影又はレンダリングするように構成することができる。これらのグラフィック要素は、乗り物の周囲環境の周りの1つ又は複数の焦点面上に投影され、乗り物の乗員の視野に投影することができる。HUDコンポーネント100によって投影されたアバター又はグラフィック要素は、乗り物の運転者を経路の1つ又は複数の部分に渡って誘導し、かつ、障害物の周りを、縫うように進む、ナビゲート、移動、又は走行するように投影されることによって、障害物、障害状況又は道路状況との衝突を回避させることができる。センサ・コンポーネント570は、1つ又は複数の障害物や道路状況を感知するように構成され、制御コンポーネント104は、HUDコンポーネント100にグラフィック要素を投影するように指示して、例えば、交通規制用樽を回避するため車線変更すること等によって、道路状況の周りを走行又は迂回するようにすることができる。   In one or more embodiments, the HUD component 100 may project graphic elements as avatars or moving avatars that a vehicle driver or occupant should follow as navigation instructions, navigation operations, or navigation instructions. it can. For example, the HUD component 100 can be configured to project or render one or more graphic elements as moving avatars, display location securing symbols, identifiers, flag poles, markers, and the like. These graphic elements can be projected onto one or more focal planes around the vehicle's surrounding environment and projected into the vehicle's occupant's field of view. The avatar or graphic element projected by the HUD component 100 guides the vehicle driver over one or more parts of the path and proceeds to sew around the obstacle, navigate, move, Or by projecting so that it may drive | work, the collision with an obstruction, an obstacle condition, or a road condition can be avoided. The sensor component 570 is configured to sense one or more obstacles or road conditions, and the control component 104 instructs the HUD component 100 to project graphic elements, eg, a traffic regulation barrel. For example, by changing the lane to avoid the situation, the vehicle can travel or detour around the road condition.

1つ又は複数の実施形態では、センサ・コンポーネント570は、乗り物周囲の又は乗り物を取り囲む環境内の1つ又は複数の道路状況を感知、識別、又は検出するように構成することができる。センサ・コンポーネント570は、道路区間、歩道、オブジェクト、歩行者、他の乗り物、障害状況、障害物、破片、窪み、路面状況(例えば、氷、雨、砂、砂利など)、交通状況又は交通標識(例えば、赤信号、制限速度標識、停止標識、踏切、列車など)を検出又は識別することができる。これらの道路状況は、制御コンポーネント104又は乗り物制御コンポーネント180に送信される。例えば、1つ又は複数のCAN580は、センサ・コンポーネント570と、制御コンポーネント104又は乗り物制御コンポーネント180との間の通信を容易にするために用いることができる。1つ又は複数の実施形態において、センサ・コンポーネント570は、1つ又は複数の撮像デバイス、マイクロフォン、死角モニタ、駐車場センサ、近接センサ、対物センサ、赤外線センサ、動きセンサ等を含むことができる。   In one or more embodiments, the sensor component 570 can be configured to sense, identify, or detect one or more road conditions around or surrounding the vehicle. The sensor component 570 may include road sections, sidewalks, objects, pedestrians, other vehicles, obstacle situations, obstacles, debris, depressions, road surface conditions (eg, ice, rain, sand, gravel, etc.), traffic conditions or traffic signs. (Eg, red light, speed limit sign, stop sign, railroad crossing, train, etc.) can be detected or identified. These road conditions are transmitted to the control component 104 or the vehicle control component 180. For example, one or more CANs 580 can be used to facilitate communication between the sensor component 570 and the control component 104 or vehicle control component 180. In one or more embodiments, sensor component 570 can include one or more imaging devices, microphones, blind spot monitors, parking sensors, proximity sensors, objective sensors, infrared sensors, motion sensors, and the like.

乗り物制御コンポーネント180は、1つ又は複数の道路状況に関するデータ又は、乗り物周囲の環境(例えば、操作環境、運転環境、周辺環境等)に関連するデータを受信するように構成することができる。1つ又は複数の実施形態では、乗り物制御コンポーネント180は、1つ又は複数の道路状況をセンサ・コンポーネント570から受信することができる。さらに、乗り物制御コンポーネント180は、1つ又は複数の道路状況を、1つ又は複数の他のソース、例えば、サーバ(図示せず)又はデータベース(図示せず)から受信することができる。乗り物制御コンポーネント180は、サーバ、サード・パーティ、データベース又は他のものに、テレマティクス・コンポーネント(図示せず)を介して起動されたテレマティックス・チャネルを介して、通信接続することができる。このように、乗り物制御コンポーネント180は、起点位置から目的位置に至る経路の1つ又は複数の部分に関する情報を収集することができる。   The vehicle control component 180 can be configured to receive data relating to one or more road conditions or data related to the environment surrounding the vehicle (eg, operating environment, driving environment, surrounding environment, etc.). In one or more embodiments, the vehicle control component 180 can receive one or more road conditions from the sensor component 570. In addition, the vehicle control component 180 can receive one or more road conditions from one or more other sources, such as a server (not shown) or a database (not shown). The vehicle control component 180 can be communicatively connected to a server, third party, database or others via a telematics channel activated via a telematics component (not shown). In this manner, the vehicle control component 180 can collect information regarding one or more portions of the route from the origin location to the destination location.

例えば、乗り物制御コンポーネント180は、道路区間の交通情報を含む道路状況情報(例えば、道路上の事故があった場合に交通が混雑しているかどうか、等)を受信することができる。さらに、乗り物制御コンポーネント180は、経路の1つ又は複数の道路区間に対応する速度制限情報を受信することができる。この情報は、1つ又は複数のグラフィック要素を乗り物の運転者や乗員に投影する方法を決定するために使用する。すなわち、ある道路区間が毎時65マイル(104.605km)の速度制限に対応しているが、(例えば、センサ・コンポーネント570によって検出される)乗り物の現在速度が毎時25マイル(40.233km)である場合、乗り物制御コンポーネント180は、HUDコンポーネント100に指示してアバターを投影させ、該アバターが該道路区間に入るときに加速するように表示する。   For example, the vehicle control component 180 can receive road status information including traffic information for road segments (eg, whether traffic is congested when there is an accident on the road, etc.). In addition, the vehicle control component 180 can receive speed limit information corresponding to one or more road segments of the route. This information is used to determine how to project one or more graphic elements to a vehicle driver or occupant. That is, a road segment corresponds to a speed limit of 65 mph (104.605 km), but the current speed of the vehicle (detected by sensor component 570, for example) is 25 mph (40.233 km). In some cases, the vehicle control component 180 instructs the HUD component 100 to project an avatar and displays it to accelerate when it enters the road segment.

別の例として、センサ・コンポーネント570が、乗り物が走行している現在車線の交通規制用樽を検出した場合、乗り物制御コンポーネント180はこの情報を受信し、車線変更のナビゲーション命令がHUDコンポーネント100によって投影される必要があるという決定を行うことができる。該指示は1つ又は複数のCAN580を通ってHUDコンポーネント100に送信することができる。該HUDコンポーネント100は、車線変更又は位置移動のアバター又はグラフィック要素を、検出された交通規制用樽に対応して投影、レンダリング、又はアニメーション化することができる。言い換えれば、HUDコンポーネント100は、交通規制用樽を縫うように進む又は該交通規制用樽の周りを通過するように表示されるアバター又はアイコンを投影することができる。該交通規制用樽は、該乗り物を囲む操作環境の中で該乗り物の前方に位置している。また、乗り物制御コンポーネント180を構成して、HUDコンポーネント100に、実際の乗り物が車線変更する際に表示するように、該乗り物のアバターの上に方向指示灯を投影させることができる。さらに、乗り物制御コンポーネント180は、アバターが交通規制用樽に近づくにつれて、アバターの知覚速度を調整することができる。これは、アバター又はグラフィック要素を、より近い焦点面に連続的に投影することによって又はグラフィック要素の動的焦点面を調整することによって、該動的焦点面と乗り物又は乗り物のフロント・ガラスとの間の距離が減少するようにして実現することができる。(逆に、アバターを、加速するように投影することが望ましい場合、動的焦点面を、該動的焦点面と乗り物又は該乗り物のフロント・ガラスとの間の距離が増加するように調整することができる)。   As another example, if the sensor component 570 detects a traffic regulation barrel in the current lane in which the vehicle is traveling, the vehicle control component 180 receives this information and a lane change navigation instruction is received by the HUD component 100. A decision can be made that it needs to be projected. The indication can be sent to the HUD component 100 through one or more CANs 580. The HUD component 100 can project, render, or animate lane change or relocation avatars or graphic elements in response to detected traffic control barrels. In other words, the HUD component 100 can project an avatar or icon that is displayed as it proceeds to sew or pass around the traffic control barrel. The traffic regulating barrel is located in front of the vehicle in an operating environment surrounding the vehicle. Also, the vehicle control component 180 can be configured to cause the HUD component 100 to project a turn signal light on the avatar of the vehicle for display when the actual vehicle changes lanes. In addition, the vehicle control component 180 can adjust the perception speed of the avatar as the avatar approaches the traffic control barrel. This can be achieved by continuously projecting an avatar or graphic element onto a closer focal plane or by adjusting the dynamic focal plane of the graphic element and the vehicle or vehicle windshield. It can be realized such that the distance between them decreases. (Conversely, if it is desired to project the avatar to accelerate, the dynamic focal plane is adjusted so that the distance between the dynamic focal plane and the vehicle or the vehicle windshield increases. be able to).

言い換えれば、乗り物制御コンポーネント180は1つ又は複数の道路状況を受信するように構成することができる。該1つ又は複数の道路状況のうちの1つには、1つ又は複数の道路区間の交通情報又は1つ又は複数の道路区間に対応する速度制限情報が含まれる。さらに、乗り物制御コンポーネント180は、HUDコンポーネント100を起動して、1つ又は複数のグラフィック要素を、1つ又は複数の道路状況、例えば、道路区間の制限速度及び該乗り物の現在速度、に基づいて、投影させるように構成することができる。このように、乗り物制御システム180は、1つ又は複数の適切なアクション(例えば、停止、加速、車線変更、減速等)又は、ナビゲーション命令を決定して、HUDコンポーネント100によって投影されるようにすることができる。   In other words, the vehicle control component 180 can be configured to receive one or more road conditions. One of the one or more road conditions includes traffic information of one or more road sections or speed limit information corresponding to one or more road sections. In addition, the vehicle control component 180 activates the HUD component 100 based on one or more graphic elements based on one or more road conditions, such as a road segment speed limit and the vehicle's current speed. Can be configured to project. In this manner, the vehicle control system 180 determines one or more appropriate actions (eg, stop, acceleration, lane change, deceleration, etc.) or navigation commands to be projected by the HUD component 100. be able to.

1つ又は複数の実施形態において、システム500は、HUDコンポーネント100によって投影される1つ又は複数のグラフィック要素の1つ又は複数の側面を管理する視野管理コンポーネント(図示せず)を含むことができる。1つ又は複数の実施形態において、制御コンポーネント104は、該側面の1つ又は複数又は乗り物制御コンポーネント180に関連する機能を管理するように構成することができる。たとえば、制御コンポーネント104は、1つ又は複数の道路状況を受信するように構成することができる。   In one or more embodiments, the system 500 can include a view management component (not shown) that manages one or more aspects of one or more graphic elements projected by the HUD component 100. . In one or more embodiments, the control component 104 can be configured to manage functions associated with one or more of the side or vehicle control components 180. For example, the control component 104 can be configured to receive one or more road conditions.

制御コンポーネント104は、HUDコンポーネント100によって表示、投影、アニメーション化又はレンダリング等がなされるグラフィック要素の種類を決定するように構成することができる。例えば、乗り物が比較的直線的な道路区間を含む経路の1つ又は複数の部分に沿って走行しているとき、制御コンポーネント104は、アバターであるグラフィック要素を投影する。該アバターは、乗り物や誘導用乗り物として表示又は投影される。乗り物が、1つ又は複数の曲がり角又は他のナビゲーション操作を含む経路の1つ又は複数の部分に沿って走行している場面では、制御コンポーネント104は、HUDコンポーネント100に指示して、1つ又は複数の曲がり角に対応する場所にマーカーであるグラフィック要素を投影させることができる。例えば、経路に第1の通りから第2の通りへの右折が含まれる場合、制御コンポーネント104は、HUDコンポーネント100に指示して、マーカー又は識別子を、第1の通りと第2の通りの交差点に、該交差点に向かって又は該交差点の周り等に、投影させることができる。このように、制御コンポーネント104は、表示されるべきグラフィック要素の1つ又は複数の種類(例えば、マーカー、識別子、旗竿、誘導用アバター等)を決定するように構成することができる。   The control component 104 can be configured to determine the types of graphic elements that are displayed, projected, animated or rendered by the HUD component 100. For example, when the vehicle is traveling along one or more portions of a route that includes a relatively straight road segment, the control component 104 projects a graphical element that is an avatar. The avatar is displayed or projected as a vehicle or a guidance vehicle. In situations where a vehicle is traveling along one or more portions of a route that includes one or more turns or other navigation operations, the control component 104 instructs the HUD component 100 to provide one or more A graphic element that is a marker can be projected at a location corresponding to a plurality of corners. For example, if the route includes a right turn from the first street to the second street, the control component 104 instructs the HUD component 100 to place the marker or identifier at the intersection of the first street and the second street. Can be projected toward or around the intersection. As such, the control component 104 can be configured to determine one or more types of graphic elements to be displayed (eg, markers, identifiers, flagpoles, guidance avatars, etc.).

さらに、制御コンポーネント104は、グラフィック要素を投影する位置を1つ又は複数決定するように構成することができる。言い換えれば、制御コンポーネント104は、いつ、どこにグラフィック要素を投影するか、又はどのようにグラフィック要素を表示するかを決定することができる。グラフィック要素の位置には、焦点面、乗り物又は乗り物のフロント・ガラスから該焦点面までの距離、例えば、x、y、z軸のx座標、y座標、z座標等を含まれる。該場所は、1つ又は複数のグラフィック要素に対する目標位置と呼ぶことができる。1つ又は複数の実施形態においては、制御コンポーネント104は、1つ又は複数のグラフィック要素の1つ又は複数の焦点面と乗り物(又は、例えば、乗り物のフロント・ガラス)との間の距離を、経路の1つ又は複数の部分に対応する1つ又は複数の道路状況、乗り物の現在位置、乗り物の現在速度、等に基づいて、調整するように構成することができる   Further, the control component 104 can be configured to determine one or more positions at which to project the graphic element. In other words, the control component 104 can determine when and where to project a graphic element or how to display the graphic element. The position of the graphic element includes the focal plane, the vehicle or the distance from the vehicle windshield to the focal plane, eg, x, y, z-axis x, y, z coordinates, etc. The location can be referred to as a target location for one or more graphic elements. In one or more embodiments, the control component 104 determines the distance between one or more focal planes of the one or more graphic elements and the vehicle (or vehicle windshield, for example), Can be configured to adjust based on one or more road conditions corresponding to one or more portions of the route, the current position of the vehicle, the current speed of the vehicle, etc.

すなわち、道路区間(例えば、乗り物が現在配置されている又は位置している経路の部分)が毎時65マイル(104.605km)の速度制限(例えば、道路状況)に対応し、該乗り物の(例えば、センサ・コンポーネント570によって検出される)現在速度が毎時25マイル(40.233km)(例えば、乗り物の現在速度)である場合、制御コンポーネント104は、HUDコンポーネント100に指示して、毎時約65マイル(104.605km)で走行しているように表示されるアバター又はグラフィック要素を投影するように構成することができる。1つ又は複数の実施形態においては、該アバターを、毎時25マイル(40.233km)から毎時65マイル(104.605km)への漸次的加速を表すように投影することができる。これは、該アバターの焦点面と該乗り物との間の距離を適宜調整することができることを意味する。例えば、該乗り物がほぼ同じペースで加速する場面では、該焦点面と該乗り物との間の距離は、ほぼ同じままであってよい。該乗り物が、該アバターよりも遅いペースで加速する場合、該焦点面と乗り物との間の距離が大きくなるように、制御コンポーネント104によって調整することができる。いずれの場合にも、上記調整は、該乗り物の現在位置又は該乗り物の現在速度、ならびに関連する経路の道路状況に基づいて行うことができる。   That is, a road segment (eg, the portion of the route on which the vehicle is currently located or located) corresponds to a speed limit of 65 miles per hour (eg, 104.605 km) (eg, road conditions) , Detected by sensor component 570), if the current speed is 25 mph (40.233 km) (eg, the current speed of the vehicle), control component 104 instructs HUD component 100 to provide approximately 65 mph It can be configured to project an avatar or graphic element that appears to be traveling at (104.605 km). In one or more embodiments, the avatar can be projected to represent a gradual acceleration from 25 miles per hour (40.233 km) to 65 miles per hour (104.605 km). This means that the distance between the focal plane of the avatar and the vehicle can be adjusted as appropriate. For example, in a scene where the vehicle accelerates at approximately the same pace, the distance between the focal plane and the vehicle may remain approximately the same. If the vehicle accelerates at a slower pace than the avatar, it can be adjusted by the control component 104 to increase the distance between the focal plane and the vehicle. In any case, the adjustment can be made based on the current position of the vehicle or the current speed of the vehicle and the road conditions of the associated route.

さらに、制御コンポーネント104は、グラフィック要素のサイズを、該グラフィック要素の焦点面と該乗り物の距離に従って又は基づいて、HUDコンポーネント100と連携して、調整又は決定するように構成することができる。これは、制御コンポーネント104が、グラフィック要素、誘導用アイコン又はアバターの高さ、サイズ、幅、奥行き、等を、目標とする知覚像に基づいて調整することができることを意味する。例えば、アバターが加速してみえるようにするために、制御コンポーネント104は、アバターのサイズを収縮又は縮小するように調整しながら、同時に、アバターを連続的に遠ざかる焦点面上に投影するか、又は、動的焦点面を該乗り物から次第に遠ざかるように調整することができる。   Further, the control component 104 can be configured to adjust or determine the size of a graphic element in conjunction with the HUD component 100 according to or based on the distance of the graphic element's focal plane and the vehicle. This means that the control component 104 can adjust the height, size, width, depth, etc. of the graphic element, guidance icon or avatar based on the target perceptual image. For example, to allow the avatar to appear to accelerate, the control component 104 projects the avatar onto a focal plane that continuously moves away while adjusting the size of the avatar to shrink or shrink, or The dynamic focal plane can be adjusted gradually away from the vehicle.

1つ又は複数の実施形態においては、該グラフィック要素のサイズは、ナビゲーション命令又はメッセージの重要度の表示として用いることができる。言い換えれば、メッセージやナビゲーション命令がより重要になるほど、より大きなアバター、アイコン又はグラフィック要素を投影する。   In one or more embodiments, the size of the graphic element can be used as an indication of the importance of a navigation instruction or message. In other words, the more important the message or navigation instruction, the larger the avatar, icon or graphic element that is projected.

制御コンポーネント104は、1つ又は複数のグラフィック要素に対する1つ又は複数の動作を、HUDコンポーネント100が投影することを決定するように構成することができる。例えば、制御コンポーネント104は、HUDコンポーネント100に指示を出して、アバターを投影させ、該アバターが加速、減速、停止、車線変更、車線変更前の方向指示灯の始動、フラッシュ、点滅、アバターの向きや角度の変更、アバターの色の変更等を行うようにすることができる。さらに、制御コンポーネント104は、1つ又は複数のグラフィック要素の目標位置を、道路状況、乗り物の現在位置、乗り物の現在速度又は、その他の属性、特性、又は測定結果に基づいて、調整することができる。1つ又は複数の実施形態において、制御コンポーネント104は、1つ又は複数のCAN580を介して、ナビゲーション・コンポーネント540とインタフェース接続又は通信することができる。   The control component 104 can be configured to determine that the HUD component 100 projects one or more actions on one or more graphic elements. For example, the control component 104 issues an instruction to the HUD component 100 to project an avatar, and the avatar accelerates, decelerates, stops, changes lane, starts a direction light before changing lane, flashes, blinks, and avatar direction It is possible to change the angle and the avatar color. Further, the control component 104 can adjust the target position of the one or more graphic elements based on road conditions, the current position of the vehicle, the current speed of the vehicle, or other attributes, characteristics, or measurement results. it can. In one or more embodiments, the control component 104 can interface or communicate with the navigation component 540 via one or more CANs 580.

制御コンポーネント104は、乗り物の運転者又は乗員の妨害になる可能性のある障害状況、混乱又は他の状況を緩和するように構成することができる。1つ又は複数の実施形態において、制御コンポーネント104は、水平位置をセンサ・コンポーネント570等から受信して、かつ、グラフィック要素を水平面又は空の面に投影するように構成することができる。該制御コンポーネントは、1つ又は複数のグラフィック要素の色、透明度又は陰影を、一日の時間帯、該経路に関連する交通混雑度、該経路に対する運転者の熟知度、等に基づいて、決定又は調整するように構成することができる。   The control component 104 can be configured to mitigate fault conditions, confusion, or other situations that can be an obstacle to the driver or occupant of the vehicle. In one or more embodiments, the control component 104 can be configured to receive a horizontal position from the sensor component 570 or the like and to project the graphic element onto a horizontal or empty plane. The control component determines the color, transparency or shadow of one or more graphic elements based on the time of day, the traffic congestion associated with the route, the driver's familiarity with the route, etc. Or it can be configured to adjust.

奥行きマップ・コンポーネント550は、操作環境のような、乗り物の周囲又は乗り物を取り囲む環境の奥行きマップを構築する又は受信するように構成することができる。HUDコンポーネント100は、該奥行きマップを用いて、これに従って、1つ又は複数のグラフィック要素を投影することができる。これは、仮にアバターが角を曲がり、建物に隠れている(例えば、建物が、乗り物の乗員の視線と、グラフィック要素やアバターの知覚位置又は目標位置の間にある)場合、HUDコンポーネント100が、見えるべきものの線上にあるアバター又はグラフィック要素の1つ又は複数の部分の投影を有効化又は無効化することができることを意味する。   The depth map component 550 can be configured to build or receive a depth map of an environment around or surrounding a vehicle, such as an operating environment. The HUD component 100 can project one or more graphic elements using the depth map accordingly. This is because if the avatar turns around a corner and hides in the building (eg, the building is between the vehicle occupant ’s line of sight and the perceived or target position of a graphic element or avatar), the HUD component 100 It means that the projection of one or more parts of an avatar or graphic element that is on the line of what is to be visible can be enabled or disabled.

奥行きマップ・コンポーネント550は、奥行きマップを、サーバ又はサード・パーティのサーバから受信するように構成することができる。例えば、奥行きマップ・コンポーネント550は、奥行きマップを、サーバから、テレマティックス・コンポーネント(図示せず)を介して起動したテレマティックス・チャネルを介してダウンロードすることができる。他の実施形態では、センサ・コンポーネント570は、奥行きマップを構築するために奥行きマップ・コンポーネント550が使用できる奥行き情報を検出するように構成することができる。すなわち、奥行きマップ・コンポーネント550は、1つ又は複数のセンサとインタフェース接続又は通信して、奥行きマップを構築する又は、事前構築された奥行きマップをデータベースから受信することができる。いずれにしても、奥行きマップ・コンポーネント550は、奥行き情報に基づいた奥行きマップを構築するか又は受信することができる。奥行きマップは、乗り物周囲の環境又は領域内の1つ又は複数の表面、オブジェクト、障害状況、空間的形状等の距離を表している。   The depth map component 550 can be configured to receive a depth map from a server or a third party server. For example, the depth map component 550 can download a depth map from a server via a telematics channel activated via a telematics component (not shown). In other embodiments, the sensor component 570 can be configured to detect depth information that the depth map component 550 can use to construct a depth map. That is, the depth map component 550 can interface or communicate with one or more sensors to build a depth map or receive a pre-built depth map from a database. In any case, the depth map component 550 can construct or receive a depth map based on the depth information. The depth map represents the distance of one or more surfaces, objects, obstacle situations, spatial shapes, etc. within the environment or area around the vehicle.

奥行きマップは、制御コンポーネント104に渡す又は送信することができる。該制御コンポーネント104は、これに応じて、HUDコンポーネント100に指示して、1つ又は複数のグラフィック要素をレンダリングすることができる。例えば、HUDコンポーネント100は、グラフィック要素を、乗り物の乗員に対応するアイ・ボックスの高さ、乗り物の位置、かつ、前記領域の奥行きマップに基づいて、投影又はレンダリングする。該奥行きマップは、主導的に感知又は、データベースから受信することができる。HUDコンポーネント100は、1つ又は複数のグラフィック要素を奥行きマップに基づいて投影して、乗り物の1人又は複数の乗員に対して一つの遠近図を表示することができる。   The depth map can be passed to or transmitted to the control component 104. The control component 104 can instruct the HUD component 100 to render one or more graphic elements accordingly. For example, the HUD component 100 projects or renders graphic elements based on the height of the eye box corresponding to the vehicle occupant, the position of the vehicle, and the depth map of the region. The depth map can be proactively sensed or received from a database. The HUD component 100 can project one or more graphic elements based on the depth map to display a perspective view for one or more occupants of the vehicle.

奥行きバッファ・コンポーネント560は、乗り物の1人又は複数の乗員の遠近制御を、奥行きマップ・コンポーネント550が生成又は受信した奥行きマップを用いて、容易化するように構成することができる。すなわち、該奥行きバッファ・コンポーネントは、グラフィック要素が乗員に視覚的に「正確に」見えるように、グラフィック要素のレンダリングを容易化するように構成することができる。例えば、グラフィック要素が実世界のオブジェクトの背後に投影される必要がある場合、奥行きバッファ・コンポーネント560は、グラフィック要素の一部を投影又はレンダリングしないで、該グラフィック要素の一部を乗員から「隠す」ことができる。言い換えれば、奥行きバッファ・コンポーネント560は、グラフィック要素のどの部分(例えば、画素)を、描画、投影又はレンダリングするか、及びどの部分をしないかを制御することができる。この目的のために、奥行きバッファ・コンポーネント560は、1つ又は複数の該グラフィック要素の1つ又は複数の部分のレンダリングを、奥行きマップに基づいて、有効化又は無効化するように構成することができる。   The depth buffer component 560 can be configured to facilitate perspective control of one or more occupants of a vehicle using the depth map generated or received by the depth map component 550. That is, the depth buffer component can be configured to facilitate rendering of graphic elements such that the graphic elements are visually “accurate” to the occupant. For example, if a graphic element needs to be projected behind a real-world object, the depth buffer component 560 “hides” the graphic element from the occupant without projecting or rendering the graphic element. "be able to. In other words, the depth buffer component 560 can control which portions (eg, pixels) of a graphic element are drawn, projected or rendered, and which portions are not. For this purpose, the depth buffer component 560 can be configured to enable or disable rendering of one or more portions of one or more of the graphic elements based on the depth map. it can.

さらに、奥行きバッファ・コンポーネント560は、実世界のオブジェクトを不鮮明にし、それにより、乗り物の乗員が見ることができるものを隠すように構成することができる。例えば、奥行きバッファ・コンポーネント560は、HUDコンポーネント100に白色のグラフィック要素を投影するように指示して、該グラフィック要素が、看板等のような実世界のオブジェクト(例えば、センサ・コンポーネント570によって検出される)を覆うようにすることができる。その結果、乗員には該看板が見えないか又は、不鮮明に見えることになる。このように、該奥行きバッファ・コンポーネントは、減損現実を可能にするグラフィック要素を提供することにより、乗り物の運転者や乗員の混乱を緩和するように構成することができる。   Additionally, the depth buffer component 560 can be configured to blur real world objects, thereby hiding what a vehicle occupant can see. For example, the depth buffer component 560 instructs the HUD component 100 to project a white graphic element that is detected by a real-world object such as a signboard (eg, sensor component 570). Can be covered. As a result, the sign cannot be seen by the occupant or may appear unclear. In this manner, the depth buffer component can be configured to mitigate vehicle driver and occupant confusion by providing graphic elements that enable impaired reality.

HUDコンポーネント100によって投影することができるナビゲーション命令の例としては、誘導車への追従、加速(例えば、動的焦点面を、該焦点面から乗り物までの距離が増加するように変化させ、それにより、運転者又は乗員が該グラフィック要素に持ち得る遠近感を調整する)、減速(例えば、焦点面と乗り物との間の距離が減少するように調整する)、車線変更(例えば、グラフィック要素の目標位置を調整する)、障害状況の迂回、旋回、到着、場所のマーキング等がある。1例として、制御コンポーネント104は、歩行者が道路区間、道路、横断歩道等に足を踏み入れた場合、HUDコンポーネント100に指示して、アバターが減速するように投影させることができる。別の例として、制御部104は、HUDコンポーネント100に指示して、旋回の角度、道路区間に対応する制限速度、氷等の道路状況に基づいてアバターを減速するように投影することができる。すなわち、氷が路面にある場合、制御部104はHUDコンポーネント100に指示して、氷が路面に存在しない場合よりも遅く進むアバターを投影させることができる。   Examples of navigation commands that can be projected by the HUD component 100 include following a guided vehicle, acceleration (eg, changing the dynamic focal plane to increase the distance from the focal plane to the vehicle, thereby Adjusting the perspective that the driver or occupant may have on the graphic element), decelerating (eg adjusting the distance between the focal plane and the vehicle to decrease), lane changing (eg the target of the graphic element) Adjust position), circumvent obstacles, turn, arrive, mark location, etc. As an example, when the pedestrian steps into a road section, road, pedestrian crossing, etc., the control component 104 can instruct the HUD component 100 to project the avatar to decelerate. As another example, the control unit 104 may instruct the HUD component 100 to project the avatar to decelerate based on the turning angle, the speed limit corresponding to the road section, and road conditions such as ice. That is, when ice is on the road surface, the control unit 104 can instruct the HUD component 100 to project an avatar that travels slower than when ice is not present on the road surface.

1つ又は複数の実施形態では、制御コンポーネント100は、次の曲がり角又は交差点をマーカー、旗の柱、旗竿、識別子等でマーク又は識別することができる。例えば、HUDコンポーネント100は、表示位置確保記号又はマーカーを、乗り物の乗員の眺望に沿って、レンダリング又は投影することができる。奥行きマップ・コンポーネント550は、建物、樹木等の複数の現実のオブジェクトが、表示位置確保記号の1つ又は複数の部分に対する視線の妨げとして作用するような奥行きマップを提供するように構成することができる。1例として、表示位置確保記号が100フィート(30.48m)の知覚されるべき高さを有し、かつ50フィート(15.24m)の高さの建物が表示位置確保記号の前にある場合、奥行きバッファ・コンポーネント560は、表示位置確保記号のグラフィック要素の下部のレンダリング又は投影を無効化することによって、視線を妨げるように補正することができ、このようにして、運転者又は乗員の視点に応じて表示位置確保記号をレンダリングすることができる。   In one or more embodiments, the control component 100 can mark or identify the next turn or intersection with a marker, flag post, flagpole, identifier, or the like. For example, the HUD component 100 can render or project a display location securing symbol or marker along a vehicle occupant's view. The depth map component 550 may be configured to provide a depth map in which multiple real objects, such as buildings, trees, etc., act as a line of sight obstruction for one or more portions of the display location securing symbol. it can. As an example, the display position securing symbol has a height to be perceived of 100 feet (30.48 m), and a building with a height of 50 feet (15.24 m) is in front of the display position securing symbol. , The depth buffer component 560 can be corrected to obstruct the line of sight by disabling rendering or projection of the bottom of the graphic element of the display position securing symbol, and thus the driver or occupant perspective. The display position securing symbol can be rendered according to the above.

1つ又は複数の実施形態において、1つ又は複数のグラフィック要素が、乗り物の乗員の視野に、前記経路(例えば、誘導車追従モード)に基づいて投影される。1つ又は複数の実施形態で、グラフィック要素を、アバター又は他の誘導用アイコンとして投影することができる。アバターは、乗り物周囲の現実世界の環境に向かって、飛んでいるように見え、かつ、表示される。アバターは、3−D空間内または3次元の中で移動、運行又は、「飛ぶ」ことができる。このため、アバターやグラフィック要素は3−D内で移動するように見え、それによって、アバターに追従する乗員又は運転者に対して、より直感的な感覚や安心感を与えることができる。一例として、アバター、グラフィック要素又は誘導用アイコンを、高さやサイズが乗り物の乗員からの知覚距離に基づいて変化して見えるように投影することができる。該アバターは、移動するアバターを1つ又は複数の異なる焦点面上に順次投影することによって、アニメーション化することができる。さらに、該アバターは、実際の乗り物がするように、障害状況、障害物、歩行者、破片、窪み、等の周りを迂回するように見えてもよい。1つ又は複数の実施形態において、アバターは、実時間の交通状況に則して、「運転する」、移動する、移動するように見えることがある。アバターは、他の乗り物と「衝突」する、または、交通を妨害するようには見えないような形で、車線を変更することができる。別の例としては、ある経路で運転者や乗り物が線路を横切る必要がある場合、該アバターは列車が交差するときに該線路で停止することができる。他の実施形態では、HUDコンポーネント100は、一時停止の標識又は赤信号で停止する、又は、交通法規を遵守するアバター又はグラフィック要素を投影するように構成することができる。目的地に到着した場合、HUDコンポーネント100は、例えば、休息のポーズをしたアバターをレンダリング又は投影するように構成することができる。   In one or more embodiments, one or more graphic elements are projected onto a vehicle occupant's field of view based on the path (eg, guided vehicle following mode). In one or more embodiments, the graphic element can be projected as an avatar or other guidance icon. The avatar appears to be flying and displayed towards the real world environment around the vehicle. An avatar can move, navigate or “fly” in 3-D space or in three dimensions. For this reason, an avatar and a graphic element seem to move within 3-D, and can give a more intuitive feeling and a sense of security to the crew member or driver who follows an avatar by it. As an example, an avatar, graphic element or guidance icon can be projected such that the height or size appears to change based on the perceived distance from the vehicle occupant. The avatar can be animated by sequentially projecting the moving avatar onto one or more different focal planes. Further, the avatar may appear to bypass around obstacle situations, obstacles, pedestrians, debris, dents, etc. as an actual vehicle does. In one or more embodiments, an avatar may appear to “drive”, move, or move according to real-time traffic conditions. The avatar can change lanes in such a way that it does not appear to "clash" with other vehicles or obstruct traffic. As another example, if a driver or vehicle needs to cross a track on a route, the avatar can stop on the track when the train crosses. In other embodiments, the HUD component 100 may be configured to stop with a stop sign or red light, or to project an avatar or graphic element that complies with traffic laws. When arriving at the destination, the HUD component 100 can be configured to render or project a resting avatar, for example.

このように、3Dナビゲーション・システム500は、直感的なメッセージ、命令又は指示を、運転者等の乗り物の乗員に対して生成することができる。該命令は遠近に関する1つ又は複数の属性に基づくことができ、該遠近は立体的な3−Dグラフィック要素を1つ又は複数の調整可能な焦点面に沿って投影又はレンダリングするHUDコンポーネントの性能によって決まる。例えば、3−D効果は、距離、遠近、知覚距離、道路状況等に基づいて決めることができる。   In this manner, the 3D navigation system 500 can generate intuitive messages, instructions, or instructions for a vehicle occupant such as a driver. The instructions can be based on one or more attributes related to perspective, where the perspective projects or renders a stereoscopic 3-D graphic element along one or more adjustable focal planes. It depends on. For example, the 3-D effect can be determined based on distance, perspective, perceived distance, road conditions, and the like.

図6は、1つ又は複数の実施形態による、3−Dナビゲーションの方法のフロー図の1例600の説明図である。602において、経路を、起点位置から目的位置まで生成する。1つ又は複数の実施形態において、該起点位置又は目的位置は、例えば全地球測位システム(GPS)ユニットから、テレマティックス・チャネルを介して受信することができる。604において、1つ又は複数のグラフィック要素を、乗り物の乗員の視野内の1つ又は複数の焦点面に投影する。ここで、グラフィック要素は、アバター、画像、アイコン、識別子、マーカー等として表示することができる。さらに、これらのグラフィック要素は、前記経路の1つ又は複数の部分に基づくことができる。この意味は、これらのグラフィック要素を、乗り物が位置する可能性のある前記経路の一部(例えば、乗り物の現在位置)に応じてさまざまな距離に投影することができると言うことである。   FIG. 6 is an illustration of an example flow 600 of a 3-D navigation method, according to one or more embodiments. At 602, a route is generated from the origin position to the destination position. In one or more embodiments, the origin location or destination location may be received via a telematics channel, for example, from a Global Positioning System (GPS) unit. At 604, the one or more graphic elements are projected onto one or more focal planes within the field of view of the vehicle occupant. Here, the graphic element can be displayed as an avatar, an image, an icon, an identifier, a marker, or the like. Furthermore, these graphic elements can be based on one or more parts of the path. This means that these graphic elements can be projected at various distances depending on the part of the path in which the vehicle may be located (eg the current position of the vehicle).

606において、焦点面と該乗り物との間の距離を、前記経路の1つ又は複数の部分に対応する道路状況に基づいて調整する。さらに、前記距離は、また、該乗り物の現在速度に基づいて調整することができる。例えば、乗り物が時速65マイル(104.605km)の速度制限がつけられた経路の一部に沿って走行し、かつ、該乗り物の現在速度が毎時25マイル(40.233km)である場合、投影されたグラフィック要素とアバターの焦点面の間の距離を増加させる(例えば、運転者や乗員に加速するよう指示するため)。言い換えれば、該グラフィック要素を、毎時約65マイル(104.605km)で走行して見えるように投影することができ、それによって、乗員又は運転者に、加速してアバターに「追いつく」ように促すことができる(例えば、誘導用乗り物への追従に似せて又は、それをシミュレーションして)。   At 606, the distance between the focal plane and the vehicle is adjusted based on road conditions corresponding to one or more portions of the route. Furthermore, the distance can also be adjusted based on the current speed of the vehicle. For example, if a vehicle travels along a part of a route with a speed limit of 65 mph (104.605 km) and the current speed of the vehicle is 25 mph (40.233 km) Increase the distance between the rendered graphic element and the focal plane of the avatar (eg, to instruct the driver or occupant to accelerate). In other words, the graphic element can be projected to appear to run at about 65 miles per hour (104.605 km), thereby urging the occupant or driver to accelerate and "catch up" the avatar. (E.g., mimicking following a guidance vehicle or simulating it).

図7Aは、1つ又は複数の実施形態による、3−Dナビゲーション用のアバターの1例700の説明図である。図7Aのアバター700は、乗り物の前方に表われ、要素、障害状況、通行物、道路状況等の周りで、飛行、滑空、移動、操縦等をすることができる。図7Bは、1つ又は複数の実施形態による、3−Dナビゲーション用のアバター(複数可)の1例710の説明図である。図7Bのアバター(複数可)710は高い視野から見えるもので、例えば、アバター710の若干後方からの鳥瞰図で見えるようなものである。1つ又は複数のアバター710が1つ又は複数の異なる焦点面又は目標位置に投影され、それによって、運転者又は乗員に、実際の乗り物を追尾しているような感覚を与えることがわかる。   FIG. 7A is an illustration of an example avatar 700 for 3-D navigation, according to one or more embodiments. The avatar 700 of FIG. 7A appears in front of the vehicle and can fly, glide, move, maneuver, etc. around elements, obstacles, traffic, road conditions, etc. FIG. 7B is an illustration of an example 710 of avatar (s) for 3-D navigation, according to one or more embodiments. The avatar (s) 710 in FIG. 7B is visible from a high field of view, for example, as seen in a bird's eye view from slightly behind the avatar 710. It can be seen that one or more avatars 710 are projected onto one or more different focal planes or target positions, thereby giving the driver or occupant the feeling of tracking an actual vehicle.

図8Aは、1つ又は複数の実施形態による、3−Dナビゲーション用のアバターの1例800の説明図である。図8Aのアバター800は、反時計回りに回転して、左折を示している。図8Bは、1つ又は複数の実施形態による、3−Dナビゲーション用のアバターの1例810の説明図である。1つ又は複数の実施形態において、図8Bのアバター810は、点滅、フラッシュ、色の変更等によって、左折を指示することができる。例えば、紙飛行機のアバター810の左の翼は、光る又は明るさが変わって、次に左折することを示すことができる。1つ又は複数の実施形態において、アバターを該乗り物に近い焦点面に投影して、該アバターが旋回する前に「減速」して見えるようにすることができる。   FIG. 8A is an illustration of an example avatar 800 for 3-D navigation, according to one or more embodiments. The avatar 800 in FIG. 8A rotates counterclockwise to indicate a left turn. FIG. 8B is an illustration of an example avatar 810 for 3-D navigation, according to one or more embodiments. In one or more embodiments, the avatar 810 of FIG. 8B can indicate a left turn by blinking, flashing, changing colors, and the like. For example, the left wing of a paper airplane avatar 810 may indicate that it will shine or change brightness and then turn left. In one or more embodiments, an avatar can be projected onto a focal plane close to the vehicle so that the avatar appears to “decelerate” before it turns.

図9Aは、1つ又は複数の実施形態による、3−Dナビゲーション用のアバターの1例900の説明図である。図9Bは、1つ又は複数の実施形態による、3−Dナビゲーション用のアバターの1例910の説明図である。図9Aのアバター900は、例えば、乗り物の運転者が減速するためのナビゲーション命令として投影することができる。図9Bにおいて、アバター910は地平の上又は空の面に投影されて、該アバター910が、運転者又は乗員が該乗り物の周囲環境の1つ又は複数の部分を見る邪魔にならないようにする。   FIG. 9A is an illustration of an example avatar 900 for 3-D navigation, according to one or more embodiments. FIG. 9B is an illustration of an example avatar 910 for 3-D navigation, according to one or more embodiments. The avatar 900 of FIG. 9A can be projected as a navigation command for a vehicle driver to decelerate, for example. In FIG. 9B, the avatar 910 is projected above the horizon or onto an empty surface so that the avatar 910 does not interfere with the driver or occupant looking at one or more parts of the surrounding environment of the vehicle.

さらに別の実施形態では、本明細書で開示する技術の1つ又は複数の実施形態を実装するように構成された、プロセッサ実行可能命令を含むコンピュータ可読媒体が含まれる。前記方法で考案されたコンピュータ可読媒体、又は、コンピュータ可読デバイスの実施形態を図10に示す。図10では、実装1000には、コンピュータ可読データ1006が符号化されて記録されているCD−R、DVD−R、フラッシュ・ドライブ、ハード・ディスク・ドライブのプラッタのような、コンピュータ可読媒体1008が含まれる。1006に示すような、複数の0又は1を含むバイナリ・データ等のコンピュータ可読データ1006には、本明細書に記載の原理の1つ又は複数に従って動作するように構成されたコンピュータ命令のセットを順に含んでいる。このような一実施形態1000では、プロセッサ実行可能なコンピュータ命令1004が、図6の方法600のような方法1002を実行するように構成されている。別の実施形態では、図5のシステム500のようなシステムを実装するように、プロセッサ実行可能命令1004を構成している。上記のようなコンピュータ可読媒体の多くは、本明細書で紹介した技術に従って動作するように、本技術分野の当業者によって考案される。   In yet another embodiment, a computer-readable medium that includes processor-executable instructions configured to implement one or more embodiments of the technology disclosed herein is included. FIG. 10 shows an embodiment of a computer readable medium or a computer readable device devised by the above method. In FIG. 10, implementation 1000 includes a computer readable medium 1008, such as a CD-R, DVD-R, flash drive, hard disk drive platter, on which computer readable data 1006 is encoded and recorded. included. Computer readable data 1006, such as binary data including a plurality of zeros or ones, as shown at 1006, includes a set of computer instructions configured to operate in accordance with one or more of the principles described herein. Includes in order. In one such embodiment 1000, processor-executable computer instructions 1004 are configured to perform a method 1002, such as the method 600 of FIG. In another embodiment, the processor executable instructions 1004 are configured to implement a system such as the system 500 of FIG. Many of the above computer readable media are devised by those skilled in the art to operate in accordance with the techniques introduced herein.

本願で使用されるように、「コンポーネント」、「モジュール」、「システム」、「インタフェース」等の用語は、一般に、コンピュータに関連する実体、ハードウェア、ハードウェアとソフトウェアの組み合わせ、ソフトウェア又は実行中のソフトウェアのどれかを指すように意図されている。例えば、一つのコンポーネントは、プロセッサ上で実行中のプロセス、プロセッサ、オブジェクト、実行可能ファイル、実行スレッド、プログラム又は、コンピュータである可能性があるが、これに限定されない。説明によっては、制御部で実行中のアプリケーション及び、該制御部の両方ともがコンポーネントであり得る。プロセス又は、実行スレッド内に存在する1つ又は複数のコンポーネント及び、1つのコンポーネントが1台のコンピュータに局在又は、2台以上のコンピュータ間に分散することができる。   As used herein, the terms “component”, “module”, “system”, “interface”, etc., generally refer to computer-related entities, hardware, a combination of hardware and software, software or running Is intended to point to any of the software. For example, a component can be, but is not limited to being, a process running on a processor, a processor, an object, an executable, an execution thread, a program, or a computer. Depending on the description, both the application running on the control unit and the control unit may be components. One or more components present in a process or execution thread and one component can be localized on one computer or distributed between two or more computers.

さらに、特許請求された主題は、開示された主題を実装するコンピュータを制御するソフトウェア、ファームウェア、ハードウェア又は、それらの任意の組み合わせを製造するために標準プログラミング又はエンジニアリングの技術を用いた、方法、装置又は製造物品として実現される。本明細書で使用される用語「製造物品」は、任意のコンピュータ可読デバイス、コンピュータ可読キャリア又はコンピュータ可読媒体からアクセス可能なコンピュータプログラムを包含することを意図している。もちろん、特許請求された主題の範囲又は思想から逸脱することなく、該構成に多くの改変を加えることができる。   Further, the claimed subject matter uses methods of standard programming or engineering to produce software, firmware, hardware, or any combination thereof that controls a computer that implements the disclosed subject matter, Realized as a device or manufactured article. The term “article of manufacture” as used herein is intended to encompass a computer program accessible from any computer readable device, computer readable carrier, or computer readable medium. Of course, many modifications may be made to the structure without departing from the scope or spirit of the claimed subject matter.

図11及び、以下の議論では、本明細書に記載された1つ又は複数の条件の実施形態の実施に適したコンピューティング環境について説明する。
図11の動作環境は、適切な動作環境の単なる一例であり、動作環境の使用範囲又は機能範囲に関して何ら限定を示唆するものではない。例示のコンピューティング・デバイスには、パーソナル・コンピュータ、サーバ・コンピュータ、ハンドヘルド・デバイス又はラップトップ・デバイス、携帯電話、携帯情報端末(PDA)、メディア・プレーヤ等のモバイル機器、マルチプロセッサ・システム、消費者向け電子機器、ミニ・コンピュータ、メインフレーム・コンピュータ、任意の上記システム又はデバイスを含む分散コンピューティング環境、等がある。
FIG. 11 and the following discussion describe a computing environment suitable for implementing one or more of the condition embodiments described herein.
The operating environment of FIG. 11 is merely an example of a suitable operating environment and does not suggest any limitation with respect to the usage range or functional range of the operating environment. Exemplary computing devices include personal computers, server computers, handheld or laptop devices, mobile devices such as mobile phones, personal digital assistants (PDAs), media players, multiprocessor systems, consumption Consumer electronics, mini computers, mainframe computers, distributed computing environments including any of the above systems or devices, and the like.

一般に、実施形態は、1つ又は複数のコンピューティング・デバイスによって実行される「コンピュータ可読命令」の概略的な流れで説明されている。コンピュータ可読命令は、後述するように、コンピュータ可読媒体によって配布される。コンピュータ可読命令は、1つ又は複数のタスクを実行するか又は、1つ又は複数の抽象データ型を実装するような、関数、オブジェクト、アプリケーション・プログラミング・インタフェース(API)、データ構造等のプログラム・モジュールとして実装される。通常、コンピュータ可読命令の機能は、さまざまな環境に望ましいように組み合わせられているか又は、分散されている。   In general, embodiments are described in the general flow of “computer readable instructions” executed by one or more computing devices. The computer readable instructions are distributed by computer readable media as described below. A computer readable instruction is a program, such as a function, object, application programming interface (API), data structure, etc., that performs one or more tasks or implements one or more abstract data types. Implemented as a module. In general, the functionality of computer-readable instructions is combined or distributed as desired in various environments.

図11は、本明細書で提供される1つ又は複数の実施形態を実装するように構成されたコンピューティング・デバイス1112を含むシステム1100の説明図である。一つの構成では、コンピューティング・デバイス1112は、1つ又は複数の処理ユニット1116及びメモリ1118を含む。メモリ1118は、コンピューティング・デバイスの詳細な構成及び種類に応じて、RAMのような不揮発性にすることができ、ROM、フラッシュ・メモリのような揮発性にすることができ、又はその2つの組み合わせにすることができる。該構成は、図11では、破線1114で示されている。   FIG. 11 is an illustration of a system 1100 that includes a computing device 1112 configured to implement one or more embodiments provided herein. In one configuration, computing device 1112 includes one or more processing units 1116 and memory 1118. The memory 1118 can be non-volatile such as RAM, volatile such as ROM, flash memory, or the two, depending on the detailed configuration and type of computing device. Can be combined. This configuration is indicated by the dashed line 1114 in FIG.

他の実施形態において、デバイス1112は、追加の特徴又は機能を有する。例えば、デバイス1112は、着脱可能な記憶装置又は、着脱不可能な記憶装置を有することができる。これには、磁気記憶装置、光学記憶装置等の付加的な記憶装置を含むが、これらに限定されない。このような付加的な記憶装置は、図11では、記憶部1120で示されている。1つ又は複数の実施形態では、本明細書で提供される1つ又は複数の実施形態を実装するコンピュータ可読命令は、記憶部1120に格納されている。記憶部1120には、オペレーティング・システム、アプリケーション・プログラム等を実装する他のコンピュータ可読命令を格納することができる。コンピュータ可読命令は、例えば、処理ユニット1116による実行の為にメモリ1118にロードされる。   In other embodiments, device 1112 has additional features or functions. For example, the device 1112 can include a removable storage device or a non-removable storage device. This includes, but is not limited to, additional storage devices such as magnetic storage devices and optical storage devices. Such an additional storage device is indicated by a storage unit 1120 in FIG. In one or more embodiments, computer readable instructions that implement one or more embodiments provided herein are stored in storage 1120. The storage unit 1120 can store other computer-readable instructions that implement an operating system, application programs, and the like. Computer readable instructions are loaded into memory 1118 for execution by processing unit 1116, for example.

本明細書で使用される用語「コンピュータ可読媒体」には、コンピュータ記憶媒体を含む。コンピュータ記憶媒体には、コンピュータ可読命令又は他のデータのような情報を記憶するための任意の方法又は技術が実装された、揮発性及び不揮発性の、着脱可能及び着脱不可能な媒体を含む。メモリ1118と記憶部1120は、コンピュータ記憶媒体の例である。コンピュータ記憶媒体には、RAM、ROM、EEPROM、フラッシュ・メモリ又は他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)又は他の光記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置又は他の磁気記憶装置又は、所望の情報を格納するために使用することができ、かつ、デバイス1112によってアクセスすることができる、その他の任意の媒体が含まれるが、これに限定されない。上記のような任意のコンピュータ記憶媒体が、デバイス1112の一部である。   The term “computer-readable medium” as used herein includes computer storage media. Computer storage media includes volatile and non-volatile removable and non-removable media implemented with any method or technique for storing information such as computer-readable instructions or other data. The memory 1118 and the storage unit 1120 are examples of computer storage media. Computer storage media include RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital versatile disk (DVD) or other optical storage device, magnetic cassette, magnetic tape, magnetic disk storage device or This includes, but is not limited to, other magnetic storage devices or any other medium that can be used to store desired information and that can be accessed by device 1112. Any computer storage medium as described above is part of device 1112.

用語「コンピュータ可読媒体」には、通信媒体が含まれる。通信媒体には、通常、コンピュータ可読命令又は他のデータが、搬送波又は他の伝送機構のような「変調データ信号」の形で取り込まれ、かつ、任意の情報配信媒体が含まれる。用語「変調データ信号」には、情報を信号に符号化するように設定又は変更された1つ又は複数の特性を有する信号が含まれる。   The term “computer-readable medium” includes communication media. Communication media typically embodies computer readable instructions or other data in the form of a “modulated data signal” such as a carrier wave or other transport mechanism, and includes any information delivery media. The term “modulated data signal” includes a signal that has one or more of its characteristics set or changed in such a manner as to encode information in the signal.

デバイス1112には、キー・ボード、マウス、ペン、音声入力装置、タッチ入力装置、赤外線カメラ、ビデオ入力装置又は他の任意の入力デバイスのような、入力デバイス(複数可)1124が含まれる。1つ又は複数のディスプレイ、スピーカ、プリンタ又は他の任意の出力デバイスのような出力デバイス(複数可)1122を、デバイス1112に含むことができる。入力デバイス(複数可)1124と出力デバイス(複数可)1122は、有線接続、無線接続又はそれらの任意の組み合わせを介してデバイス1112と接続される。1つ又は複数の実施形態において、別のコンピューティング・デバイスからの入力デバイス又は出力デバイス(複数可)が、コンピューティング・デバイス1112用の入力装置(複数可)1124又は出力デバイス(複数可)1122として使用される。デバイス1112は、1つ又は複数の他のデバイスとの通信を容易にするために、通信接続部(複数可)1126を含むことができる。   Device 1112 includes input device (s) 1124 such as a keyboard, mouse, pen, voice input device, touch input device, infrared camera, video input device or any other input device. Output device (s) 1122 may be included in device 1112, such as one or more displays, speakers, printers or any other output device. Input device (s) 1124 and output device (s) 1122 are connected to device 1112 via a wired connection, a wireless connection, or any combination thereof. In one or more embodiments, input device (s) or output device (s) from another computing device may be input device (s) 1124 or output device (s) 1122 for computing device 1112. Used as. Device 1112 can include communication connection (s) 1126 to facilitate communication with one or more other devices.

1つ又は複数の実施形態によれば、起点位置と目的位置を受信するように構成されたナビゲーション・コンポーネントを具備する、3次元(3−D)ナビゲーション・システムが提供される。該ナビゲーション・コンポーネントは、一つの乗り物に対応付けられ、起点位置から目的位置への経路を生成するように構成することができる。該経路の1つ又は複数の部分には、1つ又は複数の道路区間又は該道路区間の1つ又は複数の交差点に関連する1つ又は複数のナビゲーション命令を含むことができる。該システムは、乗り物の周囲環境の周りの1つ又は複数の焦点面上に1つ又は複数のグラフィック要素を投影するように構成されたヘッド・アップ・ディスプレイ(HUD)コンポーネントを含むことができる。該HUDコンポーネントは、該経路に基づいて、該乗り物の乗員の視野に1つ又は複数のグラフィック要素を投影するように構成することができる。該システムは、1つ又は複数のグラフィック要素の1つ又は複数の焦点面と該乗り物との間の距離を、該経路の1つ又は複数の部分に対応する1つ又は複数の道路状況及び該乗り物の現在位置に基づいて、調整するように構成された制御コンポーネントを含むことができる。   According to one or more embodiments, a three-dimensional (3-D) navigation system is provided that includes a navigation component configured to receive an origin location and a destination location. The navigation component is associated with one vehicle and can be configured to generate a route from a starting position to a destination position. One or more portions of the route may include one or more navigation instructions associated with one or more road sections or one or more intersections of the road sections. The system may include a head up display (HUD) component configured to project one or more graphic elements onto one or more focal planes around the vehicle's surrounding environment. The HUD component may be configured to project one or more graphic elements onto the vehicle occupant's field of view based on the path. The system determines a distance between one or more focal planes of one or more graphic elements and the vehicle, one or more road conditions corresponding to one or more portions of the route, and the A control component can be included that is configured to adjust based on the current position of the vehicle.

1つ又は複数の実施形態では、該制御コンポーネントは、1つ又は複数の道路状況や乗り物の現在位置に基づいて、1つ又は複数のグラフィック要素の目標位置を調節するように構成することができる。前記システムは、1つ又は複数の道路状況を受信するように構成された乗り物制御コンポーネントを含むことができる。さらに、該システムは、1つ又は複数の道路状況を検出するように構成されたセンサ・コンポーネントを含むことができる。該1つ又は複数の道路状況のうちのある一つの道路状況には、1つ又は複数の道路区間の交通情報、又は、1つ又は複数の該道路区間に対応する速度制限情報を含むことができる。さらに、道路状況には、例えば、障害状況、障害物、歩行者、破片又は窪みを含むことができる。   In one or more embodiments, the control component can be configured to adjust the target position of one or more graphic elements based on one or more road conditions or the current position of the vehicle. . The system can include a vehicle control component configured to receive one or more road conditions. Further, the system can include a sensor component configured to detect one or more road conditions. One road condition of the one or more road conditions may include traffic information of one or more road sections or speed limit information corresponding to the one or more road sections. it can. Furthermore, the road conditions can include, for example, obstacle conditions, obstacles, pedestrians, debris or depressions.

前記システムは、乗り物の周囲環境の奥行きマップを構築するように構成された奥行きマップ・コンポーネントを含むことができる。該HUDコンポーネントは、該環境の奥行きマップに基づいて、1つ又は複数のグラフィック要素を投影するように構成することができる。奥行きマップ・コンポーネントは、奥行き情報に基づく奥行きマップを構築するように構成することができる。1つ又は複数の実施形態において、該システムは、乗り物の周囲環境からの奥行き情報を検出するように構成されたセンサ・コンポーネントを含むことができる。該奥行きマップ・コンポーネントは、テレマティックス・チャネルに基づく奥行きマップを受信するように構成することができる。該システムは、該奥行きマップに基づいて、1つ又は複数のグラフィック要素の1つ又は複数の部分のレンダリングを有効又は無効にするように構成された奥行きバッファ・コンポーネントを含むことができる。   The system can include a depth map component configured to build a depth map of the surrounding environment of the vehicle. The HUD component can be configured to project one or more graphic elements based on a depth map of the environment. The depth map component can be configured to build a depth map based on the depth information. In one or more embodiments, the system can include a sensor component configured to detect depth information from the vehicle's surrounding environment. The depth map component can be configured to receive a depth map based on a telematics channel. The system can include a depth buffer component configured to enable or disable rendering of one or more portions of one or more graphic elements based on the depth map.

該HUDコンポーネントは、旗竿、マーカー、識別子のような1つ又は複数のグラフィック要素を、移動アバター又は表示位置確保記号として投影するように構成することができる。   The HUD component can be configured to project one or more graphic elements, such as flagpoles, markers, identifiers, as mobile avatars or display location securing symbols.

1つ又は複数の実施形態によれば、乗り物に対して起点位置から目的位置に至る経路を生成することを含む、3次元(3−D)ナビゲーションのための方法が提供される。該経路の1つ又は複数の部分には、1つ又は複数の道路区間又は該道路区間の1つ又は複数の交差点に関連する1つ又は複数のナビゲーション命令を含むことができる。該方法は、乗り物の周囲の環境の周りの1つ又は複数の焦点面上に、1つ又は複数のグラフィック要素を投影することを含むことができる。1つ又は複数のグラフィック要素を、該経路に基づいて該乗り物の乗員の視野に投影することができる。該方法は、1つ又は複数のグラフィック要素の1つ又は複数の焦点面と該乗り物との間の距離を、該経路の1つ又は複数の部分に関連する1つ又は複数の道路状況と乗り物の現在位置とに基づいて、調整することを含むことができる。該方法の1つ又は複数の部分は、処理ユニットを介して実行することができる。   According to one or more embodiments, a method for three-dimensional (3-D) navigation is provided that includes generating a route from a starting location to a destination location for a vehicle. One or more portions of the route may include one or more navigation instructions associated with one or more road sections or one or more intersections of the road sections. The method can include projecting one or more graphic elements onto one or more focal planes around the environment surrounding the vehicle. One or more graphic elements can be projected onto the occupant's field of view of the vehicle based on the path. The method includes determining a distance between one or more focal planes of one or more graphic elements and the vehicle, one or more road conditions and vehicles associated with one or more portions of the route. Adjusting based on the current position of the current position. One or more parts of the method may be performed via the processing unit.

該方法は、1つ又は複数のグラフィック要素の目標位置を、1つ又は複数の道路状況と乗り物の現在位置に基づいて調整することを含むことができる。該方法は、1つ又は複数の道路状況の受信又は検出を含むことができる。該1つ又は複数の道路状況のうちのある1つの道路状況には、1つ又は複数の該道路区間の交通情報、1つ又は複数の該道路区間に対応する速度制限情報、障害状況、障害物、歩行者、破片又は窪みを含むことができる。   The method may include adjusting the target position of the one or more graphic elements based on the one or more road conditions and the current position of the vehicle. The method can include receiving or detecting one or more road conditions. One road condition of the one or more road conditions includes traffic information of one or more of the road sections, speed limit information corresponding to the one or more of the road sections, fault conditions, and faults. It can include objects, pedestrians, debris or depressions.

前記方法は、特に、乗り物の周囲環境の奥行きマップを構築すること、該環境の奥行きマップに基づいて1つ又は複数のグラフィック要素を投影すること、乗り物の周囲環境から奥行き情報を検出すること、該検出した奥行き情報に基づいて奥行きマップを構築すること、奥行きマップに基づいて1つ又は複数のグラフィック要素の1つ又は複数の部分のレンダリングを有効化又は無効化することを含むことができる。   The method includes, among other things, constructing a depth map of the vehicle's ambient environment, projecting one or more graphic elements based on the environment's depth map, detecting depth information from the vehicle's ambient environment, Constructing a depth map based on the detected depth information can include enabling or disabling rendering of one or more portions of one or more graphic elements based on the depth map.

1つ又は複数の実施態様によると、コンピュータ可読記憶媒体には、コンピュータの処理ユニットを介して実行されるときに複数の動作を行うコンピュータ実行可能命令が含まれる。該動作に含まれるステップには、乗り物に対して起点位置から目的位置に至る経路を生成するステップであって、該経路の1つ又は複数の部分が1つ又は複数の道路区間、又は道路区間の1つ又は複数の交差点に関連する1つ又は複数のナビゲーション命令を含むようなステップ、1つ又は複数のグラフィック要素を該乗り物の周囲環境の周りの1つ又は複数の焦点面に投影するステップであって、該グラフィック要素の1つ又は複数を該経路に基づいて該乗り物の乗員の視野に投影するようなステップ又は、該経路の1つ又は複数の部分に関連する1つ又は複数の道路状況と乗り物の現在位置とに基づいて、1つ又は複数のグラフィック要素の1つ又は複数の焦点面と乗り物との間の距離を調整するステップが含まれる。   According to one or more embodiments, a computer-readable storage medium includes computer-executable instructions that perform a plurality of operations when executed through a processing unit of a computer. The step included in the operation is a step of generating a route from the starting position to the target position for the vehicle, wherein one or more parts of the route are one or more road sections, or road sections Projecting one or more graphical elements onto one or more focal planes around the vehicle's surrounding environment, including one or more navigation instructions associated with the one or more intersections Projecting one or more of the graphic elements onto a field of view of an occupant of the vehicle based on the route, or one or more roads associated with one or more portions of the route Adjusting the distance between one or more focal planes of the one or more graphic elements and the vehicle based on the situation and the current position of the vehicle is included.

1つ又は複数の実施形態においては、1つ又は複数のグラフィック要素を投影するステップは、ラスタ・ベースのグラフィックスを利用する。さらに、1つ又は複数の実施態様では、移動するアバターとして1つ又は複数のグラフィック要素を投影するステップ又は、1つ又は複数の異なる焦点面上に移動アバターを順次投影することによって、移動アバターをアニメーション化するステップを介して、1つ又は複数のナビゲーション命令を提供することを含む。   In one or more embodiments, projecting the one or more graphic elements utilizes raster-based graphics. Further, in one or more embodiments, the moving avatar is projected by projecting one or more graphic elements as moving avatars or sequentially projecting the moving avatar onto one or more different focal planes. Providing one or more navigation instructions via the animating step.

本願特許請求の範囲の主題は、構造的特徴又は方法論的作用を特定の言語で説明したが、本願主題は、必ずしも、上述の特定の特徴又は作用に限定されるものではないことを理解されたい。むしろ、上述の特定の特徴及び作用は、例示的な実施形態として開示している。 While the claimed subject matter has described structural features or methodological actions in a particular language, it should be understood that the subject matter is not necessarily limited to the particular features or actions described above. . Rather, the specific features and acts described above are disclosed as example embodiments.

実施形態の各種動作が、本明細書に示されている。該動作の1つ又は複数又は全てが説明される順序は、これらの動作が順序に依存していることを意味すると必ずしも解釈されるべきではない。代替えの順序は、本明細書の説明に基づいて理解できるであろう。さらに、必ずしも、全ての動作を、本明細書で提供される各実施形態に示すことができているわけではない。 Various operations of the embodiments are described herein. The order in which one or more or all of the operations are described should not necessarily be construed as implying that these operations are order dependent. Alternative sequences will be understood based on the description herein. Moreover, not all operations can be illustrated in the embodiments provided herein.

本出願で使用される場合、「又は」は、包括的な「又は」を意味し、排他的な「又は」を意味することを意図していない。また、本出願で使用される冠詞「a」及び「an」は、特に断りがない限り、又は、文脈から単数形を指示していることが明らかでない限りは、一般的に、「1つ又は複数」と解釈されたい。さらに、少なくともAとBの一方、及び/又は同様の表現は、一般的には、A又はB、又はAとB両方を意味する。さらに、「含む(includes)」、「有している(having)」、「有する(has)」、「持つ(with)」又は、これらの変形が、前記の詳細な説明又は、特許請求の範囲で使用される限りでは、該用語は、用語「含む(comprising)」と同様に包含することを意味している。   As used in this application, “or” means generic “or” and is not intended to mean an exclusive “or”. Also, the articles “a” and “an” as used in this application generally refer to “one or more” unless the context clearly dictates or unless otherwise clear from the context. Should be interpreted as "multiple". Furthermore, at least one of A and B and / or similar expressions generally means A or B, or both A and B. Further, “includes”, “having”, “has”, “with”, or variations thereof are described in the foregoing detailed description or claims. As used herein, the term is meant to encompass as well as the term “comprising”.

さらに、特に断りがない限り、「第1」、「第2」等は、一時的な、態様、空間的な態様、順序付け、等を意味する意図はない。むしろ、このような用語は、単に、特徴、要素、項目等に対する、識別子、名前等として使用されている。例えば、第1のチャネル及び第2のチャネルは、一般に、チャネルA及びチャネルB又は、2つの異なるチャネル又は2つの等しいチャネル又は、同一のチャネルに対応する。   Further, unless otherwise specified, “first”, “second”, etc. are not intended to mean temporary, spatial, ordering, etc. Rather, such terms are merely used as identifiers, names, etc., for features, elements, items, etc. For example, the first channel and the second channel generally correspond to channel A and channel B or two different channels or two equal channels or the same channel.

本開示では1つ又は複数の実装に関して図示及び説明してきたが、同等の変更及び修正が、本明細書及び添付図面の読書及び理解に基づいて行われ得るであろう。本発明は、そのような修正及び変更を全て含み、以下の特許請求の範囲によってのみ限定される。   Although this disclosure has illustrated and described with respect to one or more implementations, equivalent changes and modifications may be made based on reading and understanding of this specification and the accompanying drawings. The present invention includes all such modifications and changes and is limited only by the scope of the following claims.

100 ヘッド・アップ・ディスプレイ・システム、HUDシステム、HUDコンポーネント
102 ヘッド・アップ・ディスプレイ・デバイス、HUDデバイス
104 制御部、制御コンポーネント
106 乗り物
108 運転席
110 ダッシュボード筐体
112 フロント・ガラス
114 HUD出射孔
116 アイ・ボックス
118、120、122、124 第1、第2、第3、第4のプロジェクタ
126、130、134 第1、第2、第3のビーム・スプリッタ
128、132、136 第1、第2、第3の対物レンズ
138 接眼レンズ
140、142、144、146 プロジェクタ・ユニット
148、150、152、154 拡散スクリーン
156、158 第1、第2のアクチュエータ
160、164、168、172 第1、第2、第3及び、第4のグラフィック要素
162、166、170、174 第1、第2、第3及び第4の焦点面
162’、170’ 距離
176 地表面
178 運転者の視線
180 乗り物制御システム、乗り物制御コンポーネント
182 歩行者
200 HUDシステムを具備する乗り物
300 乗り物及び4焦点面の一例の側面図
302 フロント・ガラス
400 運転者の視野及び、グラフィック要素の1例
1000 コンピュータ可読媒体/デバイスの実施形態
1002 方法
1004 プロセッサ実行可能命令
1006 コンピュータ可読データ
1008 コンピュータ可読媒体
1100 コンピューティング・デバイスを含むシステム
1112 コンピューティング・デバイス
1114 処理ユニッ及びメモリ
1116 処理ユニット
1118 メモリ
1120 記憶部
1122 出力デバイス
1124 入力デバイス
1126 通信接続部
1128 ネットワーク
1130 コンピューティング・デバイス
DESCRIPTION OF SYMBOLS 100 Head-up display system, HUD system, HUD component 102 Head-up display device, HUD device 104 Control part, control component 106 Vehicle 108 Driver's seat 110 Dashboard housing 112 Front glass 114 HUD exit hole 116 Eye box 118, 120, 122, 124 First, second, third, fourth projector 126, 130, 134 First, second, third beam splitter 128, 132, 136 First, second , Third objective lens 138 eyepiece 140, 142, 144, 146 projector unit 148, 150, 152, 154 diffusion screen 156, 158 first, second actuator 160, 164, 168, 172 first, 2, third and fourth graphic elements 162, 166, 170, 174 first, second, third and fourth focal planes 162 ', 170' distance 176 ground surface 178 driver's line of sight 180 vehicle control system , Vehicle control component 182 pedestrian 200 vehicle with HUD system 300 side view of example vehicle and 4 focal planes 302 windshield 400 driver view and example of graphic elements 1000 computer readable media / device embodiments 1002 Method 1004 Processor-executable instructions 1006 Computer-readable data 1008 Computer-readable medium 1100 System including computing device 1112 Computing device 1114 Processing unit and memory 1116 Processing unit 111 8 Memory 1120 Storage unit 1122 Output device 1124 Input device 1126 Communication connection unit 1128 Network 1130 Computing device

Claims (20)

起点位置と目的位置を受信して、該起点位置から該目的位置へ至る経路を生成するように構成され、前記経路の1つ又は複数の部分は、1つ又は複数の道路区間、又は該道路区間の1つ又は複数の交差点に対応する1つ又は複数のナビゲーション命令を含み、1つの乗り物に対応づけられているナビゲーション・コンポーネントと、
1つ又は複数のグラフィック要素を、該乗り物を囲む環境の周囲にある1つ又は複数の焦点面上に投影するヘッド・アップ・ディスプレイ・コンポーネントと、
1つ又は複数の該グラフィック要素の1つ又は複数の該焦点面と該乗り物との間の距離を、該経路の1つ又は複数の部分に対応する1つ又は複数の道路状況及び、該乗り物の現在位置に基づいて調整する制御コンポーネントと、
を含むことを特徴とする、3次元ナビゲーション・システム。
It is configured to receive a starting position and a destination position and generate a route from the starting position to the destination position, and one or more parts of the route are one or more road sections or the road A navigation component that includes one or more navigation instructions corresponding to one or more intersections of a section and is associated with a vehicle;
A head-up display component that projects one or more graphic elements onto one or more focal planes surrounding the environment surrounding the vehicle;
One or more road conditions corresponding to one or more portions of the route, the distance between one or more of the focal planes of the one or more graphic elements and the vehicle, and the vehicle A control component that adjusts based on the current position of the
A three-dimensional navigation system comprising:
前記制御コンポーネントは、1つ又は複数の前記グラフィック要素の目標位置を、1つ又は複数の前記道路状況及び前記乗り物の現在位置に基づいて調整すること、を特徴とする請求項1に記載のシステム。   The system of claim 1, wherein the control component adjusts target positions of one or more of the graphic elements based on one or more of the road conditions and the current position of the vehicle. . 1つ又は複数の道路状況を受信する乗り物制御コンポーネントを含み、該1つ又は複数の道路状況のうちの1つは、1つ又は複数の該道路区間の交通情報又は、1つ又は複数の該道路区間に対応する速度制限情報を含むことを特徴とする請求項1に記載のシステム。   A vehicle control component that receives one or more road conditions, wherein one of the one or more road conditions includes one or more traffic information of the road section or one or more of the one or more of the road conditions. The system according to claim 1, comprising speed limit information corresponding to a road section. 1つ又は複数の前記道路状況を検出し、該1つ又は複数の道路状況のうちの1つには障害状況、障害物、歩行者、破片又は、窪みが含まれるセンサ・コンポーネントを含むこと、を特徴とする請求項1に記載のシステム。   Detecting one or more of the road conditions, wherein one of the one or more road conditions includes a sensor component that includes an obstacle condition, an obstacle, a pedestrian, a fragment, or a depression; The system according to claim 1. 前記乗り物を囲む前記環境の奥行きマップを構築する奥行きマップ・コンポーネントと、該環境の奥行きマップに基づいて1つ又は複数の前記グラフィック要素を投影する前記HUDコンポーネントと、を含むことを特徴とする請求項1に記載のシステム。   A depth map component that constructs a depth map of the environment that surrounds the vehicle and the HUD component that projects one or more of the graphic elements based on the depth map of the environment. Item 4. The system according to Item 1. 前記乗り物を囲む前記環境から奥行き情報を検出するセンサ・コンポーネントを含み、前記奥行きマップ・コンポーネントは、該奥行き情報に基づき、前記奥行きマップを構築すること、を特徴とする請求項5に記載のシステム。   6. The system of claim 5, including a sensor component that detects depth information from the environment surrounding the vehicle, the depth map component constructing the depth map based on the depth information. . 前記奥行きマップ・コンポーネントは、前記奥行きマップを、テレマティックス・チャネルを介して受信すること、を特徴とする請求項5に記載のシステム。   The system of claim 5, wherein the depth map component receives the depth map via a telematics channel. 1つ又は複数の前記グラフィック要素の1つ又は複数の部分のレンダリングを、前記奥行きマップに基づいて、有効化又は無効化する奥行きバッファ・コンポーネントを含むこと、を特徴とする請求項5に記載のシステム。   The depth buffer component for enabling or disabling rendering of one or more portions of one or more of the graphic elements based on the depth map. system. 前記HUDコンポーネントは、1つ又は複数のグラフィック要素を、移動するアバターとして投影すること、を特徴とする、請求項1に記載のシステム。   The system of claim 1, wherein the HUD component projects one or more graphic elements as moving avatars. 前記HUDコンポーネントは、前記グラフィック要素の1つ又は複数を、表示位置確保記号として投影することを特徴とする、請求項1に記載のシステム。   The system of claim 1, wherein the HUD component projects one or more of the graphic elements as a display position securing symbol. 起点位置から目的位置へ至る経路を乗り物に対して生成するステップであって、前記経路の1つ又は複数の部分には、1つ又は複数の道路区間、又は該道路区間の1つ又は複数の交差点に対応する1つ又は複数のナビゲーション命令が含まれるステップと、
1つ又は複数のグラフィック要素を、該乗り物を囲む環境の周囲にある1つ又は複数の焦点面上に投影し、1つ又は複数の該グラフィック要素を、該経路に基づき、該乗り物の乗員の視野内に投影するステップと、
1つ又は複数の該グラフィック要素の1つ又は複数の焦点面と該乗り物との間の距離を、該経路の1つ又は複数の部分に対応する1つ又は複数の道路状況及び、該乗り物の現在位置に基づいて調整するステップと、を含み、
該生成するステップ又は調整するステップは、処理ユニットを介して実行されること、を特徴とする3次元ナビゲーション方法。
Generating a route from a starting position to a destination position for a vehicle, wherein one or more portions of the route include one or more road sections or one or more of the road sections Including one or more navigation instructions corresponding to the intersection;
One or more graphic elements are projected onto one or more focal planes surrounding the environment surrounding the vehicle, and the one or more graphic elements are projected based on the path of the occupant of the vehicle. Projecting into the field of view;
The distance between one or more focal planes of the one or more graphic elements and the vehicle, the one or more road conditions corresponding to one or more parts of the route, and the vehicle's Adjusting based on the current position,
3. The three-dimensional navigation method, wherein the generating step or the adjusting step is performed through a processing unit.
1つ又は複数の前記グラフィック要素の目標位置を、1つ又は複数の前記道路状況及び前記乗り物の前記現在位置に基づいて調整するステップを含むことを特徴とする請求項11に記載の方法。   The method of claim 11, comprising adjusting a target position of one or more of the graphic elements based on one or more of the road conditions and the current position of the vehicle. 1つ又は複数の前記道路状況を受信又は検出するステップを含み、該1つ又は複数の道路状況のうちの1つの道路状況は、1つ又は複数の前記道路区間の交通情報又は、1つ又は複数の該道路区間に対応する速度制限情報、障害状況、障害物、歩行者、破片又は、窪みを含むこと、を特徴とする請求項11に記載の方法。   Receiving or detecting one or more of the road conditions, wherein one of the one or more road conditions is traffic information of one or more of the road sections or one or more The method according to claim 11, comprising speed limit information, obstacle conditions, obstacles, pedestrians, debris or depressions corresponding to a plurality of the road sections. 前記乗り物を取り囲む前記環境の奥行きマップを構築するステップと、該環境の該奥行きマップに基づいて1つ又は複数の前記グラフィック要素を投影するステップと、を含むこと、を特徴とする請求項11に記載の方法。   12. The method of claim 11, comprising building a depth map of the environment surrounding the vehicle and projecting one or more of the graphic elements based on the depth map of the environment. The method described. 前記乗り物を囲む前記環境から奥行き情報を検出するステップと、
該検出した奥行き情報に基づき、前記奥行きマップを構築するステップと、を含むことを特徴とする請求項14に記載の方法。
Detecting depth information from the environment surrounding the vehicle;
15. The method of claim 14, comprising building the depth map based on the detected depth information.
1つ又は複数の前記グラフィック要素の1つ又は複数の部分のレンダリングを、前記奥行きマップに基づいて、有効化又は無効化するステップを含むこと、を特徴とする請求項14に記載のシステム。   The system of claim 14, comprising enabling or disabling rendering of one or more portions of one or more of the graphic elements based on the depth map. 起点位置から目的位置へ至る経路を乗り物に対して生成するステップであって、該経路の1つ又は複数の部分は、1つ又は複数の道路区間、又は該道路区間の1つ又は複数の交差点に対応する1つ又は複数のナビゲーション命令を含むステップと、
1つ又は複数のグラフィック要素を、該乗り物を囲む環境の周囲にある1つ又は複数の焦点面上に投影し、1つ又は複数の該グラフィック要素を、該経路に基づき、該乗り物の乗員の視野内に投影するステップと、
1つ又は複数の該グラフィック要素の1つ又は複数の該焦点面と該乗り物との間の距離を、該経路の1つ又は複数の部分に対応する1つ又は複数の道路状況及び、該乗り物の現在位置に基づいて調整するステップと、を含む動作を、
コンピュータの処理ユニットを介して実行されるときに、実行するコンピュータ実行可能命令を含む、ことを特徴とするコンピュータ可読記憶媒体。
Generating a route from a starting position to a destination position for a vehicle, wherein one or more portions of the route are one or more road sections or one or more intersections of the road sections Including one or more navigation instructions corresponding to
One or more graphic elements are projected onto one or more focal planes surrounding the environment surrounding the vehicle, and the one or more graphic elements are projected based on the path of the occupant of the vehicle. Projecting into the field of view;
One or more road conditions corresponding to one or more portions of the route, the distance between one or more of the focal planes of the one or more graphic elements and the vehicle, and the vehicle Adjusting based on the current position of
A computer-readable storage medium comprising computer-executable instructions for execution when executed through a processing unit of a computer.
1つ又は複数のグラフィック要素を投影するステップは、ラスタ・ベースのグラフィックスを利用すること、を特徴とする請求項17に記載のコンピュータ可読記憶媒体。   The computer-readable storage medium of claim 17, wherein projecting the one or more graphic elements utilizes raster-based graphics. 1つ又は複数の前記グラフィック要素を、移動するアバターとして投影することにより、1つまたは複数のナビゲーション命令を提示するステップを含むこと、を特徴とする請求項17に記載のコンピュータ可読記憶媒体。   18. The computer-readable storage medium of claim 17, comprising presenting one or more navigation instructions by projecting one or more of the graphic elements as a moving avatar. 前記移動するアバターを1つ又は複数の異なる焦点面上に順次投影することによって、該移動するアバターをアニメーション化するステップを含むこと、を特徴とする請求項19に記載のコンピュータ可読記憶媒体。   The computer-readable storage medium of claim 19, comprising animating the moving avatar by sequentially projecting the moving avatar onto one or more different focal planes.
JP2014198779A 2013-09-30 2014-09-29 Three-dimensional (3d) navigation Pending JP2015069656A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/041,614 US20160054563A9 (en) 2013-03-14 2013-09-30 3-dimensional (3-d) navigation
US14/041,614 2013-09-30

Publications (1)

Publication Number Publication Date
JP2015069656A true JP2015069656A (en) 2015-04-13

Family

ID=52673399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014198779A Pending JP2015069656A (en) 2013-09-30 2014-09-29 Three-dimensional (3d) navigation

Country Status (3)

Country Link
JP (1) JP2015069656A (en)
CN (1) CN104512336B (en)
DE (1) DE102014219567A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016166887A1 (en) * 2015-04-17 2016-10-20 三菱電機株式会社 Display control apparatus, display system, display control method, and display control program
CN106296813A (en) * 2015-05-14 2017-01-04 上海市测绘院 Three-dimensional static map producing method
JP2017073026A (en) * 2015-10-08 2017-04-13 株式会社デンソー Drive support device
JP2019103049A (en) * 2017-12-06 2019-06-24 アイシン精機株式会社 Periphery monitoring device
KR20190133393A (en) * 2018-05-23 2019-12-03 주식회사 프라젠 Transparent pillar device
WO2020076090A1 (en) * 2018-10-10 2020-04-16 네이버랩스 주식회사 Three-dimensional augmented reality head-up display for positioning virtual image on ground by means of windshield reflection method

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015217258A1 (en) * 2015-09-10 2017-03-16 Robert Bosch Gmbh Method and device for representing a vehicle environment of a vehicle
US11004426B2 (en) 2015-09-25 2021-05-11 Apple Inc. Zone identification and indication system
JP6330111B2 (en) * 2015-09-30 2018-05-23 富士フイルム株式会社 Imaging apparatus and control method thereof
JP6554175B2 (en) * 2015-10-09 2019-07-31 マクセル株式会社 Head-up display device
CN105730237A (en) * 2016-02-04 2016-07-06 京东方科技集团股份有限公司 Traveling auxiliary device and method
CN107449440A (en) * 2016-06-01 2017-12-08 北京三星通信技术研究有限公司 The display methods and display device for prompt message of driving a vehicle
US10399564B2 (en) * 2016-10-25 2019-09-03 Ford Global Technologies, Llc Vehicle roundabout management
RU2700915C1 (en) 2016-11-23 2019-09-23 Айбиэс Оф Америка Control system, managing system, drive unit of paper-making machine and control method
CN107554425B (en) * 2017-08-23 2019-06-21 江苏泽景汽车电子股份有限公司 A kind of vehicle-mounted head-up display AR-HUD of augmented reality
CN109990797A (en) * 2017-12-29 2019-07-09 周秦娜 A kind of control method of the augmented reality navigation display for HUD
CN108225734B (en) * 2018-01-05 2021-07-02 宁波均胜科技有限公司 Error calibration system based on HUD system and error calibration method thereof
DE102018202201B4 (en) 2018-02-13 2020-06-10 Bayerische Motoren Werke Aktiengesellschaft Sensor device and method for environment detection of a vehicle
DE102018202200B4 (en) 2018-02-13 2022-11-10 Bayerische Motoren Werke Aktiengesellschaft Sensor device for detecting the surroundings of a vehicle
CN108896066A (en) * 2018-03-23 2018-11-27 江苏泽景汽车电子股份有限公司 A kind of augmented reality head up display and its navigation implementation method
DE102018206910A1 (en) * 2018-05-04 2019-11-07 Audi Ag Method for determining a user authorization of at least one roadway by a motor vehicle and control device and display screen for a motor vehicle
CN108583437A (en) * 2018-05-07 2018-09-28 温州中佣科技有限公司 A kind of vehicle driving system
JP2021535519A (en) * 2018-09-24 2021-12-16 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. Augmented reality DSRC data visualization
CN110132301B (en) * 2019-05-28 2023-08-25 浙江吉利控股集团有限公司 Leading type vehicle navigation method and system
DE102020200047A1 (en) 2020-01-06 2021-07-08 Volkswagen Aktiengesellschaft Method and device for displaying virtual navigation elements
CN113155117A (en) * 2020-01-23 2021-07-23 阿里巴巴集团控股有限公司 Navigation system, method and device
US11920299B2 (en) 2020-03-06 2024-03-05 Ibs Of America Formation detection system and a process of controlling
DE102020211211A1 (en) * 2020-09-07 2022-03-10 Volkswagen Aktiengesellschaft Method for preparing a navigation maneuver of a vehicle

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222583B1 (en) * 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
KR20100070973A (en) * 2008-12-18 2010-06-28 박호철 Head-up display navigation apparatus, system and service implementation method thereof
KR101768101B1 (en) * 2009-10-30 2017-08-30 엘지전자 주식회사 Information displaying apparatus and method thereof
US8892357B2 (en) * 2010-09-20 2014-11-18 Honeywell International Inc. Ground navigational display, system and method displaying buildings in three-dimensions
US8781170B2 (en) * 2011-12-06 2014-07-15 GM Global Technology Operations LLC Vehicle ghosting on full windshield display

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016166887A1 (en) * 2015-04-17 2016-10-20 三菱電機株式会社 Display control apparatus, display system, display control method, and display control program
JPWO2016166887A1 (en) * 2015-04-17 2017-11-02 三菱電機株式会社 Display control apparatus, display system, display control method, and display control program
DE112015006458B4 (en) 2015-04-17 2019-05-23 Mitsubishi Electric Corporation Display control device, display system, display control method and display control program
US10410423B2 (en) 2015-04-17 2019-09-10 Mitsubishi Electric Corporation Display control device for controlling stereoscopic display of superimposed display object, display system, display control method and computer readable medium
CN106296813A (en) * 2015-05-14 2017-01-04 上海市测绘院 Three-dimensional static map producing method
JP2017073026A (en) * 2015-10-08 2017-04-13 株式会社デンソー Drive support device
JP2019103049A (en) * 2017-12-06 2019-06-24 アイシン精機株式会社 Periphery monitoring device
JP7000822B2 (en) 2017-12-06 2022-01-19 株式会社アイシン Peripheral monitoring device
KR20190133393A (en) * 2018-05-23 2019-12-03 주식회사 프라젠 Transparent pillar device
KR102457275B1 (en) 2018-05-23 2022-10-19 주식회사 프라젠 Transparent pillar device
WO2020076090A1 (en) * 2018-10-10 2020-04-16 네이버랩스 주식회사 Three-dimensional augmented reality head-up display for positioning virtual image on ground by means of windshield reflection method
US11865915B2 (en) 2018-10-10 2024-01-09 Naver Labs Corporation Three-dimensional augmented reality head-up display for positioning virtual image on ground by means of windshield reflection method

Also Published As

Publication number Publication date
CN104512336A (en) 2015-04-15
CN104512336B (en) 2019-03-12
DE102014219567A1 (en) 2015-04-02

Similar Documents

Publication Publication Date Title
US10215583B2 (en) Multi-level navigation monitoring and control
JP2015069656A (en) Three-dimensional (3d) navigation
US20140268353A1 (en) 3-dimensional (3-d) navigation
US20140362195A1 (en) Enhanced 3-dimensional (3-d) navigation
US9164281B2 (en) Volumetric heads-up display with dynamic focal plane
CN104515531B (en) 3- dimension (3-D) navigation system and method for enhancing
US9393870B2 (en) Volumetric heads-up display with dynamic focal plane
JP6861375B2 (en) Display system, information presentation system, display system control method, program, and mobile
US9482540B2 (en) Navigation display method and system
JP6201690B2 (en) Vehicle information projection system
JP7113259B2 (en) Display system, information presentation system including display system, display system control method, program, and mobile object including display system
JP6342704B2 (en) Display device
JP6883759B2 (en) Display systems, display system control methods, programs, and mobiles
JP2011121401A (en) Display device, display method, and movement body
JP2006501443A (en) Method and apparatus for displaying navigation information on a vehicle
JP2012035745A (en) Display device, image data generating device, and image data generating program
JP2015080988A (en) Vehicle information projection system and projection device
WO2019097762A1 (en) Superimposed-image display device and computer program
JP6796806B2 (en) Display system, information presentation system, display system control method, program, and mobile
JP2016107947A (en) Information providing device, information providing method, and control program for providing information
WO2019131296A1 (en) Head-up display device
JP2019087259A (en) Superposition image display device and computer program
WO2019230492A1 (en) Vehicular display device
JP2021076415A (en) Superimposed image display apparatus and computer program
JP2021000961A (en) Display control device, display device, display control method, and program