JP6280134B2 - Helmet-based navigation notification method, apparatus, and computer program - Google Patents

Helmet-based navigation notification method, apparatus, and computer program Download PDF

Info

Publication number
JP6280134B2
JP6280134B2 JP2015547101A JP2015547101A JP6280134B2 JP 6280134 B2 JP6280134 B2 JP 6280134B2 JP 2015547101 A JP2015547101 A JP 2015547101A JP 2015547101 A JP2015547101 A JP 2015547101A JP 6280134 B2 JP6280134 B2 JP 6280134B2
Authority
JP
Japan
Prior art keywords
navigation
helmet
display
notifications
navigation notifications
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015547101A
Other languages
Japanese (ja)
Other versions
JP2016503160A (en
Inventor
リタ パラダ
リタ パラダ
リナ・エステル ライナー
リナ・エステル ライナー
チャーリー・マシュー サットン
チャーリー・マシュー サットン
ブロディ・ジェイ ラーソン
ブロディ・ジェイ ラーソン
ミッシェル・クリスティーン シルストーン
ミッシェル・クリスティーン シルストーン
ローラ・ジジ リー
ローラ・ジジ リー
ニック・ジョン フォスター
ニック・ジョン フォスター
マルクス エクランド
マルクス エクランド
Original Assignee
ノキア テクノロジーズ オーユー
ノキア テクノロジーズ オーユー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オーユー, ノキア テクノロジーズ オーユー filed Critical ノキア テクノロジーズ オーユー
Publication of JP2016503160A publication Critical patent/JP2016503160A/en
Application granted granted Critical
Publication of JP6280134B2 publication Critical patent/JP6280134B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/0406Accessories for helmets
    • A42B3/0433Detecting, signalling or lighting devices
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Description

本発明の例示的実施形態は、一般的には、ユーザ・インタフェース・テクノロジーに関するものであり、より詳細には、ヘルメットに適したナビゲーション通知をヘルメット内で表示させるための方法、装置、コンピュータプログラムに関するものである。   Exemplary embodiments of the present invention relate generally to user interface technology, and more particularly to a method, apparatus, and computer program for displaying a navigation notification suitable for a helmet within the helmet. Is.

背景background

現在の通信技術は有線及び無線ネットワークの著しい拡大をもたらしてきた。移動無線ネットワーク技術は需要に応える一方、情報の伝送の柔軟性や瞬時性を提供してきている。ネットワーク技術の拡大に伴い、コンピューティングパワーも拡大し、最新のネットワーク技術によって実現されるサービスを利用可能にする手頃なコンピューティングデバイスが開発されてきている。こうしたコンピューティングパワーの拡大はコンピューティングデバイスの小型化につながり、数年前であれば最新のデスクトップコンピュータに備えられる処理能力を必要とするような機能性を実行可能にする新世代の携帯デバイスを生み出している。その結果、小さいフォームファクターを有する携帯コンピューティングデバイスが定着し、ほぼ全ての社会経済的バックグラウンドの消費者がネットワークアプリケーション・サービスにアクセスするのに利用されている。   Current communication technology has led to a significant expansion of wired and wireless networks. While mobile radio network technology meets demand, it has provided flexibility and instantaneousness of information transmission. With the expansion of network technology, computing power has also expanded, and affordable computing devices that can use services realized by the latest network technology have been developed. This expansion in computing power has led to smaller computing devices, and a new generation of portable devices that can implement functionality that would require the processing power of modern desktop computers a few years ago. Producing. As a result, portable computing devices with small form factors have become established and used by almost all socio-economic background consumers to access network application services.

摘要Abstract

さらに、本発明による装置、方法、及びコンピュータプログラム製品の実施形態を開示する。これらの装置、方法、及びコンピュータプログラム製品は、ヘルメット内で表示させるために調整されたナビゲーション情報を表示するヘルメットベースのディスプレイ・インタフェースを提供する。特に、ヘルメットベースのディスプレイ・インタフェースを提供する装置の実施形態は、少なくとも一つのプロセッサと、コンピュータプログラムコードを格納する少なくとも一つのメモリとを備えていてもよい。前記少なくとも一つのメモリ及び前記コンピュータプログラムコードは、前記プロセッサと共に、前記装置に、ナビゲーションイベントが発生している間、ユーザにヘルメットが装着されていることを判断することと;前記ナビゲーションイベントに関連するナビゲーション通知のセットを決定することと;前記ナビゲーション通知のセットを前記ヘルメット内に表示させることと;を実行させるように構成されうる。ナビゲーション通知のセットは、ヘルメット内での表示に合わせて調整することができる。   Furthermore, embodiments of the apparatus, method and computer program product according to the present invention are disclosed. These devices, methods, and computer program products provide a helmet-based display interface that displays navigation information tailored for display within a helmet. In particular, an embodiment of an apparatus for providing a helmet-based display interface may comprise at least one processor and at least one memory storing computer program code. The at least one memory and the computer program code, in conjunction with the processor, determining that a helmet is worn on a user while the navigation event is occurring on the device; and associated with the navigation event; Determining a set of navigation notifications; causing the set of navigation notifications to be displayed in the helmet. The set of navigation notifications can be adjusted for display in the helmet.

前記ナビゲーション通知のセットはナビゲーション通知の第1のセットであって、前記メモリ及び前記コンピュータプログラムコードはさらに、前記プロセッサと共に、前記装置に、前記ナビゲーションイベントに関連するナビゲーション通知の第2のセットと異なるように前記ナビゲーション通知の第1のセットを決定することによって、前記ナビゲーション通知の第1のセットを決定することを実行させるように構成される。ここで、前記ナビゲーション通知の第2のセットは、前記ヘルメット内での表示に合わせて調整されない。前記メモリ及び前記コンピュータプログラムコードはさらに、前記プロセッサと共に、前記装置に、前記ナビゲーションイベントに関連する前記ナビゲーション通知の第2のセットより少ないナビゲーション通知を含むように、前記ナビゲーション通知のセットを決定することにより、前記ナビゲーション通知の第1のセットを決定することを実行させるように構成される。   The set of navigation notifications is a first set of navigation notifications, and the memory and the computer program code are further different from the second set of navigation notifications associated with the navigation event in the device, together with the processor. Determining the first set of navigation notifications to determine to determine the first set of navigation notifications. Here, the second set of navigation notifications is not adjusted for display within the helmet. The memory and the computer program code further, together with the processor, determine the set of navigation notifications such that the device includes fewer navigation notifications than the second set of navigation notifications associated with the navigation event. To determine to determine the first set of navigation notifications.

いくつかの実施形態において、前記メモリ及び前記コンピュータプログラムコードはさらに、前記プロセッサと共に、前記装置に、地図表示を含まないように、前記ナビゲーション通知のセットを決定することにより、前記ナビゲーション通知のセットを決定することを実行させるように構成される。前記メモリ及び前記コンピュータプログラムコードはさらに、前記プロセッサと共に、前記装置に、少なくとも一つのオートバイ特有の通知を含むように前記ナビゲーション通知のセットを決定することによって、前記ナビゲーション通知のセットを決定することを実行させるように構成される。ここで、前記少なくとも一つのオートバイ特有の通知は、次のカーブの角度、次の坂の勾配、及び気象条件のいずれか一つ以上を含む。さらに又は代替的に、前記メモリ及び前記コンピュータプログラムコードはさらに、前記プロセッサと共に、前記装置に、ユーザによって設定されたナビゲーション通知のセットに基づいて、前記ナビゲーション通知のセットを決定することにより、前記ナビゲーション通知のセットを決定することを実行させるように構成される。   In some embodiments, the memory and the computer program code are further coupled with the processor to determine the set of navigation notifications by determining the set of navigation notifications so that the device does not include a map display. Configured to perform the determination. The memory and the computer program code further determine, with the processor, the set of navigation notifications by determining the set of navigation notifications so that the device includes at least one motorcycle-specific notification. Configured to run. Here, the at least one motorcycle-specific notification includes at least one of a next curve angle, a next slope, and a weather condition. Additionally or alternatively, the memory and the computer program code are further coupled with the processor to determine the set of navigation notifications based on a set of navigation notifications set by the user on the device. Configured to perform determining a set of notifications.

いくつかの実施形態では、前記メモリ及び前記コンピュータプログラムコードはさらに、前記プロセッサと共に、前記装置に、前記ヘルメット内にある複数の通知情報の表示領域に基づいて、前記ナビゲーション通知のセットを決定することにより、前記ナビゲーション通知のセットを決定することを実行させるように構成される。前記ナビゲーション通知のセットを決定することは、前記ヘルメット内にある通知情報の表示領域内に、前記ナビゲーション通知のセットをどのように割り当てるかを決定することを含んでもよい。さらに、前記ナビゲーション通知のセットを決定することは、ユーザによって設定された割り当て設定に基づいて、前記ヘルメット内にある通知情報の表示領域内で前記ナビゲーション通知のセットをどのように割り当てるかを決定することを含んでもよい。   In some embodiments, the memory and the computer program code further determine, in conjunction with the processor, the set of navigation notifications based on a display area of a plurality of notification information within the helmet. To determine the set of navigation notifications. Determining the set of navigation notifications may include determining how to assign the set of navigation notifications within a display area of notification information within the helmet. Further, determining the set of navigation notifications determines how to allocate the set of navigation notifications within a display area of notification information in the helmet based on an allocation setting set by a user. You may include that.

他のいくつかの実施形態では、ある装置及びコンピュータプログラム製品は、ナビゲーションイベントが発生している間、ユーザにヘルメットが装着されていることを判断することと;前記ナビゲーションイベントに関連するナビゲーション通知のセットを決定することと;前記ナビゲーション通知のセットを前記ヘルメット内に表示させることと;によって、ヘルメットベースのディスプレイ・インタフェースを提供することに関して説明される。ナビゲーション通知のセットは、ヘルメット内での表示に合わせて調整することができる。   In some other embodiments, an apparatus and computer program product determines that a user is wearing a helmet while a navigation event is occurring; navigation notifications associated with the navigation event; Determining a set; and causing the set of navigation notifications to be displayed within the helmet is described with respect to providing a helmet-based display interface. The set of navigation notifications can be adjusted for display in the helmet.

場合によって、前記ナビゲーション通知のセットはナビゲーション通知の第1のセットであって、前記ナビゲーション通知の第1のセットを決定することは、前記ナビゲーションイベントに関連するナビゲーション通知の第2のセットと異なるように前記ナビゲーション通知の第1のセットを決定することを含むことができる。前記ナビゲーション通知の第1のセットを決定することは、前記ナビゲーションイベントに関連する前記ナビゲーション通知の第2のセットよりも少ないナビゲーション通知を含むように、前記ナビゲーション通知の第1のセットを決定することを含む場合がある。   In some cases, the set of navigation notifications is a first set of navigation notifications, and determining the first set of navigation notifications is different from the second set of navigation notifications associated with the navigation event. Determining a first set of said navigation notifications. Determining the first set of navigation notifications such that determining the first set of navigation notifications includes fewer navigation notifications than the second set of navigation notifications associated with the navigation event. May be included.

いくつかの実施形態では、ナビゲーション通知のセットを決定することは、地図表示を含まないように前記ナビゲーション通知のセットを決定することを含む場合がある。さらに又は代替的に、前記ナビゲーション通知のセットを決定することは、少なくとも一つのオートバイ特有の通知を含むように前記ナビゲーション通知のセットを決定することを含み、ここで、前記少なくとも一つのオートバイ特有の通知は、次のカーブの角度、次の坂の勾配、及び気象条件のいずれか一つ以上を含む場合がある。さらに他のいくつかの実施形態では、前記ナビゲーション通知のセットを決定することは、ユーザによって設定されたナビゲーション通知に基づいて、前記ナビゲーション通知のセットを決定することを含む場合がある。   In some embodiments, determining the set of navigation notifications may include determining the set of navigation notifications so as not to include a map display. Additionally or alternatively, determining the set of navigation notifications includes determining the set of navigation notifications to include at least one motorcycle-specific notification, wherein the at least one motorcycle-specific notification The notification may include one or more of the following curve angle, the next slope of the slope, and weather conditions. In still other embodiments, determining the set of navigation notifications may include determining the set of navigation notifications based on navigation notifications set by a user.

前記ナビゲーション通知のセットを決定することは、前記ヘルメット内にある複数の通知情報の表示領域に基づいて、前記ナビゲーション通知のセットを決定することを含む場合がある。前記ナビゲーション通知のセットを決定することは、前記ヘルメット内にある通知情報の表示領域内において、前記ナビゲーション通知のセットをどのように割り当てるかを決定することを含む場合がある。さらに、前記ナビゲーション通知のセットを決定することは、ユーザによって設定された割り当て設定に基づいて、前記ヘルメット内にある通知情報の表示領域内における、前記ナビゲーション通知のセットの割り当てを決定することを含む場合がある。   Determining the set of navigation notifications may include determining the set of navigation notifications based on a display area of a plurality of notification information in the helmet. Determining the set of navigation notifications may include determining how to assign the set of navigation notifications within a display area of notification information within the helmet. Further, determining the set of navigation notifications includes determining allocation of the set of navigation notifications within a display area of notification information in the helmet based on an allocation setting set by a user. There is a case.

さらに他のいくつかの実施形態では、ヘルメットベースのディスプレイ・インタフェースを提供する装置が開示される。前記装置は、ナビゲーションイベントが発生している間、ユーザにヘルメットが装着されていることを判断する手段と;前記ナビゲーションイベントに関連するナビゲーション通知のセットを決定する手段と;前記ナビゲーション通知のセットを前記ヘルメット内に表示させる手段と;を備えることができる。後述するように、ナビゲーション通知のセットは、ヘルメット内での表示に合わせて調整することができる。   In still other embodiments, an apparatus for providing a helmet-based display interface is disclosed. The apparatus includes: means for determining that a user is wearing a helmet while a navigation event is occurring; means for determining a set of navigation notifications associated with the navigation event; Means for displaying in the helmet. As will be described later, the set of navigation notifications can be adjusted for display in the helmet.

本発明の実施形態を一般的に説明してきたが、ここで添付の図面を参照する。なお図面のスケールは正確であるとは限らない。
例示的実施形態に従うユーザインタフェースを備える装置のブロック図を描いたものである。 例示的実施形態に従う移動端末の概略的なブロック図である。 本発明の例示的実施形態に従うパススルーディスプレイ(pass-through display)を搭載したバイザーを備えるヘルメットの一例を描いたものである。 本発明の例示的実施形態に従う表示領域を有するバイザーを通じた景色の一例を描いたものである。 本明細書に記載した例示的実施形態に従うナビゲーションデータを取得するために使用される機器上のタッチ画面を描いたものである。 本明細書に記載した例示的実施形態に従う図5のタッチディスプレイを介してユーザに表示されるナビゲーションデータを描いたものである。 本明細書に記載した例示的実施形態に従うナビゲーション通知のセットを描いたものである。 本明細書に記載した例示的実施形態に従うバイザーに提供される表示領域のナビゲーション通知の一部を表したものである。 本明細書に記載した例示的実施形態に従うパススルーディスプレイを通じた視界を描いたものである。 本明細書に記載した例示的実施形態に従う、ヘルメット内で表示をさせるためにヘルメットに適合させたナビゲーション通知のための例示的方法に従うフロー図を描いたものである。 本明細書に記載した例示的実施形態に従う、ヘルメット内で表示をさせるためにヘルメットに適合させたナビゲーション通知のための他の例示的方法に従うフロー図を描いたものである。
Having generally described embodiments of the present invention, reference will now be made to the accompanying drawings. Note that the scale of the drawing is not always accurate.
FIG. 3 depicts a block diagram of an apparatus with a user interface according to an exemplary embodiment. FIG. 2 is a schematic block diagram of a mobile terminal according to an exemplary embodiment. 1 depicts an example of a helmet with a visor equipped with a pass-through display according to an exemplary embodiment of the present invention. FIG. 6 depicts an example of a landscape through a visor having a display area according to an exemplary embodiment of the present invention. FIG. 6 depicts a touch screen on a device used to obtain navigation data in accordance with the exemplary embodiments described herein. FIG. 6 depicts navigation data displayed to a user via the touch display of FIG. 5 in accordance with an exemplary embodiment described herein. FIG. 6 depicts a set of navigation notifications in accordance with the exemplary embodiments described herein. FIG. 4 illustrates a portion of a display area navigation notification provided to a visor according to an exemplary embodiment described herein. FIG. 6 depicts a view through a pass-through display according to an exemplary embodiment described herein. FIG. 6 depicts a flow diagram according to an exemplary method for navigation notification adapted to a helmet for display within the helmet, in accordance with an exemplary embodiment described herein. FIG. 6 depicts a flow diagram according to another exemplary method for navigation notification adapted to a helmet for display within the helmet, in accordance with an exemplary embodiment described herein.

詳細説明Detailed explanation

以下、添付図面を参照して本発明のある例示的実施形態をより詳細に説明する。   Hereinafter, exemplary embodiments of the present invention will be described in more detail with reference to the accompanying drawings.

なお本発明の全ての実施形態が紹介されるわけではない。実際、本発明は様々な形態で実施されることができるので、本発明の実施形態がここで紹介される実施形態に限定されると考えてはならない。むしろここで紹介される実施形態は、本明細書が法的な要件を充足するために紹介されるものである。本明細書および図面を通じて同様の符号は同様の要素を表す。   Note that not all embodiments of the present invention are introduced. Indeed, since the invention may be implemented in a variety of forms, it should not be considered that the embodiments of the invention are limited to the embodiments introduced herein. Rather, the embodiments introduced herein are introduced so that this specification will satisfy legal requirements. Like numbers represent like elements throughout the specification and drawings.

本明細書で使用されるとき、「データ」や「コンテンツ」、「情報」および同様の用語は、種々の例示的実施形態において送信されたり受信されたり、保存されたりしうる1つまたは複数のデータを言及するために互いに代替しうるように使用される。このため、このような用語が本開示の範囲や技術思想を制限するものと考えてはならない。   As used herein, “data”, “content”, “information” and like terms are one or more of the terms that may be transmitted, received, and stored in various exemplary embodiments. Used interchangeably to refer to data. For this reason, such terms should not be considered as limiting the scope or technical spirit of the present disclosure.

本明細書で「コンピュータ可読媒体」との用語は、プロセッサに実行命令を含む情報を提供しうる如何なる媒体であってもよい。このような媒体は様々な形態をとりうるものであり、揮発性または不揮発性の非一時的コンピュータ可読記憶媒体や、伝送媒体が含まれる。ただし、これらに限定されない。伝送媒体は、例えば、同軸ケーブル,銅線,光ファイバーケーブル,ワイヤやケーブルを介さずに空間を伝う搬送波などであることができ、搬送波としては音波や電磁波があり、電磁波には無線電波,可視光,赤外線などがある。信号には、伝送媒体を介して伝送される、振幅,周波数,位相,偏極やその他の物理特性に関する人為的かつ過渡的変動を含む。非一時的コンピュータ可読媒体の例として、フレキシブルディスクやハードディスク,磁気テープ,他の磁気媒体等の磁気コンピュータ可読媒体や、コンパクトディスク・読み出し専用メモリ(CD-ROM),デジタル多用途ディスク(DVD),ブルーレイディスク等の光学式コンピュータ可読媒体,ランダムアクセスメモリ(RAM),プログラマブル読み出し専用メモリ(PROM),消去可能プログラマブル読み出し専用メモリ(EPROM),フラッシュEPROM,またはコンピュータが読み出せるその他の非一時的媒体を含む。本明細書においてコンピュータ可読記憶媒体との用語は、伝送媒体を除くどのようなコンピュータ可読な媒体をも言及する。しかし当然のことながら、コンピュータ可読記憶媒体を使用するとして記載される実施形態においても、他の種類のコンピュータ可読媒体が代用されたり、別の実施形態においてコンピュータ可読記憶媒体に追加して使用されたりすることも可能である。   The term “computer-readable medium” as used herein may be any medium that can provide information, including execution instructions, to a processor. Such a medium may take a variety of forms and includes volatile or non-volatile non-transitory computer readable storage media and transmission media. However, it is not limited to these. The transmission medium can be, for example, a coaxial cable, a copper wire, an optical fiber cable, a carrier wave that travels through space without going through a wire or cable, and the carrier wave includes a sound wave or an electromagnetic wave. , And infrared. The signal includes artificial and transient fluctuations related to amplitude, frequency, phase, polarization and other physical characteristics transmitted through the transmission medium. Examples of non-transitory computer-readable media include magnetic computer-readable media such as flexible disks, hard disks, magnetic tapes, and other magnetic media, compact disks, read-only memory (CD-ROM), digital versatile disks (DVD), Optical computer readable media such as Blu-ray Disc, random access memory (RAM), programmable read only memory (PROM), erasable programmable read only memory (EPROM), flash EPROM, or other non-transitory media that the computer can read Including. As used herein, the term computer readable storage medium refers to any computer readable medium except transmission media. However, it should be understood that other types of computer readable media may be substituted or used in addition to computer readable storage media in embodiments described as using computer readable storage media. It is also possible to do.

また、本明細書において「回路(circuitry)」との用語は、(a)ハードウェアのみにより実装される回路(例えばアナログ回路および/またはデジタル回路による実装)や、(b)一つ以上のコンピュータ読み取り可能なメモリに記録されるソフトウェアおよび/またはファームウェアと回路との組合せであって、本明細書に記載の一つ以上の機能を協働して装置に実行させる組合せ、(c)例えば一つ以上のマイクロプロセッサや、一つ以上のマイクロプロセッサの部分であるような、一つ以上の回路であって、動作するために、(たとえ物理的には存在しないものであっても)ソフトウェアまたはファームウェアを必要とするような回路、を言い表す。「回路(circuitry)」のこの定義は、本明細書及び特許請求の範囲の全体にわたって適用されるべきものである。さらなる例として、本明細書で使用されるとき、「回路(circuitry)」という用語は、1つ以上のプロセッサおよび/またはこれらの1つ以上の部分と、これらに付随するソフトウェアおよび/またはファームウェアを含む実装を含む。更なる例として、本明細書で使用されるとき、「回路(circuitry)」との用語は、例えば、携帯電話のためのベースバンド統合回路やアプリケーションプロセッサ統合回路を意味することができ、また、サーバやセルラネットワークデバイス、その他のネットワークデバイス、その他のコンピューティングデバイスの中の、同様の集積回路を意味することができる。   Further, in this specification, the term “circuitry” refers to (a) a circuit implemented only by hardware (for example, an analog circuit and / or digital circuit), or (b) one or more computers. A combination of software and / or firmware and circuitry recorded in a readable memory that causes the apparatus to perform one or more of the functions described herein in a coordinated manner; (c) for example one Software or firmware (even if not physically present) to operate as one or more circuits, such as those of the above microprocessors or one or more microprocessors A circuit that needs to be expressed. This definition of “circuitry” is to be applied throughout the specification and claims. By way of further example, as used herein, the term “circuitry” refers to one or more processors and / or one or more portions thereof and the software and / or firmware associated therewith. Including implementations. By way of further example, as used herein, the term “circuitry” can mean, for example, a baseband integrated circuit or an application processor integrated circuit for a mobile phone, and It can mean similar integrated circuits in servers, cellular network devices, other network devices, and other computing devices.

従来のナビゲーション機器及びシステムは、オートバイの乗り手による使用のために最適化されていない。従来の機器のほとんどが手で持って操作する機器であり、オートバイのハンドルバーに取り付けるか、オートバイのタンクに取り付けるものである。このオートバイのタンクに取り付けるものは、表示されたナビゲーション情報を見るために、乗り手は道路から目を離さなければならない。道路への注意は、全ての種類の乗り物のドライバーの安全のために重要であるが、オートバイは高速で運転される傾向にあるため、特にオートバイの場合は重要である。そして、オートバイの乗り手は特に、道路の表面や環境条件の少しの変化でさえも被害を受けやすい。したがって、オートバイの運転者の気をそらす全てのものが、悲惨な結果を招くおそれがあり、この運転者の反応時間の遅れ全てが、運転者を大きな危険にさらす可能性がある。   Conventional navigation equipment and systems are not optimized for use by motorcycle riders. Most of the conventional devices are devices that are held and operated by hand, and are attached to a motorcycle handlebar or attached to a motorcycle tank. Attached to this motorcycle tank, the rider must keep an eye on the road to see the displayed navigation information. Road attention is important for the safety of all types of vehicle drivers, but is especially important for motorcycles because motorcycles tend to be driven at high speeds. And motorcycle riders are particularly vulnerable to even small changes in road surface and environmental conditions. Thus, anything that distracts a motorcycle driver can have disastrous consequences, and any delay in the driver's reaction time can put the driver at great risk.

全地球測位システム(GPS)機器等、従来のナビゲーション機器は、極めて頑丈なディスプレイと相互作用モデルとを提供するように構成されている。そして、この従来のナビゲーション機器は、ユーザに豊富な情報を提供する。この情報のいくつかは、オートバイの運転者には不要または有用でない場合があり、実際には、運転者の注意を散漫にさせたり、運転者の前方の視界を不必要に妨害する場合がある。従来の頭部装着型のディスプレイは、一部のヘルメットバイザーを横切る情報表示を可能にする場合があり、オートバイ運手者は特に、運転中、最小限の情報のみを得ることの利益を享受することができる。   Conventional navigation equipment, such as Global Positioning System (GPS) equipment, is configured to provide a very rugged display and interaction model. And this conventional navigation apparatus provides abundant information to a user. Some of this information may not be necessary or useful for motorcycle drivers, and in fact may distract the driver's attention or unnecessarily disturb the driver's forward view . Traditional head-mounted displays may allow information to be displayed across some helmet visors, and motorcycle operators especially benefit from getting minimal information while driving be able to.

さらに、本発明の実施形態は、ヘルメットベースのディスプレイ・インタフェースを提供することによって、オートバイその他の運転者の注意を道路に集中させることを可能にするよう構成されている。ここで、このヘルメットベースのディスプレイ・インタフェース(display interface)は、ヘルメット内で表示するのに適したナビゲーション情報を表示する。よって、本発明による装置、システム、及び方法によれば、ディスプレイが使用可能なヘルメットがナビゲーション機器に接続された場合、オートバイの運転者のニーズに適合した、特定のナビゲーション案内情報のセットがユーザに対して生成及び表示されることが説明される。さらに、本発明の実施形態は、追加的なナビゲーション情報の測定及び表示も提供する。この追加的なナビゲーション情報は、通常のナビゲーションには応用できないかもしれず、有用であるとも限らないが、オートバイの運転者にとって重要な場合がある。この追加情報は、次に通る道路のカーブの角度、坂の仰角や傾斜に関する情報を含むことができる。さらに、本発明の実施形態は、後に詳しく説明するように、上記の表示情報をカスタマイズしてユーザのニーズにより合致させることもできる。   Furthermore, embodiments of the present invention are configured to allow a motorcycle or other driver's attention to be concentrated on the road by providing a helmet-based display interface. Here, the helmet-based display interface displays navigation information suitable for display within the helmet. Thus, according to the apparatus, system, and method of the present invention, when a helmet capable of display is connected to a navigation device, the user is provided with a specific set of navigation guidance information adapted to the needs of the motorcycle driver. It is explained that it is generated and displayed. Furthermore, embodiments of the present invention also provide for the measurement and display of additional navigation information. This additional navigation information may not be applicable to normal navigation and may not be useful, but may be important to motorcycle drivers. This additional information can include information regarding the angle of the curve of the road that passes next, the elevation angle and inclination of the slope. Furthermore, as will be described later in detail, the embodiment of the present invention can customize the display information to meet the needs of the user.

図1は、ナビゲーション通知をヘルメット内での表示に適合させるための装置102のブロック図を描いたものである。なお、装置102は一実施形態の例示に過ぎず、如何なる意味においても、本発明の技術思想の範囲を制限するものであると考えてはならない。これに関して、本明細書に開示される技術思想は、本明細書及び図面に説明され例示される実施形態に加えて、実施可能な多くの具現化形態を包含することに留意されたい。図1は、ユーザインタフェースとの相互作用を容易にする装置の構成例の一つを示しているが、本発明の実施形態を実装するためにその他多数の構成が用いられてもよい。   FIG. 1 depicts a block diagram of a device 102 for adapting navigation notifications for display in a helmet. The device 102 is merely an example of an embodiment, and should not be considered as limiting the scope of the technical idea of the present invention in any way. In this regard, it should be noted that the technical ideas disclosed herein include many possible implementations in addition to the embodiments described and illustrated in the specification and drawings. Although FIG. 1 illustrates one example configuration of a device that facilitates interaction with a user interface, many other configurations may be used to implement embodiments of the present invention.

装置102は、固定型の機器、携帯型の機器のいずれでもあってもよい。ここで、固定型の機器としてはデスクトップコンピュータ等があり、携帯型の機器としては、ノートパソコン、移動端末、携帯型コンピュータ、携帯電話機、携帯通信装置、ゲーム機器、デジタルカメラ、ビデオカメラ、オーディオプレーヤー、ビデオプレーヤー、テレビ装置、ラジオ受信機、デジタルビデオレコーダー、位置決め装置、チップセット、チップセットを備えたコンピュータ・デバイス、これらのあらゆる組み合わせ、その他これに類するものがある。これに関連し、装置102は、ディスプレイを備えるコンピュータ・デバイス、ディスプレイと通信して動作可能なコンピュータ・デバイス等のあらゆるコンピュータ・デバイスを備えることができる。本発明のいくつかの例示的実施形態では、装置102は、図2に図示された移動端末等の携帯型コンピュータ・デバイスとして実装される。   The device 102 may be a fixed device or a portable device. Here, there are desktop computers and the like as fixed devices, and laptop computers, mobile terminals, portable computers, mobile phones, portable communication devices, game devices, digital cameras, video cameras, audio players as portable devices. , Video players, television sets, radio receivers, digital video recorders, positioning devices, chipsets, computer devices with chipsets, any combination thereof, and the like. In this regard, the apparatus 102 can comprise any computer device, such as a computer device comprising a display, a computer device operable in communication with the display. In some exemplary embodiments of the invention, apparatus 102 is implemented as a portable computing device such as the mobile terminal illustrated in FIG.

ここで、図2は、装置102の実施形態の一例を表す移動端末10のブロック図を描いたものである。ただ、この図に描かれ、以下に説明されるデバイス100は、本発明の様々な例示的実施形態に従って実装されうる(及び/又はそれに従って利益を受けうる)装置102の一つのタイプを単に例示するに過ぎず、従って、本明細書で開示される事項の範囲を限定するものと捉えてはならない。電子装置のいくつかの具現化形態がここに描かれ、例示のために説明されるが、他のタイプの電子デバイス、例えば携帯電話や携帯型コンピュータ、パーソナル・デジタル・アシスタント(PDA)、ポケットベル、ラップトップコンピュータ、デスクトップコンピュータ、ゲーム機器、位置決め装置、タブレット型コンピュータ、テレビ、電子新聞等、様々なタイプの電子システムが、本発明の様々な具現化形態を使ってもよい。   Here, FIG. 2 depicts a block diagram of the mobile terminal 10 representing an example of an embodiment of the device 102. However, the device 100 depicted in this figure and described below is merely illustrative of one type of apparatus 102 that may be implemented (and / or may benefit according to) various exemplary embodiments of the invention. Therefore, it should not be construed as limiting the scope of the matter disclosed herein. Several implementations of electronic devices are depicted here and described for illustration, but other types of electronic devices such as mobile phones and portable computers, personal digital assistants (PDAs), pagers, etc. Various types of electronic systems, such as laptop computers, desktop computers, gaming devices, positioning devices, tablet computers, televisions, electronic newspapers, etc., may use various implementations of the invention.

図示されるように、移動端末10は、送信機14および受信機16と協働する(一つまたは複数の)アンテナ12を備えていてもよい。移動端末10は、送信機及び受信機と信号をやりとりするように構成されたプロセッサ20を備えてもよい。プロセッサ20は、例えば、様々な手段として具現化されることができる。このような手段には、例えば回路(circuitry)や、協働するDSPを備える一つ又は複数のマイクロプロセッサ、DSPを備えない一つ又は複数のプロセッサ、一つ又は複数のコプロセッサ、処理回路、一つ又は複数のコンピュータ、その他様々な処理要素等が含まれる。また、「その他様々な処理要素」には、例えば、ASICやFPGA、これらの組み合わせのような集積回路が含まれる。図2においてプロセッサ20はシングルプロセッサとして描かれているが、実施形態によっては複数のプロセッサであってもよい。プロセッサ20によりやりとりされる信号には、利用可能なセルラシステムや、様々な有線・無線ネットワーク技術の規格に従ったシグナリング情報を含んでいてもよい。このような技術の非限定的な例には、IEEE802.11やIEEE802.16規格のようなWi-Fiや無線ローカル・エリア・ネットワーク(WLAN)技術が含まれる。さらに、そのような信号には、音声データやユーザが生成したデータ、ユーザが要求したデータなどが含まれてもよい。これに関して移動端末は、一つ以上の無線インタフェース規格や通信プロトコル、変調タイプ、アクセスタイプによって動作可能であってもよい。より具体的には、移動端末は、第1世代(1G)、第2世代(2G)、2.5G、第3世代(3G)、第4世代(4G)等の様々な通信プロトコルや、SIP等のIMS通信プロトコル等で動作する能力を有してもよい。例えば、上記移動端末は、第2世代の無線通信プロトコルであるIS-136(時分割多重アクセス(TDMA))、GSM(登録商標)、IS-95(符号分割多重アクセス(CDMA))等で動作する能力を有してもよい。また、例えば、上記移動端末は、2.5世代の無線通信プロトコルであるGPRS(General Packet Radio Service)や、EDGE(Enhanced Data GSM Environment)等で動作する能力を有してもよい。さらに、例えば、上記移動端末は、第3世代の無線通信プロトコルであるUMTS(Universal Mobile Telecommunications System)やCDMA2000、WCDMA(登録商標)、TD-SCDMA等で動作する能力を有してもよい。上記移動端末は、第3.9世代の無線通信プロトコルであるロング・ターム・エボリューション(LTE)や、E-UTRAN(Evolved Universal Terrestrial Radio Access Network)等で動作する能力を有してもよい。また、例えば、上記移動端末は、第4世代(4G)の無線通信プロトコルや、将来開発されるであろう同様の無線通信プロトコルで動作する能力を有してもよい。   As shown, the mobile terminal 10 may include an antenna (s) 12 that cooperates with a transmitter 14 and a receiver 16. The mobile terminal 10 may comprise a processor 20 configured to exchange signals with a transmitter and a receiver. The processor 20 can be embodied as various means, for example. Such means include, for example, circuitry, one or more microprocessors with cooperating DSPs, one or more processors without DSPs, one or more coprocessors, processing circuits, One or a plurality of computers and various other processing elements are included. The “other various processing elements” include, for example, integrated circuits such as ASICs, FPGAs, and combinations thereof. In FIG. 2, the processor 20 is depicted as a single processor, but may be a plurality of processors in some embodiments. Signals exchanged by the processor 20 may include available cellular systems and signaling information in accordance with various wired / wireless network technology standards. Non-limiting examples of such technologies include Wi-Fi and wireless local area network (WLAN) technologies such as IEEE 802.11 and IEEE 802.16 standards. Further, such signals may include voice data, data generated by the user, data requested by the user, and the like. In this regard, the mobile terminal may be operable according to one or more radio interface standards, communication protocols, modulation types, and access types. More specifically, the mobile terminal can use various communication protocols such as first generation (1G), second generation (2G), 2.5G, third generation (3G), fourth generation (4G), SIP, It may have the ability to operate with IMS communication protocols such as. For example, the mobile terminal operates with IS-136 (Time Division Multiple Access (TDMA)), GSM (registered trademark), IS-95 (Code Division Multiple Access (CDMA)), etc., which are second generation wireless communication protocols. May have the ability to Further, for example, the mobile terminal may have a capability of operating with GPRS (General Packet Radio Service), which is a 2.5 generation radio communication protocol, or with Enhanced Data GSM Environment (EDGE). Further, for example, the mobile terminal may have the capability of operating in UMTS (Universal Mobile Telecommunications System), CDMA2000, WCDMA (registered trademark), TD-SCDMA, etc., which are third generation wireless communication protocols. The mobile terminal may have a capability of operating in Long Term Evolution (LTE), E-UTRAN (Evolved Universal Terrestrial Radio Access Network), which is a 3.9th generation wireless communication protocol. Further, for example, the mobile terminal may have a capability of operating with a fourth generation (4G) wireless communication protocol or a similar wireless communication protocol that will be developed in the future.

デュアルモード又はそれ以上のモードを有する電話(例えばデジタルモードとアナログモードを有する電話や、TDMAとCDMA、アナログモードを有する電話)の場合、狭帯域電話システム(Narrow-band Advanced Mobile Phone System;NAMPS)や、TACS(Total Access Communication System)に関しても、本発明の具現化から利益を得ることができる可能性がある。さらに、移動端末10は、Wi-Fi(Wireless Fidelity)プロトコルやWiMAX(登録商標)プロトコルに従って動作する能力を有してもよい。   Narrow-band Advanced Mobile Phone System (NAMPS) for dual mode or higher mode phones (for example, phones with digital and analog modes, phones with TDMA and CDMA, analog modes) In addition, TACS (Total Access Communication System) may also benefit from the realization of the present invention. Furthermore, the mobile terminal 10 may have a capability of operating according to a Wi-Fi (Wireless Fidelity) protocol or a WiMAX (registered trademark) protocol.

プロセッサ20は、移動端末10のオーディオ/ビデオ機能や論理機能を実装する回路を備えていてもよい。さらに、プロセッサ20はDSPデバイスやマイクロプロセッサデバイス、A/D変換器、D/A変換器等を備えてもよい。移動端末の信号及び情報処理機能は、それぞれの能力に従って、これらのデバイスの中に割り当てられてもよい。プロセッサは、内蔵の音声符号化器(VC)20aや、内蔵のデータモデム(DM)20b等を備えてもよい。さらに、プロセッサは、メモリに記録されうる一つ以上のソフトウェアプログラム(アプリケーション等)を実行する能力を有してもよい。例えばプロセッサ20は、Webブラウザのような通信プログラムを実行する能力を有していてもよい。そのような通信プログラムは、移動端末10がWebコンテンツを送受信できるようにする。そうしたWebコンテンツには、WAP(Wireless Application Protocol)やHTTP(Hypertext Transfer Protocol )等のプロトコルに従う位置ベースのコンテンツがある。移動端末10は、インターネットや他のネットワークとの間でWEBコンテンツを送受信するために、TCP/IP(Transmission Control Protocol/Internet Protocol)を使用する能力を有してもよい。   The processor 20 may include a circuit that implements the audio / video function and logic function of the mobile terminal 10. Further, the processor 20 may include a DSP device, a microprocessor device, an A / D converter, a D / A converter, and the like. The mobile terminal signaling and information processing functions may be assigned in these devices according to their capabilities. The processor may include a built-in speech encoder (VC) 20a, a built-in data modem (DM) 20b, and the like. Further, the processor may have the ability to execute one or more software programs (such as applications) that can be recorded in memory. For example, the processor 20 may have a capability of executing a communication program such as a web browser. Such a communication program enables the mobile terminal 10 to transmit and receive Web content. Such Web content includes location-based content according to protocols such as WAP (Wireless Application Protocol) and HTTP (Hypertext Transfer Protocol). The mobile terminal 10 may have a capability of using TCP / IP (Transmission Control Protocol / Internet Protocol) in order to transmit / receive WEB content to / from the Internet or other networks.

移動端末10はまた、例えばイヤホンやスピーカー24、リンガ22、マイクロフォン26、ディスプレイ28、および、ユーザ入力インタフェースを含むユーザインタフェース等を備えていてもよく、これら全てはプロセッサ20に制御可能に接続されてもよい。これに関してプロセッサ20は、スピーカー24やリンガ22,マイクロフォン26,ディスプレイ28等の一つ以上のユーザインタフェースの要素の少なくとも何れかを制御するように構成されるユーザインタフェース回路を備えていてもよい。プロセッサ20および/またはプロセッサ20を含むユーザインタフェース回路は、コンピュータプログラム命令を通じて、ユーザインタフェースの一つ以上の要素の一つ以上の機能を制御するように構成されてもよい。そうしたコンピュータプログラム命令は、例えば揮発性メモリ40や不揮発性メモリ42のような、プロセッサ20がアクセス可能なメモリに格納される、ソフトウェアおよび/またはファームウェア等であってもよい。図示されていないが、上記移動端末は、その様々な回路に電気を供給するバッテリーを備えてもよい。そのような回路には、例えば、知覚可能な出力として、機械的な深度を提供する回路がある。上記移動端末のディスプレイ28は、対象となる電子機器に適したものであれば何れのタイプのものであってもよい。この対象となる電子機器は、例えば、プラズマ・ディスプレイ・パネル(PDP)、液晶ディスプレイ(LCD)、発光ダイオード(LED)、有機発光ダイオード(OLED)、パススルーディスプレイ、プロジェクター、ホログラフィック・ディスプレイその他これに類するものを含む。例えば、ディスプレイ28は3次元タッチディスプレイを含む。この例示の説明は、後に詳しく説明する。ユーザ入力インタフェースは、移動端末がデータを受信することを可能にするデバイスをいくつか備えていてもよい。そのようなデバイスには、例えばキーパッド30やタッチディスプレイ(いくつかの例示的実施形態では、ディスプレイ28はタッチディスプレイとして構成されている)、ジョイスティック(図示していない)、またその他の入力デバイスが存在する。キーパッドを含む実施形態において、当該キーパッドは、0−9の数字キーや関連するキー(#,*)、その他移動端末10を操作するためのキーを有していてもよい。あるいは、または加えて、キーパッド30は、一般的なQWERTY配列のキーパッドを備えていてもよい。   The mobile terminal 10 may also include, for example, an earphone or speaker 24, a ringer 22, a microphone 26, a display 28, and a user interface including a user input interface, all of which are controllably connected to the processor 20. Also good. In this regard, the processor 20 may comprise a user interface circuit configured to control at least one of one or more user interface elements such as the speaker 24, the ringer 22, the microphone 26, the display 28, and the like. The processor 20 and / or user interface circuitry including the processor 20 may be configured to control one or more functions of one or more elements of the user interface through computer program instructions. Such computer program instructions may be, for example, software and / or firmware stored in a memory accessible to the processor 20, such as volatile memory 40 or non-volatile memory 42. Although not shown, the mobile terminal may include a battery that supplies electricity to its various circuits. Such circuits include, for example, circuits that provide mechanical depth as a perceptible output. The display 28 of the mobile terminal may be of any type as long as it is suitable for the target electronic device. This target electronic equipment includes, for example, a plasma display panel (PDP), a liquid crystal display (LCD), a light emitting diode (LED), an organic light emitting diode (OLED), a pass-through display, a projector, a holographic display, etc. Includes similar items. For example, the display 28 includes a three-dimensional touch display. This exemplary description will be described in detail later. The user input interface may comprise several devices that allow the mobile terminal to receive data. Such devices include, for example, keypad 30, touch display (in some exemplary embodiments, display 28 is configured as a touch display), joystick (not shown), and other input devices. Exists. In an embodiment including a keypad, the keypad may have 0-9 numeric keys, related keys (#, *), and other keys for operating the mobile terminal 10. Alternatively or in addition, the keypad 30 may comprise a general QWERTY keypad.

移動端末10は、加入者識別モジュール(SIM)38や、着脱可能なユーザ識別モジュール(R-UIM)等のメモリを備えていてもよい。これらは移動端末の加入者に関連する情報要素を格納してもよい。SIMに加えて、上記移動端末は、その他の着脱可能なメモリや内蔵メモリを備えてもよい。移動端末10は、揮発性メモリ40及び/又は不揮発性メモリ42を備えてもよい。例えば、揮発性メモリは、ランダムアクセスメモリ(RAM)を含んでもよく、ダイナミック及び/又はスタティックRAM、オンチップ又はオフチップのキャッシュメモリ等を含んでもよい。不揮発性メモリ42は、内蔵及び/又は着脱可能な不揮発性メモリであってもよく、また、例えばリード・オンリー・メモリ、フラッシュメモリ、磁気記憶デバイス(例えばハードディスクやフレキシブルディスクドライブ、磁気テープなど)、光ディスクドライブ及び/又は光ディスクメディア、不揮発性のランダムアクセスメモリ(NVRAM)等を含んでもよい。揮発性メモリ40と同様に、不揮発性メモリ42は、データの一時的な記憶のためのキャシュエリアを含んでもよい。これらのメモリは、移動端末が移動端末としての機能を遂行するために使用しうるソフトウェアプログラムや命令、情報片、データ等を一つ又は複数格納していてもよい。例えばこれらのメモリは、移動端末10をユニークに識別可能な国際移動体装置識別コード(IMEIコード)のような識別情報を格納していてもよい。   The mobile terminal 10 may include a memory such as a subscriber identification module (SIM) 38 and a removable user identification module (R-UIM). These may store information elements related to the subscriber of the mobile terminal. In addition to SIM, the mobile terminal may include other removable memory or built-in memory. The mobile terminal 10 may include a volatile memory 40 and / or a nonvolatile memory 42. For example, volatile memory may include random access memory (RAM), and may include dynamic and / or static RAM, on-chip or off-chip cache memory, and the like. The nonvolatile memory 42 may be a built-in and / or detachable nonvolatile memory, and may be a read only memory, a flash memory, a magnetic storage device (for example, a hard disk, a flexible disk drive, a magnetic tape, etc.), An optical disk drive and / or an optical disk medium, a nonvolatile random access memory (NVRAM), and the like may be included. Similar to volatile memory 40, non-volatile memory 42 may include a cache area for temporary storage of data. These memories may store one or a plurality of software programs, instructions, information pieces, data, and the like that can be used by the mobile terminal to perform functions as the mobile terminal. For example, these memories may store identification information such as an international mobile device identification code (IMEI code) that can uniquely identify the mobile terminal 10.

図1に戻る。ある例示的実施形態において、装置102は、本明細書に記載される様々な機能を実行するための、様々な手段を備える。これらの手段には、プロセッサ110、メモリ112、通信インタフェース114、ユーザインタフェース116、センサ118、ユーザインタフェース(UI)制御回路(control circuitry)122の一つ又は複数が含まれうる。本明細書で記載される、装置102のこれらの手段は、例えば、回路(circuitry)やハードウェア要素(例えば適切にプログラムされたプロセッサ、論理回路の組み合わせ等)、コンピュータプログラムに基づく製品、これらの組み合わせ等として具現化されてもよい。なお、コンピュータプログラムに基づく製品とは、例えばプロセッサ110のような適切に構成された処理デバイスにより実行されるコンピュータ読み取り可能なコンピュータ可読プログラム命令(例えばソフトウェアやファームウェア)であって、コンピュータ読み取り可能な媒体(例えばメモリ112)に格納されるものである。   Returning to FIG. In certain exemplary embodiments, device 102 comprises various means for performing various functions described herein. These means may include one or more of processor 110, memory 112, communication interface 114, user interface 116, sensor 118, user interface (UI) control circuitry 122. As described herein, these means of the apparatus 102 include, for example, circuitry, hardware elements (eg, appropriately programmed processors, combinations of logic circuits, etc.), products based on computer programs, these It may be embodied as a combination. Note that a product based on a computer program is a computer-readable computer-readable program instruction (for example, software or firmware) executed by an appropriately configured processing device such as the processor 110, and is a computer-readable medium. (For example, the memory 112).

ある実施形態において、図1に描かれる一つ又は複数の手段は、チップ又はチップセットとして具現化されてもよい。換言すれば、装置102は、基板等の構造組立部品に素材や部品,配線等を備える、一つ以上の物理的パッケージ(チップ等)を備えてもよい。構造組立部品は物理的な強度やサイズの保全を提供してもよく、また、要素回路の電気的な相互作用を抑える役割を果たしてもよい。これに関して、プロセッサ110、メモリ112、通信インタフェース114、ユーザインタフェース116、UI制御回路122は、チップ又はチップセットとして具現化されてもよい。したがって、装置102は場合によっては、単一のチップや単一のシステム・オン・チップ(SoC)上に、本発明の実施形態を実装するように構成されてもよいし、また、本発明の実施形態を実装するように構成された構成要素を備えてもよい。このように、場合によっては、チップ又はチップセットは、本明細書に記載される機能を実現する一つ又は複数の処理を実行する手段を構成してもよく、及び/又は、本明細書に記載される機能やサービスに関してユーザをナビゲートする手段を構成してもよい。   In certain embodiments, one or more means depicted in FIG. 1 may be embodied as a chip or chipset. In other words, the apparatus 102 may include one or more physical packages (chips or the like) that include materials, components, wiring, and the like in structural assembly components such as a substrate. The structural assembly may provide physical strength and size integrity and may serve to reduce electrical interaction of the component circuits. In this regard, the processor 110, the memory 112, the communication interface 114, the user interface 116, and the UI control circuit 122 may be embodied as a chip or a chip set. Accordingly, the apparatus 102 may be configured to implement embodiments of the present invention on a single chip or a single system on chip (SoC) in some cases, and Components configured to implement the embodiments may be provided. Thus, in some cases, a chip or chipset may constitute a means for performing one or more processes that implement the functions described herein, and / or Means for navigating the user with respect to the functions and services described may be configured.

プロセッサ110は、例えば、様々な手段として具現化されることができる。このような手段には、例えば、協働するDSPを備える一つ又は複数のマイクロプロセッサ、DSPを備えない一つ又は複数のプロセッサ、一つ又は複数のコプロセッサ、一つ又は複数のマルチコアプロセッサ、一つ又は複数の制御装置、処理回路、一つ又は複数のコンピュータ、その他様々な処理要素等が含まれる。また、「その他様々な処理要素」には、例えば、ASICやFPGA、一つ又は複数のその他の種類のハードウェア処理装置、これらの組み合わせのような集積回路が含まれる。従って、図1においてはプロセッサ110はシングルプロセッサとして描かれているが、実施形態によっては複数のプロセッサであってもよい。これら複数のプロセッサは互いに協働しうるように通信してもよく、本明細書に記載されるような、装置102の一つ又は複数の機能を一緒に実行するように構成されてもよい。これら複数のプロセッサは、単一のコンピューティングデバイス上に搭載されてもよいが、複数のコンピューティング装置にまたがって分散されて搭載されてもよい。これら複数のコンピューティングデバイスは、一緒になって、装置102として機能するように構成される。装置102が移動端末10として具現化される実施形態において、プロセッサ110は、プロセッサ20として具現化されるか、又はプロセッサ20を含んでもよい(図2に示す)。ある例示的実施形態において、プロセッサ110は、メモリ112に格納された命令を実行するように構成されてもよい。またはプロセッサ110は、自身がアクセス可能な命令を実行するように構成されてもよい。これらの命令は、プロセッサ110により実行されると、装置102に、本明細書で説明されるその一つ又は複数の機能を遂行させうる。このように、ハードウェアにより構成されるかソフトウェアによる手法により構成されるか、またはこれらの組合せにより構成されるかに関わらず、プロセッサ110は、本発明の実施形態に従う処理を実行する能力を有する要素として構成されてもよい。例えば、プロセッサ110がASICやFPGAのようなものにより具現化されるとき、プロセッサ110は、本明細書により説明される一つ又は複数の処理を遂行するために特別に構成されたハードウェアであってもよい。また、別の例では、プロセッサ110は、例えばメモリ112に格納されているかもしれない命令の実行主体として具現化される。その命令は、本明細書に開示されるアルゴリズムや処理の一つ又は複数をプロセッサ110に実行させるように特に構成されていてもよい。   The processor 110 can be embodied as various means, for example. Such means include, for example, one or more microprocessors with cooperating DSPs, one or more processors without DSPs, one or more coprocessors, one or more multi-core processors, One or a plurality of control devices, a processing circuit, one or a plurality of computers, and various other processing elements are included. The “other various processing elements” include, for example, an integrated circuit such as an ASIC or FPGA, one or more other types of hardware processing devices, or a combination thereof. Therefore, although the processor 110 is depicted as a single processor in FIG. 1, it may be a plurality of processors in some embodiments. The multiple processors may communicate with each other and may be configured to perform one or more functions of the device 102 together, as described herein. The plurality of processors may be mounted on a single computing device, but may be distributed and mounted across a plurality of computing devices. The plurality of computing devices are configured to function together as device 102. In embodiments where the device 102 is embodied as the mobile terminal 10, the processor 110 may be embodied as the processor 20 or may include the processor 20 (shown in FIG. 2). In certain exemplary embodiments, processor 110 may be configured to execute instructions stored in memory 112. Alternatively, the processor 110 may be configured to execute instructions that it can access. These instructions, when executed by processor 110, may cause device 102 to perform one or more of its functions described herein. As described above, the processor 110 has the ability to execute the processing according to the embodiment of the present invention regardless of whether the processor 110 is configured by hardware, software, or a combination thereof. It may be configured as an element. For example, when the processor 110 is embodied by something like an ASIC or FPGA, the processor 110 is hardware specially configured to perform one or more processes described herein. May be. In another example, the processor 110 is embodied as an execution body of an instruction that may be stored in the memory 112, for example. The instructions may be specifically configured to cause the processor 110 to execute one or more of the algorithms and processes disclosed herein.

メモリ112は、例えば、揮発性メモリや不揮発性メモリ、これらの組み合わせとして構成されてもよい。これに関して、メモリ112は、非一時的なコンピュータ読み取り可能な記憶媒体であってもよい。図1には単一のメモリとして示されているが、メモリ112は、複数のメモリから構成されてもよい。これら複数のメモリは、単一のコンピューティングデバイス上に搭載されてもよいが、複数のコンピューティング装置にまたがって分散されて搭載されてもよい。これら複数のコンピューティング装置は、一緒になって、装置102として機能するように構成される。様々な例示的実施形態において、メモリ112は、ハードディスクやランダムアクセスメモリ、キャッシュメモリ、フラッシュメモリ、CD-ROM、DVD-ROM、光ディスク、情報を格納するように構成された回路、これらの組み合わせ等を含んでもよい。装置102が移動端末10として具現化される実施形態において、メモリ112は、揮発性メモリ40及び/又は不揮発性メモリ42を備えてもよい(図2に示す)。様々な例示的実施形態に従う多くの機能を装置102が実行することを可能にするべく、メモリ112は、情報やデータ、ファイル、アプリケーション、命令および同様のものを格納するように構成されてもよい。例えば、実施形態によっては、メモリ112は、プロセッサ110により処理された入力データをバッファするように構成される。さらに又は代替的に、メモリ112は、プロセッサ110により実行されるプログラム命令を格納するように構成されてもよい。メモリ112は、静的な形態として及び/又は動的な形態として、情報を格納してもよい。格納した情報には、例えば、画像、コンテンツ、メディアコンテンツ、ユーザデータ、アプリケーションデータ、その他これに類するものが含まれうる。また、格納した情報は、UI制御回路122が、その機能を遂行する際に格納したり使用したりしてもよい。   For example, the memory 112 may be configured as a volatile memory, a nonvolatile memory, or a combination thereof. In this regard, the memory 112 may be a non-transitory computer readable storage medium. Although shown as a single memory in FIG. 1, the memory 112 may be comprised of a plurality of memories. The plurality of memories may be mounted on a single computing device, or may be distributed and mounted across a plurality of computing devices. The plurality of computing devices are configured to function together as device 102. In various exemplary embodiments, the memory 112 may comprise a hard disk, random access memory, cache memory, flash memory, CD-ROM, DVD-ROM, optical disk, circuitry configured to store information, combinations thereof, and the like. May be included. In embodiments where the device 102 is embodied as a mobile terminal 10, the memory 112 may comprise a volatile memory 40 and / or a non-volatile memory 42 (shown in FIG. 2). Memory 112 may be configured to store information, data, files, applications, instructions, and the like to allow device 102 to perform many functions in accordance with various exemplary embodiments. . For example, in some embodiments, the memory 112 is configured to buffer input data processed by the processor 110. Additionally or alternatively, the memory 112 may be configured to store program instructions that are executed by the processor 110. The memory 112 may store information as a static form and / or as a dynamic form. Stored information can include, for example, images, content, media content, user data, application data, and the like. The stored information may be stored or used when the UI control circuit 122 performs its function.

通信インタフェース114は、回路やハードウェア、コンピュータプログラムに基づく製品、これらの組み合わせ等として具現化され、他のコンピューティングデバイスとの間でデータを送受信しうるように構成される、如何なるデバイスや手段として実施されてもよい。ここでコンピュータプログラムに基づく製品は、プロセッサ110等の適切に構成された処理装置によって実行されるコンピュータ可読プログラム命令を格納するコンピュータ可読媒体(例えばメモリ112)を備える。いくつかの例示的実施形態において、通信インタフェース114は、その少なくとも一部がプロセッサ110により実装されたり、又はプロセッサ110により制御されるように実装されたりしてもよい。これに関して、通信インタフェース114は、バス等を介してプロセッサ110と通信状態にあってもよい。通信インタフェース114は、例えば、アンテナや送信機、受信機、送受信機を備えてもよく、及び/又は、一つ又は複数の他のコンピューティングデバイスとの通信を可能にするためのサポートハードウェアやソフトウェアを備えてもよい。装置102が移動端末10として具現化される実施形態において、通信インタフェース114は、送信機14及び受信機16として具現化されるか、又は送信機14及び受信機16を含んでもよい(図2に示す)。通信インタフェース114は、コンピューティングデバイスの間で通信を行うために使用される如何なるプロトコルを用いてデータの送受信を行うように構成されてもよい。これに関して、通信インタフェース114は、無線ネットワーク、有線ネットワーク、これらの組み合わせ等を介してデータ送信を行うために使用されうる如何なるプロトコルを用いてデータの送受信を行うように構成されてもよい。それによって装置102と他のコンピューティングデバイスとが通信することが可能になる。例として、通信インタフェース114は、サーバまたはその他のコンテンツ源からネットワークを経由してコンテンツ(例えば、ウェブページ・コンテンツ、ストリーミング・メディアコンテンツ等)を受信したり、またはその他のアクセスを行ったりするように構成することができる。通信インタフェース114は、さらに、メモリ112、ユーザインタフェース116、センサ118、及び/またはUI制御回路122と、バス等を介して通信状態にあってもよい。   The communication interface 114 is embodied as a circuit, hardware, a product based on a computer program, a combination thereof, or the like, and is configured as any device or means configured to be able to transmit and receive data to and from other computing devices. May be implemented. Here, a computer program based product comprises a computer readable medium (eg, memory 112) that stores computer readable program instructions to be executed by a suitably configured processing device, such as processor 110. In some exemplary embodiments, communication interface 114 may be implemented such that at least a portion thereof is implemented by processor 110 or controlled by processor 110. In this regard, the communication interface 114 may be in communication with the processor 110 via a bus or the like. The communication interface 114 may comprise, for example, an antenna, transmitter, receiver, transceiver, and / or support hardware to enable communication with one or more other computing devices, Software may be provided. In embodiments where the device 102 is embodied as a mobile terminal 10, the communication interface 114 may be embodied as a transmitter 14 and a receiver 16 or may include a transmitter 14 and a receiver 16 (see FIG. 2). Show). The communication interface 114 may be configured to send and receive data using any protocol used to communicate between computing devices. In this regard, the communication interface 114 may be configured to send and receive data using any protocol that can be used to send data via a wireless network, a wired network, combinations thereof, and the like. This allows the device 102 to communicate with other computing devices. By way of example, the communication interface 114 may receive content (eg, web page content, streaming media content, etc.) over a network from a server or other content source, or otherwise access. Can be configured. The communication interface 114 may further be in communication with the memory 112, the user interface 116, the sensor 118, and / or the UI control circuit 122 via a bus or the like.

センサ118は、プロセッサ110、ユーザインタフェース116、センサ118、及び/またはUI制御回路122と通信状態にあってもよい。装置102が移動端末10として具現化される実施形態において、センサ118は、センサ18として具現化されるか、又はセンサ18を含んでもよい(図2に示す)。いくつかの実施形態において、センサ118は、例えば、ユーザの視点の追跡、ユーザの目の位置及び/または焦点の検出等をすることによってユーザの目をモニタするように構成することができる。例えば、センサ118は、ユーザの目(または、まぶた)を反射する光線またはその他の信号(赤外線等)を送信するように構成することができる。センサ118は、光線またはその他の信号の受信もするように構成することができる。さらに又は代替的に、センサ118は、その他の機能(functionality)を使用してユーザの目(または、まぶた)をモニタすることができる。その他の機能とは、例えば、カメラを用いて写真及び/またはビデオを撮影することである。同様にして、センサ118は、三次元環境内でのユーザの焦点(例えば、ユーザの焦点の奥行き)を決定するために、ユーザの瞳孔サイズを感知するように構成することができる。同様に、センサ118は、ユーザのその他の特徴をモニタするように構成することができる。ユーザのその他の特徴の例としては特に、ユーザの視点の動き、ユーザのまぶたの動きがある。実施形態によっては、センサ118は視点追跡部を備える場合がある。   Sensor 118 may be in communication with processor 110, user interface 116, sensor 118, and / or UI control circuit 122. In embodiments where device 102 is embodied as mobile terminal 10, sensor 118 may be embodied as sensor 18 or may include sensor 18 (shown in FIG. 2). In some embodiments, the sensor 118 can be configured to monitor the user's eyes, for example, by tracking the user's viewpoint, detecting the user's eye position and / or focus, and the like. For example, the sensor 118 can be configured to transmit a light beam or other signal (such as infrared) that reflects the user's eyes (or eyelids). The sensor 118 can also be configured to receive light or other signals. Additionally or alternatively, the sensor 118 can monitor the user's eyes (or eyelids) using other functionalities. The other function is, for example, taking a picture and / or video using a camera. Similarly, the sensor 118 can be configured to sense the user's pupil size to determine the user's focus within the three-dimensional environment (eg, the depth of the user's focus). Similarly, sensor 118 can be configured to monitor other characteristics of the user. Examples of other user features include, among other things, the user's viewpoint movement and the user's eyelid movement. In some embodiments, the sensor 118 may include a viewpoint tracking unit.

さらに又は代替的に、いくつかの実施形態では、センサ118はその他の種類のセンサを備えることができる。その他の種類のセンサとは、例えば、近接センサ、光センサ、ジャイロスコープ、カメラ、心拍数モニタ、磁気探知機、及び/または加速度計である。これに関し、センサ118は、慣性計測装置(IMU)またはその他の電子デバイスを備えることができる。これら慣性計測装置(IMU)その他の電子デバイスは、センサまたはセンサが取り付けられた物体の(又はこれらに加わる)速度、幾何学的位置、重力に関するデータを測定及び提供する。例えば、いくつかの実施形態では、センサ118はユーザによって装着されたヘルメットの上に配置される場合がある。あるケースでは、IMUを介したようなセンサ118は、基準位置に対するヘルメットの動きを感知するように構成することができる。上記基準位置は、例えば、動いていない又はゆっくり動いている(歩いている時または立っている時の)ユーザが、ヘルメットを保持または装着しているとき等、ヘルメットが定常状態にあるときの位置とすることができる。例えば、センサ118は、移動中のユーザ(オートバイ又はその他の乗り物に乗車中のユーザ)がヘルメットを装着しているか否かを感知するように構成することもできる。その他の実施形態では、例えば、センサが近接センサ、光センサ、及び/または熱センサ等を含む場合、ユーザの動きに関わらず、ヘルメットがユーザの頭部を囲んでいるときには、それを検出するように構成することができる。   Additionally or alternatively, in some embodiments, the sensor 118 can comprise other types of sensors. Other types of sensors are, for example, proximity sensors, optical sensors, gyroscopes, cameras, heart rate monitors, magnetic detectors, and / or accelerometers. In this regard, the sensor 118 may comprise an inertial measurement unit (IMU) or other electronic device. These inertial measurement units (IMUs) and other electronic devices measure and provide data relating to velocity, geometric position, and gravity of (or in addition to) sensors or objects to which they are attached. For example, in some embodiments, sensor 118 may be placed on a helmet worn by the user. In some cases, a sensor 118, such as via an IMU, can be configured to sense helmet movement relative to a reference position. The reference position is, for example, a position when the helmet is in a steady state, such as when a user who is not moving or slowly moving (when walking or standing) is holding or wearing the helmet. It can be. For example, the sensor 118 may be configured to sense whether a moving user (a user riding a motorcycle or other vehicle) is wearing a helmet. In other embodiments, for example, if the sensor includes a proximity sensor, an optical sensor, and / or a thermal sensor, it may detect when the helmet surrounds the user's head, regardless of the user's movement. Can be configured.

いくつかの実施形態では、センサ118が、プロセッサ110に出力(信号、光線、画像、ビデオ等)を提供し、プロセッサ110が、ユーザの状態に関する特定の状況を判断できるように構成することができる。これらユーザの状態に関する特定の状況とは、例えば、ユーザがヘルメットを装着しているか否か、及び/または、ユーザが運転中(オートバイに乗っている等)であるか否かである。この情報は、ユーザに関するあらゆる特徴を判断するのに利用することができる。例えば、視点の検出の場合、この情報は、ユーザの目が周辺の注目対象に向かって動いていることを判断するために使用することができる。同様に、この情報は、周囲の注目対象に関連するユーザ入力を、ユーザが示していることを判断するために利用することができる。さらに、この情報は、ユーザに提示するのに適したデータ(視覚的なデータ等)を判断するために利用することができる。この判断は、例えば、後にさらに詳しく説明するように、データの提示時にユーザがオートバイを運転しているか否かを考慮することによって行われる。   In some embodiments, the sensor 118 can provide an output (signal, light, image, video, etc.) to the processor 110, and the processor 110 can be configured to determine a specific situation regarding the user's condition. . These specific situations regarding the user's state are, for example, whether the user is wearing a helmet and / or whether the user is driving (e.g. riding a motorcycle). This information can be used to determine any characteristics associated with the user. For example, in the case of viewpoint detection, this information can be used to determine that the user's eyes are moving toward a surrounding target of interest. Similarly, this information can be used to determine that the user is indicating user input related to the surrounding subject of interest. Furthermore, this information can be used to determine data suitable for presentation to the user (such as visual data). This determination is made, for example, by considering whether or not the user is driving a motorcycle when presenting data, as will be described in more detail later.

ユーザインタフェース116は、ユーザ入力を示す情報を受け取ったり、聴覚や視覚に関する出力や、機械的又はその他の出力をユーザに提供したりするために、プロセッサ110と通信状態にあってもよい。ユーザインタフェース116は、例えば、キーボードやマウス、ジョイスティック、ディスプレイ、タッチスクリーンディスプレイ、マイクロフォン、スピーカー、その他の入力又は出力機構のいずれか一つ以上を有していてもよい。いくつかの実施形態において、ディスプレイは、スクリーン上のディスプレイ、壁上のディスプレイ、眼鏡又はバイザーのディスプレイ(目のすぐ近くにあるディスプレイ等)、空中のディスプレイ等をいう。いくつかの実施形態において、ユーザインタフェース116は、メインディスプレイ及び少なくとも一つの周辺ディスプレイ等、2つ以上のディスプレイを備えることができる。同様に、ユーザインタフェース116は、あらゆるディスプレイ(メインディスプレイ及び/または周辺ディスプレイ等)を含むことができる。装置102が移動端末10として具現化される実施形態において、ユーザインタフェース116は、ディスプレイ28及びキーパッド30として具現化されるか、又はディスプレイ28及びキーパッド30を含んでもよい(図2に示す)。ユーザインタフェース116は、メモリ112、通信インタフェース114、センサ118、及び/またはUI制御回路122と、バス等を介して通信状態にあってもよい。   The user interface 116 may be in communication with the processor 110 to receive information indicative of user input, provide audio or visual output, and provide mechanical or other output to the user. The user interface 116 may include, for example, any one or more of a keyboard, a mouse, a joystick, a display, a touch screen display, a microphone, a speaker, and other input or output mechanisms. In some embodiments, a display refers to a display on a screen, a display on a wall, a glasses or visor display (such as a display in the immediate vicinity of the eye), an aerial display, and the like. In some embodiments, the user interface 116 may comprise two or more displays, such as a main display and at least one peripheral display. Similarly, the user interface 116 can include any display (such as a main display and / or a peripheral display). In embodiments where device 102 is embodied as mobile terminal 10, user interface 116 may be embodied as display 28 and keypad 30 or may include display 28 and keypad 30 (shown in FIG. 2). . The user interface 116 may be in communication with the memory 112, the communication interface 114, the sensor 118, and / or the UI control circuit 122 via a bus or the like.

いくつかの実施形態では、ユーザインタフェース116は、パススルーディスプレイを含む場合がある。同様に、装置102が移動端末10として具現化される実施形態において、ディスプレイ28は、パススルーディスプレイとして具現化されてもよい。いくつかの実施形態では、パススルーディスプレイは、表示されている画像(テキスト、アイコン、写真、ビデオ、注意を引く視覚的なもの(visual attractant)等)を通して視認できるように、少なくとも部分的に透明なフォーム(画像のオーバーレイ等)に画像を表示させるように構成することができる。透明度は、完全に透明なものから不透明なもの(または、それらの間)まで変更可能な場合がある。ここで、上記画像は図示していない。さらに、いくつかの実施形態では、透明度を画面全体の各箇所で変えることができる。   In some embodiments, the user interface 116 may include a pass-through display. Similarly, in embodiments where the device 102 is embodied as the mobile terminal 10, the display 28 may be embodied as a pass-through display. In some embodiments, the pass-through display is at least partially transparent so that it can be viewed through the displayed image (text, icons, photos, videos, visual attractant, etc.). An image can be displayed on a form (image overlay or the like). Transparency can vary from completely transparent to opaque (or between them). Here, the image is not shown. Further, in some embodiments, the transparency can be changed at various points throughout the screen.

例えば、いくつかの実施形態では、ユーザがヘルメットを装着したとき、ディスプレイの一部に表示される画像や情報を見ながら、バイザーを通じてユーザの前にある物体をみることができるように、ユーザインタフェース116は、ヘルメットバイザー上に提供される一つ又は複数のパススルーディスプレイを備えることができる。パススルーディスプレイに関して、いくつかの例示的実施形態を本明細書で説明するが、他のユーザインタフェースが検討される。上記他のユーザインタフェースの例としては、特に、プレゼンテーションスクリーン(presentation screen)、投写型ディスプレイ等がある。   For example, in some embodiments, when the user wears a helmet, the user interface allows the user to see objects in front of the user through the visor while viewing images and information displayed on a portion of the display. 116 may comprise one or more pass-through displays provided on the helmet visor. Although some exemplary embodiments are described herein for pass-through displays, other user interfaces are contemplated. Examples of the other user interfaces include a presentation screen and a projection display.

同様に、いくつかの例示的実施形態は、図3に示したヘルメット150のように、ディスプレイを備える機器を通じて情報を表示するための装置(装置102等)を提供することができる。パススルーディスプレイを有する装置は、標準的なバイザーのようなヘルメットバイザー160を通じるなどして、十分に透明なディスプレイの表面上に、画像の視覚的なオーバーレイを提供することができる。この視覚的なオーバーレイは、パススルーディスプレイ上に表示することができる追加的な画像を提供している間、ユーザの標準的な(不透明でない)視界にある物体及び人物を、そのユーザが視認することを可能にする。上記画像の視覚的なオーバーレイは、透明(または不透明度0%)〜不透明(または不透明度100%)の間の様々な不透明度であってもよい。例えば、場合によっては、パススルーディスプレイに表示される画像が、ディスプレイの向こう側のユーザの視界を完全に遮る場合がある。この場合、ユーザの視界は、少なくともその画像が表示されるディスプレイの一部(例えば、情報が表示されるバイザー160の周辺部等)で遮られる。図3を参照すると、例えば、画像が通知情報の表示領域に表示される場合でさえ、バイザーを通じたユーザの視界がほとんどの部分で損なわれないように、バイザー160は、ユーザの真っ直ぐな視線の上に位置付けられる2つの通知情報の表示領域162及び164を備えることができる。いくつかの実施形態では、パススルーディスプレイの向こう側の環境をユーザが見られるように(例えば、表示された画像を通じて)、表示された画像を部分的に透明にすることができる。   Similarly, some exemplary embodiments may provide a device (such as device 102) for displaying information through a device that includes a display, such as the helmet 150 shown in FIG. A device with a pass-through display can provide a visual overlay of the image on a sufficiently transparent display surface, such as through a helmet visor 160 such as a standard visor. This visual overlay allows the user to see objects and people in the user's standard (non-opaque) field of view while providing additional images that can be displayed on a pass-through display. Enable. The visual overlay of the image may vary in opacity between transparent (or 0% opacity) and opaque (or 100% opacity). For example, in some cases, the image displayed on the pass-through display may completely block the user's view beyond the display. In this case, the user's field of view is blocked by at least a part of the display on which the image is displayed (for example, the periphery of the visor 160 on which information is displayed). Referring to FIG. 3, for example, the visor 160 provides a straight line of sight to the user so that the user's view through the visor is not compromised in most parts, even when an image is displayed in the notification information display area. Two notification information display areas 162 and 164 positioned above may be provided. In some embodiments, the displayed image can be partially transparent so that the user can see the environment beyond the pass-through display (eg, through the displayed image).

例示的実施形態では、パススルーディスプレイの端に配置される情報を表示することができる。別の例示的実施形態では、ディスプレイの中央部に跨るような情報を表示することができる。このディスプレイの中央部は十分透明であり、この十分透明な中央部の周囲に、透明度が低く、場合によっては不透明な画像を表示する。このように、ある実施形態は、ユーザが視認する画像を提供している間にも、ユーザの周辺環境を視認できるようにすることができる。例えば、図3では、ユーザの真っ直ぐな視線の中にあるバイザー160の一部の透明性を維持し、ユーザが常時、バイザーを通じて見ること(オートバイを運転中に前方を見る等)を可能にする。一方、ユーザに特定の情報を伝達する画像を表示するため、通知情報の表示領域162及び164は、バイザーの上端付近(例えば、ユーザが真正面を向いたときの視線の上)に提供することができる。   In an exemplary embodiment, information placed at the end of the pass-through display can be displayed. In another exemplary embodiment, information that spans the center of the display can be displayed. The central portion of the display is sufficiently transparent, and an image having low transparency and possibly opaque is displayed around the sufficiently transparent central portion. As described above, some embodiments can make it possible to visually recognize the user's surrounding environment while providing an image that the user visually recognizes. For example, in FIG. 3, the transparency of a portion of the visor 160 that is in the user's straight line of sight is maintained, allowing the user to see through the visor at all times (such as looking forward while driving a motorcycle) . On the other hand, in order to display an image that conveys specific information to the user, the notification information display areas 162 and 164 may be provided near the upper end of the visor (for example, above the line of sight when the user is facing directly in front). it can.

パススルーディスプレイを有する装置は、二次元(2D)及び三次元(3D)の視覚的要素の表示を可能にする。ディスプレイの表面に表示される二次元グラフィック要素は、移動端末の標準的なコンピュータスクリーン上またはディスプレイ上(例えば、移動端末10のディスプレイ28)で視認されるように、ユーザインタフェース、ステータス要素、その他の情報を用いてユーザに提示することができる。これら2D要素は、メッセージを通信すること、通知情報を用いてユーザに警告すること、現在使用中のアプリケーションを提示すること等ができる。さらに、2D要素は、ユーザが視認している注目点またはランドマークを識別する等して、パススルーディスプレイのユーザがディスプレイを通じて視認している物体に関する画像を提供することができる。上記の識別は、様々な手段によって実現される。この様々な手段には、物体認証ソフトウェア、装置の(例えば、装置102)の位置同定(例えば、全地球測位システム(GSP)信号)と結合された物体識別、移動端末10等と通信状態にある機器が含まれる。三次元要素は、ユーザが見ている光景の上に表示され、パススルーディスプレイを通じて見ることができ、物体の識別、ナビゲーションの提供等をする。   Devices with pass-through displays allow for the display of two-dimensional (2D) and three-dimensional (3D) visual elements. Two-dimensional graphic elements displayed on the surface of the display can be viewed on a standard computer screen or display of the mobile terminal (eg, display 28 of mobile terminal 10), user interface, status elements, etc. It can be presented to the user using the information. These 2D elements can communicate messages, alert users with notification information, present applications currently in use, and the like. In addition, the 2D element can provide an image of the object that the user of the pass-through display is viewing through the display, such as identifying a point of interest or landmark that the user is viewing. The above identification is realized by various means. These various means are in communication with the object authentication software, the object identification combined with the position identification of the device (eg device 102) (eg the Global Positioning System (GSP) signal), the mobile terminal 10 etc. Equipment is included. The three-dimensional element is displayed above the scene that the user is looking at and can be viewed through a pass-through display, identifying objects, providing navigation, and the like.

図3及び図4は、パススルーディスプレイを備える装置の一例(例えば、装置102)としてヘルメット150を描いたものである。図示されているように、ヘルメット150は不透明なボディー部155、バイザー160またはその他の透明なレンズ部分を備えることができる。ここで、ボディー部155は不透明である場合があり、ユーザの頭部を保護することができるため、ユーザの頭部を包囲するように構成されている。また、バイザー160またはその他の透明なレンズ部分は、乗り物を運転している間、ユーザが前方を見ることができるように風や埃からユーザの目を守るように構成されている。いくつかの実施形態では、ヘルメット150は、ヘルメット内での画像表示を制御するように構成されるプロセッサ(例えば、プロセッサ110)を備える(または、このプロセッサと通信状態にある)ことができる。例えば、図示したヘルメット150の実施形態では、プロセッサは通知情報の表示領域162及び164内での画像表示を制御するように構成することができる。ここで、これら表示領域162及び164は、シングルディスプレイまたはマルチディスプレイの場合がある。いくつかの実施形態では、通知情報の表示領域162及び164に表示される画像は、互いに独立している場合、及び/または相互に補完している場合がある。さらに、プロセッサ(例えば、プロセッサ110)は、場合によっては、ヘルメットによって具現化される場合がある(プロセッサがヘルメットのボディー155に組み込まれる、または、ボディー155によってサポートされる場合等)。一方、場合によっては、プロセッサがヘルメットとは異なるが、ヘルメットと通信をする機器(図2の移動端末等、例えば、ユーザの携帯電話機)に具現化される場合がある。   3 and 4 depict a helmet 150 as an example of a device with a pass-through display (eg, device 102). As shown, the helmet 150 may include an opaque body portion 155, visor 160, or other transparent lens portion. Here, the body part 155 may be opaque and can protect the user's head, and thus is configured to surround the user's head. The visor 160 or other transparent lens portion is also configured to protect the user's eyes from wind and dust so that the user can look forward while driving the vehicle. In some embodiments, the helmet 150 can include (or be in communication with) a processor (eg, processor 110) configured to control image display within the helmet. For example, in the illustrated embodiment of helmet 150, the processor can be configured to control the display of images in the notification information display areas 162 and 164. Here, the display areas 162 and 164 may be a single display or a multi-display. In some embodiments, the images displayed in the notification information display areas 162 and 164 may be independent of each other and / or complementary to each other. Further, the processor (eg, processor 110) may in some cases be embodied by a helmet (such as when the processor is incorporated into or supported by the body 155 of the helmet). On the other hand, in some cases, the processor is different from the helmet, but may be embodied in a device that communicates with the helmet (such as the mobile terminal of FIG. 2, such as a user's mobile phone).

図4に図示されているように、ユーザ(図示せず)はバイザー160を通じて見ることができ、オートバイに乗って道路を下るとき、ユーザの前にある建物の輪郭170を見ることができる。いくつかの実施形態では、ヘルメット150は、通知情報の表示領域162及び164の一方または両方に、画像を表示させるよう構成することができる。図示されている実施形態では、例えば、「CITY AVENUE」という表示180は、ユーザに対して通知情報の表示領域の一方である表示領域162に表示され、ユーザが都市の大通りへと下っていることを意味する(例えば、GPS技術を用いてユーザの現在位置を確認する)。ディスプレイに表示されるものとして単語が図示されているが、本発明の実施形態は、その他の種類の画像(例えば、写真、ビデオ、地図、通知情報、注意を引く視覚的なもの)を表現することも考慮する。さらに、図4に図示された単語は透明でないが、本発明の実施形態は、ディスプレイ上に少なくとも部分的に透明な表示をすることも考慮する。   As shown in FIG. 4, a user (not shown) can see through the visor 160 and can see the building outline 170 in front of the user when riding a motorcycle down the road. In some embodiments, the helmet 150 may be configured to display an image in one or both of the notification information display areas 162 and 164. In the illustrated embodiment, for example, a display 180 “CITY AVENUE” is displayed in a display area 162 that is one of the notification information display areas for the user, and the user is down to the main street of the city. (For example, the current position of the user is confirmed using GPS technology). Although words are illustrated as being displayed on the display, embodiments of the present invention represent other types of images (eg, photos, videos, maps, notification information, visual attention). Also consider. Furthermore, although the words illustrated in FIG. 4 are not transparent, embodiments of the present invention also contemplate a display that is at least partially transparent on the display.

図3及び図4それぞれに、パススルーディスプレイを有する装置の一例が図示されているが、パススルーディスプレイを有する構成の多くの他の装置が、本発明の実施形態に対して考慮される(例えば、オートバイのフロントガラス、眼鏡等)。さらに、本発明の実施形態は、パススルーディスプレイを有する装置に限定することを意味するものではない。本発明は、本明細書に記載されるあらゆる装置102(例えば、携帯型コンピュータ機器、固定型コンピュータ機器等)のような他の例示的装置に有用である。   3 and 4 each illustrate an example of a device having a pass-through display, many other devices configured with a pass-through display are contemplated for embodiments of the present invention (eg, motorcycles). Windshield, glasses etc.). Furthermore, embodiments of the present invention are not meant to be limited to devices having pass-through displays. The invention is useful with other exemplary devices, such as any device 102 described herein (eg, portable computer devices, fixed computer devices, etc.).

図1に戻り、UI制御回路122は、回路やハードウェア、コンピュータプログラムに基づく製品、これらの組み合わせ等の様々な手段として実施されてもよい。ここでコンピュータプログラムに基づく製品は、プロセッサ110等の処理装置によって実行される、コンピュータ可読プログラム命令を格納するコンピュータ可読媒体(例えばメモリ112)を備える。ある実施形態において、UI制御回路122はプロセッサ110によって具現化されるか、プロセッサ110によって制御される。ある実施形態において、UI制御回路122はプロセッサ110とは別に具現化され、プロセッサ110と通信状態にある。UI制御回路122は、メモリ112、通信インタフェース114、センサ118、及び/またはユーザインタフェース116のうちの一つ又は複数と、バス等を介して通信状態にあってもよい。   Returning to FIG. 1, the UI control circuit 122 may be implemented as various means such as a circuit, hardware, a product based on a computer program, or a combination thereof. Here, a product based on a computer program comprises a computer-readable medium (eg, memory 112) that stores computer-readable program instructions that are executed by a processing device such as processor 110. In some embodiments, the UI control circuit 122 may be embodied by or controlled by the processor 110. In some embodiments, the UI control circuit 122 is implemented separately from the processor 110 and is in communication with the processor 110. The UI control circuit 122 may be in communication with one or more of the memory 112, the communication interface 114, the sensor 118, and / or the user interface 116 via a bus or the like.

UI制御回路122は、タッチディスプレイ等のユーザインタフェース116から入力を受け付けるように構成することができる。ユーザ入力または信号は、ユーザ入力を示す位置情報を伝搬することができる。これに関し、上記の位置は、タッチディスプレイの表面のユーザインタフェースに関連する場合のある、二次元空間にあるユーザ入力の位置を含むことができる。例えば、上記の位置は、その位置を決定できるような二次元座標システムに関連する座標位置(例えば、X軸及びY軸)を含むことができる。さらに、UI制御回路122は、ユーザ入力と相関するディスプレイの一部分を決定等するために、このユーザ入力の位置を決定することができる。   The UI control circuit 122 can be configured to accept input from a user interface 116 such as a touch display. The user input or signal can propagate position information indicative of the user input. In this regard, the positions described above can include the position of user input in a two-dimensional space that may be associated with a user interface on the surface of the touch display. For example, the positions can include coordinate positions (eg, X and Y axes) associated with a two-dimensional coordinate system from which the position can be determined. Furthermore, the UI control circuit 122 can determine the location of this user input, such as to determine the portion of the display that correlates with the user input.

タッチディスプレイは、ホバリングによるジェスチャ入力(hovering gesture input)の検出が可能なように構成することもできる。ホバリングによるジェスチャ入力は、タッチディスプレイの表面との物理的な接触のない、タッチディスプレイへのジェスチャ入力を含むことができる。ジェスチャは、例えば、ディスプレイの上及び/または前の少し離れたところでなされる。一例として、タッチディスプレイは、投影型静電容量式タッチディスプレイを含むことができる。この投影型静電容量式タッチディスプレイは、指またはその他の入力物体の静電容量を検出できるように構成することができ、これら指またはその他の入力物体によって、ディスプレイ表面に物理的に接触せず、ジェスチャをすることができる。他の例として、タッチディスプレイは、音響波センサ技術を用いたホバリングによるジェスチャ入力が検出できるように構成することができる。ただし、音響波センサ技術の他、電磁式タッチ検出技術、近接場画像技術(near field imaging technology)、光検出技術、赤外線近接検出技術、これらの組み合わせ等を用いることもできる。UI制御回路122及びタッチディスプレイは、図3に示すヘルメット150に具現化すること、または、図2に示す移動端末10に具現化することが可能である。例えば、タッチディスプレイは、ユーザの携帯電話機のタッチディスプレイであってもよいし、電話機がユーザのヘルメットと通信状態にあってもよい。このように、携帯電話機のタッチディスプレイと相互に作用することにより、ユーザは、ヘルメット上に画像表示をさせること、及び/または画像表示を構成することが可能である場合がある。   The touch display can also be configured to allow detection of hovering gesture input. Gesture input by hovering can include gesture input to the touch display without physical contact with the surface of the touch display. Gestures are made, for example, on the display and / or at some distance in front. As an example, the touch display may include a projected capacitive touch display. This projected capacitive touch display can be configured to detect the capacitance of a finger or other input object so that the finger or other input object does not physically touch the display surface. , Can make a gesture. As another example, the touch display can be configured to detect gesture input by hovering using acoustic wave sensor technology. However, in addition to the acoustic wave sensor technology, an electromagnetic touch detection technology, a near field imaging technology, a light detection technology, an infrared proximity detection technology, a combination thereof, or the like can also be used. The UI control circuit 122 and the touch display can be embodied in the helmet 150 shown in FIG. 3 or in the mobile terminal 10 shown in FIG. For example, the touch display may be a touch display of a user's mobile phone, or the phone may be in communication with the user's helmet. Thus, by interacting with the touch display of the mobile phone, the user may be able to display an image on the helmet and / or configure the image display.

図5を参照すると、タッチスクリーンディスプレイ200を備える装置102が一般的に描かれている。この装置は図5の移動端末10(例えば携帯電話)として具現化されたものであってもよい。上述のように、装置102は、少なくとも一つのプロセッサ(例えば図1のプロセッサ110)と、コンピュータプログラムコードを格納する少なくとも一つのメモリ(例えば図1のメモリ112)とを有する。これら少なくとも一つのメモリとコンピュータプログラムコードとは、プロセッサと共に、装置102に、少なくとも、ナビゲーションイベントが生じている間、ユーザによってヘルメット(図3のヘルメット150等)が装着されていることを判断させるように構成される場合がある。さらに、装置102に、ナビゲーションイベントに関するナビゲーション通知のセットを判断させる場合もある。後述するように、ナビゲーション通知のセットは、ヘルメット内での表示に合わせて調整することができる。さらに、上記少なくとも一つのメモリとコンピュータプログラムコードとは、上記プロセッサと共に、装置102に、ナビゲーション通知をヘルメット内で表示するようにさせるように構成される場合がある。   Referring to FIG. 5, a device 102 with a touch screen display 200 is generally depicted. This apparatus may be embodied as the mobile terminal 10 (for example, a mobile phone) of FIG. As described above, the apparatus 102 includes at least one processor (eg, processor 110 of FIG. 1) and at least one memory (eg, memory 112 of FIG. 1) that stores computer program code. These at least one memory and computer program code, together with the processor, cause device 102 to determine that the user is wearing a helmet (such as helmet 150 in FIG. 3) at least during a navigation event. May be configured. Further, the device 102 may be made to determine a set of navigation notifications related to navigation events. As will be described later, the set of navigation notifications can be adjusted for display in the helmet. In addition, the at least one memory and computer program code may be configured to cause the device 102 to display a navigation notification in the helmet along with the processor.

例えば、旅行に出る前、ユーザは、自分の電話機102のディスプレイ220(図5に図示したような)またはその他のナビゲーション機器とやりとりを行い、A点(ユーザの現在位置)からB点(ユーザの望ましい目的地)までの旅行の道順を取得することができる。その結果、特定のナビゲーションデータを取得することができ(GPSを介して等)、図6に図示したように、タッチディスプレイ200上でユーザに提示することができる。例えば、結果として得られたナビゲーションデータは、旅行するエリアの地図250、経路260、一つまたは複数のウェイポイント270もしくは経路沿いにあるその他の注目ポイントを含むことができる。さらに、ナビゲーションデータは、どこで曲がるかの案内を記載したテキスト280、道順の各ステップと関連する走行距離及び/または走行時間を含むことができる。図面に記載のとおり、どこで曲がるかを示した道順は、リストに提示される場合がある。さらに、ナビゲーションデータは、一つまたは複数の旅行概要を含むことができる。一つの旅行概要282は、目的地に到着するための残りの移動距離を示すことができる(描かれている例では1.5マイル)。もう一つの旅行概要284は、目的地に到着するための推定移動距離を伝えることができる(描かれている例では5分)。近くのレストランの位置、ガソリンスタンドの位置、ホテルの位置等、その他の情報もA点からB点への移動を容易にするように設計されて提供することができる。場合によっては、ナビゲーションデータが、算出された経路沿いの広告及び/または推奨アトラクションを含むこともできる。   For example, before going on a trip, the user interacts with the display 220 of his telephone 102 (as shown in FIG. 5) or other navigation device, and from point A (user's current location) to point B (user's current location). The travel directions to the desired destination) can be obtained. As a result, specific navigation data can be obtained (such as via GPS) and presented to the user on the touch display 200 as illustrated in FIG. For example, the resulting navigation data may include a map 250 of the area to travel, a route 260, one or more waypoints 270 or other points of interest along the route. Further, the navigation data may include text 280 describing where to turn, travel distance and / or travel time associated with each step of the route. As shown in the drawings, directions indicating where to turn may be presented in a list. Further, the navigation data can include one or more travel summaries. One travel summary 282 can indicate the remaining travel distance to reach the destination (1.5 miles in the depicted example). Another travel summary 284 can convey the estimated travel distance to reach the destination (5 minutes in the depicted example). Other information such as nearby restaurant locations, gas station locations, hotel locations, etc. can also be designed and provided to facilitate movement from point A to point B. In some cases, the navigation data may include advertisements along the calculated route and / or recommended attractions.

取得された経路のユーザへのコンテキスト(context)、及び計画された経路に関する追加情報の提供は有用であるが、ナビゲーションデータの表示(例えば、図6に示されたナビゲーションデータ)は、A点からB点への道のりの移動と同時に、オートバイを運転しているユーザの負担になる可能性がある。例えば、地図250の表示は複雑であり、理解するのに過大な注意をユーザに求める可能性がある。地図250の表示は、ユーザの焦点を走行中の道路から何度も離し、ユーザを事故に遭遇する危険にさらす可能性がある。例えば、ユーザの電話機のタッチディスプレイ200上に表示されている、どこで曲がるかを示した道順の地図250またはリスト280に目を落としたとき、そのユーザは、自身の進路にある自動車またはその他の障害物を視認できない。さらに(または)、走行条件(例えば、動物、道路状況、気象条件等)の他の変化に即時対応することができず、ユーザの安全を害してしまう可能性がある。   While it is useful to provide the user with the context of the acquired route and additional information about the planned route, the display of the navigation data (eg, the navigation data shown in FIG. 6) from point A Simultaneously with the movement to the point B, it may become a burden on the user driving the motorcycle. For example, the display of the map 250 is complex and may require excessive attention from the user to understand. The display of the map 250 may leave the user's focus many times away from the running road, putting the user at risk of encountering an accident. For example, when looking at a map 250 or list 280 showing where to turn, displayed on the touch display 200 of the user's phone, the user is in a car or other obstacle in his path. I can't see things. In addition (or) it is not possible to respond immediately to other changes in driving conditions (e.g., animals, road conditions, weather conditions, etc.), which may harm user safety.

さらに、本発明の実施形態は、ヘルメット150にセンサ190(図1のセンサ118等)を提供することができる。このセンサ190は、ナビゲーションイベントが生じている間、ユーザがヘルメットを装着していることを検出し(例えば、近接センサを介して)、及び/またはユーザがオートバイに乗っていることを検出する(例えば、IMUを介して)ように構成されている。ナビゲーションイベントは、例えば、装置102を介したA点からB点への道順に対するユーザのリクエストにより、または、ユーザのナビゲーション機器(例えば、装置)がナビゲーションモードであることを示す情報をユーザから受け取ることにより、起動される場合がある。装置102がユーザの電話機として実装される場合であり、ヘルメットが外付けのディスプレイ機器であると捉えることができる場合、センサ190からの信号をユーザの電話機で受信することができ、ナビゲーションイベントが生じている間、その電話機のプロセッサは、ユーザがヘルメットを装着していることを判断することができる。同様に、上記装置がヘルメット150によって実装される実施形態では、プロセッサをヘルメット150に備えることができる。そして、ヘルメット150は、ナビゲーションイベントを指揮するセンサ190及びナビゲーション機器(例えば、ユーザの電話機)と通信し、ナビゲーションイベントが生じている間、ユーザがヘルメットを装着していることを判断することができる。   Furthermore, embodiments of the present invention can provide the helmet 150 with a sensor 190 (such as the sensor 118 of FIG. 1). This sensor 190 detects that the user is wearing a helmet during a navigation event (eg, via a proximity sensor) and / or detects that the user is riding a motorcycle ( For example, via the IMU). The navigation event receives, for example, a user request for a route from point A to point B via the device 102 or information from the user indicating that the user's navigation device (eg, device) is in navigation mode. May be activated. If the device 102 is implemented as a user's phone and the helmet can be viewed as an external display device, the signal from the sensor 190 can be received by the user's phone and a navigation event occurs. While the phone's processor can determine that the user is wearing a helmet. Similarly, in embodiments where the device is implemented by a helmet 150, the helmet 150 may be equipped with a processor. The helmet 150 then communicates with a sensor 190 that directs the navigation event and a navigation device (eg, the user's phone) to determine that the user is wearing the helmet while the navigation event occurs. .

ユーザがヘルメットを装着し、ナビゲーションイベントに入っているとの判断に応じて、このナビゲーションイベントに関連するナビゲーション通知300のセット(図7に示す)を決定することができる。ナビゲーション通知のセットは、ヘルメット内での表示用(例えば、バイザー160のパススルーディスプレイを介する表示)に調整可能である。例えば、各々のナビゲーション通知は、どこを曲がるかを示した道順の1つのステップを含むことができる。このステップは、書式設定、編集、短縮化、簡素化、その他の最適化処理が施されており、移動の道順における次ステップについての簡明な案内をユーザに提供することができる。換言すれば、ナビゲーション通知300のセットは、ナビゲーション通知の第1のセットである。そして、少なくとも一つのメモリとコンピュータプログラムコードとが、プロセッサと共に、装置102にナビゲーション通知300の第1のセットを決定させるように構成される場合がある。このナビゲーション通知300の第1のセットは、ナビゲーションイベントに関連するナビゲーション通知の第2のセットとは異なるものであり、ここで、このナビゲーション通知の第2のセットは、ヘルメット内での表示に合わせて調整されない。   In response to a determination that the user is wearing a helmet and is in a navigation event, a set of navigation notifications 300 (shown in FIG. 7) associated with the navigation event can be determined. The set of navigation notifications can be adjusted for display within the helmet (eg, display via the pass-through display of the visor 160). For example, each navigation notification may include one step of directions that indicate where to turn. This step has undergone formatting, editing, shortening, simplification, and other optimization processes, and can provide the user with a concise guidance on the next step in the route of travel. In other words, the set of navigation notifications 300 is the first set of navigation notifications. At least one memory and computer program code may then be configured with the processor to cause the device 102 to determine a first set of navigation notifications 300. This first set of navigation notifications 300 is different from the second set of navigation notifications associated with navigation events, where the second set of navigation notifications is adapted for display in a helmet. Is not adjusted.

例えば、ナビゲーション通知の第2のセットは、ユーザの電話機またはナビゲーション機器のディスプレイ200(図6に記載)に示されたナビゲーションデータを含むことができる。このナビゲーション通知の第2のセット(ナビゲーション通知の第1のセットの決定前、決定後、または決定と当時に決定される場合がある)は、ナビゲーション通知の第1のセットと比較して、異なる体裁及び異なるコンテキストを有する場合がある。例えば、ヘルメット内での表示に合わせて調整されるナビゲーション通知のセットは、案内の視覚的表現の変更と同様、テキスト自体の変更も含むことができる。例えば、図6及び図7に関連して、ナビゲーション通知のセットは、より少ないナビゲーション通知を含むことにより、ヘルメット内での表示に合わせて調整することができる。例えば、図6に示された、どこで曲がるかを示す道順(例えば、ナビゲーション通知の第2のセット)は、ナビゲーション通知の第1のセットの書式を整えるため、簡略的に説明される場合がある。換言すると、第2のセット(図6)の"Merge onto I-77 N/US-21 N via EXIT 1C toward Statesville. 1.6 mi"に対する案内が、第1のセットで"EXIT 1C 1.6 mi I-77 N/US-21 N" (図7)という読みに変更される場合がある。さらに又は代替的に、ヘルメット内で表示されるナビゲーション通知のセットは、地図の表現を含むことができない。   For example, the second set of navigation notifications may include the navigation data shown on the user's telephone or navigation device display 200 (described in FIG. 6). This second set of navigation notifications (which may be determined before, after, or at the time of the determination of the first set of navigation notifications) is different compared to the first set of navigation notifications. May have appearance and different context. For example, a set of navigation notifications adjusted for display in a helmet can include changes to the text itself as well as changes to the visual representation of the guidance. For example, in connection with FIGS. 6 and 7, the set of navigation notifications can be tailored for display within the helmet by including fewer navigation notifications. For example, the directions shown in FIG. 6 that indicate where to turn (eg, the second set of navigation notifications) may be briefly described to format the first set of navigation notifications. . In other words, the guidance for "Merge onto I-77 N / US-21 N via EXIT 1C toward Statesville. 1.6 mi" in the second set (Fig. 6) is "EXIT 1C 1.6 mi I-77 in the first set. N / US-21 N "(Fig. 7) Additionally or alternatively, the set of navigation notifications displayed within the helmet cannot include a map representation.

いくつかの実施形態では、ヘルメット上での表示用のナビゲーション通知を決定するために行うナビゲーションデータの調整は、角を曲がる、曲がり角を避ける、車線変更をする、マージニング(margining)等、次のナビゲーション情報の視覚的案内を提供することを含むことができる。これらの視覚的案内は、希望する経路を移動するための地図または完全な案内リスト等、幅広いコンテキストを提供する情報がないときに提供される場合がある。例えば、図9を参照すると、コンテキスト(地図または通り名等)に関する情報がない場合、上記視覚的案内は、左折を示す矢印310を含むことができる。図示されている例示では、次のナビゲーション情報(例えば、その曲がり角まで何マイルあるか等)までの移動距離320を示すことによって、ナビゲーション情報(例えば、左折するタイミング等)が近づいていることが示される。場合によっては、矢印310またはナビゲーション情報の視覚的案内は、ユーザが操作を実行する位置に接近した時に、点滅または色の変更を開始することができる。   In some embodiments, navigation data adjustments made to determine a navigation notification for display on a helmet include turning corners, avoiding corners, changing lanes, margining, etc. Providing visual guidance of the navigation information can be included. These visual guidance may be provided when there is no information that provides a broad context, such as a map or a complete guidance list for navigating the desired route. For example, referring to FIG. 9, in the absence of information regarding the context (such as a map or street name), the visual guidance may include an arrow 310 indicating a left turn. In the illustrated example, the navigation information (for example, the timing of turning to the left) is approaching by indicating the travel distance 320 to the next navigation information (for example, how many miles to the corner). It is. In some cases, the arrow 310 or the visual guidance of the navigation information can begin to flash or change color when the user approaches the position to perform the operation.

いくつかの実施形態では、ナビゲーション通知のセットは、ヘルメット内の多くのナビゲーション表示領域に基づく場合がある。例えば、図8を参照すると、二つのナビゲーション表示領域162及び164がバイザー160のディスプレイ上に提供される。少なくとも一つのメモリとコンピュータプログラムコードとは、プロセッサと共に、装置102に、ヘルメット内の多くの通知情報表示領域に基づいてナビゲーション通知のセットを決定させるように構成される場合がある。例えば、二つの通知情報表示領域162及び164が図8に提供されているように、ナビゲーション通知のセットは、ナビゲーション情報182の説明とそのナビゲーション情報までの移動距離184("Exit 1C in 1.6 mi"と図示されている)を含むことが決定される場合がある。これは、ナビゲーション情報("I-77 N/US-21 N")に通り名186が含まれるのも同様である。   In some embodiments, the set of navigation notifications may be based on a number of navigation display areas within the helmet. For example, referring to FIG. 8, two navigation display areas 162 and 164 are provided on the display of the visor 160. At least one memory and computer program code may be configured with the processor to cause the device 102 to determine a set of navigation notifications based on a number of notification information display areas within the helmet. For example, as two notification information display areas 162 and 164 are provided in FIG. 8, a set of navigation notifications includes a description of the navigation information 182 and a travel distance 184 ("Exit 1C in 1.6 mi") to the navigation information. May be determined to include. This is the same as the case where the street name 186 is included in the navigation information ("I-77 N / US-21 N").

さらに、少なくとも一つのメモリとコンピュータプログラムコードとは、プロセッサと共に、装置102に、ヘルメット内の通知情報表示領域162及び164の間でのナビゲーション通知のセットの割り当てを決定させるように構成させる場合がある。これは、情報の表示を最もユーザ・フレンドリーにし、ユーザの注目をそらさせないようにするため等である。図8に示された例示において、ナビゲーション情報182の説明及びこれに関連する移動距離184は、左側の通知情報表示領域162に表示される。一方、ナビゲーション情報に関連する通り名186は、右側の通知情報表示領域164に表示される。二つの通知情報表示領域162及び164は、図示された例示ではバイザー160の上端部近くに提供されるが、多くの通知情報表示領域が、バイザー上にあらゆる配置で提供されることができる。   Further, the at least one memory and computer program code may be configured with the processor to cause the device 102 to determine the assignment of a set of navigation notifications between the notification information display areas 162 and 164 in the helmet. . This is to make the display of information the most user-friendly and not divert the user's attention. In the example shown in FIG. 8, the description of the navigation information 182 and the movement distance 184 related thereto are displayed in the notification information display area 162 on the left side. On the other hand, the street name 186 related to the navigation information is displayed in the notification information display area 164 on the right side. The two notification information display areas 162 and 164 are provided near the upper end of the visor 160 in the illustrated example, but many notification information display areas can be provided in any arrangement on the visor.

これに関し、いくつかの実施形態では、ユーザは、ヘルメット内の通知情報表示領域内で、ナビゲーション通知のセット及び/またはナビゲーション通知をどのように割り当てるかを設定することができる場合がある。例えば、図示された実施形態では、ユーザは、ユーザの電話機のタッチディスプレイ上に表示された設定画面とやりとりを行い、オプションに関する入力を行うことができる。このオプションに関する入力とは、例えば、望ましい通知情報表示領域の数、通知情報表示領域の位置、通知情報表示領域のサイズ、通知情報表示領域の不透明度、通知情報表示領域に表示されるナビゲーションデータの種類等である。例えば、ユーザは、実行されるナビゲーション情報(例えば、前方で曲がること)及び注目ポイントの情報330,340(例えば、計画された経路沿いにあるガソリンスタンド等)に関するナビゲーション通知310,320のみを見ることを望む場合がある。さらに、図9を参照すると、ユーザは、特定の通知情報表示領域(例えば、領域162等)に提供される注目ポイントの情報330,340を常に見ることを好み、そして、別の通知情報表示領域(例えば、領域164等)に提供されるナビゲーション情報の情報310,320を見ることを好み、さらに、それに応じて装置を設定する場合がある。このようなユーザからの入力に応答して、少なくとも一つのメモリとコンピュータプログラムコードとは、プロセッサと共に、装置102に、ユーザの設定したナビゲーション通知のセットに基づいてナビゲーション通知のセットを決定すること、及び/または、ユーザの設定した割り当て設定に基づいて、ヘルメット内の通知情報表示領域中におけるナビゲーション通知のセットの割り当てを決定することを遂行させるように構成される場合がある。   In this regard, in some embodiments, the user may be able to configure how to assign a set of navigation notifications and / or navigation notifications within the notification information display area within the helmet. For example, in the illustrated embodiment, the user can interact with the settings screen displayed on the touch display of the user's phone and make input regarding options. The input regarding this option includes, for example, the desired number of notification information display areas, the position of the notification information display area, the size of the notification information display area, the opacity of the notification information display area, and the navigation data displayed in the notification information display area. The type. For example, the user sees only navigation notifications 310, 320 regarding navigation information to be performed (eg, turning ahead) and point-of-interest information 330, 340 (eg, gas stations along a planned route, etc.). May want. Further, referring to FIG. 9, the user always likes to view the attention point information 330, 340 provided in a specific notification information display area (for example, the area 162), and another notification information display area There is a case where the user prefers to see the navigation information information 310, 320 provided in (for example, the area 164) and further sets the apparatus accordingly. In response to such user input, the at least one memory and computer program code, together with the processor, determines the set of navigation notifications to the device 102 based on the set of navigation notifications set by the user; And / or may be configured to perform determining allocation of a set of navigation notifications in a notification information display area within the helmet based on an allocation setting set by the user.

さらに、いくつかの実施形態では、上記少なくとも一つのメモリとコンピュータプログラムコードとは、上記プロセッサと共に、装置102に、少なくとも一つのオートバイ特有の通知情報を含めるためにナビゲーション通知を決定させるように構成される場合がある。例えば、ユーザは、装置を設定してオートバイの運転者としてのユーザが興味をもつナビゲーション通知を表示することができる。しかし、このナビゲーション通知は、自動車やバスの運転手、歩行者等は興味をもたない場合がある。このようなオートバイ特有の通知情報は、次のカーブの角度、次の坂の勾配、及び/または気象条件(例えば、気温、凍結の警告、風速等)を含む場合がある。場合によっては、特定条件の下、ある種類の情報が別の種類の情報に置き換えられる場合があるように、通知情報表示領域は、ユーザによって動的に設定される場合がある。例えば、注目ポイントの情報を表示するために通知情報表示領域162,164を設定することができるが、ユーザが道路にある曲がり角に接近するため、注目ポイントの情報が曲がり角の角度に置き換えられる場合がある。   Further, in some embodiments, the at least one memory and computer program code are configured with the processor to cause the device 102 to determine a navigation notification to include at least one motorcycle-specific notification information. There is a case. For example, the user can set the device to display navigation notifications that are of interest to the user as a motorcycle driver. However, this navigation notification may not be of interest to cars, bus drivers, pedestrians, and the like. Such motorcycle-specific notification information may include the next curve angle, the next slope of the slope, and / or weather conditions (eg, temperature, freeze warning, wind speed, etc.). In some cases, the notification information display area may be dynamically set by the user so that one type of information may be replaced with another type of information under specific conditions. For example, the notification information display areas 162 and 164 can be set to display the information on the point of interest. However, since the user approaches the corner on the road, the information on the point of interest may be replaced with the angle of the corner. is there.

いくつかの実施形態では、装置102がユーザの移動端末によって実装され、装置102が、ユーザのヘルメットとこのヘルメット上に提供されるパススルーディスプレイとから分離される場合等には、装置(例えば、移動端末)が有線または無線を介してヘルメットのディスプレイと接続し、通信することができる。この例では、移動端末のインタフェースを通じて、ユーザは、所望する移動経路に関するナビゲーションデータを取得し、前述のように、乗車中にヘルメットのディスプレイを介して表示される情報の種類を設定することができる。上記の場合、装置はアクティブモードであると考えられる。一旦、設定が完了し、ナビゲーションイベントが動作がすると(例えば、ユーザがオートバイに乗って、ヘルメットを装着している)、装置102はパッシブモード(passive mode)に入ると考えられる。前述及び図面の記載のとおり、移動端末のユーザインタフェースを介してなされたユーザによる設定に従い、パッシブモードでは、所望する情報がヘルメットバイザーを介してユーザに表示される。いくつかの実施形態では、移動端末のディスプレイ200(図5)とヘルメットのディスプレイ160(図9)の両方が、ナビゲーションデータ(ナビゲーション通知等)を表示できる。しかし、それぞれの機器上に表示されるデータの種類は、図示されているように異なる場合がある。例えば、移動端末のディスプレイ200は、地図250及び完全な案内リストを含む完全なナビゲーションデータを表示することができる(図6に示す)。ここで、ヘルメットのディスプレイ160は、ヘルメット上での表示に合わせて調整されたナビゲーション通知のセットを表示することができる(図9に示す)。一方、他の事例では、ディスプレイ200及び160の両方が、同じナビゲーション通知を表示するように装置を設定することができる。   In some embodiments, such as when the device 102 is implemented by a user's mobile terminal and the device 102 is separated from the user's helmet and a pass-through display provided on the helmet, the device (e.g., mobile Terminal) can communicate with the helmet display via wired or wireless communication. In this example, through the interface of the mobile terminal, the user can obtain navigation data relating to a desired travel route, and can set the type of information displayed via the helmet display while riding as described above. . In the above case, the device is considered to be in active mode. Once the configuration is complete and a navigation event is activated (eg, the user is riding a motorcycle and wearing a helmet), the device 102 is considered to enter passive mode. As described above and in the drawings, in the passive mode, desired information is displayed to the user via the helmet visor according to the setting made by the user via the user interface of the mobile terminal. In some embodiments, both the mobile terminal display 200 (FIG. 5) and the helmet display 160 (FIG. 9) can display navigation data (such as navigation notifications). However, the type of data displayed on each device may differ as shown. For example, the display 200 of the mobile terminal can display complete navigation data including a map 250 and a complete guidance list (shown in FIG. 6). Here, the display 160 of the helmet can display a set of navigation notifications adjusted for display on the helmet (shown in FIG. 9). On the other hand, in other cases, the device can be configured such that both displays 200 and 160 display the same navigation notification.

本発明の実施形態は、ヘルメットに適したナビゲーション通知をヘルメット内で表示させるための方法、装置、コンピュータプログラム製品に関するものである。図10及び図11を参照すると、本発明の実施形態に従って実装される様々な動作事例が提供されている。   Embodiments of the present invention relate to a method, apparatus, and computer program product for displaying a navigation notification suitable for a helmet within the helmet. With reference to FIGS. 10 and 11, various operational examples implemented in accordance with embodiments of the present invention are provided.

図10は、ナビゲーション通知をヘルメット内での表示に適合させるための例示的方法400に従うフロー図を描いたものである。図10に描かれ、またこの図に関連して説明される処理は、例えば、プロセッサ110、メモリ112、通信インタフェース114、ユーズインタフェース116、センサ118、UI制御回路122の一つ又は複数の支援により、及び/またはこれら一つ又は複数の制御により、実行されうる。処理402は、ナビゲーションイベントが発生している間、ユーザにヘルメットが装着されていることを判断することを含むことができる。例えば、プロセッサ110、通信インタフェース114、及び/またはセンサ118のいずれか一つ以上は、処理402を実行する手段をなしてもよい。処理404は、ナビゲーションイベントに関連するナビゲーション通知のセットを決定することを含むことができる。例えば、プロセッサ110は、処理404を実行する手段をなしてもよい。処理406は、ナビゲーション通知のセットをヘルメット内に表示させることを含むことができる。例えば、プロセッサ110、通信インタフェース114、ユーザインタフェース116、及び/またはUI制御回路122のいずれか一つ以上は、処理406を実行する手段をなしてもよい。   FIG. 10 depicts a flow diagram according to an exemplary method 400 for adapting navigation notifications for display within a helmet. The process depicted in FIG. 10 and described in connection with this figure is, for example, with the assistance of one or more of processor 110, memory 112, communication interface 114, use interface 116, sensor 118, UI control circuit 122. And / or by one or more of these controls. Process 402 can include determining that a user is wearing a helmet while a navigation event is occurring. For example, any one or more of the processor 110, the communication interface 114, and / or the sensor 118 may form a means for performing the process 402. Process 404 can include determining a set of navigation notifications associated with the navigation event. For example, the processor 110 may form a means for executing the process 404. Process 406 can include displaying a set of navigation notifications in the helmet. For example, any one or more of the processor 110, the communication interface 114, the user interface 116, and / or the UI control circuit 122 may form means for executing the process 406.

図11は、ナビゲーション通知をヘルメット内での表示に適合させるための別の例示的方法500に従うフロー図を描いたものである。図11に描かれ、またこの図に関連して説明される処理は、例えば、プロセッサ110、メモリ112、通信インタフェース114、ユーズインタフェース116、センサ118、UI制御回路122の一つ又は複数の支援により、及び/またはこれら一つ又は複数の制御により、実行されてもよい。処理502は、ナビゲーションイベントに関連する、ヘルメット特有でないナビゲーション通知のセットを決定することを含むことができる。ここで、上記ヘルメット特有でないナビゲーション通知のセットは、ヘルメット内での表示に合わせて調整されない。例えば、プロセッサ110は、処理502を実行する手段をなしてもよい。処理504は、ナビゲーションイベントが発生している間、ユーザにヘルメットが装着されていることを判断することを含むことができる。例えば、プロセッサ110、通信インタフェース114、及び/またはセンサ118のいずれか一つ以上は、処理504を実行する手段をなしてもよい。処理506は、ナビゲーションイベントに関連するナビゲーション通知のセットを決定することを含むことができる。例えば、プロセッサ110は、処理506を実行する手段をなしてもよい。処理508は、ナビゲーション通知のセットをヘルメット内に表示させることを含むことができる。例えば、プロセッサ110、通信インタフェース114、ユーザインタフェース116、及び/またはUI制御回路122のいずれか一つ以上は、処理508を実行する手段をなしてもよい。   FIG. 11 depicts a flow diagram according to another example method 500 for adapting navigation notifications for display within a helmet. The process depicted in FIG. 11 and described in connection with this figure is performed with the aid of one or more of, for example, processor 110, memory 112, communication interface 114, use interface 116, sensor 118, UI control circuit 122. And / or by one or more of these controls. Process 502 can include determining a set of navigation notifications associated with the navigation event that are not helmet specific. Here, the set of navigation notifications not specific to the helmet is not adjusted for display in the helmet. For example, the processor 110 may form a means for executing the process 502. Process 504 can include determining that the user is wearing a helmet while a navigation event is occurring. For example, any one or more of the processor 110, the communication interface 114, and / or the sensor 118 may form a means for performing the process 504. Process 506 can include determining a set of navigation notifications associated with the navigation event. For example, the processor 110 may form a means for executing the process 506. Process 508 can include displaying a set of navigation notifications in the helmet. For example, any one or more of the processor 110, the communication interface 114, the user interface 116, and / or the UI control circuit 122 may form means for executing the process 508.

図10〜11のそれぞれには、本発明の一例示的実施形態に従うシステム、方法、コンピュータプログラム製品のフロー図が描かれている。フローチャートの個々のブロック及びフローチャートのブロックの組み合わせは、様々な手段によって実施されることに留意されたい。そのような手段には、ハードウェアや、一つ又は複数のコンピュータプログラム命令を含むコンピュータプログラム製品が含まれる。例えば、本明細書で説明された一つ又は複数の処理は、コンピュータプログラムに基づく製品のコンピュータプログラム命令によって具現化されてもよい。これに関して、本明細書で説明された処理を具現化するコンピュータプログラムは、移動端末やサーバ等のコンピューティングデバイスの一つ又は複数のメモリ(例えばメモリ112)に格納されてもよく、また、これらコンピューティングデバイスのプロセッサ(例えばプロセッサ110)により実行されてもよい。実施形態によっては、本明細書で説明された処理を具現化するコンピュータプログラムを含むコンピュータプログラム命令は、複数のコンピューティングデバイスの複数のメモリデバイスに格納されうる。当然のことながら、こうしたコンピュータプログラムは、コンピュータや他のプログラム可能な装置(例えば装置102)にロードされて機械を構成する。すなわち、コンピュータまたはプログラム可能な装置が実行する命令は、フローチャートの(一つ以上の)ブロックにより特定される機能を実装するための手段を具現化する。コンピュータプログラムに基づく製品は、一つ又は複数のコンピュータ可読メモリを備えてもよく、そのメモリにはコンピュータプログラム命令が格納されてもよい。それによって、一つ又は複数のコンピュータ可読メモリは、特定の様式で機能するようにコンピュータ又は他のプログラム可能な装置に指示することができる。これによって、コンピュータプログラム製品は、フローチャートのブロックで特定される機能を実装する製品として構成される。一つ又は複数のコンピュータプログラム製品のコンピュータプログラム命令はコンピュータ又はその他のプログラム可能な装置(例えば装置102)にロードされ、一連の動作を前記コンピュータ又はその他のプログラム可能な装置で実行させることにより、コンピュータ実装プロセスを生成する。すなわち、コンピュータ又はその他のプログラム可能な装置で命令が実行されることにより、フローチャートブロックの一つ又は複数で特定される機能を実装する。   Each of FIGS. 10-11 depicts a flow diagram of a system, method, and computer program product according to an exemplary embodiment of the present invention. It should be noted that the individual blocks of the flowchart and the combinations of the blocks of the flowchart are implemented by various means. Such means include hardware and computer program products including one or more computer program instructions. For example, one or more processes described herein may be embodied by computer program instructions for a product based on a computer program. In this regard, a computer program that embodies the processing described herein may be stored in one or more memories (eg, memory 112) of a computing device such as a mobile terminal or server, and these It may be executed by a processor (eg, processor 110) of the computing device. In some embodiments, computer program instructions, including computer programs that embody the processes described herein, may be stored in multiple memory devices of multiple computing devices. Of course, such computer programs are loaded into a computer or other programmable device (eg, device 102) to configure the machine. That is, the instructions executed by a computer or programmable device embody means for implementing the functionality specified by the block (s) in the flowchart. A product based on a computer program may comprise one or more computer-readable memories, in which computer program instructions may be stored. Thereby, one or more computer-readable memories can instruct a computer or other programmable device to function in a particular manner. Thus, the computer program product is configured as a product that implements the function specified by the block of the flowchart. Computer program instructions of one or more computer program products are loaded into a computer or other programmable device (eg, device 102), and the computer or other programmable device causes a series of operations to be performed on the computer. Generate the implementation process. That is, the functions specified by one or more of the flowchart blocks are implemented by executing instructions on a computer or other programmable device.

従って、フローチャートのブロックは、特定された機能を実行する手段の組み合わせをサポートする。また、フローチャートの一つ以上のブロック、および、フローチャートの複数のブロックの組合せは、特定の機能を実行する特定目的のハードウェアベースのコンピュータシステムや、特定目的のハードウェアとコンピュータプログラム製品との組合せによって実装されてもよいことも理解されたい。   Thus, the flowchart blocks support a combination of means for performing the specified functions. The combination of one or more blocks of the flowchart and the plurality of blocks of the flowchart may be a combination of a specific-purpose hardware-based computer system or a specific-purpose hardware and a computer program product that performs a specific function It should also be understood that may be implemented by:

上述の機能は様々な方法により遂行されることができる。例えば、本発明の実施形態を遂行するために、上述の機能の各々を実行するための適当な手段が用いられてもよい。一実施形態によっては、適切に構成されたプロセッサ(例えばプロセッサ110)が、上述の要素の全て又は一部となってもよい。別の実施形態によっては、上述の要素の全て又は一部が、コンピュータプログラム製品の制御の下に実行されるように構成されてもよい。本発明の例示的実施形態による方法を遂行するコンピュータプログラム製品は、例えばメモリ112のようなコンピュータ可読記憶媒体を含み、これは不揮発性の記憶媒体であってもよい。また当該製品は、コンピュータ可読記憶媒体に具現化される、一連のコンピュータ命令のようなコンピュータ可読プログラムコード部分を備えてもよい。   The functions described above can be performed in various ways. For example, suitable means for performing each of the functions described above may be used to perform the embodiments of the present invention. In one embodiment, a suitably configured processor (eg, processor 110) may be all or part of the elements described above. In other embodiments, all or some of the above-described elements may be configured to be executed under the control of a computer program product. Computer program products that perform the methods according to exemplary embodiments of the invention include computer readable storage media, such as memory 112, which may be non-volatile storage media. The product may also comprise computer readable program code portions, such as a series of computer instructions, embodied in a computer readable storage medium.

前述の説明や関連する図面に示される教示から利益を受けうる当業者には、ここで説明された発明についての多くの変形やその他の実施形態が想起されるであろう。従って、本発明の実施形態は、ここで開示された特定の実施形態に制限されるものと理解されてはならず、上述の変形その他の実施形態も、本発明の範囲に含まれるべきものである。さらに、上述の説明や関連する図面が要素や機能の或る例示的な組み合わせという文脈で例示的な実施形態を説明してきたが、別の実施形態では、本発明の範囲を逸脱せずに、要素や機能の異なる組み合わせも可能であることに留意されたい。例えば、上述の図面や例示はヘルメットバイザー上のパススルーディスプレイを参照するが、その他のパススルーディスプレイは、本発明の実施形態(眼鏡、保護眼鏡、フロントガラスその他これらに類するもの等)から利益を受けることができる。さらに、上記では、オートバイの例示が使用されているが、本発明の実施形態はオフロードカー(ATV)、ボート、スノーモービル、自動車、ジェットスキー、その他の乗り物を操縦するユーザが使用することもできる。この関連で例えば、本発明の範囲には、前述で明示された要素および/または機能以外の別のものも想定されている。本願では特定の用語が使用されているが、それらは一般的説明を目的として使用されており、限定する目的で使用されていない。
Many variations and other embodiments of the invention described herein will occur to those skilled in the art that may benefit from the teachings presented in the foregoing description and the associated drawings. Therefore, it should not be understood that the embodiments of the present invention are limited to the specific embodiments disclosed herein, and the above-described modifications and other embodiments should be included in the scope of the present invention. is there. Moreover, while the foregoing description and related drawings have described exemplary embodiments in the context of certain exemplary combinations of elements and functions, other embodiments may be used without departing from the scope of the present invention. Note that different combinations of elements and functions are possible. For example, the above drawings and examples refer to pass-through displays on helmet visors, but other pass-through displays will benefit from embodiments of the present invention (such as glasses, protective glasses, windshields and the like). Can do. Furthermore, although the motorcycle example is used above, embodiments of the present invention may also be used by users operating off-road cars (ATVs), boats, snowmobiles, cars, jet skis, and other vehicles. . In this context, for example, the scope of the invention contemplates other than the elements and / or functions specified above. Although specific terms are used in this application, they are used for general explanation purposes and not for limitation purposes.

Claims (26)

プロセッサによって、ナビゲーションイベントに関連するナビゲーション案内情報を決定することと;
前記ナビゲーションイベントが発生している間、ユーザにヘルメットが装着されていることを判断することと;
前記ヘルメット内にある複数の通知情報表示領域に基づいて、前記ナビゲーションイベントに関連する前記ナビゲーション案内情報から、複数のナビゲーション通知を含むナビゲーション通知のセットを決定すること、ただし前記通知情報表示領域の各々は、前記複数のナビゲーション通知のいずれかを一つ表示することが可能である、前記決定することと;
前記ナビゲーション通知のセットを前記ヘルメット内での表示に合わせて調整することと;
ユーザが前記ヘルメットを通じて現在見ている周辺環境の少なくとも一部に重ねて表示するために、前記ヘルメット内で表示する前記ナビゲーション通知のセットを提供することと;
を含む方法であって、前記ヘルメット内で表示するナビゲーション通知のセットは、前記ユーザが該ヘルメット内で表示するナビゲーション通知のセットを通じて現在見ている周辺環境を見ることができるように、半透明にすることができる、方法。
Determining navigation guidance information associated with the navigation event by the processor;
Determining that the user is wearing a helmet while the navigation event occurs;
Determining a set of navigation notifications including a plurality of navigation notifications from the navigation guidance information associated with the navigation event based on a plurality of notification information display regions in the helmet, wherein each of the notification information display regions Determining which one of the plurality of navigation notifications can be displayed;
Adjusting the set of navigation notifications for display in the helmet;
Providing the set of navigation notifications for display within the helmet for display over at least a portion of the surrounding environment currently viewed by the user through the helmet;
The set of navigation notifications displayed within the helmet is translucent so that the user can see the surrounding environment currently being viewed through the set of navigation notifications displayed within the helmet. A way you can.
前記ナビゲーション通知のセットはナビゲーション通知の第1のセットであって、
前記ナビゲーション通知の第1のセットを決定することは、前記ナビゲーションイベントに関連するナビゲーション通知の第2のセットと異なるように前記ナビゲーション通知の第1のセットを決定することを含み、ただし前記ナビゲーション通知の第2のセットは、前記ヘルメット内での表示に合わせて調整されない、
請求項1に記載の方法。
The set of navigation notifications is a first set of navigation notifications,
Determining the first set of navigation notifications includes determining the first set of navigation notifications different from the second set of navigation notifications associated with the navigation event, wherein the navigation notifications The second set of is not adjusted for display in the helmet,
The method of claim 1.
前記ナビゲーション通知の第1のセットを決定することは、前記ナビゲーションイベントに関連する前記ナビゲーション通知の第2のセットよりも少ないナビゲーション通知を含むように、前記ナビゲーション通知の第1のセットを決定することを含む、請求項2に記載の方法。   Determining the first set of navigation notifications such that determining the first set of navigation notifications includes fewer navigation notifications than the second set of navigation notifications associated with the navigation event. The method of claim 2 comprising: 前記ナビゲーション通知のセットを決定することは、地図表示を含まないように前記ナビゲーション通知のセットを決定することを含む、請求項1に記載の方法。   The method of claim 1, wherein determining the set of navigation notifications includes determining the set of navigation notifications to not include a map display. 前記ナビゲーション通知のセットを決定することは、少なくとも一つのオートバイ特有の通知を含むように前記ナビゲーション通知のセットを決定することを含み、
ここで、前記少なくとも一つのオートバイ特有の通知は、次のカーブの角度、次の坂の勾配、及び気象条件のいずれか一つ以上を含む、
請求項1に記載の方法。
Determining the set of navigation notifications includes determining the set of navigation notifications to include at least one motorcycle-specific notification;
Here, the at least one motorcycle-specific notification includes any one or more of the following curve angle, the next slope of the slope, and the weather condition.
The method of claim 1.
前記ナビゲーション通知のセットを決定することは、ユーザによって設定されたナビゲーション通知のセットに基づいて、前記ナビゲーション通知のセットを決定することを含む、請求項1に記載の方法。   The method of claim 1, wherein determining the set of navigation notifications includes determining the set of navigation notifications based on a set of navigation notifications set by a user. 前記ヘルメット内にある前記通知情報表示領域内において、前記ナビゲーション通知のセットをどのように割り当てるかを決定することをさらに含み、
ここで、前記ナビゲーション通知のセットを提供することは、前記ヘルメット内にある前記通知情報表示領域内で前記ナビゲーション通知のセットの前記割り当てを提供することをさらに含む、
請求項1に記載の方法。
Further determining how to assign the set of navigation notifications within the notification information display area within the helmet;
Wherein providing the set of navigation notifications further comprises providing the assignment of the set of navigation notifications in the notification information display area within the helmet,
The method of claim 1.
前記ヘルメット内にある通知情報表示領域内において、前記ナビゲーション通知のセットをどのように割り当てるかを決定することは、ユーザによって設定された割り当て設定に基づいている、請求項7に記載の方法。   The method of claim 7, wherein determining how to assign the set of navigation notifications within a notification information display area within the helmet is based on an assignment setting set by a user. 前記ヘルメットはナビゲーション機器に接続される、請求項1に記載の方法。   The method of claim 1, wherein the helmet is connected to a navigation device. 前記プロセッサは移動端末に搭載され、前記ヘルメットは、前記ナビゲーション通知のセットを表示させるように構成される外付けディスプレイを備える、請求項1に記載の方法。   The method of claim 1, wherein the processor is mounted on a mobile terminal and the helmet comprises an external display configured to display the set of navigation notifications. 請求項10に記載の方法において、
前記ヘルメット内での表示のために前記ナビゲーション通知のセットを提供することは、前記ヘルメットによる表示に合わせて調整される前記ナビゲーション通知のセットを、前記ヘルメットの前記ディスプレイ上に表示させることを含み、
さらに前記方法は、前記ナビゲーション通知のセットに加え、ナビゲーションデータを前記移動端末のディスプレイ上に表示させることを含む、
方法。
The method of claim 10, wherein
Providing the set of navigation notifications for display within the helmet includes displaying the set of navigation notifications adjusted for display by the helmet on the display of the helmet;
The method further includes causing navigation data to be displayed on the display of the mobile terminal in addition to the set of navigation notifications.
Method.
前記ヘルメット内での表示のために前記ナビゲーション通知のセットを提供することは、前記ユーザが現在見ている景色の中にある少なくとも一つの目視可能な物体が、前記ナビゲーション通知のセットの表示によって隠されないように、前記ナビゲーション案内情報のセットを提供することを含む、請求項1に記載の方法。   Providing the set of navigation notifications for display within the helmet means that at least one visible object in the scenery that the user is currently viewing is hidden by the display of the set of navigation notifications. The method of claim 1, comprising providing the set of navigation guidance information so as not to be. ナビゲーションイベントに関連するナビゲーション案内情報を決定する手段と;
前記ナビゲーションイベントが発生している間、ユーザにヘルメットが装着されていることを判断する手段と;
前記ヘルメット内にある複数の通知情報表示領域に基づいて、前記ナビゲーションイベントに関連する前記ナビゲーション案内情報から、複数のナビゲーション通知を含むナビゲーション通知のセットを決定する手段、ただし前記通知情報表示領域の各々は、前記複数のナビゲーション通知のいずれかを一つ表示することが可能である、前記決定する手段と;
前記ナビゲーション通知のセットを前記ヘルメット内での表示に合わせて調整する手段と;
ユーザが前記ヘルメットを通じて現在見ている周辺環境の少なくとも一部に重ねて表示するために、前記ヘルメット内で表示する前記ナビゲーション通知のセットを提供する手段と;
を備える装置であって、前記ヘルメット内で表示するナビゲーション通知のセットは、前記ユーザが該ヘルメット内で表示するナビゲーション通知のセットを通じて現在見ている周辺環境を見ることができるように、半透明にすることができる、装置。
Means for determining navigation guidance information associated with the navigation event;
Means for determining that the user is wearing a helmet while the navigation event occurs;
Means for determining a set of navigation notifications including a plurality of navigation notifications from the navigation guidance information related to the navigation event based on a plurality of notification information display regions in the helmet, wherein each of the notification information display regions The means for determining, capable of displaying one of the plurality of navigation notifications;
Means for adjusting the set of navigation notifications for display in the helmet;
Means for providing the set of navigation notifications for display within the helmet for display over at least a portion of the surrounding environment currently viewed by the user through the helmet;
The navigation notification set displayed in the helmet is translucent so that the user can see the surrounding environment currently viewed through the navigation notification set displayed in the helmet. A device that can do.
前記ナビゲーション通知のセットはナビゲーション通知の第1のセットであって、
前記ナビゲーション通知の第1のセットを決定することは、前記ナビゲーションイベントに関連するナビゲーション通知の第2のセットと異なるように前記ナビゲーション通知の第1のセットを決定することを含み、ただし前記ナビゲーション通知の第2のセットは、前記ヘルメット内での表示に合わせて調整されない、
請求項13に記載の装置。
The set of navigation notifications is a first set of navigation notifications,
Determining the first set of navigation notifications includes determining the first set of navigation notifications different from the second set of navigation notifications associated with the navigation event, wherein the navigation notifications The second set of is not adjusted for display in the helmet,
The apparatus of claim 13.
前記ナビゲーション通知の第1のセットを決定することは、前記ナビゲーションイベントに関連する前記ナビゲーション通知の第2のセットよりも少ないナビゲーション通知を含むように、前記ナビゲーション通知の第1のセットを決定することを含む、請求項14に記載の装置。   Determining the first set of navigation notifications such that determining the first set of navigation notifications includes fewer navigation notifications than the second set of navigation notifications associated with the navigation event. The apparatus of claim 14, comprising: 前記ナビゲーション通知のセットを決定することは、地図表示を含まないように前記ナビゲーション通知のセットを決定することを含む、請求項13に記載の装置。   14. The apparatus of claim 13, wherein determining the set of navigation notifications includes determining the set of navigation notifications so as not to include a map display. 前記ナビゲーション通知のセットを決定することは、少なくとも一つのオートバイ特有の通知を含むように前記ナビゲーション通知のセットを決定することを含み、
ここで、前記少なくとも一つのオートバイ特有の通知は、次のカーブの角度、次の坂の勾配、及び気象条件のいずれか一つ以上を含む、
請求項13に記載の装置。
Determining the set of navigation notifications includes determining the set of navigation notifications to include at least one motorcycle-specific notification;
Here, the at least one motorcycle-specific notification includes any one or more of the following curve angle, the next slope of the slope, and the weather condition.
The apparatus of claim 13.
前記ナビゲーション通知のセットを決定することは、ユーザによって設定されたナビゲーション通知のセットに基づいて、前記ナビゲーション通知のセットを決定することを含む、請求項13に記載の装置。   The apparatus of claim 13, wherein determining the set of navigation notifications includes determining the set of navigation notifications based on a set of navigation notifications set by a user. 前記ヘルメット内にある前記通知情報表示領域内において、前記ナビゲーション通知のセットをどのように割り当てるかを決定する手段をさらに備え、
ここで、前記ナビゲーション通知のセットを提供することは、前記ヘルメット内にある前記通知情報表示領域内で前記ナビゲーション通知のセットの前記割り当てを提供することをさらに含む、
請求項13に記載の装置。
Means for determining how to allocate the set of navigation notifications in the notification information display area in the helmet;
Wherein providing the set of navigation notifications further comprises providing the assignment of the set of navigation notifications in the notification information display area within the helmet,
The apparatus of claim 13.
前記ヘルメット内にある通知情報表示領域内において、前記ナビゲーション通知のセットをどのように割り当てるかを決定することは、ユーザによって設定された割り当て設定に基づいている、請求項19に記載の装置。   The apparatus of claim 19, wherein determining how to assign the set of navigation notifications within a notification information display area within the helmet is based on an assignment setting set by a user. 前記ヘルメットはナビゲーション機器に接続される、請求項13に記載の装置。   The apparatus of claim 13, wherein the helmet is connected to a navigation device. 移動端末として具現化される請求項13に記載の装置であって、前記ヘルメットは、前記ナビゲーション通知のセットを表示させるように構成される外付けディスプレイを備える、装置。   14. The device of claim 13, embodied as a mobile terminal, wherein the helmet comprises an external display configured to display the set of navigation notifications. 請求項22に記載の装置において、
前記ヘルメット内での表示のために前記ナビゲーション通知のセットを提供することは、前記ヘルメットによる表示に合わせて調整される前記ナビゲーション通知のセットを、前記ヘルメットの前記ディスプレイ上に表示させることを含み、
さらに前記装置は、前記ナビゲーション通知のセットに加え、ナビゲーションデータを前記移動端末のディスプレイ上に表示させる手段を備える、
装置。
The apparatus of claim 22.
Providing the set of navigation notifications for display within the helmet includes displaying the set of navigation notifications adjusted for display by the helmet on the display of the helmet;
The apparatus further comprises means for displaying navigation data on the display of the mobile terminal in addition to the set of navigation notifications.
apparatus.
前記ヘルメット内での表示のために前記ナビゲーション通知のセットを提供することは、前記ユーザが現在見ている景色の中にある少なくとも一つの目視可能な物体が、前記ナビゲーション通知のセットの表示によって隠されないように、前記ナビゲーション案内情報のセットを提供することを含む、請求項13に記載の装置。   Providing the set of navigation notifications for display within the helmet means that at least one visible object in the scenery that the user is currently viewing is hidden by the display of the set of navigation notifications. 14. The apparatus of claim 13, comprising providing the set of navigation guidance information so as not to be. 処理手段と記憶手段とを備える装置であって、前記記憶手段はプログラム命令を格納し、前記プログラム命令は、前記処理手段に実行されると、前記装置に、請求項1から12のいずれかに記載の方法を遂行させるように構成される、装置。   13. An apparatus comprising processing means and storage means, wherein the storage means stores program instructions, and when the program instructions are executed by the processing means, the apparatus is provided with any one of claims 1 to 12. An apparatus configured to perform the described method. 装置の処理手段に実行されると、前記装置に、請求項1から12のいずれかに記載の方法を遂行させるように構成されるプログラム命令を備える、コンピュータプログラム。   A computer program comprising program instructions configured to cause the apparatus to perform the method of any of claims 1 to 12 when executed by a processing means of the apparatus.
JP2015547101A 2012-12-18 2013-11-25 Helmet-based navigation notification method, apparatus, and computer program Active JP6280134B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/718,270 US9146124B2 (en) 2012-12-18 2012-12-18 Helmet-based navigation notifications
US13/718,270 2012-12-18
PCT/FI2013/051102 WO2014096517A1 (en) 2012-12-18 2013-11-25 Helmet-based navigation notifications

Publications (2)

Publication Number Publication Date
JP2016503160A JP2016503160A (en) 2016-02-01
JP6280134B2 true JP6280134B2 (en) 2018-02-14

Family

ID=49883125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015547101A Active JP6280134B2 (en) 2012-12-18 2013-11-25 Helmet-based navigation notification method, apparatus, and computer program

Country Status (5)

Country Link
US (1) US9146124B2 (en)
EP (1) EP2936064B1 (en)
JP (1) JP6280134B2 (en)
CN (2) CN110057378A (en)
WO (1) WO2014096517A1 (en)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10203839B2 (en) * 2012-12-27 2019-02-12 Avaya Inc. Three-dimensional generalized space
WO2014143776A2 (en) 2013-03-15 2014-09-18 Bodhi Technology Ventures Llc Providing remote interactions with host device using a wireless device
JP6111932B2 (en) * 2013-08-26 2017-04-12 ソニー株式会社 Action support device, action support method, program, and storage medium
JP6209906B2 (en) * 2013-09-05 2017-10-11 セイコーエプソン株式会社 Head-mounted display device, method for controlling head-mounted display device, and image display system
EP3063608B1 (en) 2013-10-30 2020-02-12 Apple Inc. Displaying relevant user interface objects
US9354073B2 (en) * 2013-12-09 2016-05-31 Harman International Industries, Inc. Eye gaze enabled navigation system
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
US9967401B2 (en) 2014-05-30 2018-05-08 Apple Inc. User interface for phone call routing among devices
US10012506B1 (en) * 2014-06-01 2018-07-03 DNP Technology Navigation guidance system and method of use
WO2016014601A2 (en) 2014-07-21 2016-01-28 Apple Inc. Remote user interface
DE102014215322A1 (en) * 2014-08-04 2016-02-04 Bayerische Motoren Werke Aktiengesellschaft Helmet with navigation via haptic signals
WO2016022984A1 (en) 2014-08-08 2016-02-11 Fusar Technologies, Inc. Helmet system and methods
US10339293B2 (en) 2014-08-15 2019-07-02 Apple Inc. Authenticated device used to unlock another device
WO2016036603A1 (en) 2014-09-02 2016-03-10 Apple Inc. Reduced size configuration interface
US9451144B2 (en) 2014-09-02 2016-09-20 Apple Inc. Remote camera user interface
WO2016036552A1 (en) 2014-09-02 2016-03-10 Apple Inc. User interactions for a mapping application
US9625724B2 (en) 2014-09-04 2017-04-18 Daqri, Llc Retractable display for head mounted device
DE102014218577A1 (en) * 2014-09-16 2016-03-17 Robert Bosch Gmbh Safety device for motorcyclists, Method of operating a safety device for motorcyclists
WO2016074017A1 (en) * 2014-11-11 2016-05-19 Tobin King Improvements in protective headgear
US9207092B1 (en) * 2014-12-22 2015-12-08 Google Inc. Displaying navigation information within a secondary user interface of a mobile device
USD789417S1 (en) 2014-12-22 2017-06-13 Google Inc. Portion of a display panel with a transitional graphical user interface component for a lock screen interface
TWM507664U (en) * 2015-01-16 2015-09-01 Kdh Design Service Inc Smart helmet
EP3048025A1 (en) * 2015-01-20 2016-07-27 Harman Becker Automotive Systems GmbH Driver information system for two-wheelers
US9384645B1 (en) * 2015-01-20 2016-07-05 Elwha Llc System and method for impact prediction and proximity warning
US20160224973A1 (en) 2015-02-01 2016-08-04 Apple Inc. User interface for payments
US20160224118A1 (en) * 2015-02-02 2016-08-04 Kdh-Design Service Inc. Helmet-used touchless sensing and gesture recognition structure and helmet thereof
US9574896B2 (en) 2015-02-13 2017-02-21 Apple Inc. Navigation user interface
US10254911B2 (en) 2015-03-08 2019-04-09 Apple Inc. Device configuration user interface
IN2015DE00754A (en) 2015-03-19 2015-04-03 Hcl Technologies Ltd
CN104783395A (en) * 2015-05-05 2015-07-22 京东方科技集团股份有限公司 Helmet
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
US9815474B2 (en) * 2015-10-06 2017-11-14 Honda Motor Co., Ltd. Combined sensors for making recommendations to a driver
WO2017135748A1 (en) * 2016-02-03 2017-08-10 Samsung Electronics Co., Ltd. Electronic device and method for managing operation thereof while operating vehicle
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
US10621581B2 (en) 2016-06-11 2020-04-14 Apple Inc. User interface for transactions
US20180007994A1 (en) * 2016-07-09 2018-01-11 Bragi GmbH Wearable integration with helmet
DE102016215729B4 (en) 2016-08-23 2018-07-26 Audi Ag Route guidance for a motorcyclist
US10860199B2 (en) 2016-09-23 2020-12-08 Apple Inc. Dynamically adjusting touch hysteresis based on contextual data
US10694801B2 (en) 2016-09-28 2020-06-30 Bruce Cooke Electronic motorcycle helmet
US10088911B2 (en) * 2016-12-30 2018-10-02 Manuel Saez Programmable electronic helmet
CN107167147A (en) * 2017-05-02 2017-09-15 深圳市元征科技股份有限公司 Air navigation aid, glasses and readable storage medium storing program for executing based on arrowband Internet of Things
US20190061617A1 (en) * 2017-08-29 2019-02-28 GM Global Technology Operations LLC Audio Control Systems And Methods Based On Driver Helmet Use
JP7222392B2 (en) * 2018-03-20 2023-02-15 ソニーグループ株式会社 Information processing device, information processing method and recording medium
US10887193B2 (en) 2018-06-03 2021-01-05 Apple Inc. User interfaces for updating network connection settings of external devices
CN109584226B (en) * 2018-11-26 2021-02-05 浙江瑞度新材料科技有限公司 Quality inspection system and method
JP7041050B2 (en) 2018-12-20 2022-03-23 株式会社Shoei Screen device and helmet
US11863700B2 (en) 2019-05-06 2024-01-02 Apple Inc. Providing user interfaces based on use contexts and managing playback of media
JP6921338B2 (en) 2019-05-06 2021-08-18 アップル インコーポレイテッドApple Inc. Limited operation of electronic devices
WO2020235302A1 (en) * 2019-05-17 2020-11-26 株式会社東海理化電機製作所 Control device and presentation system
DK201970533A1 (en) 2019-05-31 2021-02-15 Apple Inc Methods and user interfaces for sharing audio
JP2021098411A (en) * 2019-12-20 2021-07-01 Nsウエスト株式会社 Display light emission device
US20210361017A1 (en) * 2020-05-20 2021-11-25 Nathan Mooney Infrared Motorcycle Helmet Device

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2278196A (en) 1993-05-18 1994-11-23 William Michael Frederi Taylor Information system using GPS
US5677795A (en) 1995-01-10 1997-10-14 Hughes Aircraft Company Modular helmet-mounted display
JPH11148837A (en) * 1997-11-14 1999-06-02 Nippon Seiki Co Ltd Navigation device attached to helmet
JP2001021366A (en) * 1999-07-05 2001-01-26 Nippon Telegr & Teleph Corp <Ntt> Traveling-object tracking device
DE10049693A1 (en) 2000-10-07 2002-04-11 Plim Cooperation Ltd Helmet for cyclist etc. has display in field of view of wearer connected to control device
JP2002122441A (en) * 2000-10-17 2002-04-26 Kenwood Corp Navigation device and display method of navigation screen
US6798392B2 (en) * 2001-10-16 2004-09-28 Hewlett-Packard Development Company, L.P. Smart helmet
US20030212485A1 (en) * 2002-05-09 2003-11-13 Mark Michmerhuizen Navigation system interface for vehicle
JP4316960B2 (en) 2003-08-22 2009-08-19 株式会社半導体エネルギー研究所 apparatus
WO2005038747A1 (en) * 2003-10-20 2005-04-28 Yamaha Hatsudoki Kabushiki Kaisha Travel information displaying method and system for two-wheeled motor vehicle
AU2003300514A1 (en) * 2003-12-01 2005-06-24 Volvo Technology Corporation Perceptual enhancement displays based on knowledge of head and/or eye and/or gaze position
US6934633B1 (en) 2004-10-15 2005-08-23 The United States Of America As Represented By The Secretary Of The Navy Helmet-mounted parachutist navigation system
CN2857529Y (en) * 2005-07-28 2007-01-17 上海环达计算机科技有限公司 Protective helmet with built-in positioning guidance system
JP4767136B2 (en) * 2006-09-07 2011-09-07 川崎重工業株式会社 Information disclosure device
SE530973C2 (en) 2007-03-07 2008-11-04 Umbilical Design Ab System for detecting body movements that occur in the event of an accident
JP5158964B2 (en) * 2008-09-30 2013-03-06 本田技研工業株式会社 Motorcycle navigation device
US20100110105A1 (en) * 2008-10-31 2010-05-06 Nokia Corporation Method, apparatus and computer program product for providing synchronized navigation
US20100125406A1 (en) * 2008-11-19 2010-05-20 Nokia Corporation Methods, apparatuses, and computer program products for providing point of interest navigation services
JP2010145718A (en) 2008-12-18 2010-07-01 Olympus Corp Head mount image display
US20100238161A1 (en) 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360º heads up display of safety/mission critical data
DE102009036828B4 (en) 2009-08-11 2014-02-13 Schuberth Gmbh System for detecting an accident situation and emergency call activation and method thereto
US8472120B2 (en) * 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
SE536160C2 (en) 2010-04-16 2013-06-04 Bae Systems Bofors Ab Method and apparatus for display
DE102010052000A1 (en) * 2010-11-19 2012-05-24 Bayerische Motoren Werke Aktiengesellschaft Method for issuing navigation instructions
US9035776B2 (en) 2011-01-20 2015-05-19 At&T Intellectual Property I, L.P. Wireless monitoring of safety helmets
US20120280915A1 (en) * 2011-05-02 2012-11-08 Nokia Corporation Method and apparatus for facilitating interacting with a multimodal user interface
WO2013176997A1 (en) * 2012-05-19 2013-11-28 Skully Helmets, Inc. Augmented reality motorcycle helmet

Also Published As

Publication number Publication date
EP2936064A1 (en) 2015-10-28
CN104956182A (en) 2015-09-30
CN110057378A (en) 2019-07-26
US20140167986A1 (en) 2014-06-19
US9146124B2 (en) 2015-09-29
EP2936064B1 (en) 2019-01-02
WO2014096517A1 (en) 2014-06-26
JP2016503160A (en) 2016-02-01

Similar Documents

Publication Publication Date Title
JP6280134B2 (en) Helmet-based navigation notification method, apparatus, and computer program
US8952869B1 (en) Determining correlated movements associated with movements caused by driving a vehicle
CN104252229B (en) Apparatus and method for detecting whether a driver is interested in an advertisement by tracking the driver&#39;s eye gaze
US9952665B2 (en) Eye vergence detection on a display
US9230501B1 (en) Device control utilizing optical flow
US20230106673A1 (en) Vehicle and mobile device interface for vehicle occupant assistance
US9304320B2 (en) Head-mounted display and method of controlling the same
WO2015136874A1 (en) Display control device, display device, display control program, display control method, and recording medium
US11562550B1 (en) Vehicle and mobile device interface for vehicle occupant assistance
US9030505B2 (en) Method and apparatus for attracting a user&#39;s gaze to information in a non-intrusive manner
EP2901249A1 (en) Presentation of a notification based on a user´s susceptibility and desired intrusiveness
US20140098008A1 (en) Method and apparatus for vehicle enabled visual augmentation
US8860787B1 (en) Method and apparatus for telepresence sharing
JP6110938B2 (en) Head mounted computer with improved virtual display function
JPWO2015145544A1 (en) Display control apparatus, control method, program, and storage medium
JP6191241B2 (en) Information processing apparatus, information processing method, and program
KR20150129387A (en) Vehicle and method for controlling the same
KR20150084200A (en) A head mounted display and the method of controlling thereof
JP2018042236A (en) Information processing apparatus, information processing method, and program
US9269325B2 (en) Transitioning peripheral notifications to presentation of information
US10876853B2 (en) Information presentation device, information presentation method, and storage medium
EP3054371A1 (en) Apparatus, method and computer program for displaying augmented information
JP2014235042A (en) Display device, method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170106

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170117

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180118

R150 Certificate of patent or registration of utility model

Ref document number: 6280134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250