JP2017175621A - 音声コマンドに対応した視覚コンテキストを表示する三次元ヘッドアップディスプレイ装置 - Google Patents

音声コマンドに対応した視覚コンテキストを表示する三次元ヘッドアップディスプレイ装置 Download PDF

Info

Publication number
JP2017175621A
JP2017175621A JP2017057601A JP2017057601A JP2017175621A JP 2017175621 A JP2017175621 A JP 2017175621A JP 2017057601 A JP2017057601 A JP 2017057601A JP 2017057601 A JP2017057601 A JP 2017057601A JP 2017175621 A JP2017175621 A JP 2017175621A
Authority
JP
Japan
Prior art keywords
driver
vehicle
voice command
hud
overlay
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017057601A
Other languages
English (en)
Other versions
JP6418266B2 (ja
Inventor
エムラ アクン シシュボット,
Akin Sisbot Emarah
エムラ アクン シシュボット,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JP2017175621A publication Critical patent/JP2017175621A/ja
Application granted granted Critical
Publication of JP6418266B2 publication Critical patent/JP6418266B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/23
    • B60K35/28
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • B60K2360/177
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Abstract

【課題】車両の運転者が利用できる音声コマンドに対応した視覚コンテキストを提供する。【解決手段】音声入力システムと通信可能なコンピュータによって実行される方法であって、車両の運転者がヘッドアップディスプレイ(HUD)を通して視認できる環境内にある対象物の画像を取り込む取得ステップと、前記対象物を識別する識別ステップと、前記識別の結果に基づいて、前記音声入力システム向けの音声コマンドであって、前記対象物に関連する音声コマンドを選択する選択ステップと、前記選択された音声コマンドに基づいて、前記対象物に関連する3Dオーバーレイを生成する生成ステップと、前記HUDにおいて、前記運転者が視認する前記対象物の近傍に、前記3Dオーバーレイを描画する描画ステップと、を含む。【選択図】図3

Description

本明細書は、車両の三次元ヘッドアップディスプレイ装置(3D−HUD)向けの三次元(3D)オーバーレイ技術に関する。
(関連出願への相互参照)
本出願は、"THREE DIMENSIONAL HEADS-UP DISPLAY UNIT INCLUDING VISUAL CONTEXT FOR VOICE COMMANDS"と題し、2016年3月24日に出願された米国特許出願第15/0
80,394号の優先権を主張する。当該出願は、その全体が本明細書中に参照として組み込まれる。
ヘッドアップディスプレイ装置(HUD)を搭載した車両がある。また、車両には音声コマンドシステムを搭載することができる。例えば、車両のナビゲーションシステムは、車両の運転者が「ガソリンスタンドまで案内して」と言った場合に、ナビゲーションシステムが車両の現在位置から最も近くのガソリンスタンドまでの経路を検索するように、音声コマンドシステムによって動作することができる。また、他の車両システムも、音声コマンドシステムによって動作することができる。
本明細書には、車両の3D−HUDを用いて、車両の運転者が利用できる音声コマンドに対応した視覚コンテキストを提供するシステムおよび方法を含む実装形態が開示される。
本明細書に記載される視覚コンテキストアプリケーションは、3D−HUDを通して運転者に見えるオブジェクトに対応する1つ以上の3Dオーバーレイを提供する。例えば、運転者が車両の3D−HUDを通して見ると、店舗および駐車スペースの案内板が見える。また運転者には、運転者が店舗に関する詳細情報を要求するために車両の音声コマンドシステムに音声コマンド(例えば、「営業時間は?」「販売している製品やサービスは?」)を提供することができることを示す、店舗の案内板の近くに表示された3Dオーバーレイが見える。また、3D−HUDには、運転者が車両を駐車スペースに自動駐車させる音声コマンドを提供することができることを示す、駐車スペースの近くの3Dオーバーレイも表示される。
3Dオーバーレイとは、3D−HUDによって表示された三次元(本明細書では「3D」と表記)グラフィック画像である。したがって、本明細書に記載される各3Dオーバーレイは、3D−HUDにより三次元で表示される。
3D−HUDを通して見ることのできるオブジェクトとは、車両に搭載されたカメラによって取り込まれた画像に含まれる何らかの物体(車両、標識、建物、建造物等)である。カメラは、車両環境の画像を取り込むように構成される。車両環境は、車両の周辺環境である。車両環境内のオブジェクトには、例えば、目的地(例えば図3および図5参照)、駐車スペース(例えば図4参照)、駐車案内板(例えば図4参照)、追従対象である別の車両(例えば図6参照)、および車両環境内の任意の他のオブジェクトのうちの1つ以上が含まれうる。
1つまたは複数のコンピュータのシステムを、動作に際してシステムに特定の操作また
は動作を行わせるソフトウェア、ファームウェア、ハードウェア、またはそれらの組み合わせをシステム上にインストールすることによってそれらの動作を行うように構成することができる。1つまたは複数のコンピュータプログラムを、データ処理装置によって実行されると装置に特定の操作または動作を行わせる命令を含むことによってそれらの動作を行うように構成することができる。
1つの一般的態様は、音声入力システムと通信可能なコンピュータによって実行される方法であって、車両の運転者がヘッドアップディスプレイ(HUD)を通して視認できる環境内にある対象物の画像を取り込む取得ステップと、前記対象物を識別する識別ステップと、前記識別の結果に基づいて、前記音声入力システム向けの音声コマンドであって、前記対象物に関連する音声コマンドを選択する選択ステップと、前記選択された音声コマンドに基づいて、前記対象物に関連する3Dオーバーレイを生成する生成ステップと、前記HUDにおいて、前記運転者が視認する前記対象物の近傍に、前記3Dオーバーレイを描画する描画ステップと、を含む方法を含む。
本態様の他の実施形態は、対応するコンピュータシステム、装置、および方法の動作を行うように各々構成された1台または複数のコンピュータ記憶装置上に記録されたコンピュータプログラムを含む。
各実装形態は、以下の特徴のうちの1つまたは複数を含むことができる。
例えば、前記選択ステップでは、前記対象物の現在の状態に起因して、入力が無益となりうる音声コマンドがある場合に、当該音声コマンドを選択から除外することを特徴としてもよい。
また、前記対象物に関する詳細情報を取得する情報取得ステップをさらに含むことを特徴としてもよい。
また、現在時刻を取得する時刻取得ステップをさらに含み、前記対象物は施設であり、前記詳細情報は前記施設の営業時間を含むことを特徴としてもよい。
また、前記詳細情報および現在時刻に基づいて、前記施設が営業しているか否かを判定するステップをさらに含むことを特徴としてもよい。
また、前記音声コマンドは、前記施設への架電を要求するコマンドであり、前記3Dオーバーレイは、前記運転者が前記施設に架電可能であることを示すことを特徴としてもよい。
また、前記音声コマンドは、前記対象物に関する情報を要求するコマンドであり、前記3Dオーバーレイは、前記運転者が前記対象物に関する情報を要求可能であることを示すことを特徴としてもよい。
また、現在位置の天気を表す気象データを取得するステップをさらに含むことを特徴としてもよい。
また、前記対象物は屋外施設であり、前記気象データに基づいて、前記屋外施設の状況を判定することを特徴としてもよい。
また、前記対象物は駐車スペースであり、前記音声コマンドは、車両に対して自動運転による入庫を要求するコマンドであり、前記3Dオーバーレイは、前記駐車スペースにおいて自動運転による入庫が要求可能であることを示すことを特徴としてもよい。
前述の技法の実装形態は、ハードウェア、方法もしくはプロセス、またはコンピュータアクセス可能媒体上のコンピュータソフトウェアを含むことができる。
1つの一般的態様は、音声入力システムと通信可能なコンピュータによって実行される方法であって、車両の運転者がヘッドアップディスプレイ(HUD)を通して視認できる環境内にある駐車スペースの画像を取り込む取得ステップと、前記駐車スペースに設置された標識を識別する識別ステップと、前記識別の結果に基づいて、前記駐車スペースの駐車規則を判定する第一の判定ステップと、前記駐車規則に基づいて、前記駐車スペースに駐車が可能であるか否かを判定する第二の判定ステップと、前記駐車スペースに駐車可能
である旨を示す3Dオーバーレイを生成する生成ステップと、前記HUDにおいて、前記運転者が視認する前記駐車スペースの近傍に、前記3Dオーバーレイを描画する描画ステップと、を含む方法を含む。
本態様の他の実施形態は、対応するコンピュータシステム、装置、および方法の動作を行うように各々構成された1台または複数のコンピュータ記憶装置上に記録されたコンピュータプログラムを含む。
各実装形態は、以下の特徴のうちの1つまたは複数を含むことができる。
例えば、現在時刻を取得するステップをさらに含み、前記駐車規則は、時刻によって駐車の可否が変わるものであり、前記第二の判定ステップでは、前記現在時刻を用いて判定を行うことを特徴としてもよい。
前述の技法の実装形態は、ハードウェア、方法もしくはプロセス、またはコンピュータアクセス可能媒体上のコンピュータソフトウェアを含むことができる。
本開示は、限定のためではなく例として、添付の図面の各図に示されており、図面において類似した参照符号は類似した要素を指すのに用いられている。
視覚コンテキストアプリケーションのための動作環境の例を示すブロック図である。 視覚コンテキストアプリケーションを含むコンピュータシステムの例を示すブロック図である。 3D−HUDを示すブロック図である。 3D−HUDにおいて表示される3Dオーバーレイのグラフィック例である。 3D−HUDにおいて表示される3Dオーバーレイのグラフィック例である。 3D−HUDにおいて表示される3Dオーバーレイのグラフィック例である。 3D−HUDにおいて表示される3Dオーバーレイのグラフィック例である。 音声コマンドに対応した視覚コンテキストを提供するために3D−HUDにおいて3Dオーバーレイを表示する方法例のフローチャートである。 音声コマンドに対応した視覚コンテキストを提供するために3D−HUDにおいて3Dオーバーレイを表示する方法例のフローチャートである。
ヘッドアップディスプレイ装置(HUD)を搭載した車両がある。また、車両には音声コマンドシステムを搭載することができる。例えば、車両のナビゲーションシステムは、車両の運転者が「ガソリンスタンドまでの経路案内」と言った場合に、ナビゲーションシステムが車両の現在位置から最も近くのガソリンスタンドまでの経路を検索するように、音声コマンドシステムによって動作することができる。経路案内は、車両のオーディオシステムを介して運転者に提供され、または車両のヘッドユニットに表示されうる。
他の車両システムも、音声コマンドシステムによる動作が可能である。例えば、インフォテインメントシステム、インフォテインメントシステムのブラウザ、電子パーソナルアシスタント、音声通話を行うための通話機能、自動駐車システムなど、のうちの1つ以上を音声コマンドシステムによって動作させることができる。
本明細書に記載される視覚コンテキストアプリケーションは、車両の3D−HUD(例
えば図2B参照)において、車両の運転者が利用できる音声コマンドに関する視覚コンテキストを表示する。視覚コンテキストアプリケーションは、音声コマンドシステムの使い勝手を改善するため有利である。というのは、車両のヘッドユニットに、利用可能なコマンドのリストを列挙しなくても、どんな音声コマンドが現在利用できるかを運転者が把握できるからである。3D−HUDを用いて視覚コンテキストを提供することにより、所与のコマンドに複数の可能なターゲットがあることによって生じる曖昧さの可能性が取り除かれる。
目下のところ、本明細書に記載される視覚コンテキストアプリケーションによって提供される機能を提供する先行技術はない。
第1に、3D−HUDを用いて音声コマンドに関する視覚コンテキストを提供する既存の技術がない。
第2に、視覚コンテキストアプリケーションは、有利なことに、車両環境に基づいて、運転者が利用できる音声コマンドのリストを編集し、次いで、編集されたリストを3D−HUD上で運転者に見えるように表示する。車両がおかれている環境を検出し、現在の環境に基づいて、運転者と関連性を有する音声コマンドのみを提供するように、利用可能なコマンドのリストを編集するという他の解決策はない。
第3に、視覚コンテキストアプリケーションは、利用できる音声コマンドを、3D−HUD上において、関連したオブジェクトの近くに(3D−HUD内に)3Dオーバーレイとして表示する。
例えば、音声コマンドのうちの1つが、店舗の詳細情報を取得するコマンドである場合、この音声コマンドに対応するグラフィックオーバーレイは「情報を取得」という内容となり、3D−HUDに表示された当該店舗の看板の近くに表示させる。
コマンド「情報を取得」が用いられうる、相互に近接した複数の店舗が存在する場合もある。例えば図3を参照されたい。3D−HUDをこのように用いると、オーバーレイによって生じる曖昧さが取り除かれる。というのは、3D−HUD技術によって、運転者から適切な距離のところに視覚的なサインを配置することができるからである。3D−HUDを用いて、利用できる音声コマンドの視覚指示(例えば3Dオーバーレイ)を提供する一方で、3Dオーバーレイが、関連するオブジェクトの近くに表示されるように3D−HUDの画面において3Dオーバーレイの描画を行う技術は他には無い。
本明細書に記載される視覚コンテキストアプリケーションは、車両の3D−HUDを用いて、車両の運転者が利用できる音声コマンドに対応する視覚コンテキストを提供するシステムおよび方法を含むことができる。視覚コンテキストは、3D−HUDの画面上に表示される3Dオーバーレイを含む。
いくつかの実装形態において、表示されるグラフィックオーバーレイは、3D−HUDを介して車両の運転者が視認できる何らかのオブジェクトと関連している。例えば、オブジェクトは、店舗、駐車スペース、関心地点、公共施設(公園、遊園地、病院、警察署など)、車道上の別の車両、または環境内にある任意の他のオブジェクトなどである。
いくつかの実装形態において、視覚コンテキストアプリケーションは、オブジェクトを特定し、現在時刻、車両位置および条件が与えられた場合に、当該オブジェクトが車両の運転者とどのような関連性を有するか判定する(例えば、店舗が閉まっている場合、運転者と店舗は関連性を有しない。オブジェクトが公園や遊園地であるが気象条件が悪い場合、運転者とオブジェクトは関連性を有しない。オブジェクトが駐車スペースであるが、駐車が許容される時間帯でない場合、運転者とオブジェクトは関連性を有しない)。
いくつかの実装形態において、視覚コンテキストアプリケーションは、オブジェクト識別情報が与えられた場合に、利用できる音声コマンドのうちのどれがオブジェクトおよび運転者と関連性を有するか判定する(例えば、オブジェクトが店舗である場合、「ラジオの音量を上げて」という音声コマンドはオブジェクトと関連性を有しないが、「店に電話をかけて」という音声コマンド、または、「店の情報を見せて」という音声コマンドは関連性を有する)。このステップは、3D−HUDにおいて運転者が視認でき、特定されたオブジェクトの各々について繰り返される。
いくつかの実装形態において、オブジェクトの運転者との関連性は、先に提供されたユーザ入力に基づいて判定できる。ユーザ入力は、ウェブインターフェース、スマートフォンアプリケーション、または車両のヘッドユニットを介して提供されてもよい。運転者は、どのオブジェクト/音声コマンドのペアが運転者と関連性を有するかに関してシステムを訓練するために、システムに音声入力を提供することができてもよい。
いくつかの実装形態において、視覚コンテキストアプリケーションは、3D−HUDにおいてオブジェクトの近くに表示するためのグラフィックを生成する。グラフィックは、どの音声コマンドが特定のオブジェクトに対して利用できるかを記述する。グラフィックは、運転者の注意をそらさないように工夫して設計されたグラフィックオーバーレイまたは3Dオーバーレイとすることができる。またグラフィックは、背後の道路および交通が運転者に見えるように半透明とすることもできる。
いくつかの実装形態において、視覚コンテキストアプリケーションは、どの音声コマンドがオブジェクトに利用できるかが運転者にわかるように、オブジェクトに近接して3D−HUD上にグラフィックを描画する。関連性を有する複数のオブジェクトがある場合、システムは視覚グラフィックを運転者にとって適切な距離のところに配置する。
なお、本明細書において、「運転者とオブジェクトが関連性を有する」とは、当該オブジェクトに対する運転者の音声インタラクションが有益であることを意味する。すなわち、オブジェクトに対して音声コマンドを介して行うインタラクション(例えば電話をかける動作)が無益である(例えば店が営業時間外である)場合、当該音声コマンドは選択されず、対応するグラフィックも出力されない。
いくつかの実装形態において、視覚コンテキストアプリケーションは、グラフィックが運転者の注意をそらし、または安全リスクをもたらすことになるかどうか事前に判定し、安全リスクをもたらすと判定される特定のグラフィックの描画を選択的に抑制してもよい。例えば、2つのグラフィックが描画されることになっており、1つのグラフィックは運転者の対面交通の視界を見えにくくし、他方のグラフィックはそうではない場合、本発明は、運転者の交通の視界を見えにくくしないグラフィックのみを描画する。
いくつかの実装形態において、視覚コンテキストアプリケーションは音声コマンドを提供するために運転者の声を聴き取ることができる。音声コマンドが与えられた場合、視覚コンテキストアプリケーションは当該音声コマンドに基づいて処理を行う。
車両環境は、車両の周辺領域を含む。車両環境は、以下のうちの1つ以上を含むことができる。
車両自体、他の車両、1つまたは複数の店舗、1つまたは複数の公共駐車スペース、1つまたは複数の駐車場、1つまたは複数のレクリエーションエリア(公園、ビーチ、登山道)、1つまたは複数の緊急サービス(病院、警察署など)、1つまたは複数の関心地点(旅行目的地、ランドマーク、流行の場所、友人が所在する場所)など
車両は、車両環境内に存在するシーンの画像を取り込むために車両に搭載された外部カメラを含む。外部カメラは視覚コンテキストアプリケーションに通信可能に結合する。視覚コンテキストアプリケーションは外部カメラの動作を制御するように動作する。
いくつかの実装形態において、視覚コンテキストアプリケーションは、カメラに車両環境内のオブジェクトのうちの1つまたは複数の画像を取り込ませるようにカメラを操作する。画像は、現時点において3D−HUDを介して運転者が見ることのできる車両環境内のシーンを含む。
車両は全地球測位システム(GPS)ユニットを含むことができる。視覚コンテキストアプリケーションは、GPSユニットに通信可能に結合する。視覚コンテキストアプリケーションは、GPSユニットの動作を制御するように動作する。
いくつかの実装形態において、視覚コンテキストアプリケーションは車両のGPS座標を取得する。
車両は通信ユニットを含む。通信ユニットはネットワークに通信可能に結合する。通信ユニットはネットワークを介して1つまたは複数のサービスからデータを検索し、またはそれ以外の方法で受け取る。サービスには、ソーシャル・ネットワーク・サービス、ディレクトリサービス、地図サービスおよび気象サービスなどが含まれうる。ソーシャル・ネットワーク・サービスは、1つまたは複数のソーシャルネットワークを提供することができる。ディレクトリサービスは、1つまたは複数の目的地(例えば、店舗、レクリエーションエリア、関心地点、ランドマークなど)を表すデータを提供する。気象サービスは、現在の天気または天気予報を表す情報を提供する。
いくつかの実装形態において、視覚コンテキストアプリケーションは、GPS座標で示される地域の近くの1つまたは複数の店舗、公園、ビーチおよび関心地点のディレクトリデータを検索することができる。
いくつかの実装形態において、視覚コンテキストアプリケーションは、画像に存在するオブジェクトを特定するために1つまたは複数の画像を解析する。視覚コンテキストは、オブジェクト事前情報を用いて、画像に含まれる目的地(例えば、候補の店舗、駐車スペースおよび他のオブジェクト)を特定することができる。ディレクトリデータは次いで、目的地の名称をさらに特定するのに用いることができる。
いくつかの実装形態において、視覚コンテキストアプリケーションは、GPS座標で示される地域の気象データを検索することができる。
いくつかの実装形態において、視覚コンテキストアプリケーションは運転者のソーシャルデータを検索することができる。
いくつかの実装形態において、視覚コンテキストアプリケーションは、現在時刻および曜日を表す時間データを取得することができる。
いくつかの実装形態においては、画像に含まれる特定されたオブジェクトごとに、視覚コンテキストアプリケーションは、現在時刻、今日の日付、車両位置、および他の条件(気象条件、ソーシャルメディア条件など)のうちの1つまたは複数が与えられた場合に、オブジェクトが運転者とどのように関連性を有するか判定する。
例えば、オブジェクトが、閉まっている店舗である場合、運転者とオブジェクトは関連性を有しない。オブジェクトが公園や遊園地であるが気象条件が悪い場合、運転者とオブ
ジェクトは関連性を有しない。オブジェクトが駐車スペースであるが、駐車が許容される時間帯でない場合、運転者とオブジェクトは関連性を有しない。
車両は音声コマンドシステムを含む。音声コマンドシステムは音声コマンドセットを含む。音声コマンドシステムは、音声コマンドの取得に基づいて、1つまたは複数の車両機能を制御するように動作する。例えば、運転者が「駐車スペースに駐車」と言った場合、音声コマンドシステムは、車両の自動駐車システムに、目標の駐車スペースに駐車させるように動作することができる。
上記の例では、音声コマンドは、ターゲットと関連性を有する(すなわち、音声コマンドのターゲットは駐車スペース)ものであった。しかし、音声コマンドシステムは、ターゲットと関連性を有しない他の音声コマンドを含む。例えば、音声コマンドシステムは、駐車スペースを含むターゲットと関連性を有しない、「ラジオの音量を上げて」といった音声コマンドを含みうる。
いくつかの実装形態において、視覚コンテキストアプリケーションは、オブジェクト識別情報が与えられた場合に、利用できる音声コマンドのうちのどれが画像内の特定されたオブジェクトおよび運転者と関連性を有するか判定する(例えば、オブジェクトが店舗である場合には、「ラジオの音量を上げて」という音声コマンドはオブジェクトと関連性を有しない。しかし、「店に電話をかけて」という音声コマンドは関連性を有する。別の関連性を有する音声コマンドとして、例えば、店舗に関する情報を要求するものがある)。このステップは、3D−HUDにおいて運転者が視認でき、特定されたオブジェクトの各々について繰り返されうる。
いくつかの実装形態において、視覚コンテキストアプリケーションは、3D−HUDにおいてオブジェクトの近くに表示するためのグラフィックを生成する。
いくつかの実装形態において、視覚コンテキストアプリケーションは、どの音声コマンドがオブジェクトに利用できるかが運転者にわかるように、オブジェクトのセンサ座標を運転者の視点座標に変換し、対象オブジェクトに近接して3D−HUD上にグラフィックを描画することができる。
いくつかの実装形態においては、閉まっている店舗について、視覚コンテキストアプリケーションは、運転者に店舗の名称および(店舗が閉まっていることを示す)営業時間を知らせる、3D−HUD上のグラフィックを描画することができる。
いくつかの実装形態において、視覚コンテキストアプリケーションは、グラフィックが運転者の注意をそらし、または安全リスクをもたらすことになるかどうか事前に判定し、安全リスクをもたらす場合、特定のグラフィックの描画を選択的に抑制してもよい。例えば、2つのグラフィックが描画されることになっており、1つのグラフィックは運転者の対面交通の視界を見えにくくし、他方のグラフィックはそうではない場合、本発明は、運転者の交通の視界を見えにくくしないグラフィックのみを描画する。
いくつかの実装形態において、視覚コンテキストアプリケーションは音声コマンドを提供するために運転者の声を聴き取ることができる。音声コマンドが与えられた場合、視覚コンテキストアプリケーションは音声コマンドに基づいて処理を行う。例えば、視覚コンテキストアプリケーションは、音声コマンドシステムに、音声コマンドに従った処理を行わせるように動作することができる。
視覚コンテキストアプリケーションは、音声コマンドに加えて、運転者がハンドルに付
いたボタンを押すことや車両のインフォテインメントシステムといった他の種類のコマンドと協働して動作してもよい。
(システム概要)
図1は、いくつかの実装形態による視覚コンテキストアプリケーション199のための動作環境例100を示すブロック図である。
動作環境100は、車両103と、ソーシャル・ネットワーク・サーバ101と、ディレクトリサーバ130と、地図サーバ190と、気象サーバ170と、車両環境198とを含む。車両103は信号線122を介して運転者125によってアクセスされる。図示の実装形態において、動作環境100のこれらのエンティティはネットワーク105を介して通信可能に結合されうる。動作環境100は、例えば、交通データを提供するための交通サーバ、インフォテインメントコンテンツを提供するためのコンテンツサーバ、インターネットプロトコル上の音声(VoIP)サービスを提供するためのVoIPサーバ、電力利用サービス(例えば、課金サービス)を提供するための電力サービスサーバなどを含む、図1に示されていない他のサーバまたはデバイスも含むことができる。
図1の車両103は例として用いられる。図1には、1台の車両103が示されているが、本開示は、1台または複数の車両103を有するシステムアーキテクチャに適用できる。さらに、図1には、車両103、ソーシャル・ネットワーク・サーバ101、ディレクトリサーバ130、地図サーバ190および気象サーバ170に結合された1つのネットワーク105が示されているが、実際には、これらのエンティティに1つまたは複数のネットワーク105を接続することができる。図1は1つのソーシャル・ネットワーク・サーバ101、1つのディレクトリサーバ130、1つの地図サーバ190および1つの気象サーバ170を含むが、動作環境100は、1つまたは複数のソーシャル・ネットワーク・サーバ101、1つまたは複数のディレクトリサーバ130、1つまたは複数の地図サーバ190および1つまたは複数の気象サーバ170を含むこともできる。
ネットワーク105は従来型の有線または無線とすることができ、スター型構成、トークンリング構成、または他の構成を含む多くの異なる構成を有しうる。さらに、ネットワーク105は、ローカル・エリア・ネットワーク(LAN)、広域ネットワーク(WAN)(例えばインターネット)、または、複数のデバイスが通信するための他の相互接続データパスを含むことができる。いくつかの実装形態において、ネットワーク105はピア・ツー・ピア・ネットワークとすることができる。またネットワーク105は、多種多様な通信プロトコルでデータを送るための電気通信ネットワークの各部分に結合され、またはこれらを含んでいてもよい。いくつかの実装形態において、ネットワーク105は、ショート・メッセージ・サービス(SMS)、マルチメディア・メッセージング・サービス(MMS)、ハイパーテキスト転送プロトコル(HTTP)、直接データ接続、WAP、電子メールなどによるものを含む、データを送受信するためのBluetooth(登録商標)通信ネットワークまたはセルラ通信ネットワークを含む。いくつかの実装形態において、ネットワーク105は、車両103にGPSナビゲーションを提供するためのGPS衛星を含むことができる。ネットワーク105は、3G、4G、LTE、ボイスオーバLTE(VoLTE)、狭域通信(DSRC)、ミリ波通信(mmWave通信)、または任意の他のモバイル・データ・ネットワークもしくはモバイル・データ・ネットワークの組み合わせといったモバイル・データ・ネットワークとすることができる。
いくつかの実装形態において、動作環境100は、車両103の地理的位置を表すGPS位置データを提供するためのGPS衛星を含むことができる。GPS位置データは、車両103のGPS座標を含む。このデータは、図2Aに関連して後述するGPSデータ295として記憶される。
いくつかの実装形態において、車両103は、車両103の位置を車線レベルの精度で表すGPSデータを提供するように動作するDSRC準拠のGPSユニットを搭載している。DSRC規格は、GPSデータが、車両がどの車線を走行しているか特定するのに十分なほど高精度である。DSRC準拠のGPSユニットは、その二次元位置を、1.5メートル(1シグマ)以内で特定し、モニタし、追跡できる。
言い換えると、車両103の実際の位置を、DSRC準拠のGPSユニットによって生成されたGPSデータが表す位置と比較したときに、GPSデータに基づく位置が、車両103の実際の位置の1.5メートル以内にある確率が少なくとも68%となる。
各車線および車両は、典型的には幅3メートル未満であるため、GPSデータの二次元誤差が1.5メートル以下であるときは常に、本明細書に記載される車両103は、GPSデータを解析し、1.5メートル以内までの精度を有する車両103の位置を知ることができる。
いくつかの実装形態において、視覚コンテキストアプリケーション199は、車両103上で動作することができる。車両103は、電池システムを備える移動式クライアントデバイスとすることもできる。例えば、車両103は、自動車、トラック、乗用車、バス、トレーラトラック、スポーツ・ユーティリティ・ビークル、自律型車両、半自律型車両、ドローン、バイオニックインプラント、または非一時的コンピュータ電子機器および電池システムを含む任意の他の移動式システムのうちの1つであってもよい。いくつかの実装形態において、車両103は、メモリとプロセッサとを含むコンピューティングデバイスを含むことができる。図示の実装形態において、車両103は信号線108を介してネットワーク105に通信可能に結合されている。
いくつかの実装形態において、車両103は、ナビゲーションセンサ(例えば、全地球測位システム(GPS)センサ)、赤外線検知器、カメラ、動き検知器、サーモスタット、音検知器、1台または複数のカメラ、および任意の他の種類のセンサといった、1台または複数のセンサ(例えば、図2Aに示すセンサ群233)を含むことができる。例えば、車両103は、現在時刻、位置(例えば、緯度/経度、および標高)、車両の加速度、車両の速度、燃料レベル、および車両の電池レベルなどのうちの1つまたは複数を測定するためのセンサを含む。センサは、3D−HUDを通して運転者125が視認できるオブジェクト、運転者125、運転者125の目または視線、車両103に含まれる3D−HUD(例えば、図2Aおよび図2Bに示す3D−HUD)の画像を取り込むことができる。センサは、車両103と、3D−HUDを通して運転者125が見ることのできるオブジェクトとの距離を求めるように構成されたLIDARセンサまたは距離計を含むことができる。センサは、非一時的メモリに記憶されるセンサデータ(例えば、図2Aに示すセンサデータ293)を作成し、または生成するのに用いることができる。
いくつかの実装形態において、車両103は、3D−HUDを通して(または3D−HUDを)運転者125が視認できるものを表す1つまたは複数の画像を取り込むために車両103に搭載された1台または複数のカメラを含むことができる。例えば、画像は、(1)3D−HUDを通して見たときに運転者125に見える実世界、および(2)3D−HUDを通して見たときに運転者125に見えるグラフィックオーバーレイ、のうちの1つまたは複数である。
いくつかの実装形態において、車両103は1台または複数の外部カメラ104を含むことができる。外部カメラ104は1台または複数のディジタルカメラを含むことができる。外部カメラ104は車両環境198の画像を取り込むことができる。
車両環境198は、(車両103の走行有無にかかわらず)車両103が位置する環境
を含む。車両環境198は、運転者125または外部カメラ104が見ることのできる外界の部分に限定することができる。車両環境198は、以下のオブジェクトのうちの1つまたは複数を含むことができる。
車両103、他の車両、一つまたは複数の店舗、1つまたは複数の公共駐車スペース、1つまたは複数の駐車場、1つまたは複数のレクリエーションエリア(例えば、公園、ビーチ、登山口など)、1つまたは複数の関心地点(例えば、旅行目的地、ランドマーク、流行の場所、運転者の友人が所在する場所、運転者の友人がソーシャルネットワーク上でチェックインしたことのある場所など)
車両環境198は、車道および1つまたは複数の交通管理機器も含むことができる。例えば、車両環境198は、交通標識、交通信号、駐車案内板などを含んでもよい。車両環境198は、車道上に位置しうる、または車道から見えうる任意のオブジェクトを含むことができる。
外部カメラ104は、車両環境内のシーンの画像を取り込むことができる。各シーンは1つまたは複数のオブジェクトを含む。画像は、図2Aに関連して後述するセンサデータ293の一部として記憶することができる。視覚コンテキストアプリケーション199は、オブジェクト事前情報セット(例えば、図2Aに関連して後述する画像認識データ299)を含む。オブジェクト事前情報とは、1つまたは複数の画像内の1つまたは複数のオブジェクトを識別するのに用いられる事前情報である。視覚コンテキストアプリケーション199は、オブジェクト事前情報セットに一部基づいて、画像に含まれるオブジェクトを識別するために画像を解析することができる。
車両103は音声コマンドシステムおよび3D−HUDを含むことができる。1つまたは複数の画像に含まれるオブジェクトは、3D−HUDにおいても見ることができる。音声コマンドシステムは、1つまたは複数のオブジェクトと関連性を有する1つまたは複数の音声コマンドを含むことができる。例えば、オブジェクトが店舗であるものと仮定する。また、音声コマンドシステムは音声コマンドのメニューを含むことができる。これらの音声コマンドの中には店舗と関連性を有するものもあり、関連性を有しないものもある。例えば、車両に含まれるラジオの「音量を上げて」という音声コマンドは店舗と関連性を有しないが、「電話をかけて」という音声コマンドは、(店舗が顧客または潜在的顧客からの電話を受け入れる可能性があるため)店舗と関連性を有する。
音声コマンドシステムの問題のひとつに、音声コマンドシステムが音声コマンドに関する多くのオプションを含んでおり、運転者125がどんな音声コマンドを利用できるかがわからない場合があるという点がある。
大部分の音声コマンドシステムにおいて、運転者がどんな音声コマンドを利用できるか知るためには、運転者125がオプションのメニューを聴く(または車両のディスプレイに表示されたオプションの長いメニューを目で辿る)ことを必要とするように構成されており、これには時間がかかり、面倒であり、結局は音声コマンドシステムを全く使わなくなる可能性がある。
音声コマンドシステムの第2の問題に、音声コマンドの多くが、常時運転者125と関連性を有するとは限らないことである。視覚コンテキストアプリケーション199は、運転者125が利用することができ、運転者125または運転者125の車両環境198と関連性を有する音声コマンドセットを示す車両の3D−HUD上の3Dオーバーレイを表示することによって、これらの問題を解決する(例えば図3参照)。
視覚コンテキストアプリケーション199は、車両103の3D−HUDに、例えば、車両103の運転者125が利用することのできる1つまたは複数の音声コマンドを記述する1つまたは複数の3Dオーバーレイを表示させるためのソフトウェアを含む。
いくつかの実装形態において、視覚コンテキストアプリケーション199は、車両103の3D−HUDに図3から図6に示すGUIのうちの1つまたは複数を表示させるためのソフトウェアを含む。
いくつかの実装形態において、視覚コンテキストアプリケーション199は、車両103のプロセッサ(例えば図2Aに示すプロセッサ225参照)によって実行された場合に、プロセッサに、図7Aおよび図7Bに関連して後述する方法700の1つまたは複数のステップを実行させるコードおよびルーチンを含む。
いくつかの実装形態において、視覚コンテキストアプリケーション199は、フィールド・プログラマブル・ゲート・アレイ(FPGA)または特定用途向け集積回路(ASIC)を含むハードウェアを用いて実施することができる。いくつかの他の実装形態において、視覚コンテキストアプリケーション199は、ハードウェアとソフトウェアの組み合わせを用いて実施することができる。視覚コンテキストアプリケーション199は、デバイスとサーバの組み合わせに、またはデバイスもしくはサーバのうちの1つに記憶することができる。
視覚コンテキストアプリケーション199については、いくつかの実装形態に従って図2Aに関連して、以下でより詳細に説明する。
ソーシャル・ネットワーク・サーバ101は、プロセッサとメモリとネットワーク通信機能とを含むハードウェアサーバとすることができる。図示の実装形態において、ソーシャル・ネットワーク・サーバ101は信号線102を介してネットワーク105に結合されている。ソーシャル・ネットワーク・サーバ101は、ネットワーク105を介して動作環境100の他のエンティティとの間でデータを送受信する。
ソーシャル・ネットワーク・サーバ101は、ソーシャル・ネットワーク・アプリケーション111を含む。ソーシャルネットワークは、運転者125と別の人とが共通の特徴によって結びつくことのできるソーシャル構造の一種とすることができる。共通の特徴には、関係/結びつき、例えば、知人、家族、仕事、関心などが含まれる。共通の特徴は、明示的に定義された関係および他のオンラインユーザとのソーシャルな結びつきによって示唆される関係を含む1つまたは複数のソーシャル・ネットワーキング・システムによって提供され、それらの関係はソーシャルグラフを形成する。場合によっては、ソーシャルグラフはこれらのユーザのマッピングおよびこれらのユーザがどのように関連しうるかを反映することもできる。
いくつかの実装形態において、ソーシャル・ネットワーク・アプリケーション111は、交通情報を決定するのに用いられうるソーシャルネットワークを生成する。例えば、ソーシャル・ネットワーク・アプリケーション111は、人々が主要幹線道路上の事故に関して投稿するミニブログ、人々が速度違反取り締まりについて論じるフォーラム、ユーザが道路渋滞について話し合う友人を有するソーシャルネットワークなどとすることができる。いくつかの実装形態において、視覚コンテキストアプリケーション199は、運転者125が3D−HUDのインターフェースを介してソーシャルネットワーク内の別の人と相互に対話し、または協調することを可能にする。例えば、運転者125と別の人が協調するチャットセッションを、ソーシャル・ネットワーク・アプリケーション111を介して提供することができる。
いくつかの実装形態においては、他の人がソーシャルネットワーク内で更新情報を提供することもでき、これらの更新情報は、それらの人が車両環境198内のどこに位置するかに関する情報を含むことができる。視覚コンテキストアプリケーション199は、この
情報を(相手の人の許可を得て)ソーシャル・ネットワーク・アプリケーション111から受け取り、車両環境内の相手の人の位置を示し、相手の人に関連して運転者125が用いることのできる1つまたは複数の音声コマンドを提供する3D−HUD上で表示するための3Dオーバーレイを提供することができる。例えば、音声コマンドは相手の人に電話をかけるコマンドを含む。
ソーシャル・ネットワーク・サーバ101およびソーシャル・ネットワーク・アプリケーション111は1つのソーシャルネットワークを表すことができること、ならびに、各々が独自のサーバ、アプリケーション、およびソーシャルグラフを有する複数のソーシャルネットワークがネットワーク105に結合されうることが理解される。例えば、第1のソーシャルネットワークは商取引ネットワーキング向けとすることができ、第2のソーシャルネットワークは学界を対象とし、または学界中心とすることができ、第3のソーシャルネットワークは地方の商取引向けとすることができ、第4のソーシャルネットワークは出会いを対象とすることができ、他のソーシャルネットワークは、一般的関心または特定の関心対象のものとすることができる。
ディレクトリサーバ130は、プロセッサと、メモリと、ネットワーク通信機能とを含むハードウェアサーバとすることができる。図示の実装形態において、ディレクトリサーバ130は信号線197を介してネットワーク105に結合されている。ディレクトリサーバ130は、ネットワーク105を介して動作環境100の他のエンティティとの間でデータを送受信する。
ディレクトリサーバ130はディレクトリデータ131を含む。ディレクトリデータ131は、異なる目的地および目的地に関する情報を記述する。この情報を本明細書では「営業情報」と呼ぶ場合がある。
なお、本明細書における目的地とは、必ずしも予定された目的地でなくてもよい。例えば、立ち寄る可能性がある施設等を含む。
目的地は、店舗およびこれらの店舗についての様々な情報を含むことができる。例えば、ディレクトリデータ131は、店舗の名称、店舗の営業時間、店舗の電話番号、店舗が販売する商品の種類、店舗に利用できる任意の広告または販促、店舗についての顧客レビューなどを記述することができる。例えば、レストランについて、ディレクトリデータ131は提供メニューを記述することができる。また、映画館について、ディレクトリデータ131は上映中の映画および上映時間を記述することができる。ガソリンスタンドについて、ディレクトリデータ131は、推定待ち時間およびグレードごとの燃料の価格を記述することができる。ホテルについて、ディレクトリデータ131は、空室があるかどうかおよび当日の室料を記述することができる。またディレクトリデータ131は、屋外施設である目的地についての関連性を有する情報を記述することもできる。例えば、ディレクトリデータ131は、公園の規則、営業時間および利用可能なアクティビティといった、レクリエーションエリアに関する情報を含むことができる。レクリエーションエリアには、公園、ビーチ、登山口、パブリック・ゴルフ・コース、サイクリングロードなどが含まれうる。ディレクトリデータ131の他の例も可能である。
ディレクトリサーバ130は、ディレクトリサーバ130のプロセッサによって実行された場合に、プロセッサに、視覚コンテキストアプリケーション199からのディレクトリデータ131を求める要求を受信させ、これらの要求に応答して、要求に応答する視覚コンテキストアプリケーション199へのディレクトリデータ131を送信させるコードおよびルーチンを含む。例えば、視覚コンテキストアプリケーション199は、ディレクトリサーバ130へGPSデータを送信することができる。ディレクトリサーバ130は、同じ地理的位置、ほぼ同じ地理的位置、または視覚コンテキストアプリケーション199から受信されたGPSデータによって記述される地理的位置からある所定の範囲内にあ
る地理的位置に位置する目的地のディレクトリデータ131を検索することができる。
いくつかの実装形態において、視覚コンテキストアプリケーション199へ送信されるディレクトリデータ131は、視覚コンテキストアプリケーション199が、車両103の3D−HUDを通して運転者125が見ることのできる位置ごとのディレクトリデータ131を受信するように構成することができる。
いくつかの実装形態において、ディレクトリサーバ130は、地域についての(例えば、都市、州、または国についての)すべてのディレクトリデータ131を視覚コンテキストアプリケーション199へ送信する。視覚コンテキストアプリケーション199はその場合、車両103の位置を表すGPSデータおよび地図サーバ190から受け取った地図データ191に基づいてディレクトリデータ131をフィルタリングすることができる。
いくつかの実装形態において、ディレクトリデータ131は、視覚コンテキストアプリケーション199によって、目的地が運転者125と関連性を有するかどうか判定し、または運転者125に見せるために車両103の3D−HUD上にどの3Dオーバーレイを表示すべきか選択するのに用いられる。例えば、営業情報が、店舗が閉まっている(すなわち、運転者125が利用できない)ことを示す場合には、店舗は運転者125と関連性を有さず、または、運転者125に提示するために異なる3Dオーバーレイが選択されるべきである。例えば、店舗が閉まっている場合には、3Dオーバーレイは、店舗に電話をかけるオプションを提供するのではなく、営業時間を記述することができる。というのは、閉まっており利用できない店舗に電話をかけることは意味をなさないからである。
地図サーバ190は、プロセッサと、メモリと、ネットワーク通信機能とを含むハードウェアサーバとすることができる。図示の実施形態において、地図サーバ190は信号線116を介してネットワーク105に結合されている。地図サーバ190は、ネットワーク105を介して動作環境100の他のエンティティとの間でデータを送受信する。
地図サーバ190は地図データ191を記憶することができる。地図データ191は、車両環境198を含む地域内の地図および地理的位置(または目的地)を記述することができる。地理的位置は、地域内の目的地ごとの実際の所在地を含む。
地図サーバ190は、地図サーバ190のプロセッサによって実行された場合に、プロセッサに、視覚コンテキストアプリケーション199からの地図データ191を求める要求を受信させ、要求に応答する地図データ191を送信させるコードおよびルーチンを含む。例えば、視覚コンテキストアプリケーション199は、車両103の地理的位置を表すGPSデータを送信することができ、地図サーバ190は、車両環境198を含む地域内の地図および地理的位置を表す地図データ191を選択する。
視覚コンテキストアプリケーション199は、どの目的地が車両環境198内に位置するか判定するために、ディレクトリデータ131と照合して地図データ191を相互参照するソフトウェアを含む。
例えば、ディレクトリデータ131は、各目的地の名称および各目的地に関する営業情報を定義することができる。地図データ191は、各目的地の名称および各目的地の実際の所在地を定義することができる。視覚コンテキストアプリケーション199は、車両環境198内の各目的地の名称および目的地の実際の所在地を決定するために、地図データ191と照合してディレクトリデータ131を相互参照することができる。
気象サーバ170は、プロセッサと、メモリと、ネットワーク通信機能とを含むハード
ウェアサーバとすることができる。図示の実施形態において、気象サーバ170は信号線114を介してネットワーク105に結合されている。気象サーバ170は、ネットワーク105を介して動作環境100の他のエンティティとの間でデータを送受信する。
気象サーバ170は気象データ171を記憶する。気象データ171は車両環境198に関連した天気予報を表すデータである。天気予報は、車両環境198の現在の気象条件または将来のある時点における車両環境の推定される気象条件を表す。
気象サーバ170は、気象サーバ170のプロセッサによって実行された場合に、プロセッサに、視覚コンテキストアプリケーション199からの気象データ171を求める要求を受信させ、要求に応答する気象データ171を送信させるコードおよびルーチンを含む。例えば、視覚コンテキストアプリケーション199は、車両103の地理的位置を表すGPSデータを送信することができ、気象サーバ170は、車両環境198を含む地域内の天気予報を記述する気象データ171を選択する。いくつかの実装形態において、気象データ171は、視覚コンテキストアプリケーション199によって、目的地が運転者125と関連性を有するかどうか判定し、または運転者125が見るために車両103の3D−HUD上にどの3Dオーバーレイを表示すべきか選択するのに用いられる。
(システムの例)
次に図2Aを参照すると、視覚コンテキストアプリケーション199を含むコンピュータシステム200の一例が示されている。
図2Aは、いくつかの例による、視覚コンテキストアプリケーション199と、プロセッサ225と、メモリ227と、3D−HUD231と、センサ群233と、通信ユニット245と、音声コマンドシステム247とを含むコンピュータシステム200のブロック図である。コンピュータシステム200の各構成要素はバス220によって通信可能に結合されている。いくつかの実装形態において、コンピュータシステム200は車両103とすることができる。
プロセッサ225は、計算処理を行い、表示装置へ電子表示信号を提供するための算術論理演算装置、マイクロプロセッサ、汎用コントローラ、または何らかの他のプロセッサアレイを含む。プロセッサ225は信号線236を介して他の構成要素と通信するためにバス220に結合されている。プロセッサ225はデータ信号を処理し、複雑命令セットコンピュータ(CISC)アーキテクチャ、縮小命令セットコンピュータ(RISC)アーキテクチャ、または命令セットの組み合わせを実施するアーキテクチャを含む様々なコンピューティングアーキテクチャを含むことができる。プロセッサ225は、グラフィックス処理装置(GPU)、アドバンストRISCマシーンズ(ARM)プロセッサまたは何らかの他のプロセッサを含むことができる。図2Aは単一のプロセッサ225を含んでいるが、複数のプロセッサ225が含まれていてもよい。他のプロセッサ、オペレーティングシステム、センサ、ディスプレイ、および物理構成も可能である。
メモリ227はプロセッサ225によって実行されうる命令またはデータを記憶する。メモリ227は信号線244を介して他の構成要素と通信するためにバス220に結合されている。命令またはデータは、本明細書に記載される技法を行うためのコードを含むことができる。メモリ227は、ダイナミック・ランダム・アクセス・メモリ(DRAM)デバイス、スタティック・ランダム・アクセス・メモリ(SRAM)デバイス、フラッシュメモリ、または何らかの他のメモリデバイスとすることができる。いくつかの実装形態において、メモリ227は、ハード・ディスク・ドライブ、フロッピー・ディスク・ドライブ、CD−ROMデバイス、DVD−ROMデバイス、DVD−RAMデバイス、DVD−RWデバイス、フラッシュ・メモリ・デバイス、またはより永続的に情報を記憶する
ための何らかの他の大容量記憶装置を含む、不揮発性メモリまたは類似した永続記憶装置および媒体も含む。
図2Aに示すように、メモリ227は、センサデータ293、GPSデータ295、3Dオーバーレイデータ297、追跡データ298、画像認識データ299、ディレクトリデータ131、地図データ191、および気象データ171、のうち1つまたは複数を記憶する。メモリ227の、ディレクトリデータ131、地図データ191、気象データ171、および音声コマンドデータ296の各要素については図1に関連して前述したので、ここではこれらについての説明を繰り返さない。またメモリ227はソーシャル・ネットワーク・アプリケーション111から受け取られたデータを記憶することもできる。
センサデータ293は、センサ群233に含まれるセンサのうちの1つ以上によって記録された1つ以上の測定値、または外部カメラ104によって取り込まれた画像を表すデータを含むことができる。例えば、センサデータ293は、外部カメラ104によって取り込まれた1つ以上の画像を記述するデータを含む。
GPSデータ295は、無線接続を介して車両103に通信可能に結合されているGPS衛星から受信された車両103のGPS座標を含む。いくつかの実装形態において、コンピュータシステム200は、GPS衛星からGPSデータ295を受信するGPSユニットを含む。GPSユニットは、車両103の位置を車線レベルの精度まで記述するGPSデータ295を提供するためにGPS衛星と通信するように動作するDSRC準拠のGPSユニットを含む。
3Dオーバーレイデータ297は、1つまたは複数の3Dオーバーレイを表すグラフィックデータを含むことができる。3Dオーバーレイデータ297は、3D−HUD231に3Dオーバーレイを表示させるように動作する。例えば、3Dオーバーレイデータ297は3D−HUD231によって受信され、3D−HUD231は、3Dオーバーレイデータ297によって表される3Dオーバーレイを表示する。3Dオーバーレイデータ297によって表される3Dオーバーレイは動画化することができる。3Dオーバーレイの例が図3から図6に示されている。
音声コマンドデータ296は、運転者125が利用できる音声コマンドのうちの1つまたは複数を表す。音声コマンドは、音声コマンドシステム247によって提供される機能と関連付けられた音声コマンドを含む。音声コマンドデータ296は、音声コマンドシステム247によって提供される任意の音声コマンドを記述することができる。
3Dオーバーレイデータ297は、3Dオーバーレイが3D−HUD231のどこに表示されるべきか記述する情報を含むことができる。例えば、3Dオーバーレイデータ297は、3Dオーバーレイがどこに表示されるべきか記述するデカルト座標(X,Y,Z)を含むことができる。デカルト座標は、表示モジュール210によって、目的地の位置と、3D−HUD231を通して見たときに運転者125には目的地がどこに見えるかに基づいて、運転者125が、運転者125から見て、3Dオーバーレイが3D−HUD231において目的地の位置に近接していると知覚することになる向きで3Dオーバーレイが表示されるように決定されうる。
いくつかの実装形態において、本明細書に記載する3D−HUD231は、3D−HUD231を通して見ることができ、オブジェクトと関連付けられたオーバーレイを有するオブジェクトに追従する(またはオブジェクトを追跡する)3D重畳表示技術を3D−HUD231と共に含むことができ、重畳表示技術は、3Dオーバーレイをある位置に位置決めし、車両103と、3Dオーバーレイと関連付けられたオブジェクトとの相対運動に
基づいてリアルタイムまたはほぼリアルタイムで3Dオーバーレイの位置をリフレッシュすることができる。いくつかの実装形態において、表示モジュール210は、3D−HUD231に、正確な視差および焦点を同時に計算することによって、運転者125が3D−HUD231において見たときにオブジェクトのところに正しく3Dオーバーレイを表示させるように構成されたコードおよびルーチンを含む。(例えば、センサ群233に含まれるLIDARセンサによって示される)車両103とオブジェクトとの間の距離は、3D−HUD231によって、3D−HUD231上に3Dオーバーレイを表示するのに用いられる。
追跡データ298は、表示モジュール210によって、3D−HUD231の画面において3Dオーバーレイと関連付けられたオブジェクトの位置を追跡し、3Dオーバーレイがオブジェクトの位置を追跡するように3Dオーバーレイの位置を修正するのに用いられる情報を含む。視覚コンテキストアプリケーション199は、オブジェクトの新しい位置を表す周期的アップデートを受け取ることができる。例えば、センサ群233は、オブジェクトの位置を絶えずモニタし、オブジェクトの位置を記述するセンサデータ293を提供するLIDARセンサまたは何らかの他の距離計を含む。
画像認識データ299は、本明細書に記載されるオブジェクトの画像認識を行うのに用いられるデータを含む。画像認識データ299は、図1について前述したオブジェクト事前情報セットを含む。例えば、オブジェクトは店舗の正面とすることができる。店舗正面は、外部カメラ104によって取り込まれた画像として示すことができる。画像認識データ299はオブジェクト事前情報セットを含むことができる。オブジェクト事前情報は、先に取り込まれた店舗正面の画像を含むことができる。解析モジュール206は、画像認識データ299によって記述される店舗正面の画像およびオブジェクト事前情報を含むセンサデータ293を用いて、オブジェクトを特定の店舗の店舗正面(または一般的な店舗の一般的な店舗正面)として特定することができる。
3D−HUD231については、図2Bに関連して以下でより詳細に説明する。3D−HUD231は信号線232を介してバス220に通信可能に結合することができる。
センサ群233については図1に関連して前述したので、ここではその説明を繰り返さない。センサ群233は、車両に搭載された1台以上の内部カメラまたは外部カメラ(例えば外部カメラ104)を含むことができる。いくつかの実装形態においては、カメラのうちの少なくとも1台は車両103の内部に搭載された、運転者125の視線をモニタし、運転者125が3D−HUD231のどの領域を見ているか判定するように構成されたデジタルカメラである。例えば、内部カメラは、第1の運転者の顔(特に、第1の運転者の目と3D−HUD231に対するその視線)を記録する。
センサ群233は、現在時刻または今日の曜日を記述する時間データを取得するように構成された電子クロックまたはカレンダを含むことができる。時間データはセンサデータ293に記憶される。
センサ群233は、信号線234を介してバス220に通信可能に結合されている。
通信ユニット245は、動作環境100の要素のうちの1つ以上との間でデータを送受信する。通信ユニット245は、ネットワーク105を介して、または直接通信結合を介して、動作環境100の様々な要素との間でデータを送受信することができる。通信ユニット245は信号線246を介してバス220に結合されている。いくつかの実装形態において、通信ユニット245は、ネットワーク105への、または別の通信路への直接物理接続のためのポートを含む。例えば、通信ユニット245は、USB、SD、CAT−
5、または動作環境100の1つもしくは複数の要素との有線通信のための類似したポートを含む。いくつかの実装形態において、通信ユニット245は、IEEE802.11、IEEE802.16、BLUETOOTH(登録商標)、DSRC、mmWAVE通信または別の適切な無線通信方法を含む1つまたは複数の無線通信方法を用いてネットワーク105(または動作環境100の何らかの他の要素)または他の通信路とデータを交換するための無線送受信機を含む。
いくつかの実装形態において、通信ユニット245は、ショート・メッセージ・サービス(SMS)、マルチメディア・メッセージング・サービス(MMS)、ハイパーテキスト転送プロトコル(HTTP)、直接データ接続、WAP、電子メール、または別の適切な種類の電子通信によるものを含む、セルラ通信ネットワーク上でデータを送受信するためのセルラ通信送受信機を含む。いくつかの実装形態において、通信ユニット245は、有線ポートおよび無線送受信機を含む。また通信ユニット245は、TCP/IP、HTTP、HTTPS、およびSMTPなどを含む標準ネットワークプロトコルを用いたファイルまたはメディアオブジェクトの配布のためのネットワーク105への他の従来型の接続も提供する。
音声コマンドシステム247は、運転者125の人間音声によって制御されうる音声コマンド機器を含む。音声コマンドシステム247は信号線248を介してバス220に通信可能に結合されている。
視覚コンテキストアプリケーション199は、通信モジュール202、データモジュール204、解析モジュール206、関連性モジュール208、表示モジュール210、およびコマンドモジュール212のうちの1つまたは複数を含む。
通信モジュール202は信号線222を介してバス220に通信可能に結合されている。データモジュール204は信号線224を介してバス220に通信可能に結合されている。解析モジュール206は信号線226を介してバス220に通信可能に結合されている。関連性モジュール208は信号線228を介してバス220に通信可能に結合されている。表示モジュール210は信号線229を介してバス220に通信可能に結合されている。コマンドモジュール212は信号線230を介してバス220に通信可能に結合されている。
通信モジュール202は、視覚コンテキストアプリケーション199とコンピュータシステム200の他の構成要素との間の通信を処理するためのルーチンを含むソフトウェアである。いくつかの実装形態において、通信モジュール202は、視覚コンテキストアプリケーション199とコンピュータシステム200の他の構成要素との間の通信を処理するための後述する機能を提供するようにプロセッサ225によって実行可能な命令セットとすることができる。
いくつかの実装形態において、通信モジュール202は、コンピュータシステム200のメモリ227に記憶することができ、プロセッサ225によってアクセス可能、実行可能とすることができる。
通信モジュール202はデータを受信し、そのデータを、通信ユニット245を介して、動作環境100のその他の構成要素へ転送する。例えば、通信モジュール202は、通信ユニット245を介して、ディレクトリデータ131、地図データ191、気象データ171、GPSデータ295、およびソーシャル・ネットワーク・アプリケーション111からのデータのうちの1つまたは複数を受信する。
通信モジュール202はデータを受信し、そのデータをコンピュータシステム200のその他の構成要素へ転送する。例えば、通信モジュール202は3Dオーバーレイデータ297を3D−HUD231へ送信する。
通信モジュール202は車両103の要素と通信することができる。
データモジュール204は、プロセッサ225に、以下の動作のうちの1つまたは複数を行わせるためのルーチンを含むソフトウェアである。
センサ群233を操作してセンサ群233にセンサデータ293を取り込ませる動作
外部カメラ104を操作して外部カメラ104に車両環境198の画像を取り込ませ、それらの画像をセンサデータ293として記憶し、車両103のGPSユニットにGPS衛星からのGPSデータ295を要求させ、ディレクトリサーバ130からのディレクトリデータ131を要求する動作
地図サーバ190からの地図データ191を要求する動作
気象サーバ170からの気象データ171を要求する動作
ソーシャル・ネットワーク・アプリケーション111からのソーシャル・ネットワーク・データまたはソーシャルネットワーク更新を要求する動作、および
図1について前述したように地図データ191とディレクトリデータ131とを相互参照して、車両環境198に存在する目的地、これらの目的地の実際の所在地、およびこれらの目的地が運転者125から見て3D−HUD231の画面のどこに位置するかを決定する動作
いくつかの実装形態において、データモジュール204は、コンピュータシステム200のメモリ227に記憶することができ、プロセッサ225によってアクセス可能、実行可能とすることができる。
解析モジュール206は、プロセッサ225に、以下の動作のうちの1つまたは複数を行わせるためのルーチンを含むソフトウェアである。
画像内に存在するオブジェクトを特定するために画像を解析する動作(オブジェクトは、目的地(例えば図3および図5参照)、駐車スペース(例えば図4参照)、駐車案内板(例えば図4参照)、追従されている別の車両(例えば図6参照)、および車両環境198内の任意の他のオブジェクトとすることができる)
オブジェクトの識別情報(例えば、店舗の名称や店舗の営業情報)を決定するために車両環境198についてのディレクトリデータ131を解析する動作、ならびに
現在時刻または今日の曜日を決定するために時間データを解析する動作
いくつかの実装形態において、車両103は別の車両に追従しており、解析モジュール206は、車道上の、3D−HUD231を通して運転者125が見ることのできる多くの車両の中で、車道上のどの車両が追従されている車両であるか決定するために、車両環境198の画像を解析する。例えば図6を参照されたい。解析モジュール206は、運転者125が車道上の車両を追跡することができるように、追従されている車両の位置を追跡し続けることができる。
いくつかの実装形態において、解析モジュール206は、コンピュータシステム200のメモリ227に記憶することができ、プロセッサ225によってアクセス可能、実行可能とすることができる。
関連性モジュール208は、プロセッサ225に、画像に含まれる特定されたオブジェクトごとに、以下のうちの1つまたは複数が与えられた場合に、オブジェクトが運転者125とどのように関連性を有するか判定させるためのルーチンを含むソフトウェアである

現在時刻
今日の日付
車両103の地理的位置、および
他の条件(気象データ171によって記述される気象条件、ソーシャル・ネットワーク・アプリケーション111から受信されたソーシャル・メディア・データによって記述されるソーシャルメディア条件など)
例えば、オブジェクトが、閉まっている店舗である場合、関連性モジュール208は、オブジェクトは運転者125と関連性を有しないと判定する。
別の例では、オブジェクトが公園や遊園地であるが、気象データ171は気象条件が悪いことを示す場合(または、それ以外に公園といった屋外施設を訪れることと相反する場合)には、関連性モジュール208は、オブジェクトは運転者125と関連性を有しないと判定する。
別の例では、オブジェクトが駐車スペースであるが、時刻またはレッカー移動対象区域の存在が理由で運転者125が駐車スペースに車両103を駐車させることが現在は違法である場合には、関連性モジュール208は、オブジェクトは運転者125と関連性を有しないと決定することができる(例えば、図4を参照すると、2つの駐車スペースがあるが、一方はレッカー移動対象区域であり他方はそうではなく、そのため、他方は関連性モジュール208によって運転者125と関連性を有すると判定される)。
関連性モジュール208は、プロセッサ225に、オブジェクトの識別情報が与えられた場合に、音声コマンドデータ296によって記述される利用できる音声コマンドのうちのどれが、オブジェクトおよび運転者125と関連性を有するか判定させるためのルーチンを含むソフトウェアである。このプロセスを、「音声コマンドの選択」という。
例えば、オブジェクトが店舗である場合には、関連性モジュール208は、ラジオの音量を上げる音声コマンドは、オブジェクトとも運転者125とも関連性を有しないと判定することができる。しかし、関連性モジュール208は、店舗に電話をかける音声コマンドは関連性を有すると判定することができる。関連性モジュール208は、別の関連性を有する音声コマンドは、店舗に関する情報を要求するものであろうと判定することができる。店舗に関する情報は、ディレクトリデータ131に含まれる営業情報によって記述される。
いくつかの実装形態において、関連性モジュール208は、解析モジュール206によって3D−HUD231を介して見ることができると特定されたオブジェクトの各々について、この動作を繰り返す。
いくつかの実装形態において、関連性モジュール208は、コンピュータシステム200のメモリ227に記憶することができ、プロセッサ225によってアクセス可能、実行可能とすることができる。
表示モジュール210は、3D−HUD231に、3Dオーバーレイデータ297に基づいて3Dオーバーレイを表示させるためのルーチンを含むソフトウェアである。表示モジュール210は、関連性モジュール208によって選択された音声コマンドに基づいて3Dオーバーレイデータ297を生成する。例えば、関連性モジュール208によって選択された音声コマンドが、「情報を取得」というものであった場合、表示モジュール210は、3D−HUD231に図3に示す3Dオーバーレイ300、305、310のうち
の1つまたは複数を表示させるように構成された3Dオーバーレイデータ297を生成する。表示モジュール210は次いで3D−HUD231に3Dオーバーレイを表示させる。運転者125が次いで「情報を取得」、または何らかの類似した音声コマンド(例えば、「店の情報を見せて」等)を言った場合には、表示モジュール210は、店舗の営業情報の一部または全部を記述する店舗の営業情報に基づいて3Dオーバーレイデータ297を生成する。表示モジュール210は次いで、3D−HUD231に、店舗の営業情報(例えば、店舗の営業時間はいつか、店舗が次に開くのはいつか、店舗は現在開いているか、店舗によって提供される品物またはサービス、店舗についてのレビュー、店舗の価格帯、店舗の内部の画像、店舗の電話番号、店舗は創業して何年になるかなど)を記述する3Dオーバーレイを表示させる。
オプションとして、3Dオーバーレイデータ297は動画化された3Dオーバーレイを表示するためのデータを含んでもよい。動画は運転者125の注意をそらさないように工夫して構成されうる。
いくつかの実装形態において、表示モジュール210は、プロセッサ225に、どの音声コマンドがオブジェクトに利用できるかが運転者125にわかるようにオブジェクトのセンサ座標を運転者の視点座標に変換することによって、オブジェクトに近接して3D−HUD231上に3Dオーバーレイを描画させるためのソフトウェアである。例えば、以下の図2Bの説明または上記の「3D重畳表示技術」の説明を参照されたい。
いくつかの実装形態において、表示モジュール210は、プロセッサ225に、3Dオーバーレイが運転者125の注意をそらし、または安全リスクをもたらすことになるかどうか事前に判定させ、それらが安全リスクをもたらすことになる場合には特定のグラフィックの描画を選択的に抑制するソフトウェアである。例えば、2つの3Dオーバーレイが描画されることになっており、1つのグラフィックは運転者の対面交通の視界を見えにくくし、他方のグラフィックはそうではない場合には、表示モジュール210はプロセッサ225に、運転者の交通の視界を見えにくくしない3Dオーバーレイのみを描画させる。
いくつかの実装形態において、表示モジュール210は、コンピュータシステム200のメモリ227に記憶することができ、プロセッサ225によってアクセス可能、実行可能とすることができる。
コマンドモジュール212は、プロセッサに音声コマンドを提供し、音声コマンドに基づいて処理を行うために運転者125の声を聴き取るためのルーチンを含むソフトウェアである。例えば、コマンドモジュール212は、音声コマンドシステム247に、音声コマンドに基づいて処理を行わせることができる。別の例では、コマンドモジュール212は、表示モジュール210に、音声コマンドに応答して3D−HUD231上に特定の3Dオーバーレイを描画させる。センサ群233は、音声コマンドを聴き取るためのマイクロフォンを含んでもよい。
いくつかの実装形態において、コマンドモジュール212は、コンピュータシステム200のメモリ227に記憶することができ、プロセッサ225によってアクセス可能、実行可能とすることができる。
次に図2Bを参照すると、いくつかの実装形態による3D−HUD231の例を示すブロック図が示されている。
いくつかの実装形態において、3D−HUD231は、プロジェクタ1001と、可動式スクリーン1002と、スクリーン駆動部1003と、光学系(レンズ1004、レン
ズ1006、反射板1005などを含む)とを含む。プロジェクタ1001は、ディジタル・ミラー・デバイス(DMD)プロジェクタ、液晶プロジェクタといった任意の種類のプロジェクタとすることができる。プロジェクタ1001は可動式スクリーン1002上に画像(グラフィック)1008を投影する。可動式スクリーン1002は透明板を含み、そのため、投影画像の光は可動式スクリーン1002を透過して、車両103の風防ガラス1007上に投影される。風防ガラス1007上に投影された画像は、あたかもそれが、風防ガラス上に投影されているオブジェクトではなく、実世界の三次元空間に存在する現実のオブジェクト(1011a、1011bで示す)であるかのように運転者1010によって知覚される。
いくつかの実装形態において、3D−HUD231は、スクリーン1002上の投影位置を調整することによって運転者1010に対する画像の方向(言い換えると、風防ガラス内の画像の位置)を制御することができる。スクリーン1002はスクリーン駆動部1003によって位置1003aから位置1003bまでの範囲を移動させることができる。スクリーン1002の位置を調整することにより、実世界における運転者1010からの投影画像の深度(距離)を変えることができる。一例では、スクリーン1002の可動範囲(位置1003aと位置1003bとの距離)は5mmであり、これは実世界における5mから無限遠までに対応する。3D−HUD231の使用は、運転者1010が実世界(三次元空間)に存在する投影画像を知覚することを可能にする。例えば、画像が(歩行者、車などといった)現実のオブジェクトと同じ三次元位置(または少なくともほぼ同じ深度)に投影されるときに、運転者は投影画像を見るために目の焦点を調整しなくてもよく、実世界を見ながら投影画像を容易に把握することができることになる。
図2Bに示す3D−HUD231は例として提供するものである。他の例も可能である。これらの例は、図2Bに示す3D−HUD231と概ね同様の複雑さを有するヘッドアップディスプレイを含むことができる。例えば、将来においては、可動式スクリーン1002といった可動部品を必要としないヘッドアップディスプレイになるであろうと予期される。例えば、移動しない静止画面が配置される可能性もある。配置されるヘッドアップディスプレイが二次元ヘッドアップディスプレイではない可能性もある。図2Aに関連して前述した視覚コンテキストアプリケーション199は、そうした構成要素と共に動作するように設計される。
(3Dオーバーレイの例)
図3から図6は、いくつかの実装形態による3D−HUD231において表示される例示的3Dオーバーレイのグラフィック表現である。
図3を参照すると、いくつかの実装形態による3D−HUD231において表示される3つの例示的3Dオーバーレイ300、305、310のグラフィック表現が示されている。
第1の3Dオーバーレイ300および第2の3Dオーバーレイ310は店舗と関連付けられている。いくつかの実装形態においては、運転者125が「情報を取得」と言うと、車両のスピーカが店舗の営業情報を案内する音声を提供する。オプションとして、運転者が「情報を取得」と言うと、3D−HUD231は、別の3Dオーバーレイとして3D−HUD231上に店舗のうちの1つまたは複数に関する営業情報を表示する。
いくつかの実装形態において、視覚コンテキストアプリケーション199は、どの営業情報セットを運転者125に提供すべきか(例えば、第1の3Dオーバーレイ300と関連付けられた店舗か、それとも第2の3Dオーバーレイ310と関連付けられた店舗か)決定するために、運転者125が3Dオーバーレイのうちのどれを見ているか判定するこ
とができる。
したがって、視覚コンテキストアプリケーション199は、運転者125がどの音声コマンドを利用できるか見つけるのを支援することができる。また視覚コンテキストアプリケーション199は、利用できる音声コマンドをフィルタリングし、運転者125または車両環境198と関連性を有する音声コマンドだけを提示することもできる。
第3の3Dオーバーレイ305は標識と関連付けられている。標識は、駐車案内板、交通管理標識、店舗の看板などとすることができる。いくつかの実装形態においては、運転者125が「情報を取得」と言うと、車両のスピーカは標識の内容を表すオーディオを提供する。任意選択で、運転者が「情報を取得」と言うと、3D−HUD231は、別の3Dオーバーレイとして3D−HUD231上に標識の内容を表示する。標識の内容は、外部カメラ104によって取り込まれ、または標識の内容を示すオブジェクト事前情報に基づいて決定される。したがって、視覚コンテキストアプリケーション199は運転者が新しい目的地を特定するのを支援することができる。
図4を参照すると、いくつかの実装形態による3D−HUD231において表示される例示的な第4の3Dオーバーレイ400のグラフィック表現が示されている。
第4の3Dオーバーレイ400は、現在時刻が与えられた場合に、運転者125にとって駐車が合法である第1の駐車スペースと関連付けられている。要素415は、(第2の駐車案内板410によってレッカー移動対象区域にあると示されているために)駐車が違法である第2の駐車スペースを示す。
第1の駐車スペースは第1の駐車案内板405も含む。視覚コンテキストアプリケーション199は以下の動作のうちの1つまたは複数を行うことができる。
外部カメラ104によって取り込まれた画像において第1の駐車スペースを特定する
外部カメラ104によって取り込まれた画像内の第1の駐車スペースと関連付けられた第1の駐車案内板405を特定する
1つまたは複数のオブジェクト事前情報に基づいて第1の駐車案内板405によって示される規則を決定する
現在時刻および第1の駐車案内板によって示される規則に基づいて、第1の駐車スペースに駐車することが合法であると判定する
第1の駐車スペースに駐車することは合法であるため、第1の駐車スペースは運転者125と関連性を有すると判定する
車両103の自動駐車システムを作動させて車両103を第1の駐車スペースに自動駐車させる音声コマンドを選択する
運転者125が車両103を第1の駐車スペースに自動駐車させる音声コマンドを提供しうることを示す3Dオーバーレイを選択する
3D−HUD231上に第4の3Dオーバーレイ400を描画する
外部カメラ104によって取り込まれた画像において第2の駐車スペース415を特定する
外部カメラ104によって取り込まれた画像内の第2の駐車スペース415と関連付けられた第2の駐車案内板410を特定する
1つまたは複数のオブジェクト事前情報に基づいて第2の駐車案内板410によって示される規則を決定する
第2の駐車案内板410によって示される規則に基づいて第2の駐車スペース415に駐車することは違法であると判定する
第2の駐車スペースに駐車することは違法であるため、第2の駐車スペースは運転者125と関連性を有しないと判定する
第2の駐車スペースは関連性を有さず、第2の駐車スペースのための関連性を有する音声コマンドがないため、第2の駐車スペースの3Dオーバーレイを描画しないことにと決定する
図5を参照すると、いくつかの実装形態による3D−HUD231において表示される例示的な第5の3Dオーバーレイ500のグラフィック表現が示されている。
ソーシャル・ネットワーク・アプリケーション111は流行(トレンド)の目的地を特定することができる。目的地は、運転者125の、または運転者一般の間での流行の対象とすることができる。視覚コンテキストアプリケーション199は、流行の目的地に通ずる道路を特定し、運転者125にこの流行を知らせる3D−HUD231上の3Dオーバーレイを描画することができる。第5の3Dオーバーレイ500は、流行の目的地に通ずる道路と関連付けられている。
いくつかの実装形態において、第5の3Dオーバーレイは、順類に情報だけであり、音声コマンドと関連付けられないものとすることができる。
いくつかの実装形態において、車両103は自動運転車両とすることができ、第5の3Dオーバーレイは、車両103を流行の目的地に通ずる道路へ向けさせる音声コマンドと関連付けることができる。
図6を参照すると、いくつかの実装形態による3D−HUD231において表示される例示的な第6の3Dオーバーレイ600のグラフィック表現が示されている。
視覚コンテキストアプリケーション199によって特定されるオブジェクトは必ずしも店舗とは限らない。例えば、オブジェクトは他の車両とすることができる。いくつかの実装形態において、音声コマンドデータ296は、3D−HUD231を介して見える車両に追従する音声コマンドを含むことができ、視覚コンテキストアプリケーション199は、どの車両に追従すべきかに関するオプションを与えることができる。運転者125が「車両Xに追従」と言うと、視覚コンテキストアプリケーション199は、運転者125が車両に追従するのを支援し、または、車両103が自動運転車両である場合には、自動運転車両103を第6の3Dオーバーレイ600と関連付けられた特定された車両に追従させる3Dオーバーレイを提供する。
例えば、2台の車両(車両Aおよび車両B)が同じ目的地へ向かって走行しているものと仮定する。車両Aの運転者は目的地に到達するために取るべき最適な経路を熟知している。車両Bの運転者は車両Bの3D−HUD231を、運転者が車両Aに追従するのを3D−HUD231が容易にするように構成することができる。例えば、車両Aは、車両Bの運転者が車両Aに容易に追従することができるように車両Bの3D−HUD231に異なるやり方で表示される。
(方法)
図7Aおよび図7Bは、いくつかの実装形態による、音声コマンドに対応した視覚コンテキストを提供するために、3D−HUDにおいて3Dオーバーレイを表示する例示的方法700のフローチャートである。いくつかの実装形態において、視覚コンテキストアプリケーション199は、プロセッサ225に、プロセッサ225によって実行された場合に方法700の1つまたは複数のステップを実行させるように構成されたコードおよびルーチンを含む。
車両環境は車両の周囲の領域を含むことができる。車両環境は、車両自体、他の車両、
1つまたは複数の店舗、1つまたは複数の公共駐車スペース、1つまたは複数の駐車場、1つまたは複数のレクリエーションエリア(公園、ビーチ、登山道)、1つまたは複数の緊急サービス(病院、警察署など)、1つまたは複数の関心地点(旅行目的地、ランドマーク、流行の場所、友人が所在する場所)などのうちの1つ以上を含むことができる。
車両は、車両環境内に存在するシーンの画像を取り込むために車両に搭載された外部カメラを含む。外部カメラは視覚コンテキストアプリケーションに通信可能に結合する。視覚コンテキストアプリケーションは外部カメラの動作を制御するように動作する。
いくつかの実装形態において、ステップ702で、視覚コンテキストアプリケーションは、カメラに、車両環境内のオブジェクトのうちの1つまたは複数の画像を取り込ませるようにカメラを操作することができる。画像は、現時点において3D−HUDを介して運転者が見ることのできる車両環境内のシーンを含むことができる。
車両は全地球測位システム(GPS)ユニットを含むことができる。視覚コンテキストアプリケーションはGPSユニットに通信可能に結合することができる。視覚コンテキストアプリケーションはGPSユニットの動作を制御するように動作することができる。GPSユニットはDSRC準拠のGPSユニットとすることができる。
いくつかの実装形態において、ステップ704で、視覚コンテキストアプリケーションは車両のGPS座標を決定することができる。
車両は通信ユニットを含む。通信ユニットはネットワークに通信可能に結合する。通信ユニットはネットワークを介して1つまたは複数のサービスからデータを検索し、またはそれ以外の方法で受け取ることができる。サービスには、ソーシャル・ネットワーク・サービス、ディレクトリサービス、地図サービスおよび気象サービスが含まれうる。ソーシャル・ネットワーク・サービスは、1つまたは複数のソーシャルネットワークを提供することができる。ディレクトリサービスは、1つまたは複数の目的地(例えば、店舗、レクリエーションエリア、関心地点、ランドマークなど)を表すデータを提供することができる。気象サービスは、現在の天気または天気予報を記述する情報を提供することができる。
いくつかの実装形態において、ステップ706で、視覚コンテキストアプリケーションは、GPS座標で示される地域の近くの1つまたは複数の店舗、公園、ビーチおよび関心地点のディレクトリデータを検索することができる。
いくつかの実装形態において、ステップ708で、視覚コンテキストアプリケーションは、画像に存在するオブジェクトを特定するために1つまたは複数の画像を解析する。視覚コンテキストは、オブジェクト事前情報を用いて、画像に含まれる目的地(例えば、候補の店舗、駐車スペースおよび他のオブジェクト)を特定する。ディレクトリデータは次いで、目的地の名称をさらに特定するのに用いられる。
いくつかの実装形態において、ステップ710で、視覚コンテキストアプリケーションは、GPS座標で示される地域の気象データを検索する。
いくつかの実装形態において、ステップ712で、視覚コンテキストアプリケーションは運転者のソーシャルデータを検索する。
いくつかの実装形態において、ステップ714で、視覚コンテキストアプリケーションは、現在時刻および曜日を記述する時間データを決定する。
次に図7Bを参照する。いくつかの実装形態においては、画像に含まれる特定されたオブジェクトごとに、ステップ716で、視覚コンテキストアプリケーションは、現在時刻、今日の日付、車両位置、および他の条件(気象条件、ソーシャルメディア条件など)のうちの1つまたは複数が与えられた場合に、オブジェクトが運転者とどのように関連性を有するか判定する。例えば、オブジェクトが閉まっている店舗である場合には、オブジェクトは関連性を有しない。オブジェクトが公園や遊園地であるが気象条件が悪い場合には、オブジェクトは関連性を有しない。オブジェクトが駐車スペースであるが、時刻が理由で、運転者が駐車スペースに駐車することが現在は違法である場合には、オブジェクトは関連性を有しない。
車両は音声コマンドシステムを含む。音声コマンドシステムは音声コマンドセットを含む。音声コマンドシステムは、音声コマンドの受け取りに基づいて1つまたは複数の車両機能を制御するように動作する。例えば、運転者が「駐車スペースに駐車」と言った場合には、音声コマンドシステムは、車両の自動駐車システムに目標の駐車スペースに駐車させるように動作する。
上記の例では、音声コマンドは音声コマンドのターゲットと関連性を有する(すなわち、音声コマンドのターゲットは駐車スペースである)ものであった。しかし、音声コマンドシステムはターゲットと関連性を有しない他の音声コマンドを含む。例えば、音声コマンドシステムは、駐車スペースを含むターゲットと関連性を有しない、「ラジオの音量を上げて」といった音声コマンドを含むことができる。
いくつかの実装形態において、ステップ718で、視覚コンテキストアプリケーションは、オブジェクト識別情報が与えられた場合に、利用できる音声コマンドのうちのどれが画像内の特定されたオブジェクトおよび運転者と関連性を有するか判定する(例えば、オブジェクトが店舗である場合には、ラジオの音量を上げる音声コマンドはオブジェクトと関連性を有しない。しかし、店舗に電話をかける音声コマンドは関連性を有する。別の関連性を有する音声コマンドは、例えば、店舗に関する情報を要求するものである)。このステップは、3D−HUDにおいて見ることができると特定されたオブジェクトの各々について繰り返される。
いくつかの実装形態において、ステップ720で、視覚コンテキストアプリケーションは、3D−HUDにおいてオブジェクトの近くに表示するためのグラフィックを決定する。グラフィックはオーバーレイを含む。オーバーレイは3Dオーバーレイとすることができる。グラフィックはいくつかの実装形態においては動画化することができる。
いくつかの実装形態において、ステップ722で、視覚コンテキストアプリケーションは、どの音声コマンドがオブジェクトに利用できるかが運転者にわかるようにオブジェクトのセンサ座標を運転者の視点座標に変換することによって、オブジェクトに近接して3D−HUD上にグラフィックを描画する。
いくつかの実装形態においては、閉まっている店舗について、ステップ724で、視覚コンテキストアプリケーションは、運転者に店舗の名称および店舗が閉まっていることを示す営業時間を知らせる3D−HUD上のグラフィックを描画する。
いくつかの実装形態において、ステップ726で、視覚コンテキストアプリケーションは、グラフィックがユーザの注意をそらし、または安全リスクをもたらすことになるかどうか事前に判定し、それらが安全リスクをもたらすことになる場合には特定のグラフィックの描画を選択的に抑制する。
例えば、2つのグラフィックが描画されることになっており、1つのグラフィックは運転者の対面交通の視界を見えにくくし、他方のグラフィックはそうではない場合には、運転者の交通の視界を見えにくくしないグラフィックを描画する。
いくつかの実装形態において、ステップ728で、視覚コンテキストアプリケーションは、音声コマンドを提供するために運転者の声を聴き取る。音声コマンドが与えられた場合、視覚コンテキストアプリケーションは音声コマンドに基づいて処理を行う。例えば、視覚コンテキストアプリケーションは、音声コマンドシステムに、音声コマンドを遂行する処理を行わせるように動作することができる。
以上の説明では、本発明を十分に理解できるように、多くの詳細について説明した。しかしながら、各実施形態はこれらの具体的な詳細無しでも良いことは当業者にとって明らかであろう。また、説明が不明瞭になることを避けるために、構造や装置をブロック図の形式で表すこともある。たとえば、一実施形態は、ユーザインタフェースおよび特定のハードウェアとともに説明される。しかし、ここでの説明は、データおよびコマンドを受信する任意のタイプの計算装置および任意の周辺機器について適用できる。
本明細書における「一実施形態」または「ある実施形態」等という用語は、その実施形態と関連づけて説明される特定の特徴・構造・性質が少なくとも本発明の一つの実施形態に含まれることを意味する。「一実施形態における」等という用語は本明細書内で複数用いられるが、これらは必ずしも同一の実施形態を示すものとは限らない。
以上の詳細な説明の一部は、非一時的(non-transitory)なコンピュータ可読記憶媒体に記憶されたデータビットに対する動作のアルゴリズムおよび記号的表現として提供される。これらのアルゴリズム的な説明および表現は、データ処理技術分野の当業者によって、他の当業者に対して自らの成果の本質を最も効果的に説明するために用いられるものである。なお、本明細書において(また一般に)アルゴリズムとは、所望の結果を得るための論理的な手順を意味する。処理のステップは、物理量を物理的に操作するものである。必ずしも必須ではないが、通常は、これらの量は記憶・伝送・結合・比較およびその他の処理が可能な電気的または磁気的信号の形式を取る。通例にしたがって、これらの信号をビット・値・要素・エレメント・シンボル・キャラクタ・項・数値などとして称することが簡便である。
なお、これらの用語および類似する用語はいずれも、適切な物理量と関連付いているものであり、これら物理量に対する簡易的なラベルに過ぎないということに留意する必要がある。以下の説明から明らかなように、特に断らない限りは、本明細書において「処理」「計算」「コンピュータ計算(処理)」「判断」「表示」等の用語を用いた説明は、コンピュータシステムや類似の電子的計算装置の動作および処理であって、コンピュータシステムのレジスタやメモリ内の物理的(電子的)量を、他のメモリやレジスタまたは同様の情報ストレージや通信装置、表示装置内の物理量として表される他のデータへ操作および変形する動作および処理を意味する。
本発明は、本明細書で説明される動作を実行する装置にも関する。この装置は要求される目的のために特別に製造されるものであっても良いし、汎用コンピュータを用いて構成しコンピュータ内に格納されるプログラムによって選択的に実行されたり再構成されたりするものであっても良い。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な、例えばフロッピー(登録商標)ディスク・光ディスク・CD−ROM・MOディスク・磁気ディスクなど任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒
体などの、非一時的なコンピュータ可読記憶媒体に記憶される。
発明の具体的な実施形態は、完全にハードウェアによって実現されるものでも良いし、完全にソフトウェアによって実現されるものでも良いし、ハードウェアとソフトウェアの両方によって実現されるものでも良い。好ましい実施形態は、ソフトウェアによって実現される。ここでソフトウェアとは、ファームウェア、常駐ソフトウェア、マイクロコードやその他のソフトウェアを含むものである。
さらに、ある実施形態は、コンピュータが利用あるいは読み込み可能な記憶媒体からアクセス可能なコンピュータプログラムプロダクトの形態を取る。この記憶媒体は、コンピュータや任意の命令実行システムによってあるいはそれらと共に利用されるプログラムコードを提供する。コンピュータが利用あるいは読み込み可能な記憶媒体とは、命令実行システムや装置によってあるいはそれらと共に利用されるプログラムを、保持、格納、通信、伝搬および転送可能な任意の装置を指す。
プログラムコードを格納・実行するために適したデータ処理システムは、システムバスを介して記憶素子に直接または間接的に接続された少なくとも1つのプロセッサを有する。記憶素子は、プログラムコードの実際の実行に際して使われるローカルメモリや、大容量記憶装置や、実行中に大容量記憶装置からデータを取得する回数を減らすためにいくつかのプログラムコードを一時的に記憶するキャッシュメモリなどを含む。
入力/出力(I/O)装置は、例えばキーボード、ディスプレイ、ポインティング装置などであるが、これらはI/Oコントローラを介して直接あるいは間接的にシステムに接続される。
システムにはネットワークアダプタも接続されており、これにより、私的ネットワークや公共ネットワークを介して他のデータ処理システムやリモートにあるプリンタや記憶装置に接続される。モデム、ケーブルモデム、イーサネット(登録商標)は、現在利用可能なネットワークアダプタのほんの一例である。
最後に、本明細書において提示されるアルゴリズムおよび表示は特定のコンピュータや他の装置と本来的に関連するものではない。本明細書における説明にしたがったプログラムを有する種々の汎用システムを用いることができるし、また要求された処理ステップを実行するための特定用途の装置を製作することが適した場合もある。これら種々のシステムに要求される構成は、以下の説明において明らかにされる。さらに、本発明は、特定のプログラミング言語と関連づけられるものではない。本明細書で説明される本発明の内容を実装するために種々のプログラミング言語を利用できることは明らかであろう。
実施形態の前述の説明は、例示と説明を目的として行われたものである。したがって、開示された実施形態が本発明の全てではないし、本発明を上記の実施形態に限定するものでもない。本発明は、上記の開示にしたがって、種々の変形が可能である。本発明の範囲は上述の実施形態に限定解釈されるべきではなく、特許請求の範囲にしたがって解釈されるべきである。本発明の技術に詳しい者であれば、本発明はその思想や本質的特徴から離れることなくその他の種々の形態で実現できることを理解できるであろう。同様に、モジュール・処理・特徴・属性・方法およびその他の本発明の態様に関する名前付けや分割方法は必須なものでものないし重要でもない。また、本発明やその特徴を実装する機構は異なる名前や分割方法や構成を備えていても構わない。さらに、当業者であれば、モジュール・処理・特徴・属性・方法およびその他の本発明の態様は、ソフトウェア、ハードウェア、ファームウェアもしくはこれらの組合せとして実装できることを理解できるであろう。また、本発明をソフトウェアとして実装する場合には、モジュールなどの各要素は、ど
のような様式で実装されても良い。例えば、スタンドアローンのプログラム、大きなプログラムの一部、異なる複数のプログラム、静的あるいは動的なリンクライブラリー、カーネルローダブルモジュール、デバイスドライバー、その他コンピュータプログラミングの当業者にとって既知な方式として実装することができる。さらに、本発明の実装は特定のプログラミング言語に限定されるものではないし、特定のオペレーティングシステムや環境に限定されるものでもない。以上のように、上記の本発明の説明は限定的なものではなく例示的なものであり、本発明の範囲は添付の特許請求の範囲にしたがって定められる。
100 動作環境
101 ソーシャル・ネットワーク・サーバ
103 車両
104 外部カメラ
111 ソーシャル・ネットワーク・アプリケーション
125 運転者
130 ディレクトリサーバ
131 ディレクトリデータ
170 気象サーバ
171 気象データ
190 地図サーバ
191 地図データ
198 車両環境
199 視覚コンテキストアプリケーション

Claims (12)

  1. 音声入力システムと通信可能なコンピュータによって実行される方法であって、
    車両の運転者がヘッドアップディスプレイ(HUD)を通して視認できる環境内にある対象物の画像を取り込む取得ステップと、
    前記対象物を識別する識別ステップと、
    前記識別の結果に基づいて、前記音声入力システム向けの音声コマンドであって、前記対象物に関連する音声コマンドを選択する選択ステップと、
    前記選択された音声コマンドに基づいて、前記対象物に関連する3Dオーバーレイを生成する生成ステップと、
    前記HUDにおいて、前記運転者が視認する前記対象物の近傍に、前記3Dオーバーレイを描画する描画ステップと、
    を含む方法。
  2. 前記選択ステップでは、前記対象物の現在の状態に起因して、入力が無益となりうる音声コマンドがある場合に、当該音声コマンドを選択から除外する、
    請求項1に記載の方法。
  3. 前記対象物に関する詳細情報を取得する情報取得ステップをさらに含む、
    請求項2に記載の方法。
  4. 現在時刻を取得する時刻取得ステップをさらに含み、
    前記対象物は施設であり、
    前記詳細情報は前記施設の営業時間を含む、
    請求項3に記載の方法。
  5. 前記詳細情報および現在時刻に基づいて、前記施設が営業しているか否かを判定するステップをさらに含む、
    請求項4に記載の方法。
  6. 前記音声コマンドは、前記施設への架電を要求するコマンドであり、
    前記3Dオーバーレイは、前記運転者が前記施設に架電可能であることを示す、
    請求項5に記載の方法。
  7. 前記音声コマンドは、前記対象物に関する情報を要求するコマンドであり、
    前記3Dオーバーレイは、前記運転者が前記対象物に関する情報を要求可能であることを示す、
    請求項3から6のいずれかに記載の方法。
  8. 現在位置の天気を表す気象データを取得するステップをさらに含む、
    請求項1から7のいずれかに記載の方法。
  9. 前記対象物は屋外施設であり、
    前記気象データに基づいて、前記屋外施設の状況を判定する、
    請求項8に記載の方法。
  10. 前記対象物は駐車スペースであり、
    前記音声コマンドは、車両に対して自動運転による入庫を要求するコマンドであり、
    前記3Dオーバーレイは、前記駐車スペースにおいて自動運転による入庫が要求可能であることを示す、
    請求項1に記載の方法。
  11. 音声入力システムと通信可能なコンピュータによって実行される方法であって、
    車両の運転者がヘッドアップディスプレイ(HUD)を通して視認できる環境内にある駐車スペースの画像を取り込む取得ステップと、
    前記駐車スペースに設置された標識を識別する識別ステップと、
    前記識別の結果に基づいて、前記駐車スペースの駐車規則を判定する第一の判定ステップと、
    前記駐車規則に基づいて、前記駐車スペースに駐車が可能であるか否かを判定する第二の判定ステップと、
    前記駐車スペースに駐車可能である旨を示す3Dオーバーレイを生成する生成ステップと、
    前記HUDにおいて、前記運転者が視認する前記駐車スペースの近傍に、前記3Dオーバーレイを描画する描画ステップと、
    を含む方法。
  12. 現在時刻を取得するステップをさらに含み、
    前記駐車規則は、時刻によって駐車の可否が変わるものであり、
    前記第二の判定ステップでは、前記現在時刻を用いて判定を行う、
    請求項11に記載の方法。
JP2017057601A 2016-03-24 2017-03-23 音声コマンドに対応した視覚コンテキストを表示する三次元ヘッドアップディスプレイ装置 Active JP6418266B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/080,394 US10140770B2 (en) 2016-03-24 2016-03-24 Three dimensional heads-up display unit including visual context for voice commands
US15/080,394 2016-03-24

Publications (2)

Publication Number Publication Date
JP2017175621A true JP2017175621A (ja) 2017-09-28
JP6418266B2 JP6418266B2 (ja) 2018-11-07

Family

ID=59898814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017057601A Active JP6418266B2 (ja) 2016-03-24 2017-03-23 音声コマンドに対応した視覚コンテキストを表示する三次元ヘッドアップディスプレイ装置

Country Status (2)

Country Link
US (1) US10140770B2 (ja)
JP (1) JP6418266B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101974871B1 (ko) * 2017-12-08 2019-05-03 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2019177113A1 (ja) * 2018-03-15 2019-09-19 コニカミノルタ株式会社 虚像表示光学系及び表示装置
WO2019244239A1 (ja) * 2018-06-19 2019-12-26 日産自動車株式会社 走行情報処理装置及び処理方法
JP2021523595A (ja) * 2018-05-04 2021-09-02 ハーマン インターナショナル インダストリーズ インコーポレイテッド ヘッドアップディスプレイ上での拡張現実エクスペリエンスの強化

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10395535B2 (en) * 2014-12-02 2019-08-27 Operr Technologies, Inc. Method and system for legal parking
KR101832466B1 (ko) * 2016-06-14 2018-04-13 엘지전자 주식회사 자동주차 보조장치 및 이를 포함하는 차량
KR102304701B1 (ko) * 2017-03-28 2021-09-24 삼성전자주식회사 사용자의 음성 입력에 대한 답변을 제공하는 방법 및 장치
US20190012552A1 (en) * 2017-07-06 2019-01-10 Yves Lambert Hidden driver monitoring
KR102014261B1 (ko) * 2017-12-12 2019-08-26 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
US11079593B2 (en) * 2018-11-26 2021-08-03 International Business Machines Corporation Heads up display system
US11741704B2 (en) * 2019-08-30 2023-08-29 Qualcomm Incorporated Techniques for augmented reality assistance
US11262206B2 (en) 2020-04-10 2022-03-01 GM Cruise Holdings, LLC Landmark based routing
US11713060B2 (en) * 2020-09-18 2023-08-01 Guident Ltd. Systems and methods for remote monitoring of a vehicle, robot or drone
CN113138737B (zh) * 2021-04-16 2023-11-03 阿波罗智联(北京)科技有限公司 投屏场景的显示控制方法、装置、设备、介质及程序产品

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003329477A (ja) * 2002-05-15 2003-11-19 Pioneer Electronic Corp ナビゲーション装置及び対話型情報提供プログラム
JP2006154476A (ja) * 2004-11-30 2006-06-15 Mitsubishi Electric Corp 音声認識装置
JP2007269309A (ja) * 2006-03-06 2007-10-18 Omron Corp 駐車支援装置および方法、駐車位置設定装置および方法、記録媒体、並びに、プログラム
JP2012213132A (ja) * 2011-03-23 2012-11-01 Denso Corp 車両用装置および情報表示システム
WO2014196038A1 (ja) * 2013-06-05 2014-12-11 三菱電機株式会社 視線検知による情報処理装置および情報処理方法
WO2016002406A1 (ja) * 2014-07-04 2016-01-07 クラリオン株式会社 車載対話型システム、及び車載情報機器

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6526351B2 (en) * 2001-07-09 2003-02-25 Charles Lamont Whitham Interactive multimedia tour guide
EP1308694B1 (en) * 2001-11-01 2015-04-22 Nissan Motor Company Limited Navigation system, data server, travelling route establishing method and information providing method
US8521411B2 (en) 2004-06-03 2013-08-27 Making Virtual Solid, L.L.C. En-route navigation display method and apparatus using head-up display
US20060103590A1 (en) 2004-10-21 2006-05-18 Avner Divon Augmented display system and methods
CN101553709A (zh) * 2006-12-11 2009-10-07 三菱电机株式会社 导航装置
EP2000774A1 (en) * 2007-06-08 2008-12-10 Aisin AW Co., Ltd. Navigation apparatus and navigation program
WO2011122654A1 (ja) * 2010-03-30 2011-10-06 新日鉄ソリューションズ株式会社 情報処理装置、情報処理方法及びプログラム、情報処理装置、空きスペース案内システム、空きスペース案内方法及びプログラム、画像表示システム、画像表示方法及びプログラム
US20140132767A1 (en) * 2010-07-31 2014-05-15 Eric Sonnabend Parking Information Collection System and Method
US9443152B2 (en) * 2011-05-03 2016-09-13 Ionroad Technologies Ltd. Automatic image content analysis method and system
US9536361B2 (en) * 2012-03-14 2017-01-03 Autoconnect Holdings Llc Universal vehicle notification system
US9317895B1 (en) * 2012-08-09 2016-04-19 Xilinx, Inc. Non-linear image mapping
DE102013003059A1 (de) 2013-02-22 2014-08-28 Audi Ag Verfahren und Bedienungssystem zur blickrichtungsabhängigen Sprachsteuerung einer Funktionseinheit eines Kraftwagens
US20140362195A1 (en) * 2013-03-15 2014-12-11 Honda Motor, Co., Ltd. Enhanced 3-dimensional (3-d) navigation
US20140303839A1 (en) * 2013-04-03 2014-10-09 Ford Global Technologies, Llc Usage prediction for contextual interface
DE102013016244A1 (de) * 2013-10-01 2015-04-02 Daimler Ag Verfahren und Vorrichtung zur augmentierten Darstellung
JP6323074B2 (ja) * 2014-03-06 2018-05-16 株式会社デンソー 表示物情報表示装置
JP2015174051A (ja) 2014-03-17 2015-10-05 株式会社栗本鐵工所 ジョークラッシャ用歯板
WO2015186445A1 (ja) * 2014-06-03 2015-12-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR20160001178A (ko) * 2014-06-26 2016-01-06 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법
EP3072710B1 (en) * 2015-03-24 2018-03-28 LG Electronics Inc. Vehicle, mobile terminal and method for controlling the same
KR101942793B1 (ko) * 2015-07-03 2019-01-28 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003329477A (ja) * 2002-05-15 2003-11-19 Pioneer Electronic Corp ナビゲーション装置及び対話型情報提供プログラム
JP2006154476A (ja) * 2004-11-30 2006-06-15 Mitsubishi Electric Corp 音声認識装置
JP2007269309A (ja) * 2006-03-06 2007-10-18 Omron Corp 駐車支援装置および方法、駐車位置設定装置および方法、記録媒体、並びに、プログラム
JP2012213132A (ja) * 2011-03-23 2012-11-01 Denso Corp 車両用装置および情報表示システム
WO2014196038A1 (ja) * 2013-06-05 2014-12-11 三菱電機株式会社 視線検知による情報処理装置および情報処理方法
WO2016002406A1 (ja) * 2014-07-04 2016-01-07 クラリオン株式会社 車載対話型システム、及び車載情報機器

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101974871B1 (ko) * 2017-12-08 2019-05-03 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
US10809738B2 (en) 2017-12-08 2020-10-20 Lg Electronics Inc. Vehicle control device mounted on vehicle and method for controlling the vehicle
WO2019177113A1 (ja) * 2018-03-15 2019-09-19 コニカミノルタ株式会社 虚像表示光学系及び表示装置
JP2021523595A (ja) * 2018-05-04 2021-09-02 ハーマン インターナショナル インダストリーズ インコーポレイテッド ヘッドアップディスプレイ上での拡張現実エクスペリエンスの強化
JP7370340B2 (ja) 2018-05-04 2023-10-27 ハーマン インターナショナル インダストリーズ インコーポレイテッド ヘッドアップディスプレイ上での拡張現実エクスペリエンスの強化
WO2019244239A1 (ja) * 2018-06-19 2019-12-26 日産自動車株式会社 走行情報処理装置及び処理方法
CN112313137A (zh) * 2018-06-19 2021-02-02 日产自动车株式会社 行驶信息处理装置和处理方法
JPWO2019244239A1 (ja) * 2018-06-19 2021-06-17 日産自動車株式会社 走行情報処理装置及び処理方法
JP6992893B2 (ja) 2018-06-19 2022-01-18 日産自動車株式会社 走行情報処理装置及び処理方法
US11912295B2 (en) 2018-06-19 2024-02-27 Nissan Motor Co., Ltd. Travel information processing apparatus and processing method

Also Published As

Publication number Publication date
JP6418266B2 (ja) 2018-11-07
US20170278305A1 (en) 2017-09-28
US10140770B2 (en) 2018-11-27

Similar Documents

Publication Publication Date Title
JP6418266B2 (ja) 音声コマンドに対応した視覚コンテキストを表示する三次元ヘッドアップディスプレイ装置
US10410427B2 (en) Three dimensional graphical overlays for a three dimensional heads-up display unit of a vehicle
US9891058B2 (en) Method and apparatus for providing navigation guidance via proximate devices
US11113967B2 (en) Method for determining parking spaces and free-parking space assistance system
JP6205715B2 (ja) 路上駐車場の空き状況の推定
EP2990936A1 (en) Communication of spatial information based on driver attention assessment
CN106796755B (zh) 在抬头显示器上增强路面对象的安全系统
US11085778B2 (en) Method and apparatus for providing opportunistic intermodal routes with shared vehicles
EP2843368B1 (en) Method and system for computer-based navigation
US20090319178A1 (en) Overlay of information associated with points of interest of direction based data services
US20110238290A1 (en) Navigation system with image assisted navigation mechanism and method of operation thereof
US20160063332A1 (en) Communication of external sourced information to a driver
US11677930B2 (en) Method, apparatus, and system for aligning a vehicle-mounted device
US9747663B2 (en) Method and apparatus for providing mapping of geo locations on schematic maps
US20210389152A1 (en) Method, apparatus, and system for projecting augmented reality navigation cues on user-selected surfaces
US11181386B2 (en) Navigation device, destination guiding system, and non-transitory recording medium
US11187545B2 (en) Method and apparatus for generating a pooled route to extend a service area of a shared vehicle
EP2991358A2 (en) Communication of cloud-based content to a driver
US20130273893A1 (en) Method and system for presenting a transit indicator
US20230366695A1 (en) Systems and methods for vacant property identification and display
US20230368123A1 (en) Augmented reality display of location based contracting
US20240144608A1 (en) Context-sensitive overlay of content via augmented reality device
KR20180129033A (ko) 증강현실을 이용한 여행정보 서비스 제공 장치 및 방법
CN115454246A (zh) 虚拟导航方法、电子设备、计算机可读介质和程序产品
CN117251651A (zh) 信息呈现方法及电子设备

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180924

R151 Written notification of patent or utility model registration

Ref document number: 6418266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151