JP2013131222A - 自動車のディスプレイを用いた、拡張現実感を生成する方法及びシステム - Google Patents

自動車のディスプレイを用いた、拡張現実感を生成する方法及びシステム Download PDF

Info

Publication number
JP2013131222A
JP2013131222A JP2012278230A JP2012278230A JP2013131222A JP 2013131222 A JP2013131222 A JP 2013131222A JP 2012278230 A JP2012278230 A JP 2012278230A JP 2012278230 A JP2012278230 A JP 2012278230A JP 2013131222 A JP2013131222 A JP 2013131222A
Authority
JP
Japan
Prior art keywords
virtual
image data
image
procedure
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012278230A
Other languages
English (en)
Other versions
JP5531086B2 (ja
Inventor
Tobias Muench
ミュンヒ トビアス
Schmandalar Philip
シュマウデラー フィリップ
Bentz Christopher
ベンツ クリストフ
Kellner Andreas
ケルナー アンドレアス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harman Becker Automotive Systems GmbH
Original Assignee
Harman Becker Automotive Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harman Becker Automotive Systems GmbH filed Critical Harman Becker Automotive Systems GmbH
Publication of JP2013131222A publication Critical patent/JP2013131222A/ja
Application granted granted Critical
Publication of JP5531086B2 publication Critical patent/JP5531086B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/205Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform for detecting the geographical location of the game platform
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)

Abstract

【課題】自動車のディスプレイを用いた、拡張現実感を生成する方法及びシステムの提供。
【解決手段】自動車のディスプレイを用いて拡張現実感生成するための方法およびシステムであって、自動車の環境の画像を画像データの形式(11)で記録する手順と、3次元で決定する手順(31)と、実在のオブジェクト(24、25、26、27、28)の第1の座標範囲を判別する手順と、仮想要素(52、53、54)を3次元仮想空間(31)に追加する手順と、仮想要素(52、53、54)を制御する手順と、制御された仮想要素(52、53、54)を、出力する手順と、出力画像(61、62a、62b)を、修正する手順と、出力画像(61、62a、62b)を、出力する手順とを備えた方法。
【選択図】図2

Description

さまざまな実施形態が自動車のディスプレイを用いた、拡張現実感生成するための方法及びシステムに関連している。
EP 1 720 131 B1は、リアルマーカーオブジェクト(real marker object)識別を用いた、拡張現実感システムを示す。図4は、拡張現実感システム100の簡略図を示す概略図である。前記システム100は、実環境120から画像データを収集するためのビデオカメラ110を備える。前記実環境120は、家の部屋、特定の風景の一部、または任意のその他の対象のシーンなどの任意の適切なエリアを表す。図4では、前記実環境120は、複数の実在の物体121〜124で、例えば壁状の124および家具121、122、および123を備えた居間を表す。さらに、前記実環境120は、自動画像処理アルゴリズムによりすぐに識別されるような任意の適切な構成をさらに有するマーカーオブジェクト125、126と考えられる実在の物体を備える。例えば、前記マーカーオブジェクト125、126は用意に識別できる際立ったパターンをその上に形成し、ここで、前記マーカーオブジェクト125、126の前記形状が、複数の異なる表示角度からでもその識別ができるようにデザインされていて良い。前記マーカーオブジェクト125、126はまた、その上に個別の識別パターンを形成する実質的に2次元の構成を表す。
前記システム100はさらに、前記マーカーオブジェクト125、126を前記カメラ110により提供される画像データに基づいて識別するための手段130を備える。前記識別方法130は、画像データを、前記マーカーオブジェクト125、126を表す定義済みのテンプレートと比較するための良く知られているパターン認識アルゴリズムを備えていても良い。例えば、前記識別手段130は、その中に、前記カメラ110により取得された画像を、定義済みの照度しきい値に基づいて白黒画像に変換するためのアルゴリズムを実装しても良い。前記アルゴリズムは、さらに、前記画像を、四角等の定義済みのセグメントに分割し、あらかじめ訓練されたパターンテンプレートで各前記セグメントを検索し、前記テンプレートが前記マーカーオブジェクト125、126の際立った部分を表すよう構成されている。
最初に、前記ライブビデオ画像が、照度しきい値に基づいて白黒画像に変換される。この画像が次に、四角の領域を検索する。前記ソフトウェアはバイナリ画像のすべての四角を検索し、その多くは前記オブジェクト125、126のような追跡マーカーではない。各四角に対し、四角内の前記パターンが、訓練済みのパターンテンプレートの一部と一致するかが検索される。一致があった場合、前記ソフトウェアは前記オブジェクト125、126のような追跡マーカーのいずれかを発見する。前記ソフトウェアは次に、前記既知の四角のサイズおよびパターン方向を使用して、前記実ビデオカメラの、前記オブジェクト125、126のような前記物理マーカーに対する位置を計算する。次に、3×4マトリックスが前記識別されたマーカーに比較して前記ビデオカメラの実世界座標で満たされる。このマトリックスは次に、前記仮想カメラ座標の位置の設定に使用される。前記仮想および実カメラ座標は同じなため、描画された前記コンピュータグラフィックが前記指定された位置の前記実マーカーオブジェクトに正確に重ね合わされる。その後、描画エンジンが使用され、仮想カメラ座標を設定し前記仮想画像を描画する。
図4の前記システム100はさらに、オブジェクトデータジェネレータ150から取得したオブジェクトデータを有する前記カメラ110から受信した画像データを結合するための手段140を備える。前記結合手段140は、追跡システム、距離測定システムおよび描画システムを備える。一般に、前記組み合わせる手段140は、前記ジェネレータ150から、前記マーカーオブジェクト125、126に対応する追加の仮想オブジェクトを有する前記環境120の3次元画像を表す仮想画像データを作成するよう、対応して識別されたマーカーオブジェクトに対し前記ジェネレータ150から取得された画像データを組み込むよう構成される。本明細書では、前記結合手段140は、前記マーカーオブジェクト125、126の対応する一部を実環境120内で判別するために構成され、また、前記マーカーオブジェクト125、126間の前記環境120内の任意の静的オブジェクトに対しておよび前記カメラ110により定義された視点に対して相対的な動きを追跡する。
図4の前記システム100はさらに、前記仮想画像データを提供するよう構成された出力手段160を備える。これには、前記ジェネレータ150により生成された前記仮想オブジェクトを含み、好ましい実施形態では、前記出力手段160はまた、画像データに加え、音声データ、臭覚データ、触覚データ、その他などの別のタイプのデータを提供するよう構成される。運用時は、前記カメラ110は、前記環境120の画像データを作成し、前記画像データは、前記カメラ110が前記環境120に対する単なる移動により、あるいは、前記マーカーオブジェクト125、126、または1つまたは複数の前記オブジェクト121〜123といった前記環境内の移動可能なオブジェクトの提供により表される前記環境120の動的状態に対応する。前記環境120からの視点は、前記環境120内の前記カメラ110の周囲を移動することにより変化し、これにより、特に前記マーカーオブジェクト125、126を、異なる視点から前記ジェネレータ150により作成された仮想オブジェクトの評価を可能にするような異なる視点から観察することが可能となる。
継続的に更新される前記カメラ110により提供された前記画像データは、前記識別手段130により受信され、前記マーカーオブジェクト125、126を認識して識別されると前記マーカーオブジェクト125、126の追跡が可能になる。これは、パターン認識が、例えば、前記カメラ110または前記マーカーオブジェクト125、126の移動により視点が継続的に変化したことにより妨げられた場合でも可能である。前記画像データ内の前記マーカーオブジェクト125、126に関連付けられた定義済みのパターンを識別した後、前記識別手段130が、指定した画像データ領域内にマーカーオブジェクトがあることについて前記結合手段140に通知し、この情報に基づいて、前記手段140は次に、前記マーカーオブジェクト125、126が時間の経過につれ消滅しないものとして前記マーカーオブジェクト125、126の識別に使用された前記画像データにより表された前記対応するオブジェクトを継続的に追跡する。前記マーカーオブジェクト125、126の識別処理は、実質的に継続的に実行されるか、または、定期的に繰り返され、前記マーカーオブジェクト125、126の存在を確認して前記結合手段140の追跡精度を検証または強化する。前記環境の前記画像データおよび、前記識別手段130により提供された前記情報に基づき、前記結合手段140は、3次元画像データを作成し、前記オブジェクトジェネレータ150から受信した3次元画像データに重ねあわせる。ここで、前記3次元オブジェクトデータは、前記手段140の前記追跡操作に基づき永久的に更新される。
例えば、前記普段140は、前記識別手段130の前記情報に基づいて、前記カメラ110の前記マーカーオブジェクト125、126に対する位置を計算して、この座標情報を仮想カメラの座標の決定に使用し、これにより、前記マーカーオブジェクト125、126の前記画像データを使用して前記ジェネレータ150により送信された前記オブジェクトデータの正確な「オーバーレイ」を可能にすることができる。前記座標情報はまた、カメラ110に対して前記マーカーオブジェクト125、126の相対方向に関するデータも含み、これにより、前記結合手段140が前記仮想オブジェクトの前記方向を正確に適用させることが可能になる。最後に、結合された3次元仮想画像データは、前記出力手段160により任意の適切な形式で表示される。例えば、前記出力手段160は、前記マーカーオブジェクト125、126に関連付けられた仮想オブジェクトを含む前記環境120を視覚化するよう適切な表示手段を備えていても良い。前記システム100の運用時は、少なくとも1つのマーカーオブジェクト125、126に対する認識条件をあらかじめ設定しておき、実質的に信頼度の高いリアルタイム画像処理を可能にしておくと有利である。さらに、各マーカーオブジェクトと1つまたは複数の仮想オブジェクトとの間の前記相関関係は、前記システム100の運用前に確立しておくか、またはマーカーオブジェクトへの仮想オブジェクトの割り当てのインタラクティブな定義を可能にするよう設計されていても良い。例えば、ユーザーの要求に基づいて、前記マーカーオブジェクト125に最初に割り当てられた仮想オブジェクトが前記マーカーオブジェクト126に割り当てられたり、またその逆方向に割り当てられたりする。さらに、複数の仮想オブジェクトを単一のマーカーオブジェクトに割り当て、前記複数の仮想オブジェクトの対応する1つがユーザー、ソフトウェアアプリケーションにより選択される。
一態様に従い、自動車における拡張現実感ための改良を、独立請求項1の特徴を有する方法を通じて説明する。さまざまな改良が従属請求項により行われ、前記説明に含められる。
それに基づき、自動車における拡張現実感ための手段が提供される。
前記方法では、前記自動車の前記環境の画像は、画像データの形式で登録されていても良い。仮想空間は、前記画像データから決定されても良い。
前記方法では、実在のオブジェクトが前記画像データにおいて検出されても良い。前記実在のオブジェクトの第1の座標範囲は、前記仮想空間で判別されても良い。
前記方法では、第2の座標範囲を有する仮想要素が前記仮想空間に追加されても良い。前記仮想要素は、ユーザー入力に基づき制御されても良い。
前記方法では、前記環境および前記制御された仮想要素は、出力画像の結合された形式で出力されても良い。前記出力画像は、前記実在のオブジェクトの前記第1の座標範囲および前記制御された仮想要素の第2の座標範囲が交差領域を形成する場合に修正されても良い。前記出力画像は、前記自動車の表示手段により出力されても良い。
一実施形態により、ドライバーがインタラクティブに前記自動車の前記環境内のオブジェクトの表示を選択することが可能になるという前記利点が達成される。前記オブジェクトは、前記ドライバーを運転中に支援するために一時的に表示することができる。従って、前記ドライバーは、現在の交通状況に集中し、後で現在の環境状況と混合される例えば交通標識などの前記オブジェクトを再調査することができる。一実施形態の為に、自動車で移動している最中の前記現在の環境状況が人工のビデオゲーム世界と混合し、前記自動車の外の出来事がこのように前記現在のゲームの出来事に組み込まれ、前記ユーザーと前記環境からの実際のオブジェクトとの間の相互作用ができるという利点が達成される。
この場合の前記環境は、前記自動車の実環境で良く、これは例えば光学システムなどを使用して記録でき、前記光学システムは対応するデジタル画像データを出力できる。さらに、赤外線カメラまたはレーダーシステムも使用できる。前記画像データから決定された前記仮想空間は、少なくとも3つの次元を有する複数次元空間でも良い。
前記画像データで検出された実在のオブジェクトは、少なくとも一時的に自動車から見ることができる道路標識または自動車または同様のものでも良い。前記オブジェクトは、画像処理システムのアルゴリズムの手段により検出されても良い。前記3次元空間内での前記オブジェクトの動きは、追跡アルゴリズムにより追跡されても良い。前記実在のオブジェクトの前記第1の座標範囲は、道路標識の表面ジオメトリや前記仮想空間の前記表面ジオメトリの前記位置でも良い。前記道路標識は厚みがあっても良い。
前記仮想要素およびその第2の座標範囲を生成しても良く、前記仮想空間におけるその位置とその方向は、計算ユニットにより制御可能なことが好ましい。前記仮想要素は、ジョイスティックまたはタッチスクリーンなどの入力ユニットの手段により前記入力の機能として制御されても良い。前記出力画像への結合を目的とするため、前記制御された仮想要素は、前記画像データの前面または前記実環境の前面に表示されても良い。
別の観点では、拡張現実感システムの改良は、独立請求項7の機能を通じて説明する。さまざまな改良が説明に含まれる。
自動車の拡張現実感システムがその結果提供される。
前記拡張現実感システムは、自動車の前記環境の画像を画像データの形式で記録するよう構成されていても良い画像取得デバイスを有していても良い。
前記拡張現実感システムは、前記画像取得デバイスに接続可能な計算ユニットを有していても良い。前記拡張現実感システムは、前記計算ユニットに接続可能な制御ユニットを有していても良い。前記拡張現実感システムは、出力画像の表示を目的とした前記制御ユニットに接続可能なディスプレイを有していても良い。
前記計算ユニットは、前記画像データから仮想空間を決定するよう構成されていても良い。前記計算ユニットは、前記画像データにおいて実在のオブジェクトを検出するよう構成されていても良い。前記計算ユニットは、前記仮想空間における前記実在のオブジェクトの第1の座標範囲を決定するよう構成されていても良い。前記計算ユニットは、前記仮想空間に対する第2の座標範囲を有する仮想要素を追加するよう構成されていても良い。前記計算ユニットは、前記制御ユニットの手段によりユーザー入力に基づいて前記仮想空間における前記仮想要素の第2の座標範囲を制御するよう構成されていても良い。
前記計算ユニットは、前記環境および前記出力画像において前記制御された仮想要素を結合して前記実在のオブジェクトの前記第1の座標範囲と前記制御された仮想要素の前記第2の座標範囲が交差領域を形成する場合に前記出力画像を修正するよう構成しても良い。
一実施形態では、前記拡張現実感システムは、自動車のインフォテイメントシステム(infotament system)として実装され、前記インフォテイメントシステムが前記画像取得デバイスに、例えばケーブル経由で接続されていても良い。
前記画像取得システムは、画像データを記録するための光学システムであっても良い。前記画像取得デバイスは、例えばCMOSまたはCCDカメラなどの複数のカメラを有していても良い。前記カメラは、立体記録状態であっても良い。前記計算ユニットは、特にCPUまたはDSPのプロセッサであっても良い。
前記制御ユニットは入力回路を有していても良い。ジョイスティックまたはタッチスクリーンまたはゲームパットが前記入力回路に接続されていても良い。前記ディスプレイは、LCDディスプレイまたは特に窓ガラスに前記出力画像を投影するためのプロジェクターでも良い。
後述する実施形態は、前記方法および前記拡張現実感システムの両方に関する。
一実施形態によると、前記仮想要素は前記仮想空間の3次元において制御されても良い。前記仮想空間内で、仮想飛行機などの仮想飛行要素を制御することも可能である。また、前記仮想要素を使用してボールの投てきなどの弾道軌道を制御することも可能である。または、前記制御された仮想要素は、レーシングゲーム(racing game)などの仮想の乗り物でも良い。
一実施形態では、前記仮想空間は、前記環境の交通進路のジオメトリに基づいて3次元で決定しても良い。距離は、前記交通進路としての道路のジオメトリに基づいて確定しても良く、前記検出されたオブジェクトは、前記仮想空間内の確定した距離において位置されても良い。
一実施形態によると、前記出力画像は、仮想オブジェクトでもって、前記実在のオブジェクトのオブジェクト画像データを補完または置き換えることにより修正しても良い。前記仮想オブジェクトは、黒い点または同様の形式でヒットマーカーを表示しても良い。
前記出力画像は、前記実在のオブジェクトの前記オブジェクト画像データから仮想オブジェクトを生成し前記出力画像の前記仮想オブジェクトを出力することにより修正しても良い。前記仮想オブジェクトは、前記実在のオブジェクトと同様の見えるがで、前記仮想空間において軌道に沿って飛行させたり複数の部品に分割しても良い。
一実施形態では、前記仮想空間内のビューア位置は、前記画像データおよび前記仮想要素を前記ビューア位置に適応させることにより制御しても良い。前記ビューア位置は、前記ドライバーの視点または乗客の視点から制御されても良い。また、前記自動車の上に前記ビューア位置を置き、自動車そのものを前記出力画像に仮想オブジェクトとして追加することも可能である。
前述の実施形態は、特に、それだけでも組み合わせても利点を得られる。すべての実施形態は、互いに組み合わせて良い。いくつかの可能な組み合わせは、図の典型的な実施形態の説明において説明する。ただし、これらに示されたこれらの実施形態の組み合わせの可能性は、最終的なものではない。
本発明は、図に示した典型的な実施形態を基に、以降でさらに詳しく説明する。
本願発明は、例えば以下の項目を提供する。
(項目1)
自動車のディスプレイを用いて拡張現実感を生成するための方法であって、
上記自動車の上記環境の画像を画像データの形式(11)で記録する手順と、
仮想空間(31)を上記画像データ(11)から3次元で決定する手順と、
実在のオブジェクト(24、25、26、27、28)を上記画像データ(11)内で検出する手順と、
上記実在のオブジェクト(24、25、26、27、28)の第1の座標範囲を3次元仮想空間(31)で判別する手順と、
仮想要素(52、53、54)を上記3次元仮想空間(31)に追加する手順であって、上記仮想要素(52、53、54)が第2の座標範囲を有する、手順と、
上記仮想要素(52、53、54)を上記3次元仮想空間(31)において、ユーザー入力(51)に基づいて制御する手順と、
上記環境および上記制御された仮想要素(52、53、54)を、出力画像(61、62a、62b)に結合された形式で出力する手順と、
上記出力画像(61、62a、62b)を、上記実在のオブジェクト(24、25、26、27、28)の上記第1の座標範囲と上記制御された仮想要素(52、53、54)の第2の座標範囲が交差領域を形成する場合に修正する手順と、
上記出力画像(61、62a、62b)を、自動車の上記ディスプレイ(71、240)の手段により出力する手順と
を含む方法。
(項目2)
上記仮想要素(52、53、54)が、3次元仮想空間(31)において3次元で制御される、上記項目に記載の方法。
(項目3)
上記3次元仮想空間(31)は、交通経路のジオメトリ(32)に基づいて3次元において判別されている、上記項目のいずれか一項に記載の方法。
(項目4)
ここで、上記出力画像(61、62a、62b)は上記実在のオブジェクト(24、25、26、27、28)のオブジェクト画像データを仮想オブジェクト(56)で補完または置き換えることにより修正される、上記項目のいずれか一項に記載の方法。
(項目5)
上記出力画像(62a)は、上記実在のオブジェクト(28)の上記オブジェクト画像データから仮想オブジェクト(55)を生成して、上記出力画像(62b)の上記仮想オブジェクト(55)を出力する事により、変更される、上記項目のいずれか一項に記載の方法。
(項目6)
上記3次元仮想空間(31)内のビューア位置が上記画像データ(11)および上記制御された仮想要素(52、53、54)を上記ビューア位置に適応させることにより制御される、上記項目のいずれか一項に記載の方法。
(項目7)
自動車の拡張現実感システム(200)であって、
上記自動車の上記環境の画像を画像データ(11)の形式で記録するよう構成された画像取得デバイス(210)と、
上記画像取得デバイス(210)に接続されている計算ユニット(220)と、
上記計算ユニット(220)に接続されている制御ユニット(230)と、
出力画像(61、62a、62b)を表示する上記計算ユニット(220)に接続されているディスプレイ(71、240)とを含み、
上記計算ユニット(220)が、
3次元仮想空間(31)を上記画像データ(11)から決定する手順と、
実在のオブジェクト(24、25、26、27、28)を上記画像データ(11)内で検出する手順と、
上記実在のオブジェクト(24、25、26、27、28)の第1の座標範囲を3次元仮想空間(31)で判別する手順と、
第2の座標範囲を有する仮想要素(52、53、54)を上記3次元仮想空間(31)に追加する手順と、
3次元仮想空間(31)内の上記仮想要素(52、53、54)の上記第2の座標範囲を、ユーザー入力(51)に基づいて上記制御ユニット(230)により制御する手順と、
上記環境および上記制御された仮想要素(52、53、54)を、出力画像(61、62a、62b)に結合する手順と、
上記出力画像(61、62a、62b)を、上記実在のオブジェクト(24、25、26、27、28)の上記第1の座標範囲と上記制御された仮想要素(52、53、54)の第2の座標範囲が交差領域を形成する場合に修正する手順と
を行うように構成されている、
自動車の拡張現実感システム(200)。
(摘要)
自動車のディスプレイを用いて拡張現実感生成するための方法およびシステムで、
前記自動車の前記環境の画像を画像データの形式(11)で記録する手順と、
仮想空間(31)を前記画像データ(11)から3次元で決定する手順と、
実在のオブジェクト(24、25、26、27、28)を前記画像データ(11)内で検出する手順と、
前記実在のオブジェクト(24、25、26、27、28)の第1の座標範囲を3次元仮想空間(31)で判別する手順と、
仮想要素(52、53、54)を前記3次元仮想空間(31)に追加する手順で前記仮想要素(52、53、54)が第2の座標範囲を有する手順と、
前記仮想要素(52、53、54)を前記3次元仮想空間(31)内に、ユーザー入力(51)に基づいて制御する手順と、
前記環境および前記制御された仮想要素(52、53、54)を、出力画像(61、62a、62b)に結合された形式で出力する手順と、
前記出力画像(61、62a、62b)を、前記実在のオブジェクト(24、25、26、27、28)の前記第1の座標範囲と前記制御された仮想要素(52、53、54)の第2の座標範囲が交差領域を形成する場合に修正する手順と、
前記出力画像(61、62a、62b)を、自動車の前記ディスプレイ(71、240)の手段により出力する手順
とを備えた方法。
自動車における拡張現実感を生成するための方法の概略図である。 拡張現実感システムの概略図である。 出力画像の概略図である。 出力画像の概略図である。 従来技術に従った拡張現実感システムの概略図である。
図1は、自動車における拡張現実感生成ための方法の概略図である。前記方法は、ビデオゲームの実装の場合を例として後述する。例えば、後部座席の乗客のためにビデオゲームを提供するためなどのビデオゲームの技術要件は、前記自動車で確立しても良い。従来の、PCおよびコンソールで利用できる2Dおよび3Dゲームと比較した、現在のリアリティとの混合は、図1のフローチャートで行うことができる。前記自動車の前記環境は、前記現在のゲームイベントに統合しても良い。いわゆる一人称シューテターゲーム(shooter game)は、画像および音を、ヘッドアップ(headup)ディスプレイ71上などの完全に計算された3次元空間に表示しても良い。
図1のフローチャートでは、画像データ11は最初に前記自動車の前記環境から、第1の手順10における複数のカメラを用いて記録されても良い。複数の実在のオブジェクト24、25、26、27は、第2の手順20における認識アルゴリズムを用いて画像データ11内で認識されても良い。さらに、前記環境は、例えば交通経路のコース32などのジオメトリに基づいて検出されても良い。また、近接レーダーシステムなどのその他のセンサーなどに基づいて前記環境を決定することも可能である。また、前記自動車および道路データの前記現在の位置を基に前記環境を決定することも可能である。前記現在の位置は、例えば、GPS衛星信号を用いて決定しても良い。
第3の手順30では、3次元仮想空間31は、前記判別された環境および検出されたオブジェクト24、25、26、27から生成しても良い。3次元仮想空間31は、3次元仮想空間31を取得するための、例えば、画像データ処理などの助けで評価された測定データに基づいていても良い。
第4の手順40では、複数の仮想オブジェクト52、53を3次元空間31に追加して仮想リアリティ41を形成しても良い。少なくとも1つの仮想オブジェクト52、53は、仮想空間31内で制御される仮想要素52でも良い。図1の一実施形態では、前記制御された仮想要素52は、仮想空間31内の位置がユーザーにより制御可能な十字線として具体化されても良い。第5の手順50はユーザー入力50でも良い。図1の一実施形態では、前記ユーザーのインタラクションが、ジョイスティック51を介した入力に基づいて計算されても良い。代替または組み合わせて、例えばマウス、タッチスクリーンまたはジェスチャーを介した入力などのその他の入力が可能である。
第6の手順60では、前記リアリティの記録された画像データ11は、仮想リアリティ41と結合して出力画像61を形成しても良い。前記出力画像61は、前記記録された画像データ11を含むレンダリングにより形成しても良い。前記出力画像61では、記録された画像データ11と仮想リアリティ41との混合は、例えばプログラムまたはユーザーにより制御可能であっても良い。前記出力画像61内の前記自動車の周囲を単純化または変更することが可能である。例えば、家はそのまま配置しても、外観を、お化け屋敷のように変更することができる。
図1の一実施形態では、出力画像61は、表示ゴーグル(goggle)71の助けで出力できる。仮想リアリティを伴う前記リアリティ41の記録された画像データを結合するため、複数の仮想要素/オブジェクト52、53、56は、画像データ11の前面に表示し、部分的に画像データ11を覆うことができる。検出されたオブジェクト24、25、26、27の背後に、複数の仮想オブジェクト56の少なくとも一部を一時的に隠すことも可能である。隠された仮想オブジェクト56の表示は、例えば、位置の変更および/またはビューアの角度の表示の変更および/または隠された仮想オブジェクト56の動きおよび/または検出されたオブジェクト24、25、26、27の動きなどの後にのみ有効にしても良い。
検出されたオブジェクト24、25、26、27とのインタアクションを有効にするため、出力画像61は、実在のオブジェクト24、25、26、27の第1の座標範囲および制御された仮想要素52の第2の座標範囲が交差領域を形成した場合に修正しても良い。図1の一実施形態では、前記制御された仮想要素52は、仮想空間41内のユーザーにより配置可能な十字線52を有していても良い。前記制御された仮想要素52は、さらに、ユーザー入力50の機能として仮想空間41内の弾道軌道に投げられた仮想ボールを有していても良い。投てき位置および/または投てき方向および/または投てき力は制御可能である。仮想ボールが検出されたオブジェクト24に当たった場合、この当たったことを示しても良い。この当たったことは、仮想オブジェクト56を表示することにより示しても良い。
前記ユーザーは、出力画像61内で、特に、検出されたオブジェクト24、25、26、27と相互作用するため仮想リアリティ41を用いて行動が可能であっても良い。前記インタアクションは、仮想ボールを使用してある道路標識に与えることを目的とした前記ゲームの構想を基に説明することもできる。環境全体は、前記自動車の複数のカメラの助けで360度の角度で記録され、信号処理の手段により纏まりのある環境に結合される。この環境では、仮想空間31内で前記道路標識を検出し、その位置を判別しても良い。仮想リアリティ41を用いて、前記道路標識は任意の方法で光学的に修正または特別に強調表示しても良い。その結果は、表示ユニット71上で前記ユーザーに提供されるビデオデータストリームである。前記ユーザーは現在、入力デバイス51を介して十字線52を制御し、道路標識に狙いを定めるオプションを有している。入力デバイス51上のシューティング機能により前記仮想ボールが放たれ、前記道路標識の方へ飛び当たるかまたは外れる。つまり、仮想十字線52および前記仮想ボール(図1には示されない)は、画像データ11の上に重ね合わされ、その中に表示される。仮想リアリティ41の使用は、任意のゲーム状況、ゲーム構想、ディスプレイユニットおよび入力デバイスに拡張することができる。前記アプリケーションおよびハードウェアは、例えば、自動車の後部座席システムに統合しても良い。
図2は、自動車の拡張現実感システム200の一実施形態の概略表示である。前記拡張現実感システム200は、自動車の前記環境の画像を画像データ11の形式で記録するよう構成されていても良い画像取得デバイス210を有している。
前記拡張現実感システム200は、前記画像取得デバイス210に接続可能な計算ユニット220を有している。さらに、前記拡張現実感システム200は、計算ユニット220に接続されユーザー入力50を許可することができる制御ユニット230を有していても良い。図2の前記制御ユニット230は、ゲームパッド230またはタッチセンサー表面230またはカメラ230またはその他同様のものであって良い。
前記拡張現実感システム200は、出力画像61の表示を目的とした前記制御ユニット230に接続可能なディスプレイ240を有していても良い。図2の一実施形態では、ディスプレイ240が固定ディスプレイユニットなしでディスプレイ240を生成可能な方法で仮想リアリティ41の前記効果の増加を実現する。これは、
一種の3Dゴーグルを使用して可能である。このために、頭の回転をヘッドトラッカーを用いて検出でき、前記ビデオコンテンツを頭の方向に対応させることができる。これは、ユーザーには、自動車の窓の外を見て仮想リアリティ41がその時点の前記リアリティに直接統合されているかのように見える。音響は、両耳用の技術およびヘッドトラッカーの手段により調整して良い。
前記ディスプレイ240の一実施形態では、自動車の窓ガラス上に投影することにより実装される。出力画像61は、前記自動車の窓ガラス上に投影されても良く、ある角度からのみ見ることができても良い。前記ドライバーは、結果、運転を邪魔されずにすみ、後部座席の前記ユーザーは、車両の窓上に仮想リアリティ41を取得したままでいることができる。これにより仮想リアリティ41および前記環境との結合が、次に、ゲーム要素の重ね合わせとして生成され、画像データ11を除いた前記リアリティが混合のため使用される。この実施形態は、後部座席システムで使用しても良い。
前記ドライバーを支援するために使用される拡張現実感システムの機能の一実施形態を図3aおよび3bで示す。図3aは、道路標識28が画像データにおいて実在のオブジェクト28として表示可能な出力画像62aを示す。カーソル54は、前記ドライバーにより制御されることが可能な仮想要素54であって良い。図3aは、実在のオブジェクト28の第1の座標範囲および制御された仮想要素54の第2の座標範囲が形成する交差領域を示す。出力画像62bは、図3bに示すように、それに従って修正可能である。仮想オブジェクト55は、簡潔に保存された情報を前記ドライバーに提供するために、前面に一時的に表示できる。前記仮想オブジェクト55は、オブジェクト28に属する前記画像データの一部から生成しても良い。
本発明は、図1から図3bに示した実施形態に制限されない。例えば、人々またはその他の同様のその他のオブジェクトを前記自動車の前記環境内に検出することが可能である。前記仮想オブジェクトおよびユーザーが入力するインタアクションのタイプを、同様に前記要件にすぐに適応させることができる。図2に従った拡張現実感システム200の機能は、特に、前記自動車のインフォテイメントシステムで有利に使用することができる。
参照番号一覧
10、20、30、40、50、60、70 手順
11 画像データ
24、25、26、27、28 実在のオブジェクト
31 仮想空間
32 交通経路ジオメトリ
41 仮想リアリティ
52、53、54 制御された仮想オブジェクト
55、56 仮想オブジェクト
61、62a,62b 出力画像
71、240 ディスプレイ
200 拡張現実感システム
210 画像取得デバイス
220 計算ユニット
230、51 制御ユニット

Claims (7)

  1. 自動車のディスプレイを用いて拡張現実感を生成するための方法であって、
    前記自動車の前記環境の画像を画像データの形式(11)で記録する手順と、
    仮想空間(31)を前記画像データ(11)から3次元で決定する手順と、
    実在のオブジェクト(24、25、26、27、28)を前記画像データ(11)内で検出する手順と、
    前記実在のオブジェクト(24、25、26、27、28)の第1の座標範囲を3次元仮想空間(31)で判別する手順と、
    仮想要素(52、53、54)を前記3次元仮想空間(31)に追加する手順であって、前記仮想要素(52、53、54)が第2の座標範囲を有する、手順と、
    前記仮想要素(52、53、54)を前記3次元仮想空間(31)において、ユーザー入力(51)に基づいて制御する手順と、
    前記環境および前記制御された仮想要素(52、53、54)を、出力画像(61、62a、62b)に結合された形式で出力する手順と、
    前記出力画像(61、62a、62b)を、前記実在のオブジェクト(24、25、26、27、28)の前記第1の座標範囲と前記制御された仮想要素(52、53、54)の第2の座標範囲が交差領域を形成する場合に修正する手順と、
    前記出力画像(61、62a、62b)を、自動車の前記ディスプレイ(71、240)の手段により出力する手順と
    を含む方法。
  2. 前記仮想要素(52、53、54)が、3次元仮想空間(31)において3次元で制御される、請求項1に記載の方法。
  3. 前記3次元仮想空間(31)は、交通経路のジオメトリ(32)に基づいて3次元において判別されている、請求項1または2に記載の方法。
  4. ここで、前記出力画像(61、62a、62b)は前記実在のオブジェクト(24、25、26、27、28)のオブジェクト画像データを仮想オブジェクト(56)で補完または置き換えることにより修正される、請求項1〜3のいずれか一項に記載の方法。
  5. 前記出力画像(62a)は、前記実在のオブジェクト(28)の前記オブジェクト画像データから仮想オブジェクト(55)を生成して、前記出力画像(62b)の前記仮想オブジェクト(55)を出力する事により、変更される、請求項1〜4のいずれか一項に記載の方法。
  6. 前記3次元仮想空間(31)内のビューア位置が前記画像データ(11)および前記制御された仮想要素(52、53、54)を前記ビューア位置に適応させることにより制御される、請求項1〜5のいずれか一項に記載の方法。
  7. 自動車の拡張現実感システム(200)であって、
    前記自動車の前記環境の画像を画像データ(11)の形式で記録するよう構成された画像取得デバイス(210)と、
    前記画像取得デバイス(210)に接続されている計算ユニット(220)と、
    前記計算ユニット(220)に接続されている制御ユニット(230)と、
    出力画像(61、62a、62b)を表示する前記計算ユニット(220)に接続されているディスプレイ(71、240)とを含み、
    前記計算ユニット(220)が、
    3次元仮想空間(31)を前記画像データ(11)から決定する手順と、
    実在のオブジェクト(24、25、26、27、28)を前記画像データ(11)内で検出する手順と、
    前記実在のオブジェクト(24、25、26、27、28)の第1の座標範囲を3次元仮想空間(31)で判別する手順と、
    第2の座標範囲を有する仮想要素(52、53、54)を前記3次元仮想空間(31)に追加する手順と、
    3次元仮想空間(31)内の前記仮想要素(52、53、54)の前記第2の座標範囲を、ユーザー入力(51)に基づいて前記制御ユニット(230)により制御する手順と、
    前記環境および前記制御された仮想要素(52、53、54)を、出力画像(61、62a、62b)に結合する手順と、
    前記出力画像(61、62a、62b)を、前記実在のオブジェクト(24、25、26、27、28)の前記第1の座標範囲と前記制御された仮想要素(52、53、54)の第2の座標範囲が交差領域を形成する場合に修正する手順と
    を行うように構成されている、
    自動車の拡張現実感システム(200)。
JP2012278230A 2011-12-21 2012-12-20 自動車のディスプレイを用いた、拡張現実感を生成する方法及びシステム Active JP5531086B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP11010066.6A EP2608153A1 (en) 2011-12-21 2011-12-21 Method and system for playing an augmented reality game in a motor vehicle
EP11010066.6 2011-12-21

Publications (2)

Publication Number Publication Date
JP2013131222A true JP2013131222A (ja) 2013-07-04
JP5531086B2 JP5531086B2 (ja) 2014-06-25

Family

ID=45528871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012278230A Active JP5531086B2 (ja) 2011-12-21 2012-12-20 自動車のディスプレイを用いた、拡張現実感を生成する方法及びシステム

Country Status (5)

Country Link
US (1) US9517415B2 (ja)
EP (1) EP2608153A1 (ja)
JP (1) JP5531086B2 (ja)
KR (1) KR101480994B1 (ja)
CN (1) CN103177470B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020103782A (ja) * 2018-12-28 2020-07-09 トヨタ紡織株式会社 空間提供システム
WO2022190970A1 (ja) 2021-03-08 2022-09-15 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び、情報処理システム

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9600933B2 (en) * 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
EP2608153A1 (en) * 2011-12-21 2013-06-26 Harman Becker Automotive Systems GmbH Method and system for playing an augmented reality game in a motor vehicle
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9613459B2 (en) * 2013-12-19 2017-04-04 Honda Motor Co., Ltd. System and method for in-vehicle interaction
US9756319B2 (en) * 2014-02-27 2017-09-05 Harman International Industries, Incorporated Virtual see-through instrument cluster with live video
WO2015161307A1 (en) * 2014-04-18 2015-10-22 Magic Leap, Inc. Systems and methods for augmented and virtual reality
CN106536004B (zh) * 2014-04-30 2019-12-13 惠普发展公司,有限责任合伙企业 增强的游戏平台
JP5812550B1 (ja) * 2014-10-10 2015-11-17 ビーコア株式会社 画像表示装置、画像表示方法及びプログラム
US9725040B2 (en) * 2014-10-28 2017-08-08 Nissan North America, Inc. Vehicle object detection system
IL236243A (en) * 2014-12-14 2016-08-31 Elbit Systems Ltd Visual enhancement of color icons is shown
US20160210383A1 (en) * 2015-01-21 2016-07-21 Ford Global Technologies, Llc Virtual autonomous response testbed
US10725297B2 (en) 2015-01-28 2020-07-28 CCP hf. Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
US9852546B2 (en) 2015-01-28 2017-12-26 CCP hf. Method and system for receiving gesture input via virtual control objects
US10726625B2 (en) 2015-01-28 2020-07-28 CCP hf. Method and system for improving the transmission and processing of data regarding a multi-user virtual environment
DE102015207337B4 (de) 2015-04-22 2024-06-06 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Unterhaltung mindestens eines Insassen eines Kraftfahrzeugs
RU2597462C1 (ru) * 2015-07-17 2016-09-10 Виталий Витальевич Аверьянов Способ отображения объекта на пространственной модели
US10977865B2 (en) 2015-08-04 2021-04-13 Seyed-Nima Yasrebi Augmented reality in vehicle platforms
CN108028016B (zh) 2015-09-25 2022-05-17 苹果公司 增强现实显示系统
US10717406B2 (en) 2015-10-26 2020-07-21 Active Knowledge Ltd. Autonomous vehicle having an external shock-absorbing energy dissipation padding
US10710608B2 (en) 2015-10-26 2020-07-14 Active Knowledge Ltd. Provide specific warnings to vehicle occupants before intense movements
US11332061B2 (en) 2015-10-26 2022-05-17 Atnomity Ltd. Unmanned carrier for carrying urban manned vehicles
US9988008B2 (en) 2015-10-26 2018-06-05 Active Knowledge Ltd. Moveable internal shock-absorbing energy dissipation padding in an autonomous vehicle
US10059347B2 (en) 2015-10-26 2018-08-28 Active Knowledge Ltd. Warning a vehicle occupant before an intense movement
US10366290B2 (en) * 2016-05-11 2019-07-30 Baidu Usa Llc System and method for providing augmented virtual reality content in autonomous vehicles
US10692288B1 (en) * 2016-06-27 2020-06-23 Lucasfilm Entertainment Company Ltd. Compositing images for augmented reality
DE102016212687A1 (de) * 2016-07-12 2018-01-18 Audi Ag Verfahren zum Betreiben einer Anzeigeeinrichtung eines Kraftfahrzeugs
US10234937B2 (en) * 2016-10-07 2019-03-19 Panasonic Avionics Corporation Handset with virtual reality goggles
CN106658148B (zh) * 2017-01-16 2020-04-10 深圳创维-Rgb电子有限公司 Vr播放方法、vr播放装置及vr播放系统
JP6874448B2 (ja) * 2017-03-17 2021-05-19 株式会社デンソーウェーブ 情報表示システム
EP3392801A1 (en) * 2017-04-21 2018-10-24 Harman International Industries, Incorporated Systems and methods for driver assistance
CN107054660A (zh) * 2017-05-08 2017-08-18 佛山市神风航空科技有限公司 一种客机上的vr体验装置
US10560735B2 (en) 2017-05-31 2020-02-11 Lp-Research Inc. Media augmentation through automotive motion
JPWO2018230678A1 (ja) * 2017-06-16 2020-06-25 本田技研工業株式会社 車内演出装置、車内演出システム、車内演出方法、プログラムおよび指示計測装置
CN110741422A (zh) 2017-06-16 2020-01-31 本田技研工业株式会社 车辆及服务管理装置
US11794816B2 (en) 2017-06-16 2023-10-24 Honda Motor Co., Ltd. Automated driving vehicle
US10068620B1 (en) 2017-06-20 2018-09-04 Lp-Research Inc. Affective sound augmentation for automotive applications
CN109410338A (zh) * 2017-08-15 2019-03-01 中兴通讯股份有限公司 增强现实图像的生成方法、装置、增强现实眼镜及终端
CN111033574B (zh) * 2017-09-25 2024-05-10 利乐拉瓦尔集团及财务有限公司 为包装机生成虚拟覆盖物的方法
DE102017217923A1 (de) * 2017-10-09 2019-04-11 Audi Ag Verfahren zum Betrieb einer Anzeigeeinrichtung in einem Kraftfahrzeug
CN113786610B (zh) * 2018-02-11 2024-05-31 鲸彩在线科技(大连)有限公司 载具位置修正方法、装置、第二客户端、第二电子设备
DE102018203121B4 (de) * 2018-03-02 2023-06-22 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
US10755112B2 (en) * 2018-03-13 2020-08-25 Toyota Research Institute, Inc. Systems and methods for reducing data storage in machine learning
CN108543309B (zh) * 2018-04-03 2020-03-10 网易(杭州)网络有限公司 在增强现实中控制虚拟控制对象移动的方法、装置及终端
US10698206B2 (en) * 2018-05-31 2020-06-30 Renault Innovation Silicon Valley Three dimensional augmented reality involving a vehicle
US10469769B1 (en) 2018-07-30 2019-11-05 International Business Machines Corporation Augmented reality based driver assistance
US11823310B2 (en) * 2018-09-07 2023-11-21 Streem, Llc. Context-aware selective object replacement
EP3671533B1 (en) * 2018-12-19 2023-10-11 Audi Ag Vehicle with a camera-display-system and method for operating the vehicle
EP3706076B1 (en) * 2019-03-07 2021-02-24 Siemens Healthcare GmbH Method and device to determine the dimensions and distance of a number of objects in an environment
US11367192B2 (en) 2019-03-08 2022-06-21 Align Technology, Inc. Foreign object filtering for intraoral scanning
CN110641477B (zh) * 2019-09-19 2020-12-22 广州小鹏汽车科技有限公司 车辆内部环境的虚拟显示方法、装置和车辆
CN110852332B (zh) * 2019-10-29 2020-12-01 腾讯科技(深圳)有限公司 训练样本的生成方法、装置、存储介质及电子设备
KR102368427B1 (ko) * 2020-08-26 2022-03-02 도로교통공단 인공지능 알고리즘을 이용한 자율주행 동적운행 위험도 분석 및 평가 방법과, 이를 이용한 자율주행 평가시스템
CN112179331B (zh) * 2020-09-23 2023-01-31 北京市商汤科技开发有限公司 Ar导航的方法、装置、电子设备及存储介质
WO2022088103A1 (zh) * 2020-10-30 2022-05-05 华为技术有限公司 一种图像标定方法及装置
CN112633303A (zh) * 2020-12-18 2021-04-09 上海影创信息科技有限公司 限高画面变形检测方法和系统及车辆
US11734909B2 (en) 2021-05-04 2023-08-22 Ford Global Technologies, Llc Machine learning
DE102022120134A1 (de) 2022-08-10 2024-02-15 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zum Bereitstellen eines Computerspiels in einem Fahrzeug
CN115610348A (zh) * 2022-10-12 2023-01-17 蔚来汽车科技(安徽)有限公司 增强现实及虚拟现实设备、车载系统以及车辆

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250273A (ja) * 1998-03-03 1999-09-17 Mitsubishi Electric Corp 画像合成装置
JP2005127995A (ja) * 2003-09-30 2005-05-19 Mazda Motor Corp 経路誘導装置、経路誘導方法及び経路誘導プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1094337B1 (en) * 1999-10-21 2004-03-17 Matsushita Electric Industrial Co., Ltd. Parking assistance system
DE10341905A1 (de) * 2003-09-11 2005-05-12 Daimler Chrysler Ag Verfahren und Vorrichtung zur Ermittlung einer Position eines Kraftfahrzeugs auf einer Strasse
EP1521059A1 (en) 2003-09-30 2005-04-06 Mazda Motor Corporation Route guidance apparatus, method and program
US8585476B2 (en) * 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
DE602005013752D1 (de) 2005-05-03 2009-05-20 Seac02 S R L Augmented-Reality-System mit Identifizierung der realen Markierung des Objekts
JP5038307B2 (ja) * 2005-08-09 2012-10-03 トタル イメルシオン 実在環境内においてデジタルモデルを視覚化する方法、装置、及びコンピュータプログラム
JP2008108246A (ja) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム
JP2008309529A (ja) * 2007-06-12 2008-12-25 Panasonic Corp ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
DE102007051966A1 (de) * 2007-10-31 2009-05-07 Adc Automotive Distance Control Systems Gmbh Verfahren und Vorrichtung zur Erkennung des Verlaufs einer Fahrspur
US20100287500A1 (en) * 2008-11-18 2010-11-11 Honeywell International Inc. Method and system for displaying conformal symbology on a see-through display
US20110080481A1 (en) * 2009-10-05 2011-04-07 Bellingham David W Automobile Rear View Mirror Assembly for Housing a Camera System and a Retractable Universal Mount
JP5499762B2 (ja) 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム
US20110279446A1 (en) * 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device
EP2608153A1 (en) * 2011-12-21 2013-06-26 Harman Becker Automotive Systems GmbH Method and system for playing an augmented reality game in a motor vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250273A (ja) * 1998-03-03 1999-09-17 Mitsubishi Electric Corp 画像合成装置
JP2005127995A (ja) * 2003-09-30 2005-05-19 Mazda Motor Corp 経路誘導装置、経路誘導方法及び経路誘導プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020103782A (ja) * 2018-12-28 2020-07-09 トヨタ紡織株式会社 空間提供システム
WO2022190970A1 (ja) 2021-03-08 2022-09-15 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び、情報処理システム

Also Published As

Publication number Publication date
KR101480994B1 (ko) 2015-01-09
CN103177470A (zh) 2013-06-26
EP2608153A1 (en) 2013-06-26
KR20130072172A (ko) 2013-07-01
CN103177470B (zh) 2016-12-07
JP5531086B2 (ja) 2014-06-25
US9517415B2 (en) 2016-12-13
US20130162639A1 (en) 2013-06-27

Similar Documents

Publication Publication Date Title
JP5531086B2 (ja) 自動車のディスプレイを用いた、拡張現実感を生成する方法及びシステム
US10029700B2 (en) Infotainment system with head-up display for symbol projection
JP6608146B2 (ja) ライブ映像を有する仮想透過型インストルメントクラスタ
CN110199325B (zh) 仿真系统、处理方法以及信息存储介质
CN111107911B (zh) 竞赛模拟
US9821224B2 (en) Driving simulator control with virtual skeleton
JPWO2016017121A1 (ja) 拡張現実表示システム、端末装置および拡張現実表示方法
TW201541382A (zh) 顯示裝置檢視者的凝視吸引
US11938819B2 (en) Evaluation of a simulated vehicle-related feature
WO2014108799A2 (en) Apparatus and methods of real time presenting 3d visual effects with stereopsis more realistically and substract reality with external display(s)
WO2021096630A1 (en) Co-located pose estimation in a shared artificial reality environment
CN112104857A (zh) 图像生成系统、图像生成方法及信息存储介质
JPH09138637A (ja) 模擬視界装置
JP7150354B2 (ja) 車両デザイン支援システム
JP2016192029A (ja) 画像生成システム及びプログラム
JP6918189B2 (ja) シミュレーションシステム及びプログラム
JP2007094082A (ja) 移動体シミュレータ装置およびその制御方法並びに制御プログラム
WO2016189633A1 (ja) 認知度算出装置、認知度算出方法及び認知度算出プログラム
JP7281742B2 (ja) プログラムおよび列車運転シミュレータ
JP7261121B2 (ja) 情報端末装置及びプログラム
JP2010284258A (ja) ゲーム装置、ゲームプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140421

R150 Certificate of patent or registration of utility model

Ref document number: 5531086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250