JP2021530820A - 車両を含む3次元拡張現実 - Google Patents

車両を含む3次元拡張現実 Download PDF

Info

Publication number
JP2021530820A
JP2021530820A JP2021517560A JP2021517560A JP2021530820A JP 2021530820 A JP2021530820 A JP 2021530820A JP 2021517560 A JP2021517560 A JP 2021517560A JP 2021517560 A JP2021517560 A JP 2021517560A JP 2021530820 A JP2021530820 A JP 2021530820A
Authority
JP
Japan
Prior art keywords
vehicle
circuit
augmented reality
view
windshield
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021517560A
Other languages
English (en)
Inventor
ライオネル コーデセス,
トーマス エールマン,
シャテルペロン, ポール ドゥ
Original Assignee
ルノー イノベーション シリコン バレー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ルノー イノベーション シリコン バレー filed Critical ルノー イノベーション シリコン バレー
Publication of JP2021530820A publication Critical patent/JP2021530820A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/217Input arrangements for video game devices characterised by their sensors, purposes or types using environment-related information, i.e. information generated otherwise than by the player, e.g. ambient temperature or humidity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/573Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/51Server architecture
    • A63F2300/516Server architecture connected to a local network, e.g. in a plane, hotel
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0183Adaptation to parameters characterising the motion of the vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Ecology (AREA)
  • Environmental Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

3−D拡張現実表示システム、方法、およびコンピュータ可読メディアであって、このシステムは、回路を含むコンピュータハードウェアプラットフォームを含む。その回路は、車両の前部のビューからビデオイメージを受信することと、ディスプレイデバイス上での表示用にフロントガラスの視野にマッチするビデオイメージの一部分を抽出することと、ディスプレイデバイス上にスーパーインポーズされて所定の軌道に沿って移動する3−Dグラフィックエンティティを生成して表示することと、フロントガラスの視野の外側の環境に関連した感覚データを受信することと、感覚データが、フロントガラスの視野に接近している軌道経路を有している現実の要素を示している場合には、現実の要素の周囲に境界ボックスを生成し、3−Dグラフィックエンティティの軌道経路を、現実の要素に関する境界ボックスの軌道経路を回避する新たな軌道経路へ調整することとを行うように構成されている。【選択図】図1

Description

本開示は、全般的に、現実のシーンが車両からのビューである3次元拡張現実に関する。
拡張現実は、サウンドビデオまたはグラフィカルイメージなどのコンピュータによって生成されたエンティティを、透明なディスプレイを通して直接見られること、またはディスプレイスクリーン上に間接的に表示されることが可能であるライブのまたは実際の現実世界のシーン(本明細書においては現実のシーンと呼ばれる)と組み合わせる。組み合わされた表示は、拡張現実表示と呼ばれる場合がある。いくつかのケースにおいては、拡張現実は、3次元(3−D)であることが可能であり、コンピュータによって生成されたグラフィカルイメージは、3−Dイメージであることが可能である。現実のシーンは、静的なオブジェクトを含むことが可能であり、それによって現実のシーンは、3−D拡張現実表示における背景設定としての役割を果たすことが可能である。しかしながら現実のシーンは、移動するオブジェクトを含むことがあり得る。たとえば、航空機、車両、人、または動物などのオブジェクトが、現実のシーンとして見られているエリア内に移動する場合があり、それによって、それらは、見られている3−D拡張現実シーンの一部になる。
前述の「背景技術」の記述は、本開示のコンテキストを全般的に提示するという目的のためのものである。この背景技術のセクションにおいて記述されている範囲での本発明者の作業、ならびに出願時にその他の形で従来技術として適格ではない可能性がある記述の側面は、明示的にも黙示的にも本発明に対する従来技術とは認められない。
本開示は、3次元(3−D)拡張現実システム、方法、およびコンピュータ可読メディアに関し、このシステムは、車両のフロントガラスの視野を表示するように構成されているディスプレイデバイスと、回路を含むコンピュータハードウェアプラットフォームとを含む。その回路は、車両の前部のビューからビデオイメージを受信することと、ディスプレイデバイス上での表示用にフロントガラスの視野にマッチするビデオイメージの一部分を抽出することと、ディスプレイデバイス上にスーパーインポーズされ、所定の軌道に沿って移動する3−Dグラフィックエンティティを生成して表示することと、フロントガラスの視野の外側の環境に関連した感覚データを受信することと、感覚データが、フロントガラスの視野に接近している軌道経路を有している現実の要素を示している場合には、現実の要素の周囲に境界ボックスを生成し、3−Dグラフィックエンティティの軌道経路を、現実の要素に関する境界ボックスの軌道経路を回避する新たな軌道経路へ調整することとを行うように構成されている。
前述のパラグラフは、一般的な紹介として提供されており、添付の特許請求の範囲の範疇を限定することを意図されているものではない。記述されている実施形態は、さらなる利点とともに、添付の図面と併せて理解される以降の詳細な記述を参照することによって、最もよく理解されるであろう。
本開示と、その付随する利点のうちの多くとについてのさらに完全な理解が容易に得られるであろう。なぜなら、それらは、添付の図面に関連して考察される場合に以降の詳細な記述を参照することによって、よりよく理解されるようになるからである。
本開示の例示的な態様による、車両における3次元拡張現実システムを示すブロック図である。 本開示の例示的な態様による例示的な拡張現実表示を示す図である。 本開示の例示的な態様による、現実の要素による閉塞を回避する方法に関するフローチャートである。 本開示の例示的な態様による、軌道に沿って移動する3−Dエンティティを表示する方法に関するフローチャートである。 本開示の例示的な態様による、軌道を、閉塞を回避するように制約する方法に関するフローチャートである。 本開示の例示的な態様による3−D拡張現実表示の概略図である。 本開示の例示的な態様による3−D拡張現実表示の概略図である。 本開示の例示的な態様による3−D拡張現実表示の概略図である。 本開示の例示的な態様による3−D拡張現実表示の概略図である。 本開示の例示的な態様による3−D拡張現実表示の概略図である。 本開示の例示的な態様による3−D拡張現実表示の概略図である。 本開示の例示的な態様による3−D拡張現実表示の概略図である。 本開示の例示的な態様による3−D拡張現実表示の概略図である。 本開示の例示的な態様による車載コンピュータネットワークシステムに関するブロック図である。 本開示の例示的な態様によるモバイルデバイスに関するブロック図である。
次いで図面を参照すると、同様の参照番号は、いくつかの図を通じて同じまたは対応する部分を示し、以降の記述は、現実の要素による3−Dグラフィックエンティティの閉塞を回避する車両における3次元拡張現実システムに関連している。現実の要素による閉塞は、3−Dエンティティの軌道を、移動する現実の要素の外周の外側に制約することによって回避される。
本明細書において使用される際には、「一実施形態」または「いくつかの実施形態」または「実施形態」へのいかなる言及も、その実施形態に関連して記述されている特定の要素、機能、構造、または特徴が少なくとも1つの実施形態に含まれるということを意味する。本明細書におけるさまざまな場所における「一実施形態において」というフレーズの出現は、必ずしもすべてが同じ実施形態を指しているとは限らない。本明細書において使用されている条件付きの文言、たとえば、数ある中でも、「can」、「could」、「might」、「may」、「e.g.」などは、具体的にその他の意味で記載されていない限り、または使用されている文脈内でその他の意味で理解されない限り、一般には、特定の特徴、要素、および/またはステップを特定の実施形態は含むが、その他の実施形態は含まないということを伝えることを意図されている。加えて、本出願および添付の特許請求の範囲において使用されている冠詞「a」および「an」は、その他の意味で指定されていない限り、「1つもしくは複数の」または「少なくとも1つの」を意味すると解釈されるべきである。
移動する車両のケースにおいては、3−D拡張現実表示の現実のシーンは、絶えず変化し、本明細書においては「現実の要素」または「移動する現実の要素」と呼ばれる外界における実際の移動する要素で充満する場合がある。移動する車両の外側のシーンを含む3−D拡張現実表示は、生成され表示されているグラフィックエンティティを塞ぐ可能性がある現実の要素に対処しなければならないであろう。具体的には、軌道に沿って移動するグラフィカルイメージは、生成されたグラフィカルイメージの経路とユーザとの間を通過する位置で視界に入ってくる現実のオブジェクトによってブロックされる可能性がある。一例として、別の移動する車両をグラフィックエンティティとして表示する3−D拡張現実表示は、実際のトラックが、ユーザの移動する車両とグラフィックの移動する車両との間に、グラフィックの移動する車両を遮ることになる様態で割り込む場合に、閉塞を招く可能性がある。
移動する現実の要素が、3−Dで生成されたエンティティの前を通過し、それによってグラフィックエンティティのビューが遮られるケースにおいて3−D拡張現実を取り扱うことに対するアプローチは、シーンのコンテンツを分析し、現実のシーンにおける現実の要素の3−D座標を推定することであった。現実のシーンにおける移動する現実の要素の3−D座標を計算することに含まれる複雑度は高く、そのために、そのようなアプローチは車両の計算リソース内では実用的ではない。ほとんどのケースにおいて、計算には、3−D座標を推定する負担がかかることになり、それによって、動的なシーンを含む3−D拡張現実にプレーヤを没頭させることを可能にするためにリアルタイムでの操作が保証されることは不可能である。
拡張現実シーンを表示することに含まれる計算負荷に対するソリューションは、3−Dオブジェクトを現実のシーンに配置する一方で、現実のシーンのサイズを制限し、それによって、推定されることを必要とする3−D座標を少なくすることであった。開示されている3−D拡張現実システムは、現実の要素の軌道を予測し、生成された3−Dオブジェクトの軌道を調整することによって、3−D座標を計算する複雑さを低減する。
1つまたは複数の実施形態においては、本開示は、車両制御システムに関連しており、このシステムは、センサからの情報を3−D拡張現実システムに提供し、それによってこのシステムは、1つまたは複数の現実の要素が現実のシーンの視野に現れる前に、それらについて知らされる。現実の要素について知らされることによって、このシステムは、生成されるグラフィックエンティティの軌道を、潜在的な閉塞を回避するように制約することが可能である。
例として、3−D拡張現実システムは、車両から見られる現実のシーンを使用する。例示的な態様においては、3−D拡張現実システムは、ディスプレイスクリーンを有するインタラクティブコンピューティングデバイスを含むことが可能である。インタラクティブコンピューティングデバイスは、車両に内蔵されているタッチディスプレイデバイスを含むことが可能であり、またはスタンドアロンのモバイルディスプレイデバイスを含むことが可能である。スタンドアロンのディスプレイデバイスの例は、タブレットコンピュータ、スマートフォン、ゲーミングデバイスなどである。内蔵ディスプレイデバイスは、センターコンソール、シートヘッドレスト、シートの後部、ルーフ、または車両の内部の何らかの部分に取り付けられて、車両内の人が見ることができ、かつ対話することができるデバイスであることが可能である。内蔵ディスプレイデバイスの例は、少なくとも1つのコンピュータプロセッサを含むか、または車両における車載インフォテインメントシステムなどの車載コンピュータネットワークの一部である少なくとも1つのコンピュータプロセッサを使用することができるディスプレイデバイスである。
現実のシーンは、車両に取り付けられている1つまたは複数のカメラを使用して間接的に取り込まれることが可能である。例示的な態様においては、インタラクティブコンピューティングデバイスのディスプレイ上に表示されるビューは、車両の前方に向けられている1つまたは複数のカメラから取り込まれてインタラクティブコンピューティングデバイスのディスプレイにストリーミングされるビデオに基づいて得られる。例示的な態様においては、インタラクティブコンピューティングデバイスに関連付けられているディスプレイデバイスは、透明なディスプレイであることが可能であり、そこにおいては、現実のシーンが、車両のフロントガラスを通してビューとして表示される。いくつかの実施形態においては、現実のシーンは、車両の側部もしくは後部に向けられている1つもしくは複数のカメラ、またはサンルーフもしくはムーンルーフを通して向けられているカメラ、およびそれらの組合せからのビデオに基づいて得られることが可能である。
本開示においては、車両のタイプは、自動車、航空機、海上船舶、潜水艦車両、ホバークラフト、または人を搬送することができる任意の車両を含むことが可能である。いくつかの実施形態においては、現実のシーンは、遠隔移動カメラからのビューに基づいて得られることが可能である。たとえば、現実のシーンは、遠隔制御されるもしくは自律的な地上車両もしくはロボットまたはドローン航空機に取り付けられているカメラからのビューであることが可能である。そのようなケースにおいては、現実のシーンは、複数のカメラのサブセットからの視野であることが可能であり、または視野の外側の現実の要素を検知するためのその他のセンサを備えた1つもしくは複数のカメラの視野であることが可能である。
いくつかの実施形態においては、3−D拡張現実システムは、インタラクティブなグラフィックエンティティを生成して表示するビデオゲームシステムであることが可能である。グラフィックエンティティのうちのいくつかは、当初の軌道を伴って生成される場合がある。当初の軌道は、車両制御システムにおけるセンサから入手された情報に基づいて調整されることが可能である。グラフィックエンティティのうちのいくつかは、車両制御システムにおけるセンサから入手された情報に基づいてトリガーされることが可能である。
一実施形態においては、車両は、先進運転支援システム(ADAS)を含む。ADASは、車載コンピュータネットワーク内に統合されているさまざまなセンサから構成されている。車載コンピュータネットワークは、さまざまな電子制御ユニット(ECU)を含むことが可能である。ECUは、エンジンまたはトランスミッションを制御し、温度、圧力、電圧、加速、ブレーキング、およびステアリングなどの状態を検知するためのセンサを有する。センサから入手された情報は、ネットワークを介して送信される。ECUは、ネットワークを介して送信される信号をリッスンし、ネットワークから入手された情報に基づいて制御アクションを実行することになる。ADASに関連付けられているセンサおよびコントローラは、車の安全性を改善するという目的で、必須の情報をドライバーに提供し、困難なタスクまたは繰り返しの多いタスクを自動化する機能である。1つのADASは、グローバルポジショニングシステム(GPS)ナビゲーションであり、これは、車両のロケーションを特定する上で、および道案内を提供する上でドライバーを支援する。
別のADASは、自律的クルーズコントロール(ACC)システム(アダプティブクルーズコントロール、レーダクルーズコントロール、トラフィックアウェアクルーズコントロール、またはダイナミックレーダクルーズコントロールとしても知られている)である。ACCシステムは、レーダ、レーザセンサ、またはステレオカメラを含むオンボードセンサからのセンサ情報を使用する。ACCシステムは、車両が前方の別の車両に接近しているということをセンサ情報が示している場合にはブレーキングを制御することが可能であるコントローラを含む。レーダセンサは、中央のグリルの後ろに配置されることが可能である。いくつかのケースにおいては、距離レーダが、車両の角に配置されている短距離レーダ間における中央のロケーションに配置されることが可能である。レーザセンサは、露出されていなければならず、グリル上で一方の側に寄せて配置されることが可能である。ステレオカメラは、デジタル処理を使用して、2つのカメラのビュー間における視差に基づいて奥行き情報を抽出することが可能である。センサは、交通標識および信号を検知すること、ならびに検知された情報を使用して車両スピードを制御することも可能である。
別のクルーズコントロールシステムは、インテリジェントアダプティブクルーズコントロール(i−ACC)である。i−ACCは、その他の車両の挙動を予測してそれに反応することが可能なクルーズコントロールシステムである。i−ACCにおけるセンサ情報は、その車両と同じ車線に別の車両が車線を変更しようとしていることを、それが発生する数秒前に検知する能力を含む。
別のADASは、死角検知である。死角検知システムは、ミラーの視界の外側にあるビューのモニタにイメージを送信することができるカメラを含むことが可能である。またクルーズコントロールのさらに包括的なバージョンは、衝突回避システムである。衝突回避システムは、その他の車両、歩行者、動物、およびさまざまな車道の障害物の近接を感知するセンサを含むことが可能である。
安全関連システムおよび運転支援システムが開示されているが、本開示は、それらに限定されるものではない。空調によって使用される光センサ(これは、ガラスを通って来る太陽光の量を推定して、車内の温度を制御する際にこの追加されたエネルギーを補う)など、既存の車両センサに依存する任意の車載制御システム。この光センサは、3−D拡張現実システムにおける知覚される温度を補正するために、またはレンダリングされているシーンにおける周囲光を修正するための光センサとして使用されることが可能である。雨センサを使用して、レンダリングされているアイテムの外観における変化をトリガーすることも可能であり、それらのアイテムは、雨が降っている場合には、濡れて見えることまたは少なくとも光沢があるように見えることが可能である。たとえば、燃料計センサまたは電気自動車に関する充電の状態を使用して、タンクがゼロに近い場合またはバッテリーが消耗している場合にアイテムのダイナミクスを減らすことが可能である(たとえば、残されている燃料またはエネルギーがほとんどない状態からまったくない状態である場合には、すべての動きが遅くなる可能性がある)。タイヤ空気圧監視システムを使用して、たとえば、タイヤの空気圧が低い場合の難易度を上げるために、タイヤのうちの1つにおける低空気圧に関連したいくつかのイベントをトリガーすることも可能である。したがって、車載コンピュータネットワークにおいて見受けられる可能性がある感覚情報は、地図上における車両のロケーション、車両の速度、車両の周囲の付近における現実の要素、たとえば、橋、トンネル、近くの建物、車両のいずれかの脇を通過する車両、および車両の前部または後部に接近する車両を含むことが可能である。いくつかのケースにおいては、車両に取り付けられているカメラが、ドライバーの死角にいる、またはドライバーの視野に接近している人、動物、またはその他の移動するオブジェクトを検知することが可能である。
さまざまなADASを有する車載コンピュータネットワークから入手された感覚情報を使用して、ドライバーの視野の外側から接近する現実の要素を、3−D拡張現実における現実のシーンとして使用されている視野にそれらの要素が入る前に検知することが可能である。例示的な態様においては、移動するグラフィックエンティティが、3−D拡張現実において使用されている視野に入ると予想される現実の要素による閉塞を回避するように変更されることが可能である。
図1は、本開示の例示的な態様による、車両における3−D拡張現実システムのブロック図である。この3−D拡張現実システムは、ディスプレイデバイス100を使用して、車両の乗客によって使用されることが可能である。ディスプレイデバイス100は、ハンドヘルドゲーミングデバイス、タブレットコンピュータ、もしくはスマートフォンなど、ディスプレイを有する任意のコンピューティングデバイス、または車両インフォテインメントシステムの一部であるディスプレイを有する内蔵デバイスであることが可能である。いくつかの実施形態においては、ディスプレイデバイス100の何らかの制御は、車載コンピュータネットワーク200を通じて通信を行うことができるモバイルデバイス120によって実行されることが可能である。たとえば、ディスプレイデバイス100は、運転席または助手席の後部に取り付けられている内蔵ディスプレイデバイスであることが可能である。モバイルデバイス120は、車載コンピュータネットワーク200との通信を通じて、座席に取り付けられているディスプレイデバイス100の動作を制御することが可能である。感覚情報を入手するために、ディスプレイデバイス100は、車両において利用可能なインターフェースに応じて、任意のワイヤレスまたは任意の有線通信メディア、たとえば、ユニバーサルシリアルバス(USB)または高品位マルチメディアインターフェース(HDMI)を使用して、車載コンピュータネットワーク200などの車載制御システムに接続されることが可能である。ディスプレイデバイス100は、WiFi(登録商標)またはBluetooth(登録商標)などの任意の短距離ワイヤレス通信プロトコルによって通信を行うことが可能である。車載コンピュータネットワーク200は、車両の付近における環境を感知するための、ならびに車両のロケーションを特定するためのさまざまな感知デバイスを含むことが可能である。ADASの既存のセンサである可能性がある感知デバイスは、LiDAR201(これは、光を使用するレーダの一種である)、1つまたは複数のレーダトランシーバ203、ある数Nのデジタルカメラ211、および超音波トランシーバなどのその他の感知デバイス205を含むことが可能である。
LiDARは、光波を使用し、「light detection and ranging」を指す。LiDARは、光波のエコーに依存して、表面の形状および輪郭を測定する。LiDARは、レーザパルスをターゲットから跳ね返らせて、ターゲットの高さの特徴を示す距離を測定することが可能である。LiDAR(Light Detection and Rangingとして示される場合がある)は、橋もしくはトンネル、または風景のその他の特徴を検知するために使用されることが可能である。
レーダは、電波を使用し、「radio detection and ranging」を指す。レーダは、移動するオブジェクト、ならびに遠くのオブジェクトの位置および距離を検知するために使用されることが可能である。
超音波デバイスは、音波を使用してオブジェクトを検知し、距離を測定する。超音波デバイスは、一連の短い音のパルスを送り出し、エコーをリッスンして、遠くのオブジェクトの存在を特定することが可能である。
図2は、本開示の例示的な態様による例示的な拡張表示を示している。例示的な態様においては、3−D拡張現実は、ディスプレイデバイス100を有する車両101における乗客によって使用されることが可能である。ディスプレイデバイス100は、車両のフロントガラス105におけるビューに基づきつつグラフィックエンティティ109で拡張された現実のシーンを表示する3−D拡張現実表示を表示することが可能であるディスプレイ107を含む。いくつかの実施形態においては、ディスプレイ107は、サイドウィンドウ、リアウィンドウ、サンルーフ、もしくはムーンルーフ、またはそれらの組合せなど、車両の別のウィンドウにおけるビューに基づいて現実のシーンを表示することが可能である。
図3は、本開示の例示的な態様による、現実の要素による閉塞を回避する方法に関するフローチャートである。3−D拡張現実は、車両のフロントガラスの視野を有するカメラから入手されるビューを現実のシーンとして使用することが可能であり、または車両の前部からビデオを取り込むカメラから得られるビューを使用することが可能である。したがってS301において、この方法は、移動する車両から開始することが可能である。S303において、3−D拡張現実システムは、カメラによって取り込まれた現実のシーンを使用して、各自の軌道に沿って移動する1つまたは複数の3−Dエンティティを組み込んで、3−D拡張現実表示を生成する。
3−D拡張現実システムは、車載コンピュータネットワーク200を通って来る情報を監視して、S305において、フロントガラスにおける視野内に入る可能性がある現実の要素があるかどうかを特定する。車両が移動している場合には、フロントガラスを通して見られるシーンは、絶えず変化していることになる。車両が停止した場合に、シーンは、移動する要素を依然として表示する可能性がある。車載コンピュータネットワーク200から入手される情報が示す場合がある1つまたは複数の移動する要素は、フロントガラスの視野内にはないものの、それらの要素を視野内へ導くそれぞれの軌道を有している場合がある。いくつかの実施形態においては、3−D拡張現実システムは、情報を監視して、サイドウィンドウ、リアウィンドウ、またはサンルーフにおける視野内に入る可能性がある現実の要素があるかどうかを特定する。車載コンピュータネットワーク200を通って来る情報は、ADASの一部であるセンサから入手されたセンサ情報を含むことが可能である。たとえば、レーダ、もしくはカメラ、または車両に取り付けられているセンサの組合せは、フロントガラスを通して見られている際に、ドライバーの死角において地上を移動している、またはドライバーの視野に接近しているその他の車両、人、動物、またはその他のオブジェクトを検知することが可能である。レーダは、車両が移動している際に、その車両の経路に向かう、その経路を横切る、またはその経路の上を通る経路において空中を飛行している航空機または鳥を検知することが可能である。GPSからの情報は、車両が、建物、学校、橋、トンネル、公園、または田舎に接近しているということを示す場合がある。
視野内に入る可能性がある現実の要素があるケース(S305における「はい」)においては、S307において、3−D拡張現実システムは、3−Dグラフィックエンティティの軌道を変更することが可能であり、それによって3−D拡張現実システムは、現実のシーン内に入ると予想される現実の要素による閉塞を回避する。視野の外側にある現実の要素が検知されないケース(S305における「いいえ」)においては、S309において、3−D拡張現実システムの3−Dグラフィックエンティティは、その当初の軌道に従って移動する。
図4は、本開示の例示的な態様による、軌道に沿って移動する3−Dグラフィックエンティティを表示するステップS303に関するフローチャートである。グラフィックエンティティの移動は、車載コンピュータネットワーク200から入手された感覚情報に基づいて得られる軌道を辿ることが可能である。たとえば、非常にゆっくりと道路の上空を飛行し、車両と同じ方向に移動するエンティティの移動(S401における「はい」)、S403において、GPSなどのロケーションベースのサービスからの情報を使用して、地図と車両の位置とから3−Dの数学的軌道が計算される。一実施形態においては、地図および位置の両方が、車両の現在の物理的なロケーションに関して緯度および経度を使用する。物理的なロケーションは、持続時間および距離に基づいて更新されることが可能である。時間および距離は、車両のスピードを計算するために、ならびに地図上のロケーションを更新するために使用されることが可能である。1つまたは複数のグラフィックエンティティは、車両のスピードが所定のスピードを下回っている場合にそれらのエンティティの軌道が地図上における車両の以前のロケーションおよび更新されたロケーションに基づいて投影されるように生成され表示されることが可能である。
車両とは反対の方向に道路の上空を飛行するエンティティのケース(S405における「はい」)においては、S407において、GPSからの情報を使用して、地図と車の位置とから3−Dの数学的軌道が計算される。たとえば、車両が以前の物理的なロケーションから、更新された物理的なロケーションへ移動した際には、1つまたは複数のグラフィックエンティティは、車両が、更新されたロケーションと以前のロケーションとの間における車両の方向に基づいてそれらのエンティティをさらに近くへ移動させる軌道を伴って、更新されたロケーションにあるときには、その/それらのグラフィックエンティティが車両から離れた位置にあるかのように、生成され表示されることが可能である。
道路を横断する人など、車両の前を横断するエンティティのケース(S409における「はい」)においては、S411において、GPSからの情報を使用して、地図と車両の位置とから3−Dの数学的軌道が計算される。たとえば、地図上の車両の位置に基づいて特定された車両のロケーションが、交差点など、地図上のランドマークの近くにある場合には、1つまたは複数のエンティティが、水平な軌道でディスプレイを横切って移動するように生成され表示されることが可能である。
図4は、3つの独立した条件S401、S405、S409を示しているが、それらの条件のうちの2つまたは3つが同時に発生することが可能であり、それらの条件は、さまざまな順序で発生することが可能である。たとえば、いくつかのグラフィックエンティティは、車両と同じ方向の軌道において飛行するように生成され表示されることが可能であり、その一方でその他のグラフィックエンティティは、車両の反対方向の軌道において飛行するように生成され表示されることが可能である。また、車両が停止するケースにおいては、軌道に従って飛行している途上にあるエンティティは、その他のエンティティが、ディスプレイ内を水平に通過する軌道を辿るように生成され表示されても、各自の軌道に沿って飛行を継続することになる。いずれかの飛行しているエンティティおよび/または水平に通過するいずれかのエンティティの軌道は、互いに交差し得る。
加えて、グラフィックエンティティの軌道が反対方向に道路の上空を飛行しているかどうかを特定するステップS405は、ステップS401において、グラフィックエンティティの軌道が同じ方向に道路の上空を飛行しているかどうかを最初に特定することを必要としない。
図5は、本開示の例示的な態様による、軌道を、閉塞を回避するように制約するステップS307に関するフローチャートである。図5におけるフローチャート、および図において示されている関連付けられている例は、さまざまな態様を説明するために3−D拡張現実表示のいくつかの例を含むということを理解されたい。例示的な表示は、限定するものとして解釈されるべきではなく、さまざまな表示が、本開示の趣旨および範囲から逸脱することなく生成されることが可能である。
図5は、一連の決定ステップを示しており、決定ステップの順序は、任意の順序であることが可能である。また、いくつかの実施形態においては、複数の決定ステップからのさまざまな結果として生じるアクションが、単一の3−D拡張現実表示において組み合わされることが可能である。たとえば、地上で移動するオブジェクト、札エンティティ、気候条件などが、さまざまな様式で組み合わされることが可能である。また、いくつかの条件に対して、その他の条件に勝る優先度が与えられることが可能である。たとえば、気候条件、音楽、およびオーディオストリーミングが検知された場合など、複数の条件が同時に検知された場合には、複数の優先度が複数の条件に割り振られることが可能である。あるいは、特定の条件がその他の条件に優先することが可能である。いくつかの実施形態においては、優先度ルールを組み込むことによって、複数の優先度が複数の条件に割り振られることが可能である。いくつかの実施形態においては、車のスピード=常にエンティティのスピード、エンティティの形状/色は気象条件に応じて変化することが可能である(雪が降っている間は白色)など、複数の条件が別々のレベルでトリガーされることが可能である。いくつかの実施形態においては、優先度ルールは、エキスパートシステムに従って実行される条件アクションルールの形式であることが可能である。エキスパートシステムは、If−Thenルールを使用して推論を行うことによって、優先度について決定を下すことが可能である。
視野の外側からシーンに入る現実の要素(車両/ユーザ、歩行者、自転車、航空機、またはその他の移動するオブジェクトのうちの1つまたは複数を含む)、および風景の特定の現実の要素(パネル、壁、木)による閉塞の問題を回避するために、3−D拡張現実システムは、ADASシステムによって検知されている感覚情報を使用する。
そのような現実の障害物が識別された(S501における「はい」の)場合には、S503において、グラフィックエンティティの3−D軌道は、潜在的な閉塞を回避するように制約される。図6において示されている例示的な態様においては、現実のオブジェクト601が、車両の左または右から(フロントガラス107を通して表示されているビューの外側から)接近しているなど、地上で水平に移動している場合には、ソリューションは、グラフィックエンティティ611の3−D軌道を、その現実の要素よりも上に位置しているポイントを通過するように制約することである(たとえば、空中のポイントを通過する調整された軌道615)。例示的な態様においては、現実の要素601は、投影された軌道603を有する境界ボックス605によって特徴付けられることが可能である。当初の3−D軌道613がグラフィックエンティティに対して投影され、当初の軌道613がエンティティ611を、境界ボックス605を通るように導く場合には、そのエンティティを、境界ボックス605を迂回するように、または境界ボックス605から離れるように導く代替軌道615が特定される。フロントガラスからのビューに潜在的に接近している現実の要素は、車載コンピュータネットワーク200を介して入手された既存の感覚情報を使用して検知されることが可能である。検知された現実の要素601による閉塞を回避するためにグラフィックエンティティ611に関する代替軌道615を生成することは、3−D拡張現実表示における実際の移動するオブジェクトを用いて、コンピュータによって生成されたグラフィックエンティティのマスキングを実行するために必要とされるであろう複雑な計算を低減する。低減された計算の複雑さによって、車両を取り巻く環境にユーザを十分に没頭させることが可能になる。
障害物が検知されない場合には、3−D拡張現実表示に関連したグラフィックエンティティは、自分の当初の軌道を辿ることが可能である。
テキストもしくはシンボル、たとえばトンネルを示すシンボル、またはそれらの同等物を有する道路標識を含む情報を含む札のケース(S505における「はい」)においては、S507において、これらの現実の要素からの情報は、3−D拡張現実表示に関連したグラフィックエンティティを生成する際に考慮に入れられることになる。例示的な態様においては、グラフィックエンティティの挙動および/または出現は、横断歩道標識、一時停止標識、「鹿に注意」の標識、線路警告標識、または、その他の特定のオブジェクトの存在の可能性を示唆することが可能であるその他のタイプの道路標識の検知によってトリガーされることが可能である。たとえば、一時停止標識は、交差点における別の車両の出現をトリガーすることが可能であり、または3−D拡張現実表示における別の車両を減速させて停止させることが可能である。横断歩道標識は、1人または複数の人の出現をトリガーすることが可能である。線路警告標識は、道路を横切って下がる遮断機および通過する列車の出現をトリガーすることが可能である。その他の実施形態においては、トンネルのシンボルを表示する標識などの標識は、現実のトンネルが3−D拡張現実システムの視野に入るであろうということを示すことが可能である。道路標識などの札から入手される情報は、車載検知センサによって入手される距離検知信号およびオブジェクト検知信号以外の環境に関する追加の情報を提供する。
いくつかの実施形態においては、複数の札が互いの付近において検知される場合がある。たとえば、一時停止標識および横断歩道標識が、同じ交差点において検知される場合がある。そのようなケースにおいて、交差点に近づいている際には、別の車両が生成されて、減速しているものとして表示される場合があり、車両および別の車両の両方が停止する際には、人/ペットが生成されて、道路上にマークされている横断歩道において道路を横切って歩いているものとして表示される場合がある。いくつかの実施形態においては、一時停止標識の代わりに、方向指示器を含む停止信号がある場合がある。そのようなケースにおいては、別の車両が生成されて、曲がるために交差点内への移動を続けているものとして表示される場合があり、その間に、横断歩道標識の検知によって生成された人々は、道路の脇に立ったままとなる。いくつかの実施形態においては、3−D拡張現実システムは、交通規則に従うようにセットアップされることが可能であり、それによって、別の生成された車両が、横断歩道に到達する前に停止しているものとして表示される際に、横断歩道において道路の脇に立っている人々は、優先通行権を与えられて、道路を横断し始めることが可能になる。
いくつかの実施形態においては、現実のトンネルが前方にあるということを示す標識を検知すると、グラフィック飛行エンティティの軌道は、当初の軌道よりも高い角度に調整されることが可能である。グラフィック飛行エンティティの軌道は、同じ角度によって調整されることが可能であり、または別々のランダムに特定された角度によって調整されることが可能である。同様の様式で、踏切を示す標識を検知すると、グラフィック飛行エンティティの軌道は、列車の上空を通過しなければならないことを見越して、さまざまな角度によって調整されることが可能である。いくつかの実施形態においては、車両が減速している際にその車両の横に表示されるように生成される別の車両は、GPSから特定されるその車両の位置およびスピードにおける変化に基づいて減速して停止することが可能である。
1つまたは複数の現実の要素が車載検知センサによって検知されるケースにおいては、1つまたは複数の現実の要素の境界ボックスによる閉塞を回避するために、グラフィックエンティティの生成が停止または延期されることが可能である。たとえば、1人または複数の人が、横断歩道に近づいているものとしてカメラまたはレーダによって検知された場合には、3−D拡張現実表示は、検出された人々が横断歩道に入る際にそれらの人々を塞ぐことになる表示位置において表示するための別の車両の生成を停止することが可能である。別の例においては、現実の飛行オブジェクトが、フロントガラスを通した視野内にその飛行オブジェクトを導く可能性がある潜在的な軌道を有しているものとして検知された場合には、3−D拡張現実表示は、約5〜15秒などの所定の期間にわたってグラフィック飛行エンティティの生成を延期することが可能である。
車両が、55mphなど、所定のスピードを上回って移動していて、現実の要素が車載検知センサによって検知されたケースにおいては、グラフィック飛行エンティティの生成は、車両のスピードに基づいている所定の期間にわたって延期されることが可能である。たとえば、視野内に入る可能性がある軌道を有する現実の要素が検知され、車両が、55mphを上回るなど、高速で移動している場合には、新たなグラフィックエンティティが数秒間生成されずに、新たなグラフィックエンティティを生成する前に、現実の要素がディスプレイの視野を通って移動するための、またはさらに正確な軌道を伴ってさらに近いビューに入るための時間を与えることが可能である。
図7は、本開示の例示的な態様による3−D拡張現実表示の概略図である。車両に取り付けられているカメラ721は、3−D拡張現実表示のシーンの視野の外側にある視野723を有することが可能である。カメラ721は、横断歩道標識711などの道路標識のイメージをピックアップすることが可能である。横断歩道標識が例として使用されているが、その他の道路標識は、踏切標識を含むことが可能である。3−D拡張現実システムのスクリーン107は、それぞれの軌道703に沿って移動する1つまたは複数のグラフィックエンティティ701を表示することが可能である。車載コンピュータネットワーク200から入手される情報は、検知された道路標識から入手される情報を含むことが可能である。そのようなケースにおいては、3−D拡張現実システムは、1つまたは複数のグラフィックエンティティ701の軌道を調整して、横断歩道標識711の検知に関連付けられることが可能であるアクティビティーを見越して、調整された軌道705に沿ってそれぞれの移動スピードを遅くすることが可能である。例においては単一の横断歩道標識が使用されているが、道路の両側に横断歩道標識がある場合もある。また、道路に沿って複数の標識が出現する可能性があるさらに複雑な条件。そのようなケースにおいては、3−D拡張現実システムは、ディスプレイのビューの範囲内に移動する可能性がある人や自転車などの現実の要素の潜在的な閉塞を回避するために、必要に応じてグラフィックエンティティ701の移動スピードおよびそれらのそれぞれの軌道経路の両方を調整することによって、1つまたは複数のグラフィックエンティティ701の軌道を調整することが可能である。3−D拡張現実表示の範囲の外側にある道路標識において示されている情報を認識することは、3−D拡張現実表示を生成する際に考慮に入れられ得る追加の情報を提供することが可能である。
図8は、本開示の例示的な態様による3−D拡張現実表示の概略図である。車両に取り付けられているカメラ721は、3−D拡張現実表示のシーン107の視野の外側にある視野723を有することが可能である。カメラ721は、横断歩道標識711などの道路標識と、その道路標識の付近の横断歩道へと移動する歩行者807とのイメージをピックアップすることが可能である。そのようなケースにおいては、3−D拡張現実システムは、移動する歩行者に関する境界ボックス805を生成することと、境界ボックス805の経路へと導くことになる当初の軌道を有するグラフィックエンティティ701の軌道803を調整することとが可能である。軌道803は、境界ボックス805のエリアへの移動を回避するように調整され、ひいては計算の複雑さを低減することが可能である。
例示的な態様においては、地図からの情報は、3−Dグラフィックエンティティの軌道を制限/制約することが可能であり、ならびにこれらの同じエンティティの出現をトリガーすることも可能である。1つの例示的な態様においては、地図によって識別された現実のトンネルは、グラフィカルに生成された雲の優雅な飛行をトリガーすることが可能である。
図9は、本開示の例示的な態様による3−D拡張現実表示の概略図である。車両のGPSシステムに関連付けられている地図901は、車両が校舎905の近くを走行しているということを示すことが可能である。そのようなケースにおいては、3−D拡張現実表示は、学校のコンテキストに関連付けられているグラフィックエンティティ903をシーン107へ投入することをトリガーすることが可能である。学校が位置しているエリアに車両が接近した際には、車両に取り付けられているカメラが、現実の人々またはその他の移動する現実の要素を検知することが可能である。移動する現実の要素を検知すると、3−D拡張表示は、現実の要素が検知された際にそれらの要素を移動させるための境界ボックスおよび軌道を特定することが可能である。3−D拡張現実表示は、グラフィックエンティティ701の軌道703を、境界ボックスを回避するように調整することが可能である。いくつかの実施形態においては、境界ボックスがディスプレイ107の大部分を占めることになる場合には、3−D拡張現実表示は、移動するグラフィックエンティティ701の生成を停止または延期することが可能である。
さまざまなオンボードセンサ(カメラ、温度センサ、GPS)の組合せの使用は、3−D拡張現実システムにおいて連結によって特定のコンテンツを生成することが可能である推論を可能にすることができる。図10は、本開示の例示的な態様による3−D拡張現実表示の概略図である。例示的な態様においては、車両は、(地図1009上で検知された)田舎としてマークされているエリアへと走行しており、カメラ721は、大部分が「白色」を含む視野723におけるイメージをピックアップし、温度センサは、温度1001における低下を示している。
そのようなケースにおいては、車載コンピュータネットワーク200を介して入手される情報の組合せを使用して、雪片1005が降っている可能性があるということを推論することが可能である(たとえカメラ721がそれらの雪片を検知しない可能性があっても)。現実の雪片1005は、グラフィカルに生成された花1007の外観が修正されているシーンを表示するよりもむしろ、3−D拡張現実表示において表示されているシーン107を覆い隠すことを可能にされるであろう。図11は、本開示の例示的な態様による3−D拡張現実表示の概略図である。組み合わされた情報が、雪片が降っている可能性があるという推論をもたらした場合には、3−D拡張現実表示は、シーン107において出現するグラフィック雪片エンティティ1101を生成して表示することが可能であり、またはフロントガラスに当たるグラフィック雪片エンティティを生成することが可能である。センサ情報の組合せを使用して、グラフィックエンティティの挙動および/または出現をトリガーする条件を推論することが可能である。
雨の検知など、気候条件に関する情報(S509における「はい」)は、S511において、コンピュータによって生成された車両など、プレーヤによって制御されるエンティティの動的な挙動に影響を与えることが可能であり(より滑る)、および/または傘の出現など、グラフィックエンティティが追加されるようにすることが可能である。いくつかの実施形態においては、現実の要素をディスプレイのビュー内にもたらす可能性がある潜在的な軌道を有する現実の要素の検知は、より少ないグラフィックエンティティを生成するように、または現実の要素の潜在的な軌道の外側にグラフィックエンティティを生成するように3−D拡張現実表示を導くことが可能である。また、1つまたは複数の札エンティティの検知(ステップS505)および3−D拡張現実表示によるその後のアクション(ステップS507)は、気候条件が検知されている期間(ステップS509)中に発生することが可能である。
時間のコンテキスト化(S513における「はい」)も、エンティティの出現に影響を与えることが可能である。図12は、本開示の例示的な態様による3−D拡張現実表示の概略図である。例示的な態様においては、移動する車両が、学生1203が解放されている時間1211に(地図901上で検知された)学校1205に接近した場合には、この時間コンテキストは、たとえば、「学生」というカテゴリーに関連したグラフィックエンティティ(バックパック、自転車、本)の出現をトリガーすることが可能である。3−D拡張現実表示107は、横断歩道を渡っている学生(境界ボックス805として表される)を示すように修正されることが可能である。グラフィックエンティティ701は、自分の軌道803を、境界ボックス805の経路を回避するように調整されることになる。いくつかの実施形態においては、現実の学生、自転車、およびその他の移動する現実の要素が、車両に取り付けられているカメラによって検知されることが可能である。境界ボックスおよび軌道は、現実の要素が検知された際に特定されることが可能である。現実の要素の検知は、より少ないグラフィックエンティティの出現につながることが可能である。いくつかの実施形態においては、境界ボックスの数が表示シーン107の大部分を占める場合には、グラフィックエンティティの生成が停止されることが可能である。
いくつかの実施形態においては、車両は、音楽またはその他のオーディオコンテンツを再生するサウンドシステムを含むことが可能である。いくつかの実施形態においては、音楽は、グラフィックエンティティの移動/出現に影響を与え得るその他の条件とともに条件として使用されることが可能である。たとえば、レゲエミュージックは、道路上に漂う煙を生成することが可能である。ヒップホップミュージックは、道路上を転がるスケートボードを生成することが可能である。別の例として、いくつかの周波数のラウドネスは、エンティティの軌道に影響を与えることが可能である。いくつかの周波数に関する電力推定器を使用して、知覚されるラウドネスを評価することが可能であり、比例した量の加速度がエンティティに追加されることが可能である。そのようなケースにおいては、エンティティは、そのように制御されることになり、たとえば、音楽のリズムに従って、いくつかの軽い動きが追加されることになる。車両の外部環境を検知するためのさまざまなセンサに加えて、1つまたは複数の内部センサを使用して、車室内の状態を検知することが可能である。内部センサのうちで、マイクロフォンは、音楽などのオーディオコンテンツを入力するために使用されることが可能である。あるいは、オーディオコンテンツは、3−D拡張現実システムへ直接有線で送られることが可能である。車内で聴かれている音楽(S517における「はい」)はまた、挙動を変更すること、および/または3−Dグラフィックエンティティの生成を引き起こすことが可能である。例示的な態様においては、S519において、3−Dグラフィックエンティティのスピードおよび/または外観は、たとえば、高速フーリエ変換によって推定されたサウンド信号の出力および周波数レンジに基づくことが可能である。図13は、本開示の例示的な態様による3−D拡張現実表示の概略図である。スピーカ1303からの音楽1301に基づいて特定される推定されたサウンド信号に応答して、グラフィックエンティティの軌道803は、サウンドの出力および周波数に比例して強調されることが可能である。
さらに、特定のアルゴリズムによって検知された繰り返しのアナウンス(たとえば、広告、フラッシュ情報)を含むオーディオストリーム(S521における「はい」)は、S523において、特定のアクション、たとえば、視覚的広告の出現、サウンドパターンの追加を、または(システムにおける)オーディオの完全な省略ですらトリガーすることが可能である。3−D拡張現実表示のプレーヤは、3−D拡張現実表示において行われるオーディオコマーシャルをブロックするオプションを提供されることが可能である。
記述されている実施形態の機能のうちのそれぞれは、1つまたは複数の処理回路によって実施されることが可能である。プロセッサが回路を含むように、処理回路は、プログラムされているプロセッサを含む。処理回路は、特定用途向け集積回路(ASIC)、および列挙されている機能を実行するようにアレンジされている従来の回路部品などのデバイスを含むことも可能である。回路は、回路または回路のシステムを指すということに留意されたい。回路は、1つのサーキットボードにあることが可能であり、またはいくつかの相互接続されているサーキットボードに分散されることが可能である。
一実施態様においては、車載コンピュータネットワーク200の機能およびプロセスは、車載インフォテインメントシステムを利用することが可能である。ほとんどの自動車メーカは、自社の新車において、またはオプションのアップグレードとして、車載インフォテインメントシステムを提供している。車載インフォテインメントシステムは、基礎をなしているコンピュータハードウェアプラットフォームに基づくことが可能である。コンピュータハードウェアプラットフォームは、車両の内部、たとえば、車両のダッシュボードの内部において、またはトランクもしくは側壁における後部のロケーションにおいて取り付けられている1つまたは複数のサーキットボードから構成されることが可能である。サーキットボードは、1つまたは複数のディスプレイデバイス、ならびに車両全体を通じてさまざまなロケーションに取り付けられているオーディオコンポーネントおよびさまざまなセンサに接続されることが可能である。
いくつかのハードウェアプラットフォームは、サードパーティーの製造業者から利用可能である。ほとんどのコンピュータハードウェアプラットフォームは、1つまたは複数のディスプレイデバイスのためのサポートと、スマートフォン、タブレット、またはその他の外部電子デバイスなどの外部デバイスのための接続とを提供する。コンピュータハードウェアプラットフォームのうちの多くは、カメラおよびその他のタイプのセンサデバイスへの接続のためのセンサ入力を提供する。いくつかのコンピュータハードウェアプラットフォームは、ビデオゲームおよびその他のビデオエンターテインメントによって使用される可能性があるグラフィックス処理のためのサポートを組み込んでいる。いくつかのコンピュータハードウェアプラットフォームは、音声および/または顔および/またはオブジェクト認識のための特殊な処理と、指紋識別などのセキュリティー機能とを提供する。
例示的なコンピュータハードウェアプラットフォーム1432の記述が、図14を参照しながら記述されている。図14においては、コンピュータハードウェアプラットフォーム1432は、本明細書において記述されているプロセスのうちの多くを制御するCPU1400を含む。CPU1400は、グラフィックスプロセッシングユニット(GPU)1410および/またはデジタルシグナルプロセッサ(DSP)1412によって実行される特殊なプロセスとともに、オンボードオペレーティングシステムのサービスのうちの多くを実行することが可能である。
コンピュータハードウェアプラットフォーム1432を達成するために、ハードウェア要素は、さまざまな回路要素によって実現されることが可能である。たとえば、CPU1400は、クアッドコアARMプロセッサ、もしくはIntel Atomプロセッサなどの低電力プロセッサであることが可能であり、またはその他のプロセッサタイプであることが可能である。CPU1400は、キャッシュ1406を含むことも可能である。あるいは、CPU1400は、FPGA、ASIC、PLD上に、またはディスクリートロジック回路を使用して実装されることが可能である。さらに、CPU1400は、上述されている本発明のプロセスの命令を実行するために並行して共同で機能する複数のプロセッサとして実装されることが可能である。
プロセスデータおよび命令は、SDRAM1448などのメモリに格納されることが可能である。さらに、特許請求されている進歩は、本発明のプロセスの命令が格納されているコンピュータ可読メディアという形態によって限定されるものではない。たとえば、命令は、いくつか例を挙げれば、磁気ディスク、CD、DVD、Blu Rayディスク、フラッシュドライブ、SDカードを含む取り外し可能な非一時的コンピュータ可読ストレージメディア上に格納されること、フラッシュメモリ、RAM、ROM、PROM、EPROM、EEPROMに格納されること、またはハードディスクに、もしくはハードウェアプラットフォーム1432が通信する相手であるその他の任意の情報処理デバイス、たとえばサーバもしくは外部コンピュータに格納されることが可能である。
さらに、特許請求されている進歩は、CPU1400、ならびにLINUX(登録商標)、Microsoftオペレーティングシステム、Android OSなどのオペレーティングシステム、および当業者に知られているその他のシステムとともに実行するユーティリティーアプリケーション、バックグラウンドデーモン、もしくはオペレーティングシステムのコンポーネント、またはそれらの組合せとして提供されることが可能である。
CPU1400は、GPU1410および/またはDSP1412とともに特殊なプロセスを実行することも可能である。GPU1410は、いくつか例を挙げれば、DirectX、ジオメトリーシェーディング、ハードウェアテッセレーション、プログラマブルブレンディングを使用したグラフィックス処理オペレーションをサポートすることが可能である。DSP1412は、コンピュータビジョン、オブジェクト認識、および、ADASに関連したさまざまな機能のためのオペレーションをサポートすることが可能である。
その他の専用デバイスは、タイマー1402、ブートROM1404、電力管理およびタッチスクリーン制御1442、NANDフラッシュ1454などのフラッシュ、ならびに関連付けられているフラッシュコントローラ1452を含む。
図14におけるコンピュータハードウェアプラットフォーム1432は、BluetoothプロセッサおよびWiFiプロセッサ1416などの短距離および/または中距離通信デバイス、4G LTE、5G等などのセルラー通信用のモデム1422、ならびにGPSプロセッサ1424などのロケーションプロセッサを含むさまざまな通信プロセッサを含むことも可能である。理解されることが可能であるように、ネットワーク1430は、インターネットなどのパブリックネットワーク、またはLANもしくはWANネットワークなどのプライベートネットワーク、またはそれらの任意の組合せであることが可能であり、PSTNまたはISDNサブネットワークを含むことも可能である。ネットワーク1430は、イーサネットネットワークなどの有線であることも可能であり、またはワイヤレスであることが可能である。ハードウェアプラットフォーム1432は、1つまたは複数のUSBポート、HDMIポート、コントローラエリアネットワーク(CAN)入力、デジタルビデオ入力、およびオーディオ出力1418の形態の接続を含むことが可能である。
コンピュータハードウェアプラットフォーム1432はさらに、ビデオプロセッサ1450およびディスプレイ/LCDインターフェース1414を介した1つまたは複数のディスプレイデバイスのためのサポートを含む。コンピュータハードウェアプラットフォーム1432は、1つまたは複数のタッチスクリーン1444、ボタン1446を含むことが可能である。
コンピュータハードウェアプラットフォーム1432は、1つまたは複数のカメラおよび/またはその他のセンサのための入力接続1426を含むことが可能である。
一実施態様においては、モバイルデバイス120の機能およびプロセスは、1つまたは複数のそれぞれの処理回路1526によって実施されることが可能である。上述されているように、プロセッサが回路を含むように、処理回路は、プログラムされているプロセッサを含む。処理回路は、特定用途向け集積回路(ASIC)、および列挙されている機能を実行するようにアレンジされている従来の回路部品などのデバイスを含むことも可能である。回路は、回路または回路のシステムを指すということに留意されたい。本明細書においては、回路は、1つのサーキットボードにあることが可能であり、またはいくつかの相互接続されているサーキットボードに分散されることが可能である。
次いで、例示的な実施形態による処理回路1526のハードウェア記述が、図15を参照しながら記述されている。図15においては、処理回路1526は、本明細書において記述されているプロセスを実行することが可能であるモバイル処理ユニット(MPU)1500を含む。プロセスデータおよび命令は、メモリ1502に格納されることが可能である。これらのプロセスおよび命令は、ポータブルストレージメディア上に格納されることも可能であり、またはリモートに格納されることが可能である。処理回路1526は、モバイルデバイス120のセルラーサービスに固有である情報を含む交換可能なサブスクライバーアイデンティティーモジュール(SIM)1501を有することが可能である。
さらに、特許請求されている進歩は、本発明のプロセスの命令が格納されているコンピュータ可読メディアという形態によって限定されるものではない。たとえば、命令は、フラッシュメモリ、セキュアデジタルランダムアクセスメモリ(SDRAM)、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、プログラム可能読み取り専用メモリ(PROM)、消去可能プログラム可能読み取り専用メモリ(EPROM)、電気的消去可能プログラム可能読み取り専用メモリ(EEPROM)、ソリッドステートハードディスク、または、処理回路1526が通信する相手であるその他の任意の情報処理デバイス、たとえばサーバもしくはコンピュータに格納されることが可能である。
さらに、特許請求されている進歩は、MPU1500、ならびにAndroid、Microsoft(登録商標) Windows(登録商標) 10 Mobile、Apple iOS(登録商標)などのモバイルオペレーティングシステム、および当業者に知られているその他のシステムとともに実行するユーティリティーアプリケーション、バックグラウンドデーモン、もしくはオペレーティングシステムのコンポーネント、またはそれらの組合せとして提供されることが可能である。
処理回路1526を達成するために、ハードウェア要素は、当業者に知られているさまざまな回路要素によって実現されることが可能である。たとえば、MPU1500は、Qualcommモバイルプロセッサ、Nvidiaモバイルプロセッサ、Intel Corporation of AmericaからのAtom(登録商標)プロセッサ、Samsungモバイルプロセッサ、もしくはApple A7モバイルプロセッサであることが可能であり、またはその他のプロセッサタイプであることが可能である。あるいは、MPU1500は、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス(PLD)上に、またはディスクリートロジック回路を使用して実装されることが可能である。さらに、MPU1500は、上述されている本発明のプロセスの命令を実行するために並行して共同で機能する複数のプロセッサとして実装されることが可能である。
図15における処理回路1526はまた、ネットワーク1524とインターフェース接続するための、Intel Corporation of AmericaからのIntel Ethernet PROネットワークインターフェースカードなどのネットワークコントローラ1506を含む。理解されることが可能であるように、ネットワーク1524は、インターネットなどのパブリックネットワーク、またはLANもしくはWANネットワークなどのプライベートネットワーク、またはそれらの任意の組合せであることが可能であり、PSTNまたはISDNサブネットワークを含むことも可能である。ネットワーク1524は、イーサネットネットワークなどの有線であることも可能である。処理回路は、3G、4G、および5Gワイヤレスモデム、WiFi(登録商標)、Bluetooth(登録商標)、GPS、または知られているその他の任意のワイヤレス形式の通信を含むワイヤレス通信用のさまざまなタイプの通信プロセッサ1518を含むことが可能である。
処理回路1526は、MPU1500によって管理されることが可能であるユニバーサルシリアルバス(USB)コントローラ1525を含む。
処理回路1526はさらに、ディスプレイ1510とインターフェース接続するための、NVIDIA Corporation of AmericaからのNVIDIA(登録商標) GeForce(登録商標) GTXまたはQuadro(登録商標)グラフィックスアダプタなどのディスプレイコントローラ1508を含む。I/Oインターフェース1512は、ボリューム制御のためになど、ボタン1514とインターフェース接続している。I/Oインターフェース1512およびディスプレイ1510に加えて、処理回路1526はさらに、マイクロフォン1541と、1つまたは複数のカメラ1531とを含むことが可能である。マイクロフォン1541は、サウンドをデジタル信号へと処理するための関連付けられている回路1540を有することが可能である。同様に、カメラ1531は、カメラ1531のイメージ取り込みオペレーションを制御するためのカメラコントローラ1530を含むことが可能である。例示的な態様においては、カメラ1531は、電荷結合素子(CCD)を含むことが可能である。処理回路1526は、サウンド出力信号を生成するためのオーディオ回路1542を含むことが可能であり、任意選択のサウンド出力ポートを含むことが可能である。
電力管理およびタッチスクリーンコントローラ1520は、処理回路1526およびタッチ制御によって使用される電力を管理する。処理回路1526のコンポーネントのうちのすべてを相互接続するための、業界標準アーキテクチャー(ISA)、拡張業界標準アーキテクチャー(EISA)、ビデオエレクトロニクス標準協会(VESA)、周辺コンポーネントインターフェース(PCI)などであり得る通信バス1522。ディスプレイ1510、ボタン1514、ならびにディスプレイコントローラ1508、電力管理コントローラ1520、ネットワークコントローラ1506、およびI/Oインターフェース1512の一般的な特徴および機能の記述は、簡潔にするために本明細書においては省略されている。なぜなら、これらの特徴は知られているからである。
前述の記述における特徴を含むシステムは、多くの利点を提供する。具体的には、リアルタイム3−D拡張現実システムは、車両が停止および移動の両方で車両の経路に沿って走行している際に、車両からの現実のシーンを使用することが可能である。本明細書において示されている実施形態の結果として、生成されるグラフィックエンティティの軌道を、車両のフロントガラスの視野の外側から接近する現実の要素の投影された軌道を回避するように調整することによって、3−D拡張現実の処理が大幅に簡略化される。動的なシーンを含む3−D拡張現実におけるプレーヤの没頭を保証するために、3−D拡張現実がリアルタイムで実行されることが可能である。また、車両センサ情報に応答してグラフィックエンティティの出現をトリガーすることによって、ユーザ経験が高められる。さらに、処理の複雑さにおける大幅な増大を必要とすることなく、複雑な3−D拡張現実シナリオが表示されることが可能である。
明らかに、上記の教示に照らして、多くの修正および変形が可能である。したがって、添付の特許請求の範囲の範疇内で、本発明は、本明細書において具体的に記述されている以外の方法で実施されることが可能であるということを理解されたい。
上記の開示は、以降に列挙されている実施形態を包含している。
(1)車両における3−D拡張現実表示システム。この3−D拡張現実表示システムは、車両のフロントガラスの視野を表示するように構成されているディスプレイデバイスと、コンピュータハードウェアプラットフォームとを含む。コンピュータハードウェアプラットフォームは、車両の前部のビューからビデオイメージを受信することと、ディスプレイデバイス上での表示用にフロントガラスの視野にマッチするビデオイメージの一部分を抽出することと、ディスプレイデバイス上にスーパーインポーズされ、所定の軌道に沿って移動する3−Dグラフィックエンティティを生成して表示することと、フロントガラスの視野の外側の環境に関連した感覚データを受信することと、感覚データが、フロントガラスの視野に接近している軌道経路を有している現実の要素を示している場合には、現実の要素の周囲に境界ボックスを生成し、3−Dグラフィックエンティティの軌道経路を、現実の要素に関する境界ボックスの軌道経路を回避する新たな軌道経路へ調整することとを行うように構成されている回路を含む。
(2)感覚データがGPSデータを含み、3−Dグラフィックエンティティの軌道経路が、地図と、GPSデータを使用して特定された車両の位置とから特定される、特徴(1)の3−D拡張現実表示システム。
(3)感覚データが、車両のフロントガラスの周辺ビューの外側のカメラによって取り込まれたイメージを含む、特徴(1)の3−D拡張現実表示システム。
(4)回路は、取り込まれたイメージが、車両のフロントガラスの視野に向かって車両の近傍を移動している別の車両を示していると特定するように構成されている、特徴(3)の3−D拡張現実表示システム。
(5)回路が、取り込まれたイメージが横断歩道標識を示していると特定することと、検知された横断歩道標識に起因した車両の減速に比例して3−Dグラフィックエンティティの移動を調整することとを行うように構成されている、特徴(3)の3−D拡張現実表示システム。
(6)回路は、取り込まれたイメージが、横断歩道に立っている人を示していると特定することと、3−Dグラフィックエンティティの移動を、その人の歩行経路を回避する新たな軌道経路において移動するように調整することとを行うように構成されている、特徴(5)の3−D拡張現実表示システム。
(7)地図が、車両が走行しているルート沿いの校舎を示し、回路が、校庭で遊んでいる学生を含む、校舎のカテゴリーに関連付けられているグラフィックエンティティを生成するように構成されている、特徴(2)の3−D拡張現実表示システム。
(8)回路が、時刻を検知するように構成されており、地図が、車両が走行しているルートの付近における校舎を示し、回路は、歩行および自転車走行中の学生を、時刻が、学校が学生を解散させる時間であるという検知に基づいて生成するように構成されている、特徴(2)の3−D拡張現実表示システム。
(9)回路が、音楽サウンド信号の出力および周波数に基づいて3−Dグラフィックエンティティの移動の速度を調整するように構成されている、特徴(1)の3−D拡張現実表示システム。
(10)回路が、気候条件に関連したグラフィックエンティティを追加するように3−Dグラフィックエンティティを修正するように構成されている、特徴(1)の3−D拡張現実表示システム。
(11)回路が、温度センサからのセンサ情報、およびカメラによって取り込まれたイメージを受信することと、地図が田舎エリアを示しており、取り込まれたイメージがほとんど白色であり、温度センサからの情報が氷点下の温度を示している場合には、センサ情報、およびカメラによって取り込まれたイメージに基づいて表示用のコンテンツを生成することとを行うように構成されている、特徴(2)の3−D拡張現実表示システム。
(12)回路を使用して、車両の前部のビューからビデオイメージを受信することと、回路を使用して、ディスプレイデバイス上での表示用にフロントガラスの視野にマッチするビデオイメージの一部分を抽出することと、回路を使用して、ディスプレイデバイス上にスーパーインポーズされ、所定の軌道に沿って移動する3−Dグラフィックエンティティを生成して表示することと、回路を使用して、フロントガラスの視野の外側の環境に関連した感覚データを受信することと、感覚データが、フロントガラスの視野に接近している軌道経路を有している現実の要素を示している場合には、現実の要素の周囲に境界ボックスを生成し、3−Dグラフィックエンティティの軌道経路を、現実の要素に関する境界ボックスの軌道経路を回避する新たな軌道経路へ調整することとを含む方法。
(13)感覚データがGPSデータを含み、この方法がさらに、回路を使用して、3−Dグラフィックエンティティの軌道経路を、地図と、GPSデータを使用して特定された車両の位置とから特定することを含む、特徴(12)の方法。
(14)車両のフロントガラスの周辺ビューの外側のカメラによって取り込まれた感覚データイメージ、この方法がさらに、回路を使用して、取り込まれたイメージが、車両のフロントガラスの視野に向かって車両の近傍を移動している別の車両を示していると特定することを含む、特徴(12)の方法。
(15)回路を使用して、取り込まれたイメージが横断歩道標識を示していると特定することと、回路を使用して、検知された横断歩道標識に起因した車両の減速に比例して3−Dグラフィックエンティティの移動を調整することとをさらに含む、特徴(14)の方法。
(16)回路を使用して、取り込まれたイメージが、横断歩道に立っている人を示していると特定することと、回路を使用して、3−Dグラフィックエンティティの移動を、その人の歩行経路を回避する軌道経路において移動するように調整することとをさらに含む、特徴(15)の方法。
(17)回路を使用して、音楽サウンド信号の出力および周波数に基づいて3−Dグラフィックエンティティの移動の速度を調整することをさらに含む、特徴(12)の方法。
(18)回路を使用して、気候条件に関連したグラフィックエンティティを追加するように3−Dグラフィックエンティティを修正することをさらに含む、特徴(12)の方法。
(19)コンピュータ実行可能命令を含む非一時的コンピュータ可読ストレージメディアであって、それらの命令が、コンピュータによって実行されたときに、そのコンピュータに方法を実行させる、非一時的コンピュータ可読ストレージメディア。その方法は、車両の前部のビューからビデオイメージを受信することと、回路を使用して、ディスプレイデバイス上での表示用にフロントガラスの視野にマッチするビデオイメージの一部分を抽出することと、ディスプレイデバイス上にスーパーインポーズされ、所定の軌道に沿って移動する3−Dグラフィックエンティティを生成して表示することと、フロントガラスの視野の外側の環境に関連した感覚データを受信することと、感覚データが、フロントガラスの視野に接近している軌道経路を有している現実の要素を示している場合には、現実の要素の周囲に境界ボックスを生成し、3−Dグラフィックエンティティの軌道経路を、現実の要素に関する境界ボックスの軌道経路を回避する新たな軌道経路へ調整することとを含む。
したがって前述の論考は、本発明の例示的な実施形態を開示および記述しているにすぎない。当業者によって理解されるように、本発明は、その趣旨または本質的な特徴から逸脱することなく、その他の特定の形態で具体化されることが可能である。したがって本発明の開示は、本発明の範囲、ならびにその他の特許請求の範囲を例示することを意図されているものであり、限定することを意図されているものではない。本開示は、本明細書における教示の任意の容易に識別可能な変形形態を含めて、発明性のある主題が公共に供されることのないように前述のクレームの用語の範囲を部分的に定義している。

Claims (19)

  1. 車両における3−D拡張現実表示システムであって、
    前記車両のフロントガラスの視野を表示するように構成されているディスプレイデバイスと、
    回路を含むコンピュータハードウェアプラットフォームとを含み、前記回路が、
    前記車両の前部のビューからビデオイメージを受信すること、
    前記ディスプレイデバイス上での表示用に前記フロントガラスの前記視野にマッチする前記ビデオイメージの一部分を抽出すること、
    前記ディスプレイデバイス上にスーパーインポーズされ、所定の軌道に沿って移動する3−Dグラフィックエンティティを生成して表示すること、
    前記フロントガラスの前記視野の外側の環境に関連した感覚データを受信すること、および
    前記感覚データが、前記フロントガラスの前記視野に接近している軌道経路を有している現実の要素を示している場合には、前記現実の要素の周囲に境界ボックスを生成し、前記3−Dグラフィックエンティティの前記軌道経路を、前記現実の要素に関する前記境界ボックスの前記軌道経路を回避する新たな軌道経路へ調整すること
    を行うように構成されている、3−D拡張現実表示システム。
  2. 前記感覚データがGPSデータを含み、
    前記3−Dグラフィックエンティティの前記軌道経路が、地図と、前記GPSデータを使用して特定された前記車両の位置とから特定される、請求項1に記載の3−D拡張現実表示システム。
  3. 前記感覚データが、前記車両の前記フロントガラスの周辺ビューの外側のカメラによって取り込まれたイメージを含む、請求項1に記載の3−D拡張現実表示システム。
  4. 前記回路は、前記取り込まれたイメージが、前記車両の前記フロントガラスの前記視野に向かって前記車両の近傍を移動している別の車両を示していると特定するように構成されている、請求項3に記載の3−D拡張現実表示システム。
  5. 前記回路が、
    前記取り込まれたイメージが横断歩道標識を示していると特定することと、
    検知された横断歩道標識に起因した前記車両の減速に比例して前記3−Dグラフィックエンティティの移動を調整することとを行うように構成されている、請求項3に記載の3−D拡張現実表示システム。
  6. 前記回路が、
    前記取り込まれたイメージが、横断歩道に立っている人を示していると特定することと、
    前記3−Dグラフィックエンティティの移動を、前記人の歩行経路を回避する新たな軌道経路において移動するように調整することとを行うように構成されている、請求項5に記載の3−D拡張現実表示システム。
  7. 前記地図が、前記車両が走行しているルート沿いの校舎を示し、
    前記回路が、校庭で遊んでいる学生を含む、前記校舎のカテゴリーに関連付けられているグラフィックエンティティを生成するように構成されている、請求項2に記載の3−D拡張現実表示システム。
  8. 前記回路が、時刻を検知するように構成されており、
    前記地図が、前記車両が走行しているルートの付近における校舎を示し、
    前記回路は、歩行および自転車走行中の学生を、前記時刻が、前記学校が前記学生を解散させる時間であるという検知に基づいて生成するように構成されている、請求項2に記載の3−D拡張現実表示システム。
  9. 前記回路が、音楽サウンド信号の出力および周波数に基づいて前記3−Dグラフィックエンティティの移動の速度を調整するように構成されている、請求項1に記載の3−D拡張現実表示システム。
  10. 前記回路が、気候条件に関連したグラフィックエンティティを追加するように前記3−Dグラフィックエンティティを修正するように構成されている、請求項1に記載の3−D拡張現実表示システム。
  11. 前記回路が、
    温度センサからのセンサ情報、およびカメラによって取り込まれたイメージを受信することと、
    前記地図が田舎エリアを示しており、前記取り込まれたイメージがほとんど白色であり、前記温度センサからの前記情報が氷点下の温度を示している場合には、前記センサ情報、および前記カメラによって取り込まれた前記イメージに基づいて表示用のコンテンツを生成することとを行うように構成されている、請求項2に記載の3−D拡張現実表示システム。
  12. 回路を使用して、車両の前部のビューからビデオイメージを受信することと、
    前記回路を使用して、ディスプレイデバイス上での表示用にフロントガラスの視野にマッチする前記ビデオイメージの一部分を抽出することと、
    前記回路を使用して、前記ディスプレイデバイス上にスーパーインポーズされ、所定の軌道に沿って移動する3−Dグラフィックエンティティを生成して表示することと、
    前記回路を使用して、前記フロントガラスの前記視野の外側の環境に関連した感覚データを受信することと、
    前記感覚データが、前記フロントガラスの前記視野に接近している軌道経路を有している現実の要素を示している場合には、前記現実の要素の周囲に境界ボックスを生成し、前記3−Dグラフィックエンティティの前記軌道経路を、前記現実の要素に関する前記境界ボックスの前記軌道経路を回避する新たな軌道経路へ調整することと
    を含む方法。
  13. 前記感覚データがGPSデータを含み、前記方法がさらに、前記回路を使用して、前記3−Dグラフィックエンティティの軌道経路を、地図と、前記GPSデータを使用して特定された前記車両の位置とから特定することを含む、請求項12に記載の方法。
  14. 前記車両の前記フロントガラスの周辺ビューの外側のカメラによって取り込まれた前記感覚データイメージ、
    前記方法がさらに、前記回路を使用して、前記取り込まれたイメージが、前記車両の前記フロントガラスの前記視野に向かって前記車両の近傍を移動している別の車両を示していると特定することを含む、請求項12に記載の方法。
  15. 前記回路を使用して、前記取り込まれたイメージが横断歩道標識を示していると特定することと、
    前記回路を使用して、検知された横断歩道標識に起因した前記車両の減速に比例して前記3−Dグラフィックエンティティの移動を調整することとをさらに含む、請求項14に記載の方法。
  16. 前記回路を使用して、前記取り込まれたイメージが、前記横断歩道に立っている人を示していると特定することと、
    前記回路を使用して、前記3−Dグラフィックエンティティの移動を、前記人の歩行経路を回避する軌道経路において移動するように調整することと
    をさらに含む、請求項15に記載の方法。
  17. 前記回路を使用して、音楽サウンド信号の出力および周波数に基づいて前記3−Dグラフィックエンティティの移動の速度を調整することをさらに含む、請求項12に記載の方法。
  18. 前記回路を使用して、気候条件に関連したグラフィックエンティティを追加するように前記3−Dグラフィックエンティティを修正することをさらに含む、請求項12に記載の方法。
  19. コンピュータ実行可能命令を含む非一時的コンピュータ可読ストレージメディアであって、前記命令が、コンピュータによって実行されたときに、前記コンピュータに方法を実行させ、前記方法が、
    車両の前部のビューからビデオイメージを受信することと、
    回路を使用して、ディスプレイデバイス上での表示用にフロントガラスの視野にマッチする前記ビデオイメージの一部分を抽出することと、
    前記ディスプレイデバイス上にスーパーインポーズされ、所定の軌道に沿って移動する3−Dグラフィックエンティティを生成して表示することと、
    前記フロントガラスの前記視野の外側の環境に関連した感覚データを受信することと、
    前記感覚データが、前記フロントガラスの前記視野に接近している軌道経路を有している現実の要素を示している場合には、前記現実の要素の周囲に境界ボックスを生成し、前記3−Dグラフィックエンティティの前記軌道経路を、前記現実の要素に関する前記境界ボックスの前記軌道経路を回避する新たな軌道経路へ調整することとを含む、非一時的コンピュータ可読ストレージメディア。
JP2021517560A 2018-05-31 2019-05-29 車両を含む3次元拡張現実 Pending JP2021530820A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/994,810 2018-05-31
US15/994,810 US10698206B2 (en) 2018-05-31 2018-05-31 Three dimensional augmented reality involving a vehicle
PCT/US2019/034383 WO2019232039A1 (en) 2018-05-31 2019-05-29 Three dimensional augmented reality involving a vehicle

Publications (1)

Publication Number Publication Date
JP2021530820A true JP2021530820A (ja) 2021-11-11

Family

ID=68692586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021517560A Pending JP2021530820A (ja) 2018-05-31 2019-05-29 車両を含む3次元拡張現実

Country Status (3)

Country Link
US (1) US10698206B2 (ja)
JP (1) JP2021530820A (ja)
WO (1) WO2019232039A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017124788A1 (de) * 2017-10-24 2019-04-25 Jungheinrich Ag Verfahren zur Fahrunterstützung bei einem Flurförderzeug und Flurförderzeug
WO2020005757A1 (en) * 2018-06-26 2020-01-02 Magic Leap, Inc. Waypoint creation in map detection
US10753750B2 (en) * 2018-07-12 2020-08-25 Toyota Research Institute, Inc. System and method for mapping through inferences of observed objects
US11338823B2 (en) * 2019-04-29 2022-05-24 Baidu Usa Llc Multiple sensor data storage with compressed video stream in autonomous driving vehicles
DE112019007513T5 (de) * 2019-08-01 2022-05-05 Mitsubishi Electric Corporation Fahrunterstützungsvorrichtung, fahrunterstützungssystem und fahrunterstützungsverfahren
US11176745B2 (en) 2019-09-20 2021-11-16 Facebook Technologies, Llc Projection casting in virtual environments
US11189099B2 (en) 2019-09-20 2021-11-30 Facebook Technologies, Llc Global and local mode virtual object interactions
US10991163B2 (en) 2019-09-20 2021-04-27 Facebook Technologies, Llc Projection casting in virtual environments
US11170576B2 (en) * 2019-09-20 2021-11-09 Facebook Technologies, Llc Progressive display of virtual objects
CN114667474A (zh) * 2019-10-23 2022-06-24 艾哈迈德·苏莱曼·艾哈迈德·阿尔穆萨 用于车辆的智能玻璃
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11531114B2 (en) 2020-06-16 2022-12-20 Toyota Research Institute, Inc. Sensor placement to reduce blind spots
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11227445B1 (en) 2020-08-31 2022-01-18 Facebook Technologies, Llc Artificial reality augments and surfaces
US11176755B1 (en) 2020-08-31 2021-11-16 Facebook Technologies, Llc Artificial reality augments and surfaces
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
KR20220036456A (ko) * 2020-09-15 2022-03-23 현대자동차주식회사 증강현실 기반의 정보 표시 장치
US11113893B1 (en) 2020-11-17 2021-09-07 Facebook Technologies, Llc Artificial reality environment with glints displayed by an extra reality device
US11461973B2 (en) 2020-12-22 2022-10-04 Meta Platforms Technologies, Llc Virtual reality locomotion via hand gesture
US11409405B1 (en) 2020-12-22 2022-08-09 Facebook Technologies, Llc Augment orchestration in an artificial reality environment
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
CN113619599B (zh) * 2021-03-31 2023-03-24 中汽创智科技有限公司 一种远程驾驶方法、系统、装置及存储介质
US11762952B2 (en) 2021-06-28 2023-09-19 Meta Platforms Technologies, Llc Artificial reality application lifecycle
US11748944B2 (en) 2021-10-27 2023-09-05 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US11798247B2 (en) 2021-10-27 2023-10-24 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
GB2613004A (en) * 2021-11-19 2023-05-24 Wayray Ag System and method
US20230367611A1 (en) * 2022-05-10 2023-11-16 Meta Platforms Technologies, Llc World-Controlled and Application-Controlled Augments in an Artificial-Reality Environment
CN114943805B (zh) * 2022-06-01 2023-08-01 北京精英路通科技有限公司 停车遮挡确定方法、装置、设备、存储介质及程序产品
US11947862B1 (en) 2022-12-30 2024-04-02 Meta Platforms Technologies, Llc Streaming native application content to artificial reality devices
US11991222B1 (en) 2023-05-02 2024-05-21 Meta Platforms Technologies, Llc Persistent call control user interface element in an artificial reality environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100253493A1 (en) * 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Recommended following distance on full-windshield head-up display
US20130162639A1 (en) * 2011-12-21 2013-06-27 Harman Becker Automotive Systems Gmbh Method And System For Generating Augmented Reality With A Display Of A Motor Vehicle
US20130307856A1 (en) * 2012-05-16 2013-11-21 Brian E. Keane Synchronizing virtual actor's performances to a speaker's voice
US20140362195A1 (en) * 2013-03-15 2014-12-11 Honda Motor, Co., Ltd. Enhanced 3-dimensional (3-d) navigation

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4521021A (en) 1983-02-01 1985-06-04 Dixon Claude E Video game table for airlines commercial vehicles or the like
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
ATE552478T1 (de) * 2004-06-03 2012-04-15 Making Virtual Solid L L C Navigationsanzeigeverfahren und vorrichtung für unterwegs unter verwendung eines head-up-displays
US8083589B1 (en) 2005-04-15 2011-12-27 Reference, LLC Capture and utilization of real-world data for use in gaming systems such as video games
US7955168B2 (en) 2005-06-24 2011-06-07 Disney Enterprises, Inc. Amusement ride and video game
US8427395B2 (en) * 2009-04-02 2013-04-23 GM Global Technology Operations LLC Full-windshield hud enhancement: pixelated field of view limited architecture
US20120084812A1 (en) 2010-10-04 2012-04-05 Mark Thompson System and Method for Integrating Interactive Advertising and Metadata Into Real Time Video Content
US20130083061A1 (en) 2011-09-30 2013-04-04 GM Global Technology Operations LLC Front- and rear- seat augmented reality vehicle game system to entertain & educate passengers
US9378644B2 (en) * 2013-03-15 2016-06-28 Honda Motor Co., Ltd. System and method for warning a driver of a potential rear end collision
US9393870B2 (en) * 2013-03-15 2016-07-19 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
JP2016526707A (ja) 2013-07-02 2016-09-05 ナオーリ、イグダル リアルタイム自動車運転シミュレータ
KR20150107187A (ko) 2014-03-13 2015-09-23 현대자동차주식회사 차량의 조작계통을 이용한 게임 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100253493A1 (en) * 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Recommended following distance on full-windshield head-up display
US20130162639A1 (en) * 2011-12-21 2013-06-27 Harman Becker Automotive Systems Gmbh Method And System For Generating Augmented Reality With A Display Of A Motor Vehicle
US20130307856A1 (en) * 2012-05-16 2013-11-21 Brian E. Keane Synchronizing virtual actor's performances to a speaker's voice
US20140362195A1 (en) * 2013-03-15 2014-12-11 Honda Motor, Co., Ltd. Enhanced 3-dimensional (3-d) navigation

Also Published As

Publication number Publication date
US20190369391A1 (en) 2019-12-05
US10698206B2 (en) 2020-06-30
WO2019232039A1 (en) 2019-12-05

Similar Documents

Publication Publication Date Title
US10698206B2 (en) Three dimensional augmented reality involving a vehicle
JP7332726B2 (ja) ヒートマップを使用したドライバーの注目の検出
US10079929B2 (en) Determining threats based on information from road-based devices in a transportation-related context
US10724874B2 (en) Virtual reality environment responsive to predictive route navigation
US20210197720A1 (en) Systems and methods for incident detection using inference models
EP3333821A2 (en) Method and system to manage vehicle groups for autonomous vehicles
US9159236B2 (en) Presentation of shared threat information in a transportation-related context
CN109636924B (zh) 基于现实路况信息三维建模的车载多模式增强现实系统
US11996018B2 (en) Display control device and display control program product
US11776396B2 (en) Intersection infrastructure warning system
CN113176537A (zh) 警笛信号的检测和分类以及警笛信号源的定位
CN108604413B (zh) 显示装置的控制方法及显示装置
US11332165B2 (en) Human trust calibration for autonomous driving agent of vehicle
WO2020113187A1 (en) Motion and object predictability system for autonomous vehicles
WO2020183893A1 (ja) 情報処理装置及び情報処理方法、並びに移動体装置
Damerow et al. Risk-based driver assistance for approaching intersections of limited visibility
CN110281934A (zh) 车辆控制装置、车辆控制方法及存储介质
US11400923B2 (en) Information processing device, vehicle control device, and mobile object control method
CN114756700B (zh) 场景库建立方法、装置、车辆、存储介质及芯片
US20220383645A1 (en) Rendering system, display system, moving vehicle, rendering method, and non-transitory storage medium
JP6839642B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2020163932A (ja) 車両用表示装置
CN112770139A (zh) 车辆虚拟竞赛系统及方法
WO2020036057A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
CN115221260B (zh) 数据处理方法、装置、车辆及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220809