JP2016048552A - 外部情報のドライバへの提供 - Google Patents

外部情報のドライバへの提供 Download PDF

Info

Publication number
JP2016048552A
JP2016048552A JP2015165628A JP2015165628A JP2016048552A JP 2016048552 A JP2016048552 A JP 2016048552A JP 2015165628 A JP2015165628 A JP 2015165628A JP 2015165628 A JP2015165628 A JP 2015165628A JP 2016048552 A JP2016048552 A JP 2016048552A
Authority
JP
Japan
Prior art keywords
data
graphic
vehicle
module
client device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015165628A
Other languages
English (en)
Inventor
エムラ アクン シシュボット,
Akin Sisbot Emarah
エムラ アクン シシュボット,
ベエーラガネッシュ ヤラ,
Yalla Veeraganesh
ベエーラガネッシュ ヤラ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JP2016048552A publication Critical patent/JP2016048552A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/03Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
    • G01S19/10Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers providing dedicated supplementary positioning signals
    • G01S19/11Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers providing dedicated supplementary positioning signals wherein the cooperating elements are pseudolites or satellite radio beacon positioning system signal repeaters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/0009Transmission of position information to remote stations
    • G01S5/0072Transmission between mobile stations, e.g. anti-collision systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/55External transmission of data to or from the vehicle using telemetry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】物体がドライバの視界内になくても、ドライバが容易かつ迅速に物体を検出・認識できるようにする。【解決手段】プロセッサベースの演算装置によって実行される方法であって、物体の位置を放送する第1のプロセッサベースのコンピュータ装置から物体−車両(X2V)データを受信するステップと、前記X2Vデータから物体の経路を含む物体データを生成するステップと、車両の経路を含む車両データを生成するステップと、前記車両データと前記物体データに基づいて、前記物体の危険インデックスを推定するステップと、前記物体を表示するためのグラフィックを特定するステップと、ユーザのアイフレームに対応するように前記グラフィックを配置するステップと、を含む。【選択図】図2

Description

本明細書は、物体−車両(X2V)データに基づいて、ヘッドアップディスプレイ用の物体情報を生成する技術に関する。
車両安全アプリケーションは、センサを頼りに、車両と衝突する可能性があるエンティティを検出する。これらの安全アプリケーションは有用であるものの、視覚的検出に依存しているので、エンティティの検出に遅延が生じることもある。安全アプリケーションが視覚的にエンティティを検出した時点では、衝突防止には遅すぎることもある。
本発明は、物体がドライバの視界内になくても、ドライバが容易かつ迅速に物体を検出・認識できるようにすることを目的とする。
本開示において説明される発明主題の革新的な一態様は、物体の位置を放送する第1のプロセッサベースのコンピュータ装置から物体−車両(X2V)データを受信する受信手段と、前記X2Vデータから物体の経路を含む物体データを生成する生成手段と、車両の経路を含む車両データを取得する取得と、前記車両データと前記物体データに基づいて、前記物体の危険インデックスを推定する推定手段と、前記物体を表示するためのグラフィックを特定する特定手段と、ユーザのアイフレームに対応するように前記グラフィックを配置する配置手段と、を備える、システムである。
一般に、本開示において説明される発明主題の別の革新的な一態様は、プロセッサベースの演算装置によって実行される方法であって、物体の位置を放送する第1のプロセッサベースのコンピュータ装置から物体−車両(X2V)データを受信するステップと、前記X2Vデータから物体の経路を含む物体データを生成するステップと、車両の経路を含む車両データを生成するステップと、前記車両データと前記物体データに基づいて、前記物体の危険インデックスを推定するステップと、前記物体を表示するためのグラフィックを特定するステップと、ユーザのアイフレームに対応するように前記グラフィックを配置するステップと、を含む、方法である。
これらおよびその他の実施形態は、それぞれ以下の処理や特徴の一つまたは複数を付随的に含むことができる。たとえば、前記物体は前記ユーザの視界外にあることができる。また、前記X2Vデータは、専用狭域通信(DSRC)を介して受信されることができる。また、前記物体は、ウェアラブル装置でありうる。また、前記物体データは、前記物体の位置、前記物体の速度、および前記物体の種類を含みうる。また、前記グラフィックは、前記物体の単純化された表現でありうる。
ある実施形態においては、以下の付加的な処理を含むこともできる。たとえば、前記危険インデックスがあらかじめ定められた閾値確率を超えるか否かを判定することによって行われること、前記危険インデックスに基づいて前記グラフィックの表示モダリティを決定すること、前記グラフィックを前記物体の実際の位置と対応させて配置し、前記ユーザが前記グラフィックを見るときと前記物体を見るときとで眼の焦点を実質的に同一に維持できるようにすること、を含むことができる。
本発明の他の態様は、上記と対応する方法、システム、装置、コンピュータプログラムプロダクト、上記方法をコンピュータに実行させるためのコンピュータプログラム、当該コンピュータプログラムを格納した記憶媒体などを含む。
本開示は、特にいくつかの点で有利である。たとえば、本システムによれば、物体が視界内になくても、ドライバが物体を検出・認識することができる。そのうえ、本システムは、理解が容易なグラフィクスを用いて、ユーザに危険な状況を警告することができる。そのうえ、ヘッドアップディスプレイは、目の焦点を道路とグラフの間で変えることをドライバに要求しないグラフィクスを生成する。その結果、ユーザはより速く反応することができて、衝突を避けることができる。
以下の説明および添付の図面は本発明を説明するための例示であり、本発明を限定するものではない。図面においては、同様の要素には同一の参照符号を付してある。
図1は、ヘッドアップディスプレイ用に物体情報を生成するためのシステムの例を示すブロック図である。 図2は、物体情報を生成するための安全アプリケーションの例を示すブロック図である。 図3Aは、X2Vデータを検出している例示的な車両の図式表示である。 図3Bは、決定された危険インデックスを使った例示的な物体の図式表示である。 図3Cは、グラフィック選択過程の図式表示例である。 図3Dは、ヘッドアップディスプレイの図式表示例である。 図4は、ヘッドアップディスプレイのために物体情報を生成する例示的な方法のフローチャートである。 図5は、ヘッドアップディスプレイの構成例である。
<例示的なシステムの概要>
図1は、X2Vデータに基づいてヘッドアップディスプレイ用に物体情報を生成するためのシステム100の一実施形態のブロック図を例示する。システム100は、第1のクライアント装置103、モバイルクライアント装置188、放送装置120、ソーシャルネットワークサーバ101、第2のサーバ198、および地図サーバ190を含む。第1のクライアント装置103とモバイルクライアント装置188は、それぞれ、信号線122と124を介して、ユーザ125aと125b(以下では、個々におよび集合的に、ユーザ125とも称する)によってアクセスされることができる。本実施形態においては、システム100のこれらのエンティティは、ネットワーク105を介して通信可能に結合されることができる。システム100は、たとえば、交通データを提供するための交通サーバ、気象データを提供するための気象サーバおよび電力使用サービス(例えば課金サービス)を提供するための電力サービスサーバなどを含む、図1に示されない他のサーバまたは装置を含むことができる。
図1における第1のクライアント装置103とモバイルクライアント装置188は、一例として用いられることができる。図1は2つのクライアント装置103,188を例示するが、本開示は一つまたは複数のクライアント装置103,188を有するシステムアーキテクチャーに適用することができる。さらに、図1には複数の放送装置120が示されているが、放送装置120は1つであってもよい。さらに、図1は、第1のクライアント装置103、モバイルクライアント装置188、ソーシャルネットワークサーバ101
、第2のサーバ198と地図サーバ190に結合する1つのネットワーク105を例示するが、実際には、一つまたは複数のネットワーク105を接続することができる。図1は、1台のソーシャルネットワークサーバ101、1台の第2のサーバ198と1台の地図サーバ190を含むが、システム100は、一つまたは複数のソーシャルネットワークサーバ101、一つまたは複数の第2のサーバ198と一つまたは複数の地図サーバ190を含むことができる。
ネットワーク105は、有線ネットワークであっても無線ネットワークであっても良く、また、スター型、トークンリング型や当業者に知られているその他の構成を取ることができる。さらにまた、ネットワーク105はLAN(Local Aria Network),WAN(Wide Area Network)(例えばインターネット)や、複数の装置が通信可能な相互接続データパスを含むことができる。ある実施形態では、ネットワーク105はピアツーピアネットワークであることができる。ネットワーク105は、種々の異なる通信プロトコルでデータを送る電気通信網の一部に結合されたり当該一部を含んでもよい。ある実施形態では、ネットワーク105は、ブルートゥース(登録商標)通信ネットワークや携帯電話通信ネットワークを含み、SMS(ショートメッセージサービス)、MMS(マルチメディアメッセージサービス)、HTTP(ハイパーテキスト転送プロトコル)、直接データ接続、WAP、電子メールなどのデータを送受信する。ある実施形態では、ネットワーク105は、GPSナビゲーションを第1のクライアント装置103またはモバイルクライアント装置188に提供するためのGPS衛星を含むことができる。ネットワーク105は、3G、4G、LTE、Voice−over−LTE(VoLTE)のような任意のモバイルデータネットワークまたはモバイルデータネットワークの組合せであることができる。
放送装置120は、プロセッサとメモリを含むモバイルコンピュータでありえる。たとえば、放送装置120は、ネットワーク105にアクセス可能なウェアラブル装置、スマートフォン、携帯電話、パーソナル携帯情報機器(PDA)、モバイル電子メール装置、携帯ゲームプレーヤー、携帯音楽プレーヤーまたは他の携帯電子デバイスでありえる。ウェアラブル装置は、たとえば、ネットワーク越しに通信する装身具(jewelry)を含む。放送装置120は、DSRC(Dedicated Short−Range Communication)プロトコルを用いて通信する。放送装置120は、物体に関する情報を提供する。物体は、ウェアラブル装置を持つ歩行者、スマートフォンを持つ自転車運転者、その他の乗物などを含む。
放送装置120は、専用狭域通信(DSRC)として、X2Vデータを安全アプリケーション199に送る。X2Vデータは、車両−車両(V2V)データ、インフラ−車両(I2V)サービス、歩行者や自転車運転者のようなその他の物体からのデータなどの、任意のタイプの物体−車両データを含む。X2Vデータは、物体(X)から車両(V)に対して送信(X2V通信と称される)される物体(X)に関するデータである。X2Vデータは、物体から車両に対して直接送信されてもよいし、物体から中継装置を介して車両に送信されてもよい。X2Vデータは、物体位置に関する情報を含む。物体位置は、車両に対する物体の相対的な位置であってもよいし、物体の絶対的な位置であってもよい。一実施形態においては、X2Vデータは、データ源の種類を示す1または複数のビットを含む。DSRCは、自動車で用いられるように設計された、一方向または双方向の短距離から中距離の無線通信チャネルである。DSRCは、5.9GHzバンドを通信に用いる。
ある実施形態では、安全アプリケーション199aは、第1のクライアント装置103上で実行可能である。第1のクライアント装置103は、バッテリシステム搭載のモバイルクライアント装置でありえる。たとえば、第1のクライアント装置103は、非一時的なコンピュータエレクトロニクスとバッテリシステムを含む車両(例えば自動車、バス)
、体内埋込装置やその他のモバイルシステムのうちのいずれかでありえる。ある実施形態では、第1のクライアント装置103は、メモリとプロセッサを含むコンピュータを含むことができる。図示される実施形態では、第1のクライアントデバイス103は信号線108を介してネットワーク105と通信可能に結合されている。
他の実施形態では、安全アプリケーション199bは、モバイルクライアント装置188上で実行可能である。モバイルクライアント装置188は、たとえば、ダッシュボードに搭載される車両装置、ラップトップコンピュータ、タブレットコンピュータ、携帯電話、パーソナル携帯情報機器(PDA)、モバイル電子メール装置、携帯ゲームプレーヤー、携帯音楽プレーヤー、ネットワーク105にアクセス可能なその他の携帯電子デバイスのような、メモリとプロセッサを含む携帯型コンピュータであることができる。ある実施形態では、安全アプリケーション199bは、部分的に第1のクライアント装置103の上に格納されるシンクライアントとして振る舞い、部分的にモバイルクライアント装置188に格納されるコンポーネントとして振る舞う。図示される実施形態では、モバイルクライアントデバイス188は信号線118を介してネットワーク105と通信可能に結合されている。
ある実施形態では、第1のユーザ125aと第2のユーザ125bは、第1のクライアント装置103とモバイルクライアント装置188の両方と相互作用する同一のユーザ125でありえる。たとえば、ユーザ125は、第1のクライアント装置103(例えば車両)内に座っていて、モバイルクライアント装置188(例えばスマートフォン)を操作しているドライバでありえる。ある他の実施形態では、第1のユーザ125aと第2のユーザ125bは、それぞれ、第1のクライアント装置103とモバイルクライアント装置188と相互作用する異なるユーザ125でありうる。たとえば、第1のユーザ125aは、第1のクライアント装置103を運転するドライバであり、第2のユーザ125bはモバイルクライアント装置188と相互作用する乗客でありえる。
安全アプリケーション199は、ヘッドアップディスプレイ用に物体情報を生成するためのソフトウェアでありえる。安全アプリケーション199は、放送装置120からX2Vデータを受信する。物体がドライバの視界内にない場合でも、安全アプリケーション199はX2Vデータを受信可能である。安全アプリケーション199は、物体の経路を含む物体データと、車両の経路を含む車両データとを生成する。安全アプリケーション199は、車両データと物体データに基づいて、物体の危険インデックスを推定する。たとえば、安全アプリケーション199は、車両が物体と衝突するかどうかを決定する。
安全アプリケーション199は、物体を表示するためのグラフィック、例えば自転車の接近をユーザに警告するための自転車のアイコン、を特定する。安全アプリケーション199は、ドライバのアイフレームに対応するようにグラフィックを配置するための命令をヘッドアップディスプレイに送る。
ある実施形態では、安全アプリケーション199は、フィールドプログラマブルゲートアレイ(FPGA)または特定用途向け集積回路(ASIC)を含むハードウェアを用いて実施されることができる。別の実施形態では、安全アプリケーション199はハードウェアとソフトウェアの両方を用いて実装される。ある実施形態では、安全アプリケーション199は、装置とサーバの両方に格納されてもよいし、装置とサーバのいずれかのみに格納されてもよい。
ソーシャルネットワークサーバ101は、プロセッサ、メモリとネットワーク通信能力を含むハードウェアサーバである。本実施形態においては、ソーシャルネットワークサーバ101は、信号線104を介してネットワーク105に結合されている。ソーシャルネ
ットワークサーバ101は、ネットワーク105を介してシステム100の他のエンティティとの間でデータを送受信する。ソーシャルネットワークサーバ101は、ソーシャルネットワークアプリケーション111を含む。ソーシャルネットワークは、ユーザ125が共通の特徴によって繋がることができる一種の社会構造(social structure)である。共通機能は、例えば、友好関係、家族、仕事、関心などの関係や繋がりを含む。共通の特徴は、明示的に定義された関係や、他のオンラインユーザとの間の社会的繋がりによって暗示される関係を含む一つまたは複数のソーシャルネットワークシステムによって提供されることができ、このような関係がソーシャルグラフを形成する。ある実施例では、ソーシャルグラフは、これらのユーザの対応や、これらのユーザがどのような関係であるかを反映する。
ある実施形態では、ソーシャルネットワークアプリケーション111は、物体データを生成するために用いられるソーシャルネットワークを生成する。たとえば、第1のクライアント装置103と類似した経路を走行している他の車両は、第1のクライアント装置が遭遇する物体についての情報を特定することができる。たとえば、物体が歩行者である場合、他の車両はX2Vデータから歩行者の速度と方向を決定することができる。その物体データは、歩行者の危険インデックスをより正確に決定するために、安全アプリケーション199によって用いられる。
地図サーバ190は、プロセッサ、メモリとネットワーク通信能力を含むハードウェアサーバである。本実施形態においては、地図サーバ190は、信号線114を介してネットワーク105に結合されている。地図サーバ190は、ネットワーク105を介してシステム100の他のエンティティとの間でデータを送受信する。地図サーバ190は、地図アプリケーション191を含む。地図アプリケーション191は、ユーザのために地図と方向案内を生成することができる。一実施形態においては、安全アプリケーション199は、点Aから点Bまで旅行するユーザ125から方向案内の要求を受信し、この要求を地図サーバ190に送信する。地図アプリケーション191は、方向案内と地図を生成して、この方向案内と地図を表示するために安全アプリケーション199に送る。ある実施形態では、方向案内が第1のモバイル装置103の経路決定に利用できるので、安全アプリケーション199は方向案内を車両データ293に加える。
ある実施形態では、システム100は、信号線197を介してネットワークに結合される第2のサーバ198を含む。第2のサーバ198は、安全アプリケーション199により用いられる追加情報(情報エンターテイメント、音楽、その他)を格納することができる。ある実施形態では、第2のサーバ198は、安全プリケーション199からデータ(例えば、映画や音楽などをストリーミングするためのデータ)を求める要求を受信して、データを生成して、データを安全アプリケーション199に発信する。
<安全アプリケーションの例>
次に図2を参照して、安全アプリケーション199の例をより詳細に説明する。図2は、一実施例にかかる、安全アプリケーション199、プロセッサ225、メモリ227、グラフィクスデータベース229、ヘッドアップディスプレイ231、カメラ233、通信ユニット245、およびセンサ247を含む第1のクライアント装置103のブロック図である。第1のクライアント装置103の各構成要素は、バス240を介して通信可能に結合される。
図2では安全アプリケーション199は第1のクライアント装置103に保存されているが、当業者であれば安全アプリケーション199の構成要素が、特定のハードウェアが適用不可能なモバイルクライアント装置188に保存されても良いことを理解できるだろう。たとえば、モバイルクライアント装置188は、ヘッドアップディスプレイ231や
カメラ233を含まないかもしれない。安全アプリケーション199がモバイルクライアント装置188に保存される実施形態では、安全アプリケーション199は、第1のクライアント装置103上のセンサから情報を受信し、当該情報を利用してヘッドアップディスプレイ231用のグラフィックを決定し、第1のクライアント装置103上のヘッドアップディスプレイ231に当該グラフィックデータを送ることができる。ある実施形態では、安全アプリケーション199は、一部が第1のクライアント装置103上に、そして、一部がモバイルクライアント装置188上に格納される。
プロセッサ225は、演算論理ユニット、マイクロプロセッサ、汎用制御装置や、その他のプロセッサアレイを有し、計算を実行したり、表示装置に電子表示信号を提供したりする。プロセッサ225は、バス240に結合され、信号線236を介して他の構成要素と通信する。プロセッサ225はデータ信号を処理する。プロセッサのアーキテクチャは、CISC(Complex Instruction Set Computer)、RISC(Reduced Instruction Set Computer)、これら両方の命令セットの組合せとして実装されたアーキテクチャなど様々なアーキテクチャが可能である。図2には1つのプロセッサ225だけが示されるが、複数のプロセッサ225が含まれてもよい。上記以外のプロセッサ、オペレーティングシステム、センサ、表示装置、あるいは物理的構成も採用可能である。
メモリ227は、プロセッサ225が実行可能な命令やデータを格納する。メモリ227は、バス240に結合され、信号線238を介して他の構成要素と通信する。格納される命令やデータは、ここに表される技術を実行するためのコードを含む。メモリ227は、DRAM、SRAM、フラッシュメモリやその他の既存のメモリ装置である。ある実施形態においては、メモリ227は、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、CD−ROM装置、DVD−ROM装置、DVD−RAM装置、DVD−RW装置、フラッシュメモリ装置や情報記憶の分野において既知のその他の大容量記憶装置などの、非一時的(non−volatile)メモリや永久記憶装置を含んでも良い。
図2に示すように、メモリ227は、車両データ293、X2Vデータ295、物体データ297、および旅行データ298を格納する。車両データ293は、車両の速度、ライトがオンであるかオフであるか、地図サーバ190によって提供される意図された経路の、などのような第1のクライアント103についての情報を含む。ある実施形態では、センサ247は、車両データ293を決定するためのハードウェアを含むことができる。車両データ293は、物体の危険インデックスを決定するために、危険評価モジュール226により用いられる。
X2Vデータ295は、放送装置120の位置情報を含む。カテゴリ化モジュール224は、物体の速度と物体の種類を含むX2Vデータ295から、物体データ297を生成する。ある実施形態では、物体データ297は、異なる種類の物体がどのように振る舞うかについての過去データも含む。物体データ297は、センサ247やカメラ233からのデータに基づいて検知モジュール222が生成する情報によって補われることもできる。
旅行データ298は、ユーザの旅行に関する情報、例えば、過去の旅行と関連付いた始点、目的地、期間、経路などを含む。たとえば、旅行データ298は、第1のクライアント装置103によって訪問される全ての位置、ユーザ125によって訪問される全ての位置(例えば、第1のクライアント装置103とモバイルクライアント装置188の両方に関連した位置)、ユーザ125によってリクエストされる位置などのログを含むことができる。
グラフィクスデータベース229は、グラフィクス情報を格納するためのデータベースを含む。グラフィクスデータベース229は、異なる物体を表現するためにあらかじめ作られた二次元および三次元のグラフィックの集合を含む。たとえば、二次元のグラフィックは2Dピクセルマトリックスであり、三次元グラフィックは3Dボクセルマトリックスであることができる。グラフィクスは、ユーザの認識負荷を減少させるために、物体の簡略化表現であってもよい。たとえば、現実的な描写として歩行者を表現する代わりに、歩行者のグラフィックはステッキの図案を含んでもよい。ある実施形態では、グラフィクスデータベース229は、問い合わせに応じるリレーショナルデータベースである。たとえば、グラフィクス選択モジュール228は、物体データ297に合致するグラフィクスを、グラフィクスデータベース229に問い合わせる。
ヘッドアップディスプレイ231は、ユーザがグラフィックデータを見るために視線を道路からそらす必要がないように、3次元(3D)グラフィックデータをユーザの前方に表示するためのハードウェアを含む。たとえば、ヘッドアップディスプレイ231は、物理的な表示面を含んでもよいし、第1のクライアント装置103のフロントガラスの一部や反射レンズの一部である透明膜にグラフィックデータを投影しても良い。ある実施形態では、ヘッドアップディスプレイ231は、製作過程において第1のクライアント装置103の一部として含まれてもよいし、後で設置されてもよい。他の実施形態では、ヘッドアップディスプレイ231は取り外し可能な装置である。ある実施形態では、グラフィックデータは、例えば夜間、昼間、曇り、晴れなどの環境条件を考慮して、輝度レベルが調整される。ヘッドアップディスプレイは、信号線232を介してバス240に結合されている。
ヘッドアップディスプレイ231は、安全アプリケーション199から表示用のグラフィックデータを受信する。たとえば、ヘッドアップディスプレイ231は、安全アプリケーション199から透明な態様(モダリティ)を持つ車両のグラフィックを受信する。ヘッドアップディスプレイ231は、三次元デカルト座標(例えば、x,y,z座標)を用いてグラフィクスを表示する。
図5は、ヘッドアップディスプレイ231の構成例を示す図である。ヘッドアップディスプレイは、プロジェクタ1001、可動スクリーン1002、スクリーン駆動部1003、光学系(レンズ1004,1006や反射板1005など)を有する。プロジェクタ1001は画像1008を可動スクリーン1002上に投影し、投影された画像は、光学系を介して、車両(第1のクライアント装置103)のフロントガラス1007に投影される。フロントガラス1007に投影された画像は、フロントガラス1007の前方の実空間内に存在する物体(1011a、1011bなど)としてドライバ1010によって知覚される。
ヘッドアップディスプレイ231は、プロジェクタ1001による可動スクリーン1002上への画像の投影位置を調整することで、実空間内における投影像のドライバ1010に対する方向を制御できる。また、可動スクリーン1002は、スクリーン駆動部1003によって位置1003aから位置1003bの範囲で移動可能である。可動スクリーンの位置を調整することで、実空間における投影像のドライバ1010からの距離を調整できる。この移動範囲(位置1003aと位置1003bの間の距離)は本実施形態では5mmであるが、これは実空間での距離は5mから無限遠に対応する。本実施形態におけるヘッドアップディスプレイ231を用いることで、ドライバ1010は、投影像が実空間(3次元空間)内にあるものと知覚できる。例えば、実空間における実物体(例えば歩行者や他の車両など)と同じ3次元空間位置に画像を投影すると、ドライバ1010は、実物体と投影像を見るときに眼の焦点を変える必要がなく、実物体を見ている状況で投影
像を容易に認識できる。
カメラ233は、第1のクライアント装置103の外の画像を撮影するためのハードウェアであり、この画像は、物体を特定するために検知モジュール222により用いられる。ある実施形態では、カメラ233は道路のビデオ録画を撮影する。カメラ233は、第1のクライアント装置103の内部にあってもよいし、第1のクライアント装置103の外にあってもよい。ある実施形態では、カメラ233は車両の前面部分に配置されて、道路上もしくはその付近の物体を記録する。たとえば、カメラ233は、ユーザが見ることができるすべてのものを記録できるように配置される。カメラ233は、画像を安全アプリケーション199に送る。図では、1台のカメラ233だけが示されているが、複数のカメラ233を用いることもできる。複数のカメラ233が用いられる実施形態では、カメラ233は道路の視野範囲を最大化するように配置されることが好ましい。たとえば、カメラ233はグリルの両側に配置することができる。カメラは、信号線234を介してバス240に結合される。
安全アプリケーション199の格納場所に応じて、通信ユニット245は、第1のクライアント装置103とモバイルクライアント装置188のうちの少なくとも1つとの間でデータを送受信する。通信ユニット245は、信号線246を介してバス240に結合されている。ある実施形態では、通信ユニット245は、ネットワーク105や他の通信チャネルへの直接的な物理的接続のためのポート(接合部)を含む。たとえば、通信ユニット245は、第1のクライアント装置103との有線通信のためのUSB、SD、CAT−5または類似のポートを含む。ある実施形態では、通信ユニット245は、IEEE 802.11、IEEE 802.16、BLUETOOTH(登録商標)、または他の適切な無線通信方式を含む一つまたは複数の無線通信方式を用いて、クライアント装置103や他の通信チャネルとデータを交換するための無線送受信部を含むことができる。
ある実施形態では、通信ユニット245は、携帯電話ネットワークを介して、ショートメッセージサービス(SMS)、マルチメディアメッセージサービス(MMS)、ハイパーテキスト転送プロトコル(HTTP)、直接的データ接続、WAP、電子メールやその他の適切な種類の電子的通信を含むデータを送信するための携帯無線送受信機を含む。ある実施形態では、通信ユニット245は、有線ポートと無線送受信機を含みうる。通信ユニット245は、TCP/IP、HTTP、HTTPS、SMTPなどを含む標準ネットワークプロトコルを用いて、ファイルやメディアオブジェクトを配布するために、ネットワーク105への従来の接続も提供する。
センサ247は、物理的変化を感知する任意の装置である。第1のクライアント装置103は、1種類または多種類のセンサ247を有することができる。センサ247は、信号線248を介してバス220に結合される。
センサ247は、802.11p DSRC WAVE通信ユニットなどのような、狭域通信(DSRC)を介してX2Vデータを受信するためのハードウェアを含む。センサ247は、X2Vデータを、通信モジュール221またはメモリ227に送って記憶する。
一実施形態においては、センサ247は、ライダー(LIDAR:光検出測距)のような、第1のクライアント103周囲の環境の3次元マップを生成するために用いられるレーザー式センサである。ライダーは、レーザーから対象物に向けてエネルギーバーストを放出し、戻り光を測定して距離を計算することによって、第1のクライアント装置103の視覚として機能する。別の実施形態においては、センサ247はレーダーを含む。レーダーはライダーと類似の機能を有するが、距離決定のためにマイクロ波パルスを用い、よ
り遠くの距離にあるより小さい物体を検出可能である。
別の実施形態においては、センサ247は、第1のクライアント装置103についての車両データ293を決定するためのハードウェアを含む。たとえば、センサ247は、例えば第1のクライアント装置103の加速度を測定するために用いられる加速度計のようなモーション検出器である。別の例では、センサ247は、例えばグローバルポジショニングシステム(GPS)、ワイヤレスネットワークを介した三角測量による位置検出などの位置検出器を含む。さらに別の例では、センサ247は、ライトがオンであるかオフであるか、ワイパーがオンであるかオフであるかを決定するための装置のような、第1のクライアント103の状態を決定するための装置を含む。ある実施形態に、センサ247は、通信モジュール202を介して車両データ293を検知モジュール222または危険評価モジュール226に送る。他の実施形態では、センサ247は、車両データ293の一部として位置情報をメモリ227に格納する。
ある実施形態では、センサ247は深度(depth)センサを含む。深度センサは、赤外レーザー光のスペックルパターンのようなパターン投影を用いて深度を決定する。別の実施形態においては、深度センサは、光信号がカメラ233と物体の間を進むのに要する時間に基づいて深度を決定するTOF(Time of Flight)技術を用いて深度を決定する。たとえば、深度センサは、レーザー測距器である。深度センサは、通信モジュール202を介して深度情報を検知モジュール222に送ってもよいし、センサ247は、車両データ293の一部として深度情報をメモリ227に格納しても良い。
他の実施形態に、センサ247は、赤外検出器、モーション検出器、サーモスタット、音検出器、その他のタイプの任意のセンサを含むことができる。たとえば、第1のクライアント装置103は、現在時刻、位置(例えば、位置の緯度・経度・高度)、車両の加速度、速度、燃料タンクレベル、バッテリーレベルの速さなどの一つ以上を測定するためのセンサを含むことができる。センサは、車両データ293を生成するために用いられる。車両データ293は、旅行中に取得される任意の情報や、ソーシャルネットワークサーバ101、第2のサーバ198、地図サーバ190またはモバイルクライアント装置188から受信される任意の情報を含むこともできる。
ある実施形態では、安全アプリケーション199は、通信モジュール221、検知モジュール222、カテゴリ化モジュール224、危険評価モジュール226、グラフィクス選択モジュール228、およびシーン計算モジュール230を含む。
通信モジュール221は、安全アプリケーション199と第1のクライアント装置103の他の構成要素との間の通信を処理するためのルーチンを含むソフトウェアである。ある実装形態では、通信モジュール221は、プロセッサ235で実行可能な一組の命令であり、安全アプリケーション199と第1のクライアント装置103の他の要素との間の通信を処理するために下記の機能を提供する。ある実施形態では、通信モジュール221は、第1のクライアント装置103のメモリ237に格納され、プロセッサ235によってアクセスおよび実行可能である。
通信モジュール221は、通信ユニット245を介して、安全アプリケーション199が格納される場所に応じて、第1のクライアント装置103、モバイルクライアント装置188、地図サーバ190、ソーシャルネットワークサーバ101、および第2のサーバ198の一つまたは複数との間でデータを送受信する。たとえば、通信モジュール221は、通信ユニット245を介して放送装置120からX2Vデータ295を受信する。通信モジュール221は、X2Vデータ295を、記憶のためのメモリ227に送り、そして、処理のためのカテゴリ化モジュール224に送る。
ある実施形態では、通信モジュール221は、安全アプリケーション199の構成要素からデータを受信して、データをメモリ237に格納する。たとえば、通信モジュール221は、センサ247からデータを受信して、検知モジュール222によって決定されるように車両データとしてメモリ237に格納する。
ある実施形態では、通信モジュール221は、安全アプリケーション199の構成要素の間の通信を処理することができる。たとえば、通信モジュール221は、カテゴリ化モジュール224から物体データ297を受信して、それを危険評価モジュール226に送る。
検知モジュール222は、物体についてセンサ247からデータを受信するためのルーチンを含むソフトウェアである。ある実装形態では、検知モジュール222は、プロセッサ235で実行可能な一組の命令であり、センサ247からセンサデータを受信するための下記の機能を提供する。ある実施形態では、検知モジュール222は、第1のクライアント装置103のメモリ237に格納され、プロセッサ235によってアクセスおよび実行可能である。
検知モジュール222は、物体についてカテゴリ化モジュール224によって生成される情報を補う、省略可能なモジュールである。ある実施形態では、検知モジュール222は、センサ247またはカメラ233のうちの少なくとも1台からセンサデータを受信して、物体に関する物体データ297を生成する。たとえば、検知モジュール222は、センサ247またはカメラ233に対する相対的な物体の位置を決定する。別の例では、検知モジュール222は、カメラ233から画像またはビデオを受信して、歩行者や、建物、レーンマーカー、障害物などの静止物体の位置を特定する。
物体と第1のクライアント装置103の間の距離を決定するために、検知モジュール222は、センサ247から生成される車両データ293(例えばGPSによって決定される位置)を用いることができる。別の例では、センサ247はライダーやレーダーを含み、第1のクライアント装置103と物体の間の距離を決定するために用いられることができる。検知モジュール222は、センサフレーム(x,y,z)内での物体の位置を含むn個組(n−tuple)を返す。ある実施形態では、検知モジュール222は、物体の経路を決定するために位置情報を用いる。検知モジュール222は、経路を物体データ297に加える。
検知モジュール222は、ソーシャルネットワークサーバ101から物体についての情報を受信する。たとえば、他の第1のクライアント装置103が同一あるいは類似した経路を旅行する前に第1のクライアント装置103が物体を検出した場合、ソーシャルネットワークサーバ101はこの物体に関する情報を安全アプリケーション199に送信する。たとえば、検知モジュール222は、ソーシャルネットワークサーバ101から物体の速度に関する情報を受信する。
カテゴリ化モジュール224は、物体を分類するためのルーチンを含むソフトウェアである。ある実装形態では、カテゴリ化モジュール224は、プロセッサ235で実行可能な一組の命令であり、物体の速度と物体の種類を決定するための下記の機能を提供する。ある実施形態では、カテゴリ化モジュール224は、第1のクライアント装置103のメモリ237に格納され、プロセッサ235によってアクセスおよび実行可能である。
カテゴリ化モジュール224は、通信モジュール221からX2Vデータ295を受信するか、メモリからX2Vデータ295を取得する。カテゴリ化モジュール224は、物
体の速度をX2Vデータ295から抽出して、位置情報に基づいて物体の速度を決定する。たとえば、物体が時間T1に位置Aにいて時間T2に位置Bにいるならば、AとBの間の距離をT1とT2の間の時間で割ったものが物体の速度である。カテゴリ化モジュール224は、速度情報を物体データ297として格納する。
ある実施形態では、カテゴリ化モジュール224は、検知モジュール222によって決定される物体データ297を用いて、X2Vデータ295から得られる情報を補う。しかしながら、このステップは省略可能である。なぜならば、検知モジュール222は、物体がセンサ247やカメラ233の視界内に位置するときのみ有効だからである。
カテゴリ化モジュール224は、物体の速度に基づいて物体の種類を決定する。たとえば、物体が毎時4マイルの速度で移動するならば、その物体はおそらく人であろう。物体が毎時20マイルの速度で移動するならば、その物体は自転車または車両であろう。カテゴリ化モジュール224は、種類情報を物体データ297として格納する。
カテゴリ化モジュール224は、物体データ297に基づいて物体の経路を決定する。たとえば、物体が直線的に移動していることをX2Vデータ295が示す場合には、カテゴリ化モジュール224は、物体の経路は直線のままの可能性が高いと決定する。カテゴリ化モジュール224は、経路を物体データ297の一部として格納する。
図3Aは、X2Vデータを検出している例示的な車両の図式表示300である。この例では、第1の車両301は、放送ハードウェア302を用いてDSRCを介して、車両−車両(V2V)データ305を放送(ブロードキャスト)する。第2の車両303は、V2Vデータ305を検出するためのセンサ304を含む。
危険評価モジュール226は、車両データ293と物体データ297に基づいて物体の危険インデックスを推定するためのルーチンを含むソフトウェアである。ある実装形態では、危険評価モジュール226は、プロセッサ235で実行可能な一組の命令であり、物体の危険インデックスを推定するための下記の機能を提供する。ある実施形態では、危険評価モジュール226は、第1のクライアント装置103のメモリ237に格納され、プロセッサ235によってアクセスおよび実行可能である。
ある実施形態では、危険評価モジュール226は、車両データ293と物体データ297に基づいて、物体の危険インデックスを推定する。たとえば、危険評価モジュール226は、物体データ297に基づいて第1のクライアント装置103の車両経路を決定し、車両経路と物体経路とを比較して、第1のクライアント装置103と物体が衝突する可能性があるかどうかを決定する。物体が静止しているならば、危険評価モジュール226は、車両経路が静止物体と交差するかどうかを決定する。
ある実施形態では、車両データ293は、ユーザと関連した過去のふるまいを決定するために、地図サーバ190から提供される地図データと旅行データ298によって補われる。危険評価モジュール226は、第1のクライアント装置103の経路を決定するためにこの情報を用いる。
ある実施形態では、物体データ207は物体の動きに関する過去の情報を含み、危険評価モジュール226はこの情報を考慮する。ある他の実施形態では、危険インデックスは、第1のクライアント装置103の状態にも基づいて決定される。たとえば、第1のクライアント装置103のフロントワイパーが作動中であるならば、危険評価モジュール226は、より高い危険インデックスを割り当てる。これは、フロントワイパーが作動していることは、劣悪な気象条件を示唆するためである。ある実施形態では、危険評価モジュー
ル226は、危険インデックスを決定するための要因として、物体の予測経路も用いる。
危険インデックスは確率的であり、衝突の可能性を反映する。たとえば、危険インデックスは、dmaxを100として、d/dmaxによって計算される。51/100のスコアは、51%の衝突確率を反映する。ある実施形態では、危険評価モジュール226は、重み付き計算を用いて危険インデックスを決定する。たとえば、危険評価モジュール226は、以下の情報の組み合わせを用いる。
d = f(w1(車両の速度),w2(気象状況),w3(物体データ)) (1)
ここで、w1は第1の重み、w2は第2の重み、w3は第3の重みである。危険インデックスは、車両と物体の移動方向を解析して両者が交差するかどうかを決定することによって計算することができる。両者の推定経路が交差する場合は、システムは両者の速度を調べて、衝突の危険があるかどうか、および与えられた路面条件および気象条件の下で車両が停止可能であるかどうかを決定する。
ある実施形態では、危険評価モジュール226は、危険インデックスを複数の異なるレベルに分割する。例えば、0−40%は衝突の危険なし、41%−60%は経度の危険、61%−80%は重大な危険、81%−100%は切迫した危険、にそれぞれ分類される。その結果、危険インデックスが特定のカテゴリに分類されるならば、グラフィクス選択モジュール228は、危険インデックスと危険のレベルをグラフィクス選択モジュール228に提供し、グラフィクス選択モジュール228が対応するモダリティ(態様)を利用できるようにする。
図3Bは、決定された危険インデックスによる例示的な物体の図式表示310である。危険評価モジュール226は、カテゴリ化モジュール224によって決定された第1の車両311の経路を受信する。危険評価モジュール226は、第2の車両312の経路を決定する。この例では、危険評価モジュール226は、2つの経路が衝突して、第2の車両312にとっての危険313になると決定する。
グラフィクス選択モジュール228は、物体を表現するためにグラフィックとモダリティを選択するためのルーチンを含むソフトウェアである。ある実装形態では、グラフィクス選択モジュール228は、プロセッサ235で実行可能な一組の命令であり、物体を表現するためにグラフィックとモダリティを選択するための下記の機能を提供する。ある実施形態では、グラフィクス選択モジュール228は、第1のクライアント装置103のメモリ237に格納され、プロセッサ235によってアクセスおよび実行可能である。
ある実施形態では、グラフィクス選択モジュール228は、合致するグラフィックをグラフィクスデータベース229に問い合わせる。ある実施形態では、グラフィクス選択モジュール228は、検知モジュール222で決定された物体の識別子を提供する。たとえば、グラフィクス選択モジュール228は、バスのグラフィックをグラフィクスデータベース229に問い合わせる。別の実施形態においては、グラフィクス選択モジュール228は、18本のタイヤを有する移動車両などのような複数の属性に基づいて、グラフィクスデータベース229に問い合わせる。
ある実施形態では、グラフィクス選択モジュール228は、危険インデックスに基づいてモダリティを要求する。モダリティは、物体のグラフィックの一部であっても良いし、別個のグラフィックであっても良い。モダリティは、物体に関連した危険を反映する。たとえば、グラフィクス選択モジュール228は、危険が差し迫っているならば、物体のアウトラインとして赤く点滅するアウトラインを要求することができる。反対に、グラフィ
クス選択モジュール228は、危険が差し迫っていないならば、物体の透明画像を要求することができる。ある実施形態では、モダリティは、危険評価モジュール226によって決定される危険レベルに対応する。たとえば、0−40%は透明なモダリティに対応し、41%−60%はオレンジ色のモダリティに対応し、61%−80%は赤く点滅するモダリティに対応し、81%−100%は赤の塗り潰しで点滅するモダリティに対応する。
ある実施形態では、グラフィクス選択モジュール228は、物体の位置に基づいてモダリティを決定する。たとえば、物体が道路に沿った歩道を歩いている歩行者である場合は、グラフィクス選択モジュール228は、モダリティを信号のグラフィックに決定する。グラフィクス選択モジュール228は、グラフィックGgをグラフィクスデータベース229から取得する。
図3Cは、グラフィック選択処理の図式表示320の例を示す。この例では、グラフィクス選択モジュール228は、単純化された車両と車両の経路を示す矢印323とからなるグラフィック321を選択する。単純化された車両は、車両を詳細に示すのではなく、箱形状の車両として示される。ある実施形態では、グラフィック321は、その重要性を伝えるために、明るい赤のモダリティを含んでもよい。
シーン計算モジュール230は、ユーザのアイフレーム(eye frame)に対応する位置にグラフィックを配置するためのルーチンを含むソフトウェアである。ある実施形態では、シーン計算モジュール230は、プロセッサ235で実行可能な一組の命令であり、ユーザのアイフレームに対応する位置にグラフィックを配置するために下記の機能を提供する。ある実施形態では、シーン計算モジュール230は、第1のクライアント装置103のメモリ237に格納され、プロセッサ235によってアクセスおよび実行可能である。
一実施形態においては、シーン計算モジュール230は、ドライバのアイボックスにあわせてグラフィックとモダリティを変形する。アイボックスは、ドライバの視野の中にあるヘッドアップディスプレイ231によって生成された投影画像を含む領域である。ドライバが頭を動かしてもグラフィックを見ることができるように、アイボックスフレームは十分に大きく設計されている。ドライバの眼がアイボッス内で大きく左または右に動いた場合には、グラフィクスは視界から消える。アイボックスはドライバの視野の中にあるので、グラフィックスを見るためにドライバは焦点合わせをする必要がない。ある実施形態では、シーン計算モジュール230は、眼の高さや眼間距離(すなわちドライバの眼の間の距離)の差異を調整するための補正によって、各ユーザに対して異なるアイボックスを生成する。
シーン計算モジュール230は、ドライバの視野およびセンサとドライバのアイボックスの間の距離に合わせてグラフィックを調整する。一実施形態においては、シーン計算モジュール230は、第1のクライアント装置103に対する相対的な空間位置(x,y,z)とグラフィクスGgに基づいて、アイフレームGeye内におけるグラフィクスを計算する。まず、センサフレームからアイフレームへの変換(Ts−e)が計算される。第1のクライアント装置103の空間位置は、GPSセンサ(例えば(x,y,z)GPS)に基づいて取得できる。シーン計算モジュール230は、Ts−eにグラフィックからセンサフレームへの変換(Tg−s)を掛けて、グラフィックからアイフレームへの変換(Tg−e)を得る。次いで、グラフィクスGgは、Tg−eポーズ(Tg−e pose)に置かれたビューポートに投影される。シーン計算モジュール230は、道路の凝視とグラフィクスの凝視を切り替えた場合にドライバが焦点あわせをする必要がないように、アイフレームを計算する。その結果、ドライバの焦点を同じに保つようにグラフィクスを表示することにより、0.5〜1秒の反応時間を節約することができる。これは、第1
のクライアント装置103が90km/hで移動している場合には、12.5〜25メートルに相当する。
ある実施形態では、シーン計算モジュール230は、グラフィクスを物体の位置に重畳表示することを命じるヘッドアップディスプレイ231に対する命令を生成する。別の実施形態においては、シーン計算モジュール230は、別の位置にグラフィクスを表示したり、物体の現実位置への重畳表示に加えてグラフィクスを表示したりすることを命じるヘッドアップディスプレイ231に対する命令を生成する。たとえば、ヘッドアップディスプレイ画像の最下部または最上部に、ユーザが道路上で探しているグラフィクスの概要を含ませることができる。
ある実施形態では、シーン計算モジュール230は、両視眼を提供するために眼ごとに視野を決定する。たとえば、シーン計算モジュール230は、両方の眼が同時に見ることができるヘッドアップディスプレイ231の最大角度範囲である、オーバーラップ両眼視野を決定する。ある実施形態では、シーン計算モジュール230は、眼間距離とドライバ高さにおける変化を補正するために、各ドライバ用に両眼視野を調整する。
図3Dは、ヘッドアップディスプレイ331の例示的な図式表示330である。この例では、シーン計算モジュール230は、第1のクライアント装置103に対する相対的な空間位置(x,y,x)に基づいてアイフレーム332を計算して、埋め込み範囲情報とともに眼の位置に投影される投影画像を生成する。その結果、シーン計算モジュール230は、ドライバの眼が再焦点あわせを必要としないように、グラフィクス333を3次元配置できる。
<例示的な方法>
図4は、物体−車両(X2V)データに基づいてヘッドアップディスプレイ用に物体情報を生成する例示的な方法のフローチャートである。ある実施形態では、方法400は、第1のクライアント装置103またはモバイルクライアント装置188に格納された安全アプリケーション199のモジュールによって実行される。たとえば、安全システム199は、通信モジュール221、カテゴリ化モジュール224、危険評価モジュール226、グラフィクス選択モジュール228、およびシーン計算モジュール230を含む。
通信モジュール221は、物体の位置を放送するプロセッサベースのモバイルコンピュータ装置から、物体−車両(X2V)データを受信する(402)。物体は、たとえば、歩行者、自転車、車両を含む。物体は、ドライバの視界の外にあってもよい。カテゴリ化モジュール224は、物体経路を含む物体データを生成する(404)。物体データは、物体の位置、物体の速度、物体の種類を含んでもよい。
危険評価モジュール226は、車両経路を含む車両データを決定する(406)。危険評価モジュール226は、車両データと物体データに基づいて、物体の危険インデックスを推定する(408)。危険評価モジュール226は、危険インデックスがあらかじめ定められた閾値確率を超えるかどうかを決定してもよい。グラフィックのモダリティをこの評価に対応させることができる。たとえば、危険インデックスが80%を超える場合は、グラフィック選択モジュール228は、赤色で点滅するグラフィックモダリティを選択する。
グラフィクス選択モジュール228は、物体の表示するためのグラフィックを特定する(410)。グラフィックは、たとえば、物体を表示するための簡略化された表現である。たとえば、歩行者を表示する場合は、棒人間のグラフィックを使用することができる。グラフィクス選択モジュール228は、危険インデックスに基づいてグラフィックの表示
モダリティを決定する(412)。危険インデックスが大きいほど、グラフィックはより人目を引く表示モダリティとすることができる。このようなモダリティは、たとえば、明るい色を含んだり、太線化されたり、点滅するグラフィックであったりする。モダリティはグラフィックと分離していてもよいしグラフィックの一部であってもよい。シーン計算モジュール230は、ユーザのアイフレームに対応させてグラフィックを配置する(414)。シーン計算モジュール230は、物体の実際の位置にグラフィックを配置し、ユーザがグラフィックと物体を見るときに実質的に同じ眼の焦点を維持できるようにする。これにより、応答時間を短縮することができる。なぜならば、視線を物体からグラフィックに切り替えたときに、ユーザは眼の焦点あわせを再度行う必要がないからである。ある実施形態では、本方法は、グラフィックを三次元デカルト座標として表示するヘッドアップディスプレイ231を含む。
本明細書の実施形態は、ここで説明された操作を実行する装置にも関する。この装置は、要求される目的のために特別に作られたものであっても良いし、あるいは、コンピュータに格納されたコンピュータプログラムによって選択的に起動されたり再構成されたりする汎用コンピュータを含んでも良い。このようなコンピュータプログラムは、コンピュータ可読記憶媒体に格納されてもよい。コンピュータ可読記憶媒体は、コンピュータのシステムバスに接続可能な、フロッピー(登録商標)ディスク・光ディスク・CD−ROM・磁気ディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、光学式カード、非一時的なメモリを有するUSBキーを含むフラッシュメモリ、電子的命令を格納するのに適したその他の任意のメディア媒体を含むが、これらに限定される訳ではない。
発明の具体的な実施形態は、完全にハードウェアによって実現されるものでも良いし、完全にソフトウェアによって実現されるものでも良いし、ハードウェアとソフトウェアの両方によって実現されるものでも良い。好ましい実施形態では、本明細書はソフトウェアによって実装される。ソフトウェアは、ファームウェア、常駐ソフトウェア、マイクロコードなどを含むが、これらには限定されない。
さらに、ある実施形態は、コンピュータが利用あるいは読み込み可能な記憶媒体からアクセス可能なコンピュータプログラムプロダクトの形態を取る。この記憶媒体は、コンピュータや任意の命令実行システムによってあるいはそれらと共に利用されるプログラムコードを提供する。コンピュータが利用あるいは読み込み可能な記憶媒体とは、命令実行システムや装置によってあるいはそれらと共に利用されるプログラムを、保持、格納、通信、伝搬および転送可能な任意の装置を指す。
プログラムコードを格納・実行するために適したデータ処理システムは、システムバスを介して記憶素子に直接または間接的に接続された少なくとも1つのプロセッサを有する。記憶素子は、プログラムコードの実際の実行に際して使われるローカルメモリや、大容量記憶装置や、実行中に大容量記憶装置からデータを取得する回数を減らすためにいくつかのプログラムコードを一時的に記憶するキャッシュメモリなどを含む。
入力/出力(I/O)装置は、例えばキーボード、ディスプレイ、ポインティング装置などであるが、これらはI/Oコントローラを介して直接あるいは間接的にシステムに接続される。
システムにはネットワークアダプタも接続されており、これにより、私的ネットワークや公共ネットワークを介して他のデータ処理システムやリモートにあるプリンタや記憶装置に接続される。モデム、ケーブルモデム、イーサネット(登録商標)は、現在利用可能なネットワークアダプタのほんの一例である。
最後に、本明細書において提示されるアルゴリズムおよび表示は特定のコンピュータや他の装置と本来的に関連するものではない。本明細書における説明にしたがってプログラムを有する種々の汎用システムを用いることができるし、また要求された処理ステップを実行するための特定用途の装置を製作することが適した場合もある。これら種々のシステムに要求される構成は、以下の説明において明らかにされる。さらに、本発明は、任意の特定のプログラミング言語と関連づけられるものではない。本明細書で説明される内容を実装するために、種々のプログラミング言語を利用できることは明らかであろう。
実施形態の前述の説明は、例示と説明を目的として行われたものである。したがって、開示された実施形態が本発明の全てではないし、本発明を上記の実施形態に限定するものでもない。本発明は、上記の開示にしたがって、種々の変形が可能である。本発明の範囲は上述の実施形態に限定解釈されるべきではなく、特許請求の範囲にしたがって解釈されるべきである。本発明の技術に詳しい者であれば、本発明はその思想や本質的特徴から離れることなくその他の種々の形態で実現できることを理解できるであろう。同様に、モジュール・処理・特徴・属性・方法およびその他の本発明の態様に関する名前付けや分割方法は必須なものでものないし重要でもない。また、本発明やその特徴を実装する機構は異なる名前や分割方法や構成を備えていても構わない。さらに、当業者であれば、モジュール・処理・特徴・属性・方法およびその他の本発明の態様は、ソフトウェア、ハードウェア、ファームウェアもしくはこれらの組合せとして実装できることを理解できるであろう。また、本発明をソフトウェアとして実装する場合には、モジュールなどの各要素は、どのような様式で実装されても良い。例えば、スタンドアローンのプログラム、大きなプログラムの一部、異なる複数のプログラム、静的あるいは動的なリンクライブラリー、カーネルローダブルモジュール、デバイスドライバー、その他コンピュータプログラミングの当業者にとって既知な方式として実装することができる。さらに、実施形態は特定のプログラミング言語に限定されるものではないし、特定のオペレーティングシステムや環境に限定されるものでもない。以上のように、上記の本発明の説明は限定的なものではなく例示的なものであり、本発明の範囲は添付の特許請求の範囲にしたがって定められる。
103 第1のクライアント装置
188 モバイルクライアント装置
199 安全アプリケーション
221 通信モジュール
222 検知モジュール
224 カテゴリ化モジュール
226 危険評価モジュール
228 グラフィック選択モジュール
230 シーン計算モジュール
301 第1の車両
302 放送ハードウェア
303 第2の車両
304 センサ
305 車両−車両(V2V)データ
311 第1の車両
312 第2の車両
313 危険
321 グラフィック
323 矢印
331 ヘッドアップディスプレイ
332 アイフレーム
333 グラフィクス

Claims (19)

  1. プロセッサベースの演算装置によって実行される方法であって、
    物体の位置を放送する第1のプロセッサベースのコンピュータ装置から物体−車両(X2V)データを受信するステップと、
    前記X2Vデータから物体の経路を含む物体データを生成するステップと、
    車両の経路を含む車両データを生成するステップと、
    前記車両データと前記物体データに基づいて、前記物体の危険インデックスを推定するステップと、
    前記物体を表示するためのグラフィックを特定するステップと、
    ユーザのアイフレームに対応するように前記グラフィックを配置するステップと、
    を含む、方法。
  2. 前記物体は前記ユーザの視界外にある、
    請求項1に記載の方法。
  3. 前記X2Vデータは、専用狭域通信(DSRC)を介して受信される、
    請求項1または2に記載の方法。
  4. 前記物体は、ウェアラブル装置である、
    請求項1から3のいずれか1項に記載の方法。
  5. 前記物体データは、前記物体の位置、前記物体の速度、および前記物体の種類を含む、
    請求項1から4のいずれか1項に記載の方法。
  6. 前記危険インデックスの推定は、前記危険インデックスがあらかじめ定められた閾値確率を超えるか否かを判定することによって行われる、
    請求項1から5のいずれか1項に記載の方法。
  7. 前記グラフィックは、前記物体の単純化された表現である、
    請求項1から6のいずれか1項に記載の方法。
  8. 前記危険インデックスに基づいて、前記グラフィックの表示モダリティを決定するステップをさらに含む、
    請求項1から7のいずれか1項に記載の方法。
  9. 前記グラフィックを配置するステップでは、前記グラフィックを前記物体の実際の位置と対応させて配置し、前記ユーザが前記グラフィックを見るときと前記物体を見るときとで眼の焦点を実質的に同一に維持できるようにする、
    請求項1から8のいずれか1項に記載の方法。
  10. 請求項1から9のいずれか1項に記載の方法の各ステップをコンピュータに実行させるためのプログラム。
  11. 物体の位置を放送する第1のプロセッサベースのコンピュータ装置から物体−車両(X2V)データを受信する受信手段と、
    前記X2Vデータから物体の経路を含む物体データを生成する生成手段と、
    車両の経路を含む車両データを取得する取得と、
    前記車両データと前記物体データに基づいて、前記物体の危険インデックスを推定する推定手段と、
    前記物体を表示するためのグラフィックを特定する特定手段と、
    ユーザのアイフレームに対応するように前記グラフィックを配置する配置手段と、
    を備える、システム。
  12. 前記物体は前記ユーザの視界外にある、
    請求項11に記載のシステム。
  13. 前記受信手段は、専用狭域通信(DSRC)を介して前記X2Vデータを受信する、
    請求項11または12に記載のシステム。
  14. 前記物体は、ウェアラブル装置である、
    請求項11から13のいずれか1項に記載のシステム。
  15. 前記物体データは、前記物体の位置、前記物体の速度、および前記物体の種類を含む、
    請求項11から14のいずれか1項に記載のシステム。
  16. 前記推定手段は、前記危険インデックスがあらかじめ定められた閾値確率を超えるか否かを判定する、
    請求項11から15のいずれか1項に記載のシステム。
  17. 前記グラフィックは、前記物体の単純化された表現である、
    請求項11から16のいずれか1項に記載のシステム。
  18. 前記危険インデックスに基づいて、前記グラフィックの表示モダリティを決定する表示モダリティ決定手段をさらに備える、
    請求項11から17のいずれか1項に記載のシステム。
  19. 前記配置手段は、前記グラフィックを前記物体の実際の位置と対応させて配置し、前記ユーザが前記グラフィックを見るときと前記物体を見るときとで眼の焦点を実質的に同一に維持できるようにする、
    請求項11から18のいずれか1項に記載のシステム。
JP2015165628A 2014-08-27 2015-08-25 外部情報のドライバへの提供 Pending JP2016048552A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/470,844 2014-08-27
US14/470,844 US20160063332A1 (en) 2014-08-27 2014-08-27 Communication of external sourced information to a driver

Publications (1)

Publication Number Publication Date
JP2016048552A true JP2016048552A (ja) 2016-04-07

Family

ID=54150217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015165628A Pending JP2016048552A (ja) 2014-08-27 2015-08-25 外部情報のドライバへの提供

Country Status (3)

Country Link
US (1) US20160063332A1 (ja)
EP (1) EP2993576A1 (ja)
JP (1) JP2016048552A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019035177A1 (ja) * 2017-08-15 2019-02-21 三菱電機株式会社 車載表示装置、画像処理装置および表示制御方法
US10659991B2 (en) 2016-12-06 2020-05-19 Nissan North America, Inc. Bandwidth constrained image processing for autonomous vehicles
US10723348B2 (en) 2018-02-20 2020-07-28 Hyundai Motor Company Vehicle with driver warning system and method of control

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10133548B2 (en) * 2014-01-27 2018-11-20 Roadwarez Inc. System and method for providing mobile personal security platform
CN105993040B (zh) * 2014-09-01 2018-06-22 株式会社小松制作所 自卸车及自卸车的控制方法
US10805222B2 (en) * 2017-05-01 2020-10-13 General Electric Company Resilient network configuration for time sensitive traffic
US10814893B2 (en) 2016-03-21 2020-10-27 Ge Global Sourcing Llc Vehicle control system
US11072356B2 (en) 2016-06-30 2021-07-27 Transportation Ip Holdings, Llc Vehicle control system
DE102017131264A1 (de) * 2017-12-22 2019-06-27 Liebherr-Hydraulikbagger Gmbh Baumaschine, insbesondere Erdbewegungsmaschine mit einem Bedienpult
US10825241B2 (en) 2018-03-16 2020-11-03 Microsoft Technology Licensing, Llc Using a one-dimensional ray sensor to map an environment
WO2020133451A1 (zh) * 2018-12-29 2020-07-02 驭势科技(北京)有限公司 车辆信息共享系统及方法、自动驾驶车辆
CN110290503B (zh) * 2019-06-21 2020-12-18 北京邮电大学 车辆数据分发的方法、装置、电子设备及可读存储介质
US11368991B2 (en) 2020-06-16 2022-06-21 At&T Intellectual Property I, L.P. Facilitation of prioritization of accessibility of media
US11233979B2 (en) 2020-06-18 2022-01-25 At&T Intellectual Property I, L.P. Facilitation of collaborative monitoring of an event
US11184517B1 (en) 2020-06-26 2021-11-23 At&T Intellectual Property I, L.P. Facilitation of collaborative camera field of view mapping
US11037443B1 (en) 2020-06-26 2021-06-15 At&T Intellectual Property I, L.P. Facilitation of collaborative vehicle warnings
US11411757B2 (en) 2020-06-26 2022-08-09 At&T Intellectual Property I, L.P. Facilitation of predictive assisted access to content
US11356349B2 (en) 2020-07-17 2022-06-07 At&T Intellectual Property I, L.P. Adaptive resource allocation to facilitate device mobility and management of uncertainty in communications
US11768082B2 (en) 2020-07-20 2023-09-26 At&T Intellectual Property I, L.P. Facilitation of predictive simulation of planned environment
DE102020126953B3 (de) * 2020-10-14 2021-12-30 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935177A (ja) * 1995-07-18 1997-02-07 Hitachi Ltd 運転支援方法および運転支援装置
JP2006072830A (ja) * 2004-09-03 2006-03-16 Aisin Aw Co Ltd 運転支援システム及び運転支援モジュール
JP2008129718A (ja) * 2006-11-17 2008-06-05 Toyota Central R&D Labs Inc 運転支援装置
JP2010122919A (ja) * 2008-11-19 2010-06-03 Shimadzu Corp 空中位置提示装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US6370475B1 (en) * 1997-10-22 2002-04-09 Intelligent Technologies International Inc. Accident avoidance system
KR100721560B1 (ko) * 2005-11-30 2007-05-23 한국전자통신연구원 임의 시점을 가지는 3차원 차량정보 제공 시스템 및 그방법
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
US8564502B2 (en) * 2009-04-02 2013-10-22 GM Global Technology Operations LLC Distortion and perspective correction of vector projection display
CN102509474A (zh) * 2011-11-09 2012-06-20 深圳市伊爱高新技术开发有限公司 一种车与车自动防碰撞系统及方法
DE102012214852B4 (de) * 2012-08-21 2024-01-18 Robert Bosch Gmbh Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
US9092984B2 (en) * 2013-03-14 2015-07-28 Microsoft Technology Licensing, Llc Enriching driving experience with cloud assistance
US9349293B2 (en) * 2014-02-07 2016-05-24 Here Global B.V Method and apparatus for providing vehicle synchronization to facilitate a crossing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935177A (ja) * 1995-07-18 1997-02-07 Hitachi Ltd 運転支援方法および運転支援装置
JP2006072830A (ja) * 2004-09-03 2006-03-16 Aisin Aw Co Ltd 運転支援システム及び運転支援モジュール
JP2008129718A (ja) * 2006-11-17 2008-06-05 Toyota Central R&D Labs Inc 運転支援装置
JP2010122919A (ja) * 2008-11-19 2010-06-03 Shimadzu Corp 空中位置提示装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10659991B2 (en) 2016-12-06 2020-05-19 Nissan North America, Inc. Bandwidth constrained image processing for autonomous vehicles
JP2020514850A (ja) * 2016-12-06 2020-05-21 ニッサン ノース アメリカ,インク 自律走行車のための帯域幅制約画像処理
WO2019035177A1 (ja) * 2017-08-15 2019-02-21 三菱電機株式会社 車載表示装置、画像処理装置および表示制御方法
US10723348B2 (en) 2018-02-20 2020-07-28 Hyundai Motor Company Vehicle with driver warning system and method of control

Also Published As

Publication number Publication date
US20160063332A1 (en) 2016-03-03
EP2993576A1 (en) 2016-03-09

Similar Documents

Publication Publication Date Title
JP2016048552A (ja) 外部情報のドライバへの提供
JP2016048550A (ja) ドライバの注意評価に基づく空間情報の提示
CN111664854B (zh) 物体位置指示器系统和方法
US11155268B2 (en) Utilizing passenger attention data captured in vehicles for localization and location-based services
JP2016048547A (ja) ヘッドアップディスプレイ用の空間情報の生成
JP6428876B2 (ja) 車載拡張現実システム向けの遮蔽調整システム
KR102354284B1 (ko) 다수의 lidar 디바이스로부터의 데이터의 병합
US20190132572A1 (en) 3d lidar system using a dichroic mirror for autonomous driving vehicles
CN115661488A (zh) 用于运载工具的方法、系统和计算机可读存储介质
US20170359561A1 (en) Disparity mapping for an autonomous vehicle
CN111319628A (zh) 用于评估错误威胁检测的方法和系统
KR20210040947A (ko) 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치
JP7172603B2 (ja) 信号処理装置、信号処理方法、およびプログラム
EP2991358A2 (en) Communication of cloud-based content to a driver
WO2017157865A1 (en) Navigation aid
JP2019117435A (ja) 画像生成装置
CN114842455A (zh) 障碍物检测方法、装置、设备、介质、芯片及车辆
JP2019117434A (ja) 画像生成装置
US11417023B2 (en) Image processing device, image processing method, and program
US20240080571A1 (en) Managing Efficiency of Image Processing
US20230382427A1 (en) Motion prediction in an autonomous vehicle using fused synthetic and camera images
US20240123975A1 (en) Guided generation of trajectories for remote vehicle assistance
WO2024009739A1 (ja) 光学式測距センサ、及び光学式測距システム
WO2024086049A1 (en) Guided generation of trajectories for remote vehicle assistance
KR20230110145A (ko) 아이트래커 디바이스 및 라이다 포인트 클라이드 데이터를 사용하는 목표 결정

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170905