JP2008131648A - ビデオ画像を提示する方法およびシステム - Google Patents

ビデオ画像を提示する方法およびシステム Download PDF

Info

Publication number
JP2008131648A
JP2008131648A JP2007298522A JP2007298522A JP2008131648A JP 2008131648 A JP2008131648 A JP 2008131648A JP 2007298522 A JP2007298522 A JP 2007298522A JP 2007298522 A JP2007298522 A JP 2007298522A JP 2008131648 A JP2008131648 A JP 2008131648A
Authority
JP
Japan
Prior art keywords
vehicle
video image
speed
sensor
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007298522A
Other languages
English (en)
Other versions
JP5198835B2 (ja
Inventor
Ulrich Mohr
モーア ウルリッヒ
Andreas Stiegler
スティーグラー アンドレアス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harman Becker Automotive Systems GmbH
Original Assignee
Harman Becker Automotive Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harman Becker Automotive Systems GmbH filed Critical Harman Becker Automotive Systems GmbH
Publication of JP2008131648A publication Critical patent/JP2008131648A/ja
Application granted granted Critical
Publication of JP5198835B2 publication Critical patent/JP5198835B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Abstract

【課題】車両環境からのビデオ画像を提示する方法、ならびに車両環境からのビデオ画像を提示するためのシステムを提供すること。
【解決手段】車両環境からのビデオ画像を提示する方法であって、車両環境からのビデオ画像を撮影するステップと、車両環境または車両のセンサデータを検出するステップと、センサデータを処理するステップと、ビデオ画像内のオブジェクトを認識するステップと、表示されたビデオ画像内の認識されたオブジェクトの表現を変更することにより、表示されたビデオ画像内に処理されたセンサデータを視覚化するステップとを包含する、方法。
【選択図】図1

Description

本発明は、車両環境からのビデオ画像を提示する方法、ならびに車両環境からのビデオ画像を提示するためのシステムに関する。本発明は、特に、ドライバー補助システムに関し、上記ドライバー補助システムにおいて、車両内に提供された画像センサは、車両環境からの画像を連続的に撮影する。
(関連技術)
当該技術分野において、車両に搭載されたナビゲーションシステムが公知であり、上記ナビゲーションシステムは、現在の位置から所定の目的地まで車両のドライバーを案内する。上記ナビゲーションシステムは、運転の方向をディスプレイ上に指示することによって視覚的に、あるいは次の運転の操作を指示する音声出力によって音声的に、運転に関する指示を出力する。
加えて、ドライバー補助システムに関連して用いられるシステムが公知である。上記システムでは、速度制限または距離マーカーのような人工的な要素が、ビデオカメラによってキャプチャされたビデオ画像の中に導入される。これらの要素は、ビデオ画像上に浮いているように示される。導入された要素は、現実の状況に結び付けられていないか、または現実の状況に大雑把に結び付けられているに過ぎない。
これらの人工的に導入された要素(例えば、速度制限が適用されるエリアにおける速度制限)は、人工的な要素をビデオ画像の中に導入することによって、生成された抽象概念をドライバーが理解することができるときに、ナビゲーションの間に彼または彼女の役に立ち得る。ドライバーは、この抽象的なデータの視覚化を用いなければならない。しかしながら、これらの例において、表示された画像は、ドライバーが車両の前方に実際に見ているものとは異なったものである。
加えて、車両内には、多くの様々なセンサが提供されている。これらのセンサは、車両外部の車両環境に関する物理値、または車両速度のような車両に関するその他任意の物理値のうちのいずれかを検出する。
一部の状況において、ドライバーがより迅速かつ容易に状況を認識することができるような方法で、センサによって検出された物理値をビデオ画像内に視覚化することが、有用であり得る。
したがって、車両センサによって提供された情報をドライバーが迅速かつ容易に認識することを可能にする方法、ならびに車両センサによって提供された情報をドライバーが迅速かつ容易に認識することを可能にするためのシステムに対する必要性が存在する。
この必要性は、独立請求項の特徴によってみたされる。独立請求項においては、本発明の好適な実施形態が記載されている。
本発明の第1の局面にしたがうと、車両環境からのビデオ画像をドライバーに提示する方法が提供されている。上記方法は、ビデオ環境からのビデオ画像を撮影するステップを含んでいる。加えて、車両環境または車両そのものに関するセンサデータが検出され、これらのデータが、処理される。さらに、ビデオ画像を後処理することにより、ビデオ画像内のオブジェクトが認識される。その後、処理されたセンサデータは、表示されたビデオ画像内の認識されたオブジェクトの表現を変更することにより、表示されたビデオ画像内に視覚化され得る。ビデオ画像内に実際に存在しているオブジェクトの表現を変更することにより、センサデータの処理の結果が、直観的な方法で、ドライバーに表示され得る。本発明にしたがうと、人工的であるがオブジェクト(これに対する表現は変更される)に固有(native)である要素を用いて、実際の交通状況のビデオ画像を強化することが可能である。このことは、一方では、所与の状況において、表現が変更される方法が、実際に存在し得るということを意味し得る。このことは、他方では、受信されたセンサデータを考慮することにより、ビデオ画像内に示されているオブジェクトが、別の方法で表現されるということを意味し得る。
上記の目的を達成するために、オブジェクト(ビデオ画像内に存在しており、窓またはフロントガラスを通してドライバーが見ることも可能である)は、ビデオ画像を後処理することにより、検出および変換され、オブジェクトクラスに分類される。約20〜100フレーム/秒のフレームレートで撮影されたビデオ画像は、処理され、オブジェクト(例えば、その他の車両、人間、または車両環境に存在するその他任意の要素)を検出するために、パターン認識技術が、画像に適用される。後処理技術(例えば、エッジ検出)を用いることにより、ビデオ画像内にオブジェクトが検出されたとき、オブジェクトの形状が決定され、オブジェクトは、様々なオブジェクトクラスに分類され得る。例えば、車両、建物、オートバイ、歩行者、樹木、等の様々なクラスが存在し得る。画像内に検出された形状と所定の形状とを比較することにより、画像内のオブジェクトが認識され得る。
加えて、検出されたセンサデータが処理される。このセンサデータの処理の結果は、表示されたビデオ画像内のオブジェクトに要素を導入することによって、認識されたオブジェクトの表現を変更することにより、画像内に示され得る。上記要素は、画像センサによって検出されたものとして実際にはビデオ画像内に存在していないかもしれないが、別の交通状況ではビデオ画像内に存在し得るかもしれない。
走行補助システムにおいて、通常、ビデオ画像は、ドライバーがフロントガラスを通して見ているときに視覚可能なように、車両の前方の車両環境から撮影される。したがって、ビデオ画像は、車両の前方の車両環境を監視し得る。しかしながら、例えばビデオ画像が駐車補助システムと共に用いられる場合に、本発明が、車両の後方から撮影されたビデオ画像と共に用いられることもまた、可能である。
本発明の一実施形態において、ビデオ画像内のオブジェクトを認識するステップは、ビデオ画像内の車両を認識するステップを含んでいる。車両の検出に加え、ビデオ画像の後処理は、その他任意のオブジェクト(車両に対して危険であり得るオブジェクト、またはドライバーがより多くの注意を払う必要があるオブジェクト)を検出するという目的を有し得る。
本発明の一実施形態にしたがうと、センサは、そこから距離が決定される検出車両に対する、画像内に示されているオブジェクトの距離を決定する。相対的な距離を決定する代わりに、あるいは相対的な距離を決定することに加えて、検出車両の前方において移動している車両の速度が、決定され得る。検出車両の前方において移動している車両が、検出車両に対し、所定の閾値速度より低い速度を有していることが検出されると、検出車両が前方の車両に接近していることを意味しているので、前方の車両(ビデオ画像内にも示されている)は、前方の車両のブレーキライトが作動状態で示されるような方法で、ビデオ画像内に表示され得る。この状況において、ドライバーは、検出車両までの相対距離が急速に小さくなっている際に、前方の車両に対してより多くの注意が払われなければならないということを、容易に理解し得る。この例から理解できるように、前方において運転している車両は遥かに遅いという、センサデータによって提供された情報は、ビデオ画像内に実際に提供された固有の要素の表現を変更することにより、視覚化され得る。前方の車両が検出車両よりも単純に遅く運転しているとき、ブレーキライトが作動状態になる(作動状態のブレーキライトは、場面内に実際に存在しているかもしれないが、このとき、ブレーキライトは、作動されていないかもしれない)。この情報は、ユーザに対して表示され得る。
同様の状況は、車両が交通渋滞に接近しているときに起こり得る。この状況において、車両内に提供された距離センサは、車両までの相対距離がだんだん小さくなっていることを認識し得る。その後、本発明のシステムは、ビデオ画像内に示されている車両の警告灯が作動状態で表示され得るような方法で(実際には車両がその警告灯をオフにしている場合でさえも)反応し得る。この状況においてもまた、ドライバーは、非常に直観的な方法で、運転態度に関して必要であり得る反応および適応を理解し得る。
別の実施形態において、車両の外部の温度および湿度が検出される。温度が所定の閾値温度より低いことが検出されたとき、ならびに湿度レベルが所定の閾値湿度よりも大きいことが検出されたときに、道路が凍結している可能性が存在するということが、推測され得る。この例において、ビデオ画像内の道路の表現は、潜在的な危険性がドライバーによって認識されるような方法で、道路の表現を変更することにより、しかるべく変更され得る。例えば、氷上で発生するような反射が追加され、凍結した道路が存在しているということを指示し得る。
本発明の別の実施形態において、視界が所定の閾値視界より悪いとき、ならびに前方にある車両までの距離が所定の距離よりも大きいときに、戸外の視界を検出するセンサデータが処理され、検出車両の前方の車両の表現が、変更され得る。霧の深い状況においては、レーダまたは赤外線センサのような距離センサが、遠くにあるオブジェクトを検出し得、ドライバーが前方の車両を明確に認識し得ない状況においては、レーダまたは赤外線センサのような距離センサが、前方の車両を検出し得る。車両内で追加的な距離センサを用いることにより、ビデオ画像は、実際の位置における車両の画像によって、強化され得る。このようにして、車両は、実際よりも、より見やすくなっている。
別の状況においては、車両に提供されたマップデータ上で、車両の実際の位置を決定するために、位置決定ユニットからのセンサデータが、用いられ得る。マップデータ内での位置がわかっていとき、画像内の視覚可能な任意のオブジェクト(マップデータ内にも含まれている)が、強調される。例えば、速度センサは、車両が高速で運転していることを指示し得る。位置決定ユニットは、車両が踏み切りまたは横断歩道に近付いているということを、決定し得る。両方の状況において、実際の車両速度は、近付いているオブジェクト(例えば、横断歩道または踏み切り)に適合し得ない。これらの例において、横断歩道そのものの表現、または歩行者横断標識(Belisha Beacon)の表現が、変更され得る。同様な方法で、踏み切りに対し、フラッシュしている光が(実際には光がフラッシュしていなくても)追加され得る。
本発明はさらに、車両環境からのビデオ画像を表示するためのシステムに関する。上記システムは、車両環境からのビデオ画像を撮影する画像センサを含んでいる。加えて、少なくとも1つのセンサが提供され、車両環境または車両そのもののデータを検出する。センサ処理ユニットは、センサデータを処理し、ビデオ画像処理ユニットは、ビデオ画像を後処理し、ビデオ画像内のオブジェクトを認識する。グラフィックスユニットが提供され、上記グラフィックユニットは、表示されたビデオ画像内の認識されたオブジェクトの表現を変更することにより、表示されたビデオ画像内に処理されたセンサデータを視覚化する。
センサからの情報は、ドライバーに対して表示される。情報は、車両の前方のその他のオブジェクトまでの距離を検出する距離センサ、検出車両の前方において運転している車両の速度を検出する速度センサ、検出車両そのものの速度を検出する別の速度センサ、戸外の温度を測定する温度センサ、湿度レベル検出センサ、または位置検出センサから来たものであり得る。位置検出センサは、デジタルマップデータを備えたナビゲーションシステムの一部分であり得、ナビゲーションユニットは、所望の方向にドライバーを案内することが可能である。現在の車両位置がわかっているとき、その位置とマップ上の環境とを比較し、ナビゲーションユニットからの情報に基づいて、ビデオ画像内のオブジェクトの表現を変更することにより、潜在的に危険なオブジェクトが検出され得る。
上記システムは、好適には、上述のように動作する。
本発明は、さらに以下の手段を提供する。
(項目1)
車両環境からのビデオ画像を提示する方法であって、
該車両環境のビデオ画像を撮影するステップと、
該車両環境または該車両のセンサデータを検出するステップと、
該センサデータを処理するステップと、
該ビデオ画像内のオブジェクトを認識するステップと、
表示されたビデオ画像内の認識されたオブジェクトの表現を変更することにより、該表示されたビデオ画像内に該処理されたセンサデータを視覚化するステップと
を包含する、方法。
(項目2)
上記ビデオ画像内に存在し、フロントガラスを通してドライバーにも見ることが可能であるオブジェクトは、該ビデオ画像を後処理することにより、検出および変換され、オブジェクトクラスに分類されること
を特徴とする、項目1に記載の方法。
(項目3)
上記認識されたオブジェクトの上記表現は、上記表示されたビデオ画像内のオブジェクトに要素を導入することによって変更され、該要素は、該ビデオ画像内には実際に存在していないが、該ビデオ画像内に存在し得ること
を特徴とする、項目1または項目2に記載の方法。
(項目4)
上記ビデオ画像は、上記車両の前方の上記車両環境から撮影される、項目1〜項目3のいずれか一項に記載の方法。
(項目5)
オブジェクトを認識する上記ステップは、上記ビデオ画像内の車両を認識するステップを含んでいる、項目1〜項目4のいずれか一項に記載の方法。
(項目6)
センサデータを検出する上記ステップは、そこから距離が決定される検出車両に対して、上記画像内に示されているオブジェクトの距離を決定するステップを含んでいる、項目1〜項目5のいずれか一項に記載の方法。
(項目7)
センサデータを検出する上記ステップは、上記検出車両の前方にある車両の速度を決定するステップを含んでいる、項目1〜項目6のいずれか一項に記載の方法。
(項目8)
上記検出車両の前方において移動している上記車両の速度が、該検出車両に対して、所定の閾値速度より遅い速度を有していることが検出されたときに、前方の車両のブレーキライトが強調される、項目6または項目7に記載の方法。
(項目9)
センサデータを検出する上記ステップは、戸外の温度および戸外の湿度レベルを検出するステップを含んでおり、該戸外の温度が所定の閾値温度より低いとき、および該戸外の湿度が所定の閾値湿度より高いときに、上記ビデオ画像内の道路の表現は、変更される、項目1〜項目8のいずれか一項に記載の方法。
(項目10)
上記道路の表現は、氷上におけるような反射を追加することによって変更されること
を特徴とする、項目9に記載の方法。
(項目11)
センサデータを検出する上記ステップは、戸外の視界を決定するステップを含んでおり、該視界が所定の閾値視界より悪いとき、および前方にある車両までの距離が所定の距離よりも大きいときに、上記検出車両の前方の車両の表現は、変更される、項目1〜項目10のいずれか一項に記載の方法。
(項目12)
上記検出車両の前方の車両の上記表現は、該前方の車両の絶対速度が所定の閾値速度より遅い場合に、該前方の車両にフラッシュしている警告灯を追加することによって変更される、項目7〜項目11のいずれか一項に記載の方法。
(項目13)
上記車両のセンサデータを検出する上記ステップは、上記マップデータからの情報に依存して、該車両の位置を決定し、デジタルマップ内における該車両の位置を特定し、該ビデオ画像内のオブジェクトを強調するステップを含んでいる、項目1〜項目12のいずれか一項に記載の方法。
(項目14)
オブジェクト情報は、上記マップデータから取り出され、受信されたセンサデータに依存して、上記ビデオ画像内のオブジェクトを強調する、項目13に記載の方法。
(項目15)
車両環境からのビデオ画像を表示するためのシステムであって、
該車両環境からのビデオ画像を撮影する画像センサ(11)と、
該車両環境または該車両のデータを検出する少なくとも1つのセンサ(15)と、
該センサデータを処理するセンサ処理ユニット(16)と、
該ビデオ画像を後処理し、該ビデオ画像内のオブジェクトを認識する画像処理ユニット(13)と、
表示されたビデオ画像内の認識されたオブジェクトの表現を変更することにより、該表示されたビデオ画像内に該処理されたセンサデータを視覚化するグラフィックス処理ユニット(17)と
を備えている、システム。
(項目16)
上記車両環境のデータを検出する上記センサ(15)は、以下のセンサ:
距離センサ、該車両の前方を走行している車両の速度を検出するセンサ、温度センサ、湿度レベル検出センサ、位置検出センサ
のうちの少なくとも1つを含んでいる、項目15に記載のシステム。
(項目17)
上記画像処理ユニット(13)は、上記ビデオ画像にエッジ検出フィルタを適用し、検出されたオブジェクトとデータベース(14)に格納されているオブジェクトのタイプとを比較することにより、該ビデオ画像内のオブジェクトを認識する、項目15または項目16に記載のシステム。
(項目18)
上記システムは、項目1〜項目14のいずれか一項に記載の方法にしたがって動作している、項目15〜項目17のいずれか一項に記載のシステム。
(項目19)
車両環境からのビデオ画像を提示する方法であって、
該車両環境のビデオ画像を撮影するステップと、
該ビデオ画像内の車両を認識するステップと、
検出車両の前方の車両の速度を決定するステップと、
該決定された速度を処理するステップと、
表示されたビデオ画像内の認識された車両の表現を変更することにより、該表示されたビデオ画像内に該処理された速度を視覚化するステップと
を包含し、
該検出車両の前方を移動している該車両の速度が、該検出車両に対して、所定の閾値速度より低い速度を有していることが検出されたときに、該ビデオ画像内に示されているような該前方の車両のブレーキライトは、作動状態で表示される、方法。
(項目20)
車両環境からのビデオ画像を提示する方法であって、
該車両環境のビデオ画像を撮影するステップと、
該ビデオ画像内の車両を認識するステップと、
検出車両の前方の車両の絶対速度を決定するステップと、
該決定された絶対速度を処理するステップと、
表示されたビデオ画像内の認識された車両の表現を変更することにより、該表示されたビデオ画像内に該処理された絶対速度を視覚化するステップと
を包含し、
該ビデオ画像内において、該検出車両の前方の車両の表現は、該前方の車両の絶対速度が所定の閾値速度より低い場合に、該前方の車両にフラッシュしている警告灯を追加することによって変更される、方法。
(項目21)
車両環境からのビデオ画像を表示するためのシステムであって、
該車両の周囲からのビデオ画像を撮影する画像センサと、
該車両の周囲における他の車両の速度を検出する少なくとも1つの速度センサと、
該他の車両の該速度を処理する速度センサ処理ユニットと、
該ビデオ画像を後処理し、該ビデオ画像内の車両を認識する画像処理ユニットと、
表示されたビデオ画像内に処理されたセンサデータを視覚化するグラフィックス処理ユニットと
を備えており、
該速度センサが、該検出車両の前方において移動している該車両の速度が、該検出車両に対し、所定の閾値速度より低い速度を有していることを検出したときに、グラフィックスプロセッサは、前方の車両のブレーキライトを作動状態で表示する、システム。
(項目22)
車両環境からのビデオ画像を表示するためのシステムであって、
該車両の周囲からのビデオ画像を撮影する画像センサと、
該車両の周囲における他の車両の速度を検出する少なくとも1つの速度センサと、
該他の車両の該速度を処理する速度センサ処理ユニットと、
該ビデオ画像を後処理し、該ビデオ画像内の車両を認識する画像処理ユニットと、
表示されたビデオ画像内に処理されたセンサデータを視覚化するグラフィックス処理ユニットと
を備えており、
該速度センサが、該検出車両の前方において移動している該車両の絶対速度が、所定の閾値速度より低いことを検出したときに、該グラフィックスプロセッサは、該表示されたビデオ画像において、前方の車両にフラッシュしている警告灯を追加する、システム。
(摘要)
本発明は、車両環境からのビデオ画像を提示する方法に関し、上記方法は、車両環境のビデオ画像を撮影するステップと、車両環境または車両のセンサデータを検出するステップと、センサデータを処理するステップと、ビデオ画像内のオブジェクトを認識するステップと、表示された画像内の認識されたオブジェクトの表現を変更することにより、表示されたビデオ画像内に処理されたセンサデータを視覚化するステップとを包含している。
本発明は、添付の図面に関連して、以下でより詳細に記載される。
(好適な実施形態に関する詳細な説明)
図1において、ドライバーに提示されるビデオ画像内にセンサ情報を視覚化するために用いられ得るシステムが示されている。図1に示されているシステムは、カメラ11を備えており、上記カメラは、車両の環境からの画像を撮影する。カメラは、走行補助システムの一部であり得、上記走行補助システムにおいて、カメラからの画像は、ドライバーに対し、ディスプレイ12上に表示される。カメラは、車両(図示されず)内に取り付けられている。1つの場合では、カメラは、フロントガラスの後ろに配置され、車両の前方に位置している部分を監視する。さらに、カメラを車両の前方部分(例えば、ラジエータグリルの隣)に取り付けることも可能である。カメラは、CCDカメラまたはCMOSカメラであり得、上記カメラは、25〜100フレームの間のフレームレート(1秒あたりの画像)で画像を撮影する。車両が高速で運転しているときに、場面を十分に素早く捕らえるためには、これらのフレームレートが必要である。カメラは、車両の前方の車両環境に関する2次元表現を提供する。車両が後ろ方向に向けて運転しているときに、車両の後方にある部分が監視されるような方法で、カメラを配置することもまた可能であり得ることに留意されたい。さらに、2つのカメラが提供され得る。一方のカメラが、前方にある部分を監視し、別のカメラが、車両の後方を監視し得る。カメラに接続されている画像処理ユニット13が提供され、上記画像処理ユニットは、カメラからビデオ画像を受信する。画像処理ユニットは、(例えば、受信した画像データにフィルタを適用することによって)ビデオ画像内のオブジェクトの位置を特定するために、受信した画像を後処理する。例えば、オブジェクトの検出は、エッジ検出フィルタを用いることにより、実行され得る。これらのエッジ検出フィルタは、画像の隣り合うピクセルの輝度の差を検出する。オブジェクトの輪郭が見出されると、この輪郭は、オブジェクトデータベース14に格納されている様々な所定の輪郭と比較され得る。例えば、車両がカメラを備えており(これは、以下では検出車両(detection vehicle)と呼称される)、別の車両の後方で運転しているとき、検出車両の前方のこの別の車両は、画像処理ユニットによって検出され得る。その後、検出された輪郭は、オブジェクトデータベースと比較され、その比較により、輪郭は車両の輪郭であるとして識別され得る。以下で詳細に説明されるように、ビデオ画像内のオブジェクトに関するこの識別は、センサデータの視覚化のために必要である。
本発明のシステムは、さらにセンサを備えており、上記センサは、車両の外部から(すなわち、車両環境から)センサデータを検出するか、そうでなければ、車両自身からのセンサデータを検出する。車両内にいくつかのセンサ15が提供され得るが、明確化のために、図1に示されている実施形態においては、唯1つのセンサのみが指示されている。このセンサは、検出車両の実際の速度に関する情報を提供し得る。加えて、距離センサが提供され得、上記距離センサは、検出車両の運転方向を考慮に入れて、検出車両の前方にある車両またはその他のオブジェクトまでの距離を測定する。センサデータは、センサ処理ユニットに送信され、上記センサ処理ユニットは、センサデータを処理する。処理されたセンサデータ(例えば、検出車両の実際の車両速度、検出車両の前方で運転している車両の距離、あるいは前方の車両の速度)は、その後、処理ユニット17に送信される。上記処理ユニット17はまた、グラフィックスを処理し、ディスプレイ12上に表示される画像データを準備する役目をも担っている。したがって、図1に示されている実施形態において、処理ユニットは、グラフィックスプロセッサとしての資格を付与されている。システムはさらに、ナビゲーションユニット18を含み得、上記ナビゲーションユニットは、ユーザに所定の目的地に到達するための方法を知らせることが可能である。ナビゲーションユニットは、ナビゲーションシステムに提供されたマップデータ19に基づいて、現在の位置から所定の目的地までの最速または最短のルートを計算する。加えて、アンテナ20が提供され得、上記アンテナは、衛星システムからの信号を受信する。ナビゲーションユニットは、アンテナ20から受信した信号に基づいて、現在の車両の位置を決定することができる。
センサ15の情報は、様々な方法で、ドライバーに提示され得る。センサが、検出車両の前方にあるオブジェクトまでの距離を測定する距離測定センサである場合、この距離は、単に距離の値を表示することにより、ドライバーに対して指示され得る。しかしながら、この抽象的な数字は、ドライバーが、提示された数字に対して反応する方法を知り得ない場合には、ドライバーに対して有用ではあり得ない。本発明にしたがうと、表示されているビデオ画像内に、センサデータから受信した情報を視覚化することが、可能である。このことは、場面に既に提示されているオブジェクトに対し、追加的な要素(これは、実際には場面に存在しないかもしれないし、場面に存在しているかもしれない)を導入することによって、行われ得る。処理されたセンサデータの視覚化に関する様々な例が、図3〜図6に関連して、与えられる。
次に、ビデオ画像内にセンサデータを視覚化するために必要な様々なステップが、図2に関連して概説されている。方法は、ステップ21において開始し、ステップ22において、ビデオ画像が記録される。記録されたビデオ画像は、ビデオ画像内に示されているオブジェクトを認識するために、さらに処理される。これらのオブジェクトは、その他の車両、歩行者、建物、樹木、標識、等であり得る。その後、画像処理ユニットは、センサ情報を視覚化するためにはどのオブジェクトに対する表現が変更されなければならないかを後ほどになって知るために、様々なオブジェクトを認識しなければならない(ステップ23)。
ステップ24において、センサデータが検出され、ステップ25において、ドライバーに指示されるべき情報を取り出すために、検出されたセンサデータが処理される。次のステップ26において、ビデオ画像内で検出されたオブジェクトの表現を変更することにより、センサデータから受信された情報が、ビデオ画像内に視覚化され、これにより、ドライバーは、センサによって提供された情報を、非常に自然な方法で知らされる。この目的を達成するために、センサ情報は、画像に変換されなければならない。画像内のどのオブジェクトに対する表現が変更されなければならないかが、決定されなければならない。さらに、どのような方法で表現が変更されるかが、決定されなければならない。方法は、ステップ27において、終了する。
図3に関連して、本発明の第1の実施形態が、より詳細に説明されている。図3は、検出車両が、各方向に対して2本の車線を有しているハイウェイ31上を走行しているときの、検出車両のカメラの1つの画像を示している。一例として、検出車両は、左車線32上を走行し得、1台の車両33は、右車線上を走行しており、別の車両34は、左車線上を走行している。これらの2台の車両はまた、カメラ11によって撮影された画像内にも見ることができる。画像内の任意のオブジェクトを検出するために、ビデオ画像が処理されると、車両33および34の輪郭は、処理ユニット13によって検出され得る。検出された形状と、データベース14に格納されている異なる基準形状とを比較することにより、画像処理ユニットは、2つの検出されたオブジェクトを、車両として分類し得る。加えて、センサ15は、前方を走行している2台の車両までの距離を測定する距離センサであり得る。距離に関する情報はまた、ビデオ画像を処理することによっても取り出され得ることに、留意されたい。ビデオ画像内で2つのオブジェクト34および33が非常に速く大きくなっているということが検出されるとき、これら2台の車両までの距離が小さくなっているということが、理解され得る。さらに、カメラ11およびセンサ15は、1つの3D撮像システムに組み込まれ得、3D撮像システムは、追加的に、奥行きの情報を、画像に提供し得る。ここで、センサが、車両34が遥かに遅く、この車両までの距離がだんだん小さくなっているということを検出するとき、グラフィックスプロセッサは、新しい要素を画像内に導入するような方法で、センサ15から受信した情報に作用し得る。例えば、車両のグラフィカル表現は、表示された画像に対し、人工的なブレーキライト35を追加することにより、変更され得る。画像処理ユニットが、オブジェクト34を車両として分類したとき、システムは、実際にはビデオ画像内に光が検出されていない場合でさえも、車両の幾何学的形状の所定の位置にブレーキライトが追加されるような方法で、構成され得る。ブレーキライトが作動された状態で示されているとき、車両のドライバーは、車両35がブレーキを作動させているという印象を有し得る。したがって、ドライバーは、減少している距離が、距離センサ15によって検出されているときに、減少している距離に対し、より多くの注意を払い得る。上述の例は、要素(これは、ビデオ画像内に存在しないかもしれないし、ビデオ画像内に存在しているかもしれない)を、場面の中に導入することにより、ドライバーが、抽象概念を必要とすることなしに、センサ情報を知らされ得ることを、示している。ドライバーは、センサによって提供された情報を容易に理解し得る。
図3に関連して、本発明の別の実施形態が説明され得る。この別の実施形態において、2つの車両33および34が、交通渋滞の最後の2台の車両33および34であり、車両33および34が非常にゆっくり動いているということ、あるいは全く動いていないということが、起こり得る。ここで、前方を走行している2台の車両の距離または速度を検出するセンサ15は、これら2台の車両が実際には今はもう動いていないということ、および検出車両が比較的高速で動いているということを、検出する。ドライバーに危険な状況が生じ得るということを示すために、ビデオ画像内での2台の車両33および34の表現は、これら2台の車両が、交通渋滞の最後尾の一部分であるということを信号伝達するために、2つの警告灯35がフラッシュしている状態で示され得るような方法で、変更され得る。2つの車両のドライバーが、彼らの車両の警告灯を作動していない場合でさえも、検出車両のドライバーは、理解することが容易な方法で知らされ得る。したがって、ドライバーは、実際にブレーキを作動させることにより、2台の車両33および34との衝突を回避するために必要な方法で反応することができる。距離センサ15から受信した情報に加え、交通渋滞の情報はまた、ナビゲーションシステムからも受信され得る。当該技術分野において、例えば、TMCメッセージ(交通メッセージチャンネル)が公知であり、上記TMCメッセージは、無線局の無線信号にエンコードされ、受信される。この交通ニュースは、ハイウェイの一部分で交通が渋滞しているという情報を含んでいる。ナビゲーションユニットにおいて決定された実際の車両の位置を交通ニュースと比較することにより、交通渋滞に近付いている可能性があるということが推測され得る。このナビゲーションに基づいた情報は、距離センサまたは速度測定センサの代わりに、あるいは距離センサまたは速度測定センサとの組み合わせで、用いられ得る。警告灯を作動させるかどうかの決定はまた、車両がハイウェイ上を走行しているかどうかにも、依存し得る。
都市のアグロメレーション(agglomeration)において、検出車両と同じ車線上の動いていない車両の検出は、通常のことであると考えられ得る(例えば、車両が交通信号で待機しているときなど)。しかしながら、ハイウェイ上では、車線上の動いていない車両の検出は、危険であると考えられ得る。したがって、車両がハイウェイ上を走行していることをナビゲーションシステムが指示しているときにのみ、動いていない車両に対して、フラッシュしている光が追加され得る。
この場合、画像内の認識されたオブジェクトの表現は、2つの異なるセンサ(位置決定センサ、ならびに速度または距離センサ)から受信された信号に依存して、変更される。
図4に関連して、別の実施形態が開示されている。図4においては、カメラ11によって記録された別のビデオ画像41が示されている。この例において、検出車両は、道路の上を走行しており、横断歩道42に接近している。ここで、システムは、検出車両の実際の車両速度を決定し、示されている横断歩道42に車両が接近しているという情報が、ナビゲーションユニット18から受信され得る。ここで、車両が、横断歩道に車両が接近しようとする状況に対して、速すぎる速度で運転していることが、検出されたとき、横断歩道に通常存在している警告灯、例えば、歩行者横断標識が作動されるような方法で、ビデオ画像が変更され得る。フラッシュしている光43を作動させることにより、ドライバーは、車両が横断歩道に接近しているときに、車両の速度を落とした方が賢明であり得るということを、知らされ得る。さらに、例えば、表示されている横断歩道の色を変更することにより、横断歩道そのものの表現を変更することが可能である。この実施形態においては、オブジェクト自身の表現が変更されている。
図5に関連して、別の実施形態が説明されている。図5においては、カメラ11によって撮影された別のビデオ画像51が示されている。図5に示されている例は、戸外の天候の状況が、例えば道路が凍結しているというリスクが存在している状況であるということを、ドライバーが認識することに役立ち得る。例えば、温度センサは、戸外の温度を測定し得る。戸外の温度が、0℃近くまたは0℃未満である場合、追加的なセンサが、湿度レベルを測定し得、センサ処理ユニット16が、センサデータを処理し、湿度レベルが所定の湿度の閾値よりも高いかどうかを決定する。温度が所定の閾値温度よりも低い場合、道路が滑りやすいかもしれないということを、ドライバーに指示することは、有利であり得る。ドライバーに天候の状況を知らせるために、示されているビデオ画像は、画像内において、道路52が氷上のような反射53を有していることを指示されるような方法で、変更され得る。氷上のような反射53が道路上に示されているとき、これらの反射は、道路が凍結している危険が存在し得ることを、ドライバーに指示し得る。
図6において、本発明の別の実施形態が開示されている。図6もまた、カメラ11によって撮影された画像61を示している。図6の実施形態において、車両は、道路62に沿って運転しており、上記道路62は、線路63と交差している。ここで、システムは、検出車両の車両速度を検出し、ナビゲーションユニットのマップデータは、前方に線路の踏み切りが近付いているということを指示し得る。ここで、車両速度が速すぎることが検出され、列車が近付いているときに踏み切りが閉じられている可能性が存在し得る場合、線路の踏み切りを指示している標識65に、フラッシュしている光64を導入することにより、この潜在的な危険性と、速度が出すぎていることとを知らされ得る。フラッシュしている光64により、ドライバーは、実際の車両速度が、踏み切りを考慮したときに適切ではないかもしれないということを、知らされ得る。
上述の例は、ドライバーがセンサによって提供された情報を容易に理解することができる方法で、センサ情報がどのように視覚化され得るかについての一部の実施形態を示している。本発明にしたがうと、この視覚化は、表示されているビデオ画像内に要素(これは、実際にビデオ画像内に存在しているかもしれないし、別の状況ではビデオ画像内に存在していないかもしれない)を導入することによって、達成される。場面を強化するために、これらの固有の要素を用いることにより、不必要な抽象概念からドライバーを解放することができ、ドライバーは、状況を遥かに迅速に認識することができる。
図1は、ビデオ画像を表示するためのシステムの概略図を示しており、上記システムにおいては、表示されたビデオ画像内のオブジェクトの表現を変更することにより、センサ情報が視覚化される。 図2は、センサ情報を用いてビデオ画像を表示する方法を実行するための主要なステップを含んだフローチャートである。 図3は、ビデオ画像の一例を示しており、この例においては、ビデオ画像内に距離情報または速度情報が表示される。 図4は、ビデオ画像内のセンサデータの表現に関する別の例を示している。 図5は、ビデオ画像の別の例を示しており、上記ビデオ画像においては、温度センサの情報が表示される。 図6は、ビデオ画像内でのナビゲーションユニットの情報の視覚化に関する別の例を示している。
符号の説明
11 カメラ
12 ディスプレイ
13 画像処理ユニット
14 オブジェクトデータベース
15 センサ
16 センサ処理ユニット
17 グラフィックス処理ユニット
18 ナビゲーションユニット
19 マップデータ
20 アンテナ

Claims (22)

  1. 車両環境からのビデオ画像を提示する方法であって、
    該車両環境のビデオ画像を撮影するステップと、
    該車両環境または該車両のセンサデータを検出するステップと、
    該センサデータを処理するステップと、
    該ビデオ画像内のオブジェクトを認識するステップと、
    表示されたビデオ画像内の認識されたオブジェクトの表現を変更することにより、該表示されたビデオ画像内に該処理されたセンサデータを視覚化するステップと
    を包含する、方法。
  2. 前記ビデオ画像内に存在し、フロントガラスを通してドライバーにも見ることが可能であるオブジェクトは、該ビデオ画像を後処理することにより、検出および変換され、オブジェクトクラスに分類されること
    を特徴とする、請求項1に記載の方法。
  3. 前記認識されたオブジェクトの前記表現は、前記表示されたビデオ画像内のオブジェクトに要素を導入することによって変更され、該要素は、該ビデオ画像内には実際に存在していないが、該ビデオ画像内に存在し得ること
    を特徴とする、請求項1または請求項2に記載の方法。
  4. 前記ビデオ画像は、前記車両の前方の前記車両環境から撮影される、請求項1〜請求項3のいずれか一項に記載の方法。
  5. オブジェクトを認識する前記ステップは、前記ビデオ画像内の車両を認識するステップを含んでいる、請求項1〜請求項4のいずれか一項に記載の方法。
  6. センサデータを検出する前記ステップは、そこから距離が決定される検出車両に対して、前記画像内に示されているオブジェクトの距離を決定するステップを含んでいる、請求項1〜請求項5のいずれか一項に記載の方法。
  7. センサデータを検出する前記ステップは、前記検出車両の前方にある車両の速度を決定するステップを含んでいる、請求項1〜請求項6のいずれか一項に記載の方法。
  8. 前記検出車両の前方において移動している前記車両の速度が、該検出車両に対して、所定の閾値速度より遅い速度を有していることが検出されたときに、前方の車両のブレーキライトが強調される、請求項6または請求項7に記載の方法。
  9. センサデータを検出する前記ステップは、戸外の温度および戸外の湿度レベルを検出するステップを含んでおり、該戸外の温度が所定の閾値温度より低いとき、および該戸外の湿度が所定の閾値湿度より高いときに、前記ビデオ画像内の道路の表現は、変更される、請求項1〜請求項8のいずれか一項に記載の方法。
  10. 前記道路の表現は、氷上におけるような反射を追加することによって変更されること
    を特徴とする、請求項9に記載の方法。
  11. センサデータを検出する前記ステップは、戸外の視界を決定するステップを含んでおり、該視界が所定の閾値視界より悪いとき、および前方にある車両までの距離が所定の距離よりも大きいときに、前記検出車両の前方の車両の表現は、変更される、請求項1〜請求項10のいずれか一項に記載の方法。
  12. 前記検出車両の前方の車両の前記表現は、該前方の車両の絶対速度が所定の閾値速度より遅い場合に、該前方の車両にフラッシュしている警告灯を追加することによって変更される、請求項7〜請求項11のいずれか一項に記載の方法。
  13. 前記車両のセンサデータを検出する前記ステップは、前記マップデータからの情報に依存して、該車両の位置を決定し、デジタルマップ内における該車両の位置を特定し、該ビデオ画像内のオブジェクトを強調するステップを含んでいる、請求項1〜請求項12のいずれか一項に記載の方法。
  14. オブジェクト情報は、前記マップデータから取り出され、受信されたセンサデータに依存して、前記ビデオ画像内のオブジェクトを強調する、請求項13に記載の方法。
  15. 車両環境からのビデオ画像を表示するためのシステムであって、
    該車両環境からのビデオ画像を撮影する画像センサ(11)と、
    該車両環境または該車両のデータを検出する少なくとも1つのセンサ(15)と、
    該センサデータを処理するセンサ処理ユニット(16)と、
    該ビデオ画像を後処理し、該ビデオ画像内のオブジェクトを認識する画像処理ユニット(13)と、
    表示されたビデオ画像内の認識されたオブジェクトの表現を変更することにより、該表示されたビデオ画像内に該処理されたセンサデータを視覚化するグラフィックス処理ユニット(17)と
    を備えている、システム。
  16. 前記車両環境のデータを検出する前記センサ(15)は、以下のセンサ:
    距離センサ、該車両の前方を走行している車両の速度を検出するセンサ、温度センサ、湿度レベル検出センサ、位置検出センサ
    のうちの少なくとも1つを含んでいる、請求項15に記載のシステム。
  17. 前記画像処理ユニット(13)は、前記ビデオ画像にエッジ検出フィルタを適用し、検出されたオブジェクトとデータベース(14)に格納されているオブジェクトのタイプとを比較することにより、該ビデオ画像内のオブジェクトを認識する、請求項15または請求項16に記載のシステム。
  18. 前記システムは、請求項1〜請求項14のいずれか一項に記載の方法にしたがって動作している、請求項15〜請求項17のいずれか一項に記載のシステム。
  19. 車両環境からのビデオ画像を提示する方法であって、
    該車両環境のビデオ画像を撮影するステップと、
    該ビデオ画像内の車両を認識するステップと、
    検出車両の前方の車両の速度を決定するステップと、
    該決定された速度を処理するステップと、
    表示されたビデオ画像内の認識された車両の表現を変更することにより、該表示されたビデオ画像内に該処理された速度を視覚化するステップと
    を包含し、
    該検出車両の前方を移動している該車両の速度が、該検出車両に対して、所定の閾値速度より低い速度を有していることが検出されたときに、該ビデオ画像内に示されているような該前方の車両のブレーキライトは、作動状態で表示される、方法。
  20. 車両環境からのビデオ画像を提示する方法であって、
    該車両環境のビデオ画像を撮影するステップと、
    該ビデオ画像内の車両を認識するステップと、
    検出車両の前方の車両の絶対速度を決定するステップと、
    該決定された絶対速度を処理するステップと、
    表示されたビデオ画像内の認識された車両の表現を変更することにより、該表示されたビデオ画像内に該処理された絶対速度を視覚化するステップと
    を包含し、
    該ビデオ画像内において、該検出車両の前方の車両の表現は、該前方の車両の絶対速度が所定の閾値速度より低い場合に、該前方の車両にフラッシュしている警告灯を追加することによって変更される、方法。
  21. 車両環境からのビデオ画像を表示するためのシステムであって、
    該車両の周囲からのビデオ画像を撮影する画像センサと、
    該車両の周囲における他の車両の速度を検出する少なくとも1つの速度センサと、
    該他の車両の該速度を処理する速度センサ処理ユニットと、
    該ビデオ画像を後処理し、該ビデオ画像内の車両を認識する画像処理ユニットと、
    表示されたビデオ画像内に処理されたセンサデータを視覚化するグラフィックス処理ユニットと
    を備えており、
    該速度センサが、該検出車両の前方において移動している該車両の速度が、該検出車両に対し、所定の閾値速度より低い速度を有していることを検出したときに、グラフィックスプロセッサは、前方の車両のブレーキライトを作動状態で表示する、システム。
  22. 車両環境からのビデオ画像を表示するためのシステムであって、
    該車両の周囲からのビデオ画像を撮影する画像センサと、
    該車両の周囲における他の車両の速度を検出する少なくとも1つの速度センサと、
    該他の車両の該速度を処理する速度センサ処理ユニットと、
    該ビデオ画像を後処理し、該ビデオ画像内の車両を認識する画像処理ユニットと、
    表示されたビデオ画像内に処理されたセンサデータを視覚化するグラフィックス処理ユニットと
    を備えており、
    該速度センサが、該検出車両の前方において移動している該車両の絶対速度が、所定の閾値速度より低いことを検出したときに、該グラフィックスプロセッサは、該表示されたビデオ画像において、前方の車両にフラッシュしている警告灯を追加する、システム。
JP2007298522A 2006-11-21 2007-11-16 ビデオ画像を提示する方法およびシステム Active JP5198835B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP06024147A EP1926048B1 (en) 2006-11-21 2006-11-21 Presenting video images of a vehicle environment
EP06024147.8 2006-11-21

Publications (2)

Publication Number Publication Date
JP2008131648A true JP2008131648A (ja) 2008-06-05
JP5198835B2 JP5198835B2 (ja) 2013-05-15

Family

ID=37698020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007298522A Active JP5198835B2 (ja) 2006-11-21 2007-11-16 ビデオ画像を提示する方法およびシステム

Country Status (8)

Country Link
US (1) US9013578B2 (ja)
EP (1) EP1926048B1 (ja)
JP (1) JP5198835B2 (ja)
KR (1) KR101367513B1 (ja)
CN (1) CN101187978B (ja)
AT (1) ATE459061T1 (ja)
CA (1) CA2610504C (ja)
DE (1) DE602006012510D1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101478135B1 (ko) * 2013-12-02 2014-12-31 현대모비스(주) 프로젝션 유닛을 이용한 증강현실 차선변경 보조 시스템

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006052779A1 (de) * 2006-11-09 2008-05-15 Bayerische Motoren Werke Ag Verfahren zur Erzeugung eines Gesamtbilds der Umgebung eines Kraftfahrzeugs
US20090177378A1 (en) * 2008-01-07 2009-07-09 Theo Kamalski Navigation device and method
JP4533936B2 (ja) * 2008-02-01 2010-09-01 日立オートモティブシステムズ株式会社 画像処理装置、及びこれを備えた車両検知装置
US8228380B2 (en) * 2008-03-15 2012-07-24 International Business Machines Corporation Informing a driver or an owner of a vehicle of visible problems detected by outside video sources
EP2214122B1 (en) * 2009-02-03 2013-07-17 Harman Becker Automotive Systems GmbH Methods and devices for assisting a vehicle driver
EP2402226B1 (en) * 2010-07-02 2014-03-05 Harman Becker Automotive Systems GmbH Computer based system and method for providing a driver assist information
JP5691568B2 (ja) * 2011-01-28 2015-04-01 ソニー株式会社 情報処理装置、報知方法及びプログラム
US9605971B2 (en) * 2011-06-17 2017-03-28 Robert Bosch Gmbh Method and device for assisting a driver in lane guidance of a vehicle on a roadway
DE102011084084A1 (de) * 2011-10-06 2013-04-11 Robert Bosch Gmbh Anzeigeverfahren und Anzeigesystem für ein Fahrzeug
US8941690B2 (en) * 2011-12-09 2015-01-27 GM Global Technology Operations LLC Projected rear passenger entertainment system
US10163348B2 (en) * 2012-08-01 2018-12-25 Toyota Jidosha Kabushiki Kaisha Drive assist device
US10678259B1 (en) * 2012-09-13 2020-06-09 Waymo Llc Use of a reference image to detect a road obstacle
DE102012025317A1 (de) * 2012-12-22 2014-06-26 Audi Ag Fahrerassistenzsystem und Verfahren zum Freigeben eines autonomen oder pilotierten Garagenparkens
CN104142795A (zh) * 2013-05-09 2014-11-12 华为终端有限公司 信息采集启动方法、装置和移动终端
EP3092599B1 (en) 2013-12-04 2019-03-06 Mobileye Vision Technologies Ltd. Systems and methods for mimicking a leading vehicle
DE102014205511A1 (de) * 2014-03-25 2015-10-01 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur anzeige von objekten auf einer fahrzeuganzeige
IL239129A0 (en) * 2015-06-01 2015-11-30 Brightway Vision Ltd Image improvements in car imaging systems
CN108028016B (zh) 2015-09-25 2022-05-17 苹果公司 增强现实显示系统
CN105333878A (zh) * 2015-11-26 2016-02-17 深圳如果技术有限公司 一种路况视频导航系统及方法
US10217001B2 (en) * 2016-04-14 2019-02-26 KickView Corporation Video object data storage and processing system
US10692252B2 (en) * 2017-02-09 2020-06-23 GM Global Technology Operations LLC Integrated interface for situation awareness information alert, advise, and inform
SE541566C2 (en) * 2017-05-04 2019-11-05 Scania Cv Ab Method and system for controlling steering of a vehicle
DE102017208728A1 (de) * 2017-05-23 2018-11-29 Audi Ag Verfahren zur Ermittlung einer Fahranweisung
DE102017011499B4 (de) * 2017-12-13 2023-02-02 Mercedes-Benz Group AG Verfahren zur Visualisierung von Sensordaten und/oder Messdaten
JP2019159380A (ja) * 2018-03-07 2019-09-19 株式会社デンソー 物体検知装置、物体検知方法およびプログラム
US10861238B2 (en) 2018-05-14 2020-12-08 Microsoft Technology Licensing, Llc Experiential representation of data in mixed reality
CN110634324A (zh) * 2018-06-22 2019-12-31 上海擎感智能科技有限公司 一种基于车载终端的礼让行人的提醒方法、系统及车载终端
CN111191482B (zh) * 2018-11-14 2023-04-28 杭州海康威视数字技术股份有限公司 一种刹车灯识别方法、装置及电子设备
JP2020086659A (ja) 2018-11-19 2020-06-04 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
CN111284325B (zh) * 2018-12-10 2022-04-15 博泰车联网科技(上海)股份有限公司 车辆、车机设备及其车辆沿途对象详尽信息显示方法
KR102184431B1 (ko) * 2019-02-21 2020-11-30 주식회사 와이즈오토모티브 사각 지대 탐색 장치 및 방법
CN110155007A (zh) * 2019-04-28 2019-08-23 深圳市元征科技股份有限公司 车辆的刹车控制方法、车载设备以及刹车控制装置
DE102019217642A1 (de) * 2019-11-15 2021-05-20 Volkswagen Aktiengesellschaft Verfahren zur Erfassung von Bildmaterial zur Überprüfung von bildauswertenden Systemen, Vorrichtung und Fahrzeug zur Verwendung bei dem Verfahren sowie Computerprogramm
CN113924605A (zh) 2019-04-30 2022-01-11 大众汽车股份公司 检测用于检查图像分析系统的图像材料的方法、在该方法中使用的装置和交通工具以及计算机程序
CN112009490A (zh) * 2019-05-30 2020-12-01 博世汽车部件(苏州)有限公司 用于确定物体或车辆形状的方法和系统、以及辅助驾驶系统
CN111845560B (zh) * 2020-03-31 2022-09-20 同济大学 一种车头冲出物体警示系统
CN112699862B (zh) * 2021-03-25 2021-07-30 智道网联科技(北京)有限公司 图像数据处理方法、装置、设备和存储介质
CN113352888B (zh) * 2021-06-29 2022-05-13 广州小鹏汽车科技有限公司 显示方法、车载终端、车辆及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263784A (ja) * 1995-03-23 1996-10-11 Honda Motor Co Ltd 道路状況認識装置
JP2000238594A (ja) * 1998-12-25 2000-09-05 Aisin Aw Co Ltd 運転支援装置
JP2005107916A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置、車両用情報提供方法及び車両用情報提供プログラム
JP2005182306A (ja) * 2003-12-17 2005-07-07 Denso Corp 車両用表示装置
JP2006072830A (ja) * 2004-09-03 2006-03-16 Aisin Aw Co Ltd 運転支援システム及び運転支援モジュール
JP2006243888A (ja) * 2005-03-01 2006-09-14 Nippon Seiki Co Ltd 車両用表示装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7421321B2 (en) * 1995-06-07 2008-09-02 Automotive Technologies International, Inc. System for obtaining vehicular information
US6885968B2 (en) * 2000-05-08 2005-04-26 Automotive Technologies International, Inc. Vehicular exterior identification and monitoring system-agricultural product distribution
KR100374945B1 (ko) 1999-11-01 2003-03-06 진우산전 주식회사 복합 교통단속 장치와 제어 방법
KR100540743B1 (ko) 2003-01-24 2006-01-10 최용건 주행편차 보정에 의한 차량의 조향각/속도조절 데이터생성장치 및 방법
KR100559379B1 (ko) 2003-02-15 2006-03-10 최용건 선행차량 영상추적을 통한 차량의 조향각데이터 생성장치및 방법
US20050259033A1 (en) * 2004-05-20 2005-11-24 Levine Alfred B Multiplex-selective heads-up displays for cars
KR100578041B1 (ko) 2004-06-02 2006-05-11 (주)에이직뱅크 교통정보수집과 부가기능을 갖는 네트워크 카메라 장치 및그 교통정보 처리방법
US7493202B2 (en) * 2004-11-12 2009-02-17 Takata Corporation Vehicle safety control system by image processing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263784A (ja) * 1995-03-23 1996-10-11 Honda Motor Co Ltd 道路状況認識装置
JP2000238594A (ja) * 1998-12-25 2000-09-05 Aisin Aw Co Ltd 運転支援装置
JP2005107916A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置、車両用情報提供方法及び車両用情報提供プログラム
JP2005182306A (ja) * 2003-12-17 2005-07-07 Denso Corp 車両用表示装置
JP2006072830A (ja) * 2004-09-03 2006-03-16 Aisin Aw Co Ltd 運転支援システム及び運転支援モジュール
JP2006243888A (ja) * 2005-03-01 2006-09-14 Nippon Seiki Co Ltd 車両用表示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101478135B1 (ko) * 2013-12-02 2014-12-31 현대모비스(주) 프로젝션 유닛을 이용한 증강현실 차선변경 보조 시스템

Also Published As

Publication number Publication date
US9013578B2 (en) 2015-04-21
CN101187978A (zh) 2008-05-28
DE602006012510D1 (de) 2010-04-08
KR20080046102A (ko) 2008-05-26
US20080239078A1 (en) 2008-10-02
EP1926048B1 (en) 2010-02-24
JP5198835B2 (ja) 2013-05-15
CN101187978B (zh) 2013-09-25
ATE459061T1 (de) 2010-03-15
KR101367513B1 (ko) 2014-02-27
CA2610504A1 (en) 2008-05-21
CA2610504C (en) 2011-10-11
EP1926048A1 (en) 2008-05-28

Similar Documents

Publication Publication Date Title
JP5198835B2 (ja) ビデオ画像を提示する方法およびシステム
US9723243B2 (en) User interface method for terminal for vehicle and apparatus thereof
CN106462727B (zh) 车辆、车道终止检测系统和方法
JP5070809B2 (ja) 運転支援装置、運転支援方法、及び、プログラム
JP4783431B2 (ja) 交通情報検出装置、交通情報検出方法、交通情報検出プログラムおよび記録媒体
EP3530521B1 (en) Driver assistance method and apparatus
US20210070288A1 (en) Driving assistance device
JP2007266976A (ja) 周辺状況認識装置及び方法
JP2009122825A (ja) 走行状況判定装置
JP2008097279A (ja) 車両外部情報表示装置
JP4003569B2 (ja) 交差点事故防止装置及びプログラム
JP4692831B2 (ja) 周辺状況認識装置及び方法
JP2004295596A (ja) 車両の走行支援情報表示装置
US10864856B2 (en) Mobile body surroundings display method and mobile body surroundings display apparatus
JP2009075767A (ja) 運転支援装置及び運転支援方法
JP2005092516A (ja) 車載用移動体検出装置
US20220065649A1 (en) Head-up display system
JP2007062434A (ja) 車両用警報装置
JP6681044B2 (ja) 逆走検知システム
JP2010198087A (ja) 運転支援装置
JP2017224067A (ja) わき見状態判定装置
JP4131832B2 (ja) 車両の走行支援情報表示装置
JP2008027164A (ja) 車両接近判断装置及び方法
WO2021076734A1 (en) Method for aligning camera and sensor data for augmented reality data visualization
CN111357039A (zh) 增强现实dsrc数据可视化

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5198835

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250