JP5506745B2 - イメージ獲得ユニット、方法及び連関付けられた制御ユニット{imageacquisitionunit、acquisitionmethodandassociatedcontrolunit} - Google Patents

イメージ獲得ユニット、方法及び連関付けられた制御ユニット{imageacquisitionunit、acquisitionmethodandassociatedcontrolunit} Download PDF

Info

Publication number
JP5506745B2
JP5506745B2 JP2011144829A JP2011144829A JP5506745B2 JP 5506745 B2 JP5506745 B2 JP 5506745B2 JP 2011144829 A JP2011144829 A JP 2011144829A JP 2011144829 A JP2011144829 A JP 2011144829A JP 5506745 B2 JP5506745 B2 JP 5506745B2
Authority
JP
Japan
Prior art keywords
video
data
rider
image acquisition
lidar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011144829A
Other languages
English (en)
Other versions
JP2012080517A (ja
Inventor
ウィ・ジェヨン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2012080517A publication Critical patent/JP2012080517A/ja
Application granted granted Critical
Publication of JP5506745B2 publication Critical patent/JP5506745B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Description

本発明は、車両用仮想ビジョンシステムの分野に関し、更に詳しくは、危険感知と係るイメージ獲得及びデータ保存に関する。
仮想ビジョンシステムは、従来から知られていたが、車両に適用することを妨げる様々な制限があった。よって、車両分野への仮想ビジョンシステムの適用に係って解決しなければならない要求があった。
本発明は、前記のような従来技術の問題点を解決するためのものであって、ビデオカメラから獲得したビデオデータ及びライダー(LIDAR)から獲得した範囲又は深さデータを結合使用することを開示する。これらの2つのソースは、それぞれの限界を有しており、これらの結合使用は、補償的情報を提供することができる。例えば、商用中のライダーの分解能は商用中のビデオカメラの分解能に比べて劣り、典型的に車線表示、道路表示及び信号灯の色のような物体の色を認識することができない。その一方、例えば、ビデオカメラからの信号は、カメラ前方のキャプチャーされた物体の距離を直接測定できないという制限があり、夜間、霧、スモッグ、雨、雪、直射光線、向かってくる車両からの直接的なヘッドライトのような光や天気状態によって信頼性が左右され、更に、トンネルに進入する時のような光状態の変化に対して露出調整遅延がある。一方の信号の使用は、他方から獲得した情報を完全なものとすることができ、又は少なくとも有用なリダンダンシーを提供することができる。例えば、ライダー信号は、車線表示が消されたり、何かによって覆われている場合のように、車線表示がビデオカメラから獲得できない場合、道路カーブ又はバリアの位置を決めるために分析される深さ情報を提供することができる。よって、両信号を用いることは、車線表示情報の他に、若しくは、これの代わりに、道路カーブ情報を用いて有用な車両位置情報が提供できるようにする。更に、予めコ・レジストレートされた(co−registered)ビデオ及びライダーデータ信号を有するイメージ獲得ユニットを提供することは、制御モジュールの観点から、とても実用的なビデオソースになり得る。
適用が可能なのは、車線離脱警告システム、スマートクルーズ制御システム、物体及び歩行者検知システム、表示及び信号灯認識、夜間走行及び悪天候走行助けシステムを含む。
前記課題を解決するための本発明は、車両運行を助けるために、カラービデオソース及びライダーソースの両方からのビデオデータを解釈する車両仮想ビジョンシステムを提供する。カラービデオソース及びライダーソースからのデータは、データ獲得ステップで結合され、データ解釈の第2ステップで結合された形態で受信される。
本発明の更に他の観点から、イメージ獲得ユニットにおいて、前記ユニットは、ハウジング、少なくとも1つのビデオカメラを含み、前記少なくとも1つのビデオカメラを通じて獲得したビデオアレイデータに対するビデオ出力を含むビデオカメラシステム、少なくとも1つのライダーエミッタ(レーザーソース)及びライダー受信機を含み(3D LIDAR)、前記ライダー受信機から獲得したライダーアレイデータに対するライダー出力を含むライダーシステム、前記ビデオ出力及び前記ライダー出力に連結されており、前記ビデオアレイデータ及び前記ライダーアレイデータを受信するための融合積分器として、前記ビデオアレイデータ及び前記ライダーアレイデータを結合アレイデータでコ・レジストレーション(co−registration)するためのコ・レジストレーション機能を有する融合積分器、及び前記ハウジングから前記結合アレイデータを出力するための出力を含むことを特徴とする。
本発明の更に他の観点から、少なくとも1つのビデオカメラからビデオアレイデータを獲得するステップ;受信した反射されたライダー信号からライダーアレイデータを獲得するステップ;及び前記ビデオアレイデータを前記ライダーアレイデータと共に1つの結合アレイデータ信号でコ・レジストレーションするステップを含むことを特徴とするイメージ獲得方法が提供される。
本発明の更に他の観点から、ビデオ信号獲得器、前記獲得したビデオ信号を処理するためのビデオプロセッサ、前記処理されたビデオ信号又は他のソースから危険を感知できる危険分析器及びメモリ保存デバイス(ブラックボックス)を含むことを特徴とする制御ユニットが提供される。
本発明の更に他の特徴及びこれらの組合が、以下に記述する詳しい説明により、当業者にとって明確になる。
本発明は、従来技術の問題点を解決するためのものであって、ビデオカメラから獲得したビデオデータ及びライダー(LIDAR)から獲得した範囲又は深さデータを結合使用することにより、これらの2つのソースのそれぞれが有する限界を乗り越えて補償的な情報を提供することができる。
イメージ獲得ユニットの第1実施例の図解図 図1のイメージ獲得ユニットの正面図 クロッピング(cropping)を示す図解図 コ・レジストレーション(co−registration)の例を示す図解図 イメージ獲得ユニットの他の実施例を示す図 図5のイメージ獲得ユニットが車両の後方ミラー及びフロント間に装着されたものを示す図 イメージ獲得ユニットの更に他の例を示す図 制御モジュールと結合したイメージ獲得ユニットのブロック図 制御モジュールと結合したイメージ獲得ユニットのブロック図 信号の例を示す図 信号の例を示す図 レーザー拡散を示す図解図
図1は、ビデオカメラシステム及びライダーシステムを共に含むイメージ獲得ユニットの例を示している。本実施例において、イメージ獲得ユニットは、単一ハウジングに独立型ユニットとして提供され、ビデオアレイデータ及びライダーアレイデータを結合されたアレイデータ信号でコ・レジストレーションする融合積分器を有している。イメージ獲得ユニットは、ハウジングの外部で前記結合信号出力がアクセスできるように、結合信号出力を有する。図2は、図1のイメージ獲得ユニットの正面図を示す。正面は、ライダーエミッタ、ライダー受信機及びビデオカメラレンズを含むことができる。
この特定の実施例において、ハウジングは、後方ミラーと車両のフロントガラスの間で用いられる制限された領域に合うようにサイズを調節することができる。これは、典型的に、車両のフロントガラスの傾きに合うように斜めの正面と制限された全体のサイズを求める。
必ず、ライダーとビデオデータの結合は、例えば、独立的制御モジュールによって第2ステージで行われる結合されたデータ分析に対して、例えば、イメージ獲得ハウジング内のような第1ステージで行われなければならないことを理解すべきである。
ビデオカメラシステムは、具体的な適用により、多様に変化することができ、CMOSやCCDカメラ(例えば、オムニビジョンやマイクロンモバイルアイCMOSカメラ社のWXHA(1280X800)高動的範囲及び高画質イメージセンサー)であり得る。ビデオカメラシステムは、典型的に、所定のビデオピクセルの2Dアレイ形態でビデオアレイデータ出力を提供し、それぞれのビデオピクセルは、RGB連関データを有する。
ライダーシステムは、具体的な適用により、多様に変化することができる。それは、必要であれば、(ASC社の)3Dフラッシュライダータイプであることができ、目及び皮膚に安全な1530〜1570nmレーザーダイオードに基づいたエミッタ(例えば、ニュージャージーエジソン所在のM/A−Com社のモデル番号CVLM57mfg)、128X128InGaAs ADP検出器(アドバンスド・サイエンティフィック・コンセプト社の)又は大きいアレイInGaAs APDタイプレーザーレンジファインダ受信機(例えば、フロリダロングウッド所在のアナログモジュールインコーポレーテッド社により製造されたモデル番号7500又はパーキンエルマーオプトエレクトロニクス社のモデルC30659)を有することができ、所定数のライダーピクセルの2Dアレイ形態でデータ信号を提供することができる。典型的に、それぞれのライダーピクセルは、それと連関付けられた深さ(D、depth)データを有し、強度(I、intensity)データも更に有するはずである。ライダーは、前方の物体や車両の正確な距離を測定することができる。距離は、特にスマートクルーズ制御への適用のために測定され得る。車両への適用において、1m乃至150m又は200mまでの距離測定は好ましいことである。
フラッシュライダーのようなライダーを適用する場合において、エミッター側光レンズは、光経路の一部として、拡散器及び/又はフィルタを用いる。フィルタは、更に受信機光経路上で用いられる。拡散器は、レーザービームを取り、前記光をどのような形態でレーザー出力を収容して集中させるために、所定のパターンで前記光を再分配することができる屈折光学器の形態であり、拡散器の受信機側で光学レンズの受信機側上の形状と同じ形状を有しなければならない。光形成拡散器による拡散は、視野角を拡張することができる。方向転換フィルムは、フレネル/プリズムビームシフティング構造を有する光形成拡散器の各分配特性及び拡散を結合することができる。これらの光ベンディングフィルムは、直接的な視野線が不可能な時、流入するビームの軸から外れた整列を可能にする。適用は、LEDライティング、飛行ディスプレイ、交通信号、ディスプレイ及びLCDバックライトを含む。これらは、更に、光ビーム方向を壁、歩道及び他の照明ターゲットを照明するように変化させることにも用いられる。拡散器は、単純な20°方向転換フィルム又は光形成拡散器角と結合されて用いられる。一般的な変形が可能である。帯域通過フィルタのような光学フィルタ、減衰又は偏光フィルタが、必要としない信号の拒否及び受信機で必要としないノイズを最小化するために用いられる。
3Dフラッシュライダーは、飛行時間(Time Of Flight)を計算することによって距離を測定する(レーザー放射と前記物体から受信機光学レンズに前記レーザーの反射との間の時間周期)。従来のレーザーレンジファインダ(laser range finder)の適用において、(軍事用レーザーレンジファインダに用いられる、アナログモジュール社によって製造されたレーザーレンジファインダ受信機モジュール7500シリーズ。これは、高正確性を有して1メートル乃至1キロメートルを範囲とし、最大255ターゲット、すなわち、目及び皮膚に安全な1530〜1559nm波長でカメラ前方の物体の255他のパラメータ測定を行うことができる)、レーザーは、繊細かつ正確な距離測定をし、道路と縁石との間の高さの差を認識することにより、道路の縁及びカーブを識別することに用いられる。車線表示のヒストグラム演算は、表示の強度を測定することによって識別される。これは、車両を道路の中央に位置させるために、左右側の車線表示の間に車両を維持させることに非常に重要である。レーザーは、道路と縁石との間の高さの差を測定することにより、縁石を正確に測定することができる。このような重要な情報は、道路と関連して、使用者の車両の位置と姿勢と解釈され得る。車線表示が見えないか、又は非常に薄い場合、縁石測定は車両がどこにあるか、車両を安全に道路上に維持させることに非常に重要である。これは道路上の車両位置と関連して、参照位置になるはずである。車線表示が薄いか、及び/又は消されている場合、ビデオカメラ及び/又はレーザーを介した車線表示強度の判読は不可能ではないかもしれないが、かなり難しくなる。レーザーは、車線表示の強度(intensity)を測定することができ、前記道路上の車線表示を識別するためにイメージ解釈アルゴリズムと結合してヒストグラムを用いる。
レーザーレンジファインダ能力と重なったカメラ前方の物体や車両の従来のビデオイメージは、車線表示認識能力を向上させることができる。
融合積分器は、必ず、ビデオカメラシステムからのピクセルのRGB色データを深さ(D)及び選択的にライダーシステムの対応ピクセルの強度(I)データとマッチし、コ・レジストレーションというプロセスでRGBID情報を有する2Dアレイのピクセルを獲得する。
複数の場合、ビデオカメラシステムは、ライダーシステムより更に大きい分解能、異なる視野角、そして異なる光学受信特性を有しており、これらはビデオカメラピクセルとライダーピクセルとを直接マッチングすることを防止する。
垂直及び水平クロッピングのサポートを失わずに適当に一致させるために、ビデオデータ及びライダーデータのアスペクト比をスケーリング及び/又はクロッピングすることに注意をすべきである。図3は、イメージのクロッピングを図解している。
受信光学機器で差を収容するために、適当なスケーリング、クロッピング及び可能な後続の補正が行われると、それぞれのライダーピクセルは、1つ以上のビデオピクセルを含むビデオピクセルの「領域」と連関付けられる。
概略的に、コ・レジストレーションは、典型的に、特定のライダーピクセルの値に依存して深さ又は範囲値をそれぞれのビデオピクセルと連関付けることが求められる。これを行う方法は、与えられたライダーピクセルのデータ値をそれと連関付けられたすべてのビデオピクセル、すなわち、連関付けられた領域内のすべてのビデオピクセルと単純にマッチングすることによって行われる。非線形光学変更のないいくつかの実施例において、これは単に図4に示されたような行列によってピクセルアレイ構造をマッチングすることによって行われる。しかし、他の実施例で、より好ましく適用できる他の方法があるかもしれない。例えば、ライダーピクセルデータを領域内のすべてのビデオピクセルのビデオデータと連関付ける代りに、隣接するライダーピクセルの間にそれぞれの介在するビデオピクセルに対する線形的にフェーディングする値を計算することにより、或いは、空になるライダーデータを直接的に満たすのではなくて補間し、計算された、平均化された及び/又は近似化されたライダーピクセル値を介在するビデオピクセルに連関付けることが更に好ましい。
いずれの場合には、コ・レジストレーションによって行われたマッチの正確性を評価するために、初期キャリブレーションが必要な場合もあるはずである。このような負担は、共通のフレームに、そして共通のハウジングの一部としてライダー及びビデオシステムの光学機器を緊密に位置させることによって減少される。これ以降、振動などにはビデオシステムとライダーシステムが共通に晒されるはずであり、ビデオカメラ及びライダー光学機器が車両の別の部分として提供されている場合より、更にコ・レジストレーションへの影響は少なくなるはずである。
一実施例において、フレームは、30fpsで単一連続ビデオ出力に併合され得る。
図5A及び5Bを参照すると、他のイメージ獲得ユニットの例が示される。サイズは、例えば、3〜6インチになり得る。図6で、図5のイメージ獲得ユニットが車両の後方ミラー及びフロントガラスの間に装着されたものを示す。ユニットのハウジングは、軽量、温度処理されたプラスチック物質で製造され、受信光学レンズのために2つの分離された窓とレーザー出力のための1つの窓を含む。ハウジングの前面は、傾いたフロントガラスに完全に合うように傾けられており、フロントガラス及び光学レンズ内に発生することができる湿気を除去し、空気調和を提供するための空気孔を有し、3/4インチの厚さより小さいゴムバンパーガスケットによって囲まれている。これは、カメラへの衝撃や振動の影響を減らす。これは、更に、カメラ整列を正確にし、(運転者の観点から)25°以上の全体視野角が見えるようにデザインされる。
図7を参照すると、イメージ獲得ユニットの更に他の例が示される。この実施例において、ライダーシステムは、維持費を減らすことによって全体的な価値を向上することになるバックアップエミッタを更に有している。更に、この実施例は、1つ以上のカメラ、更に正確には2つの広角カメラ及び2つの望遠/ズームカメラを含む4つのビデオカメラを用いる。この実施例において、カメラは、指向されることができるように作られ、特に、望遠/ズームカメラが広角カメラによって捉えられた特定の特質でズームが可能になるように作られる。更に、それは図示した延長可能なアームに位置させることによって移動可能に作られることもある。更に、それはワイヤーで延長可能に構成されることもできる。
上述した実施例で、イメージ獲得ユニットは、色及び深さアレイデータを有する3D信号を所定通りデータを分析して介入するように求められる機能を有する制御モジュールに供給することができる。制御モジュールは、車両CPUの一部として、又は他のユニットとして提供されることができ、イメージ獲得ユニットは、コ・レジストレーションされたライダー及びビデオ信号(結合信号)を制御モジュールに対する様々な入力の1つとして提供することができる。イメージ獲得ユニットによって提供されていた結合されたデータは、制御モジュールが運転者の安全助けプログラムのためのアルゴリズムを具現することに有用かつ強力な道具となる。
制御モジュールは、次のような安全運転助けプログラムを含むことができる:車線離脱警告システム、夜間運転、霧、陽光やヘッドライト光のような悪天候運転及びスマートクルーズ制御システム(運転者車両と前の車両との間の安全距離を維持するようにする)。これは、更に、オーディオサウンドが危険警告をするようにしたり、可視的な光で警告したり、又は衝突危険性がある場合、ハンドルやシートを振動させるような多くの他の手段で運転者に警告するように作ることができる。これは、更に、運転者が介入せずに速度を下げるような自己診断及び自己作動を行うように作ることができる。このシステムは、多数の予め決まった安全パラメータ要求を行うことができ、所定の条件において、キャンバス通信プロトコルを介して車両が自動に操作できるようにする。この応急安全対策は、他の車両や歩行者との衝突を避けるために求められる。これは衝突を避けるために車両を止めたり、事故を予防するために左側や右側に方向を転換できるように操作され得る。
運営システムが物体のデータベースライブラリを検索して連関付け、CMOSやレーザーコンポーネントによって捉えられた実際のイメージとデータベースライブラリにインベードされたイメージを比較することにより、即刻に感知された物体を確認することができるため、歩行者、車線表示、車両などの他の物体を区別して識別することができる。「ピーピーピー」のような従来のオーディオサウンド警告に比べ、本システムは次のような特定物体の音声警告を提供することができる:「左/右側の近距離に自転車の運転者がいる」、「左/右側の車線を越えている」、「前方に歩行者がいる」、「左/右側の車線の車両と近すぎる」。運営システムが物体を区別して識別できない場合、「左/右/前方に物体が近すぎる」のようなデフォルト警告を提供することができる。他のコンポーネントとインターフェースすると、運転物にハンドルやシートの振動を通じて警告することもできる。これは、運転者がうるさい音楽を聞いていたり、居眠り運転をしている場合に、補助的な安全警告方法として作動する。
上述したイメージ獲得ユニットを用いることは、結合された信号を制御モジュールで利用可能にし、よって制御モジュールは、カメラ前方(1m乃至150、200m、或いは、更に遠く)の物体の距離を正確に測定し;ゲートモードを用いて飛行時間を計算して、霧、スモッグ、降雨又は雪のような天気環境でも見られるようにし;夜間ビジョン、例えば、夜間及びトンネル内で用いることができ;直射光線、ヘッドライト光下でも見ることができ;鳥瞰図だけでなく3次元ポイントクラウドイメージを提供するために「z」深さ(depth)を測定することができ;正確かつ詳細な距離を提供して、物体の深さ及びこれらの正体を正確に検知し、道路上の他の車両を区別して区分することができる、3次元ポイントクラウドイメージを有する高画質リアルタイムビデオイメージを提供することができ;信号灯信号(RGB)、標識認識を提供し;他の色の車線表示を判別することができ;運転者が周辺状況を更に正確に認識するために用いられる高画質リアルタイムビデオイメージを出力することができる。
アルゴリズムとソフトウェアが結合された信号を用いる制御モジュールの適用例は以下の通りである。
車線離脱警告システム:車線表示を検知し、車両の前の両側の車線内で車両を中央に維持するようにし、運転者が無意識的に車線表示を越えて左側や右側に運転する場合に警告を提供する。ビデオカメラは、車線表示認識機能を有して車両の前方をモニタリングし、運転者に指定された領域、すなわち、車線分離表示内で運転するようにガイドし、もし車両が方向指示信号の指示なしで車線表示を越えると、ソフトウェアは可能な不注意な運転行為又は他の運転者にも危険を与える可能性がある、他の車線への無意識的な移動を検出して運転者に警告するようにプログラムされる。運転パターンをモニタリングする間、このシステムは、CMOSカメラビデオイメージを介して、ある安全領域モニタリングパリメータ違反に対してモニタリングする。車両が適切な方向指示信号なしに車線表示を越える場合、ソフトウェアは運転者に直ちに警告する。
スマートクルーズ制御システム:運転者が前方の他の車両からの安全距離を越える場合、システムは所定の警告基準に従い、音を出すか又は視覚的な警告のような、決まったレベルの警告を与えることができ、もし事故につながる可能性がある安全距離違反になった場合、自動ブレーキシステムを起動させることができる。
物体及び歩行者感知システム:物体が歩行者、車両、電柱又は感知するようにプログラムされている他の物体であるかを感知する。
標識及び信号灯認識:停止表示を認識し、信号灯が緑色か赤色かを検知し、必要な場合に適切な警告を提供する。
夜間運転及び悪天候運転の助け:霧、スモッグ、降雨及び雪でも作動し、感知システムは向かい合ったヘッドライトにも影響を受けない。
図8を参照すると、制御モジュールの様々な入力の中で1つとして用いられるイメージ獲得ユニットの他の例が示される。
イメージ獲得ユニットは、システムの光学モジュールが2つの個別的なイメージングシステムを用いて情報を獲得していることを示す:ビデオカメラシステム及びライダーシステム。ペルティエ−エフェクトクーラ(TE−Cooler)システムが更にコンポーネントに適した作動温度を提供するためにこの特定実施例に含まれている。
ビデオカメラシステムは、1つ以上のCMOS基盤カメラで構成され、カメラによって要求される視野角及びアパーチャが提供できる適切なレンズで構成される。安価で具現する場合は、単一の広角カメラが用いられ、より複雑な具現では、単一望遠レンズが高精密度を有して直接カメラの前方をカバーし、2つの広角カメラは、例えば、低分解能で側面ビューを提供するはずである。それぞれのカメラは、偏光レンズを有することができ、(例えば、UVフィルタのような)追加のフィルタを有することができる。
光線レーダー(ライダー)システムは、レーザーパルスの放射及び反射されたビームが検出システムに更に戻る飛行時間の計算に基づいている。この実施例において、1550nm目に安全なソースが用いられる。レーザーソースが出力の精密な周波数特性の観点で好ましい。
ソースは、短いバーストでパルスされる。「パルス」は、外部ソースにより、本実施例では、パルス発生器により、イメージ獲得モジュールセクションに記述されたライダーイメージングサブシステムによって「認識できる」パターンに変調され得る。本実施例において、出力ビームは、適したレンズによって、例えば、スキャニングレンズとは異なり、単一パルスで関心領域をカバーするように拡散されることができる。光学「分離器」は、出力ビームの一部を検知器に伝達することに用いられる。第2レーザーエミッタは、「バックアップ」デバイスとして本システムに装着することができる。バックアップデバイスの使用は、ライダーサブシステムの使用年限を延長することができ、それによってメンテナンスへの要求を減らすことができる。パワーオン・セルフテスト(POST)で、イメージ獲得モジュールは、主エミッタの故障を判断することができ、代りに第2エミッタを用いるようにプログラムされ得る。これを行うために、両エミッタ出力ビームは、適した光学機器で共に整列することができる。
好ましい実施例において、検知器はFPA InGaAs検知器であり、エミッタの周波数に敏感である。FPAの分解能は、特定応用に適用することができる。他のカメラと類似な方法で、適した光学機器が反射されたビームをFPAの平面で焦点合わせするように位置されなければならない。光学フィルタがその他の周波数から流入するノイズを減少するために用いられる。
上述した通り、FPAは、エミッタ信号の一部を直接(アレイであると、その部分)受信する。エミッタ信号は、カウンタ或いは積分メカニズムをトリガーするために用いられ、放射されたパルスの「ゼロ時間(zero time)」を識別する。この参照から、アレイのそれぞれの検知器に対し、反射されたパルスの飛行時間は、下記する回路を用いて計算することができる。
イメージ獲得モジュールは、RGBイメージをRGBピクセルレベルで、深さ及び赤外線強度情報を有する単一ストリームに融合されたRGBイメージ(本明細書において、RGBイメージ又はイメージストリームという)を出力することに求められる積分メカニズムだけでなく、光学セクションに対するあらゆる制御ロジックを含んでいる。イメージ獲得モジュールは、CMOS及びライダーエミッタを制御することに用いられるサブシステムをインターフェースすることに求められる制御及び獲得ロジックを更に含んでいる。複数ユニットで構成されるサブシステムは、ライダーのFPAアレイ入力を獲得して解釈することに用いられる。
CMOSカメライメージ及びライダーイメージはメモリに保存され、サブシステムは、コーヒアラントRGBIDアレイでRGB及び強度−深さデータの積分を担っている。
温度調節モニターは、(サーミスタを用いることにより)レーザーエミッタから温度情報を獲得することに用いられ、TEクーラサブシステムを制御し、レーザーエミッタハウジングの予め設定された温度を維持することを保証する。
通信及び制御ロジックサブシステムは、後端及び外部サブシステムとインターフェースすることに用いられ、更に、イメージ獲得モジュール内のあらゆるサブシステムに対する制御ロジックを提供する。
カメラ制御−獲得サブシステムは、ビデオデータをRAMに獲得し、制御サブシステムによって設定されたパラメータに従ってCMOSカメラ パラメータ(利得及び敏感度のような)を制御する。サブシステムは、全体フレームが常に融合プロセッサによってプロセシングされ得ることを保証するために、ダブル−バッファリング技法を用いることができる。
パルス発生器/コード機サブシステムは、エミッタがコード化されたパターンのパルスを発生するように制御し、それぞれのパターンは、所定の時間間隔で分離された複数のパルスで構成されるはずである。パターンの例が図9に示されている。レーザーの最大反復周波数に基づき、パルスのパターンがバイナリシーケンス(パルスオン/パルスオフ)でデザインされ得る。次の特徴は、特定適用において好ましい:少なくとも秒当たり15パターン(pps);少なくとも1024(或いはそれ以上)異なるパターンが選択され得る;パターン内のそれぞれのパルスの間の時間は200m以上離れたところの反射されたビームから復帰を積分することに十分である。パルスコード検証サブシステムと結合したパルスパターンの使用は、周辺の他の赤外線エミッタからの放出されたパターンを区別できるようにする。パターンはプログラムされることができ、干渉が検知されると、制御モジュールレベルで任意に変更され得る。
ライダー獲得システムは、FPAデータを獲得し、これをラムに保存される強度−深さアレイに変形するために3ステージ処理を具現することができる。
図10を参照すると、第1ステップは、フォト検知器から、それぞれのFPA「ピクセル」に対して、受信されたアナログ信号を獲得することである。信号は、もともと放出された信号(T0)の受信の強度で第1増加を示す。反射が戻ってくると、信号は戻ってくるビームに対応する強度の第2増加を示す。両刺激間の時間は「飛行時間」に当る。第1反射された信号の強度は上位情報として保存される。当業者に知られている回路を用いて、それぞれの「ピクセル」に対して、飛行時間及び第1復帰の強度は「範囲/強度獲得モジュール」によって獲得され、「パターン」のバイナリシーケンスの「ビット」の数を上回るある数のパルス(「N」)に対して保存される。FPA分解能に対応する2次元アレイであると、最終データは2つのNxFPA_垂直xFPA_水平アレイになるはずであり、1つは深さで1つは強度である。
このレベルで、獲得されたデータは、プログラムされた「パルスパターン」との関連を保証するために分析される。パターンがある程度の可能性と認識されなければ、データは拒否されて、制御モジュールに通知される。一連の拒否後で、制御モジュールは放射パターンを変更することができる。
ライダー獲得の最終ステージは、単一FPA_垂直xFPA_水平アレイの(強度、深さ)ポイントで組合することができ、ラムに二重バッファリング技法を用いて保存されるはずである。N次元のあらゆる情報を単一「ピクセル」深さ及び強度値で積分することは実験的に決定されなければならないプロセシングを求めるはずである。単純には、平均化も充分なはずである。
融合積分器モジュールは、カメラからのRGBデータ及びライダーからのIDデータを単一アレイ又はRGBIDポイントで積分することに用いられる。
両イメージングソースの整列、分解能及び視野角は同一ではない。前記パラメータは、キャリブレーション過程で決定されるはずであり、パラメータフラッシュストーリッジに選択的に保存されるはずである。
コ・レジストレーション(co−registration)アルゴリズムは、それぞれのRGBピクセルを可能な深さ値でタグする。
最終RGBIDイメージは、制御ロジックモジュールによって、後続ストリームのために保存される。
制御ロジックモジュールは、出発/停止という外部命令が入力され、ビデオ獲得のためのパラメータを調節する。
外部モジュールで用いられるために、(キャンバス上に、ディスプレイされない)RGBIDデータだけでなく状態情報を出力する。
制御ロジックモジュールは、パラメータを供給し、イメージ獲得モジュール内のあらゆるサブシステムに命令を制御する。
制御モジュールは、獲得されたイメージングデータの解釈を担当し、車両の利用可能なサブシステムに適した応答の提供を担当する。
この作業を行うために、制御モジュールは、車両状態情報を外部システム、例えば、方向指示灯、方向、速度などから獲得する。制御モジュールは、継続的に、「ローリングベース」で、複数の獲得情報及び関連イメージングデータ及び解釈を事故発生時の「ブラックボックス」で用いることができるフラッシュメモリモジュールに保存する。フラッシュメモリモジュールに仮保存された獲得情報及びイメージングデータは、事故発生時、前記仮保存されたデータが削除されず、SDメモリカードに永久保存される。すなわち、あらゆる獲得情報及びイメージングデータは、1〜2分間で一時的にフラッシュメモリモジュールに保存された後、フラッシュメモリから継続的に1〜2分の間隔で削除されるが、もし事故発生時、予め決めておいた危険/事故パラメータ命令が感知されると、1〜2分のフラッシュメモリが削除されず、SDメモリカードに永久保存される。保存されたデータ獲得情報は、例えば、日付、時間、車両速度、他の車両/物体との距離などが含まれる。
解釈及び応答は、下記の「ビデオプロセッサ」、「危険分析モジュール」及び「応答/使用者インターフェースモジュール」の3ステージサブシステムであり得る。
ビデオプロセッサ/融合されたイメージ獲得は、RGBIDイメージングデータをイメージ獲得モジュールから獲得し、選択的に補助カメラからRGBイメージングデータを獲得する。ビデオプロセッサは、イメージングデータから識別された特質のそれぞれに対して、次のような情報を提供するために特質(feature)を抽出する:イメージの特質サイズと位置を識別する(blob);特質位置及び軌跡を計算する;及びできれば特質(形態:すなわち、自転車、歩行者、標識)を分類する。この作業を行うために、入力として、ビデオプロセッサは、外部変数獲得モジュールから得られる車両速度及び方向情報を持たなければならない。
最終情報は、後続処理のために危険分析モジュールに伝達することができる。
危険分析モジュールは、ビデオプロセッサモジュールによって提供されたデータを使用することができ、危険分析モジュールは、危険レベル及びそれぞれの物体に対して決められる情報レベルの評価を行うことができる。物体のサイズ、軌跡及び位置情報が、例えば、衝突の可能性を評価するために用いられる。識別された標識及び道路表示は、プログラムされる運転者助けモードの観点からこれらの関連性を判断するために評価することができる。情報及び識別された危険は、応答/使用者インターフェースモジュールに提供され得る。
応答/使用者インターフェースモジュールは、危険及び情報特質を入力し、あらゆる他の外部変数を用いて、危険を緩和するために要求される行動を決定して、運転者に通知する。行動は、車両の特定性能(装備、オプション)によって優先順位化され得る。使用者インターフェース行動及び提案された緩和方法は、キャンバスを介して車両に放送され得る。
放送メッセージに基づき、提案された方法を作動させることは、プラットホームの責任である。
応答/使用者インターフェースモジュールは、特定プラットホームへの適応に従属的であり、あらゆる他のモジュールは本質的に一般的である。
ブラックボックスロギングは、必ず、例えば、ビデオを再生することと同様、以後用いられる可能性があるデータを保存するメモリ保存機能を提供する。この目的で、例えば、仮フラッシュメモリ保存装置を有する。
制御モジュール内で移動するビデオデータは、先入先出に基づき、過ぎたイベントはフラッシュメモリに1分以上保存することができ、あらゆる以前のデータはSRAM及びフラッシュメモリから除去される。事故や衝突或いはエアーバックが作動した場合、フラッシュメモリに保存された1分の長さの保存データは、後で検索されて再生できるように自動にブラックボックスロギングで保存される。他のデータは、前方車両との距離履歴、車線表示、カーブ及び/又はバリアと係った車両位置履歴、衝突時間などのようなある条件でブラックボックス内に自動に保存され得る。
保存装置は、継続的に、ある時間ウィンドウの間、次のようなデータを保存することに用いられる:ビデオ融合イメージング、サウンド(マイクロフォンを利用)、外部変数、危険識別、提案された行動など。エアーバック作動、衝撃感知、激しい振動、エンジン停止、運転中のドアオープンなどのような重要イベントの場合に、別のメモリ領域に転換されてもブラックボックスロギングは続けることができる。この方法は、一連のイベントの場合、保存されなければならない単一ブラックボックスイベントログを許容する。
サブシステムは、キャンバスから関連プラットホーム変数を獲得することに転用され得る。予想されるデータは、速度、進行方向、方向指示灯信号、エンジンの状態、ドアオープン/クローズ、デイライト、ハイビーム、ロービーム、エアーバックの作動などを含む。データは、ブラックボックスにロギングされることができ、制御モジュールシステム内の他のモジュールに用いられることも可能である。
最後に、図11は、ライダーの放出レーザーの拡散パターンを示す。
上述の様々な実施例を開示したように、上述して図示した例は、単に例示である。発明の範囲は、添付した請求の範囲によって決まる。

Claims (23)

  1. 少なくとも1つのビデオカメラからビデオアレイデータを獲得するステップ;
    ライダーシステムからライダーアレイデータを獲得するステップ;及び
    ビデオデータ及びライダーデータのアスペクト比をスケーリング及び/又はクロッピングして特定ライダーピクセルの値をそれと係わる領域のビデオピクセルとマッチングして、前記ビデオアレイデータと前記ライダーアレイデータを1つの結合アレイデータ信号でコ・レジストレーションするステップを含み、
    前記コ・レジストレーションステップは、隣接するライダーピクセルの間にそれぞれの介在するビデオデータピクセルに対して線形的にフェーディングする値を計算して近似化されたライダーピクセル値をビデオピクセルと連関付けるステップを含み、
    前記少なくとも1つのビデオカメラ及び前記ライダーシステムは共通の1つのハウジング内に位置され
    前記ビデオアレイデータは、2Dアレイの所定数のビデオピクセルを有し、それぞれのビデオピクセルは、赤(R)、緑(G)及び青(B)データを有しており、前記ライダーアレイデータは、2Dアレイの所定数のライダーピクセルを有し、それぞれのライダーピクセルは、強度(I)及び深さ(D)データを有しており、前記結合アレイデータは、複数の結合ピクセルを有し、それぞれの結合ピクセルは、赤(R)、緑(G)、青(B)、強度(I)及び深さ(D)データを有していることを特徴とするイメージ獲得方法。
  2. ビデオピクセルの数は、ライダーピクセルの数より多く、前記コ・レジストレーションするステップは、前記それぞれのライダーピクセルの強度(I)及び深さ(D)データを1つ以上のビデオピクセルの赤(R)、緑(G)、青(B)データに関連付けるステップを含むことを特徴とする請求項1に記載のイメージ獲得方法。
  3. 前記ライダーアレイデータを獲得するステップは、ライダー信号を放出し、反射されたライダー信号を受信するステップを含むことを特徴とする請求項1に記載のイメージ獲得方法。
  4. 前記ライダー信号を放出することは、パルスパターンを獲得し、繰り返される方法によって前記パルスパターンに基づいてライダー信号を放出し、前記受信することは、前記受信された信号を前記パルスパターンと比較し、前記反射されたライダー信号が前記パルスパターンとマッチしないと、前記反射されたライダー信号を拒否することを特徴とする請求項3に記載のイメージ獲得方法。
  5. 複数の連続的の拒否された反射ライダー信号をモニタリングし、前記パルスパターンを、前記連続的の拒否された反射ライダー信号の数が所定の閾値に到達すると判断すると、前記パルスパターンを変更することを特徴とする請求項4に記載のイメージ獲得方法。
  6. 前記結合アレイデータ信号を分析のために車両の制御モジュールに提供するステップを更に含むことを特徴とする請求項1に記載のイメージ獲得方法。
  7. イメージ獲得ユニットにおいて、前記ユニットは、
    ハウジング、
    少なくとも1つのビデオカメラを含み、前記少なくとも1つのビデオカメラを通じて獲得したビデオアレイデータに対するビデオ出力を含むビデオカメラシステム、
    少なくとも1つのライダーエミッタ及びライダー受信機を含み、前記ライダー受信機から獲得したライダーアレイデータに対するライダー出力を含むライダーシステム、及び
    前記ビデオ出力及び前記ライダー出力に連結されており、前記ビデオアレイデータ及び前記ライダーアレイデータを受信し、前記ビデオアレイデータ及び前記ライダーアレイデータを結合アレイデータでコ・レジストレーション(co−registration)し、前記結合アレイデータを出力する融合積分器を含み、
    前記融合積分器は、ビデオデータ及びライダーデータのアスペクト比をスケーリング及び/又はクロッピングして特定ライダーピクセルの値をそれと係わる領域のビデオピクセルとマッチングさせ、隣接するライダーピクセルの間にそれぞれの介在するビデオデータピクセルに対して線形的にフェーディングする値を計算して近似化されたライダーピクセル値をビデオピクセルと連関付け、
    前記ビデオカメラシステム及び前記ライダーシステムは共通に前記ハウジング内に装着され
    前記ビデオアレイデータは、2Dアレイの所定数のビデオピクセルを有し、それぞれのビデオピクセルは、赤(R)、緑(G)及び青(B)データを有しており、前記ライダーアレイデータは、2Dアレイの所定数のライダーピクセルを有し、それぞれのライダーピクセルは、強度(I)及び深さ(D)データを有しており、前記結合アレイデータは、複数の結合ピクセルを有し、それぞれの結合ピクセルは、赤(R)、緑(G)、青(B)、強度(I)及び深さ(D)データを有していることを特徴とするイメージ獲得ユニット。
  8. 前記ビデオカメラシステムは、CMOS及びカメラ制御器を含むことを特徴とする請求項7に記載のイメージ獲得ユニット。
  9. 前記ライダーシステムは、パルス発生器、範囲/強度獲得器、及び強度/深さアレイ構築器を含むことを特徴とする請求項7に記載のイメージ獲得ユニット。
  10. 前記パルス発生器は、コーダを含み、パルスコードが確認されないと、獲得した範囲/強度データを拒否するための範囲/強度獲得器と、強度/深さ構築器との間のゲートとして作動するパルスコード検証器を更に含むことを特徴とする請求項9に記載のイメージ獲得ユニット。
  11. 前記ビデオカメラは、広角カメラ及び望遠/ズームカメラのうち1つであり、前記ビデオカメラシステムは、広角カメラ及び望遠/ズームカメラのうち他の1つを更に含むことを特徴とする請求項7に記載のイメージ獲得ユニット。
  12. 前記望遠/ズームカメラは、指向され得ることを特徴とする請求項11に記載のイメージ獲得ユニット。
  13. 前記ビデオカメラは、移動可能であることを特徴とする請求項7に記載のイメージ獲得ユニット。
  14. 前記ビデオカメラは、延長可能なアームに装着され、前記延長可能なアームの延長によって移動可能であることを特徴とする請求項13に記載のイメージ獲得ユニット。
  15. 前記ライダーシステムは、協同整列光学機器によって結合された少なくとも2つのレーザーエミッタを含むことを特徴とする請求項7に記載のイメージ獲得ユニット。
  16. 前記ビデオカメラシステム、前記ライダーシステム及び前記融合積分器は、共通のFPGAの電子の部分を有することを特徴とする請求項7に記載のイメージ獲得ユニット。
  17. 前記ビデオカメラシステム、前記ライダーシステム及び前記融合積分器は、前記ハウジング内に装着されることを特徴とする請求項7に記載のイメージ獲得ユニット。
  18. 請求項7に記載のイメージ獲得ユニットから出力された結合アレイデータ信号がビデオ信号として入力されるビデオ信号獲得器、前記獲得したビデオ信号を処理するためのビデオプロセッサ、前記処理されたビデオ信号又は外部変数獲得モジュールから提供された外部変数から危険を感知できる危険分析器及びメモリ保存デバイス(ブラックボックス)を含むことを特徴とする制御ユニット。
  19. それぞれのビデオ信号獲得器、ビデオプロセッサ及び危険分析器及びブラックボックスが装着されている共通のハウジングを更に含むことを特徴とする請求項18に記載の制御ユニット。
  20. ビデオ信号獲得器からのデータを所定時間仮保存するメモリを更に含み、前記仮保存されたデータは、危険感知の際に、前記ブラックボックス内に保存されることを特徴とする請求項18に記載の制御ユニット。
  21. マイクロフォン、前記マイクロフォンを介して獲得したオーディオデータに対するオーディオ出力及び前記オーディオデータを所定時間仮保存するメモリを更に含み、前記仮保存されたデータは、危険感知の際に、前記ブラックボックス内に保存されることを特徴とする請求項18に記載の制御ユニット。
  22. 前記ビデオ信号は、複数の結合ピクセルを有する結合アレイデータを含み、前記それぞれの結合ピクセルは、少なくとも赤(R)、緑(G)、青(B)及び深さ(D)データを有することを特徴とする請求項18に記載の制御ユニット。
  23. 危険感知の際に、前記ブラックボックス内に自動的に保存され得る衝突時間データ、相対的車両位置及び速度データの少なくとも1つを有することを特徴とする請求項18に記載の制御ユニット。
JP2011144829A 2010-10-01 2011-06-29 イメージ獲得ユニット、方法及び連関付けられた制御ユニット{imageacquisitionunit、acquisitionmethodandassociatedcontrolunit} Active JP5506745B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US38882610P 2010-10-01 2010-10-01
US61/388,826 2010-10-01
KR10-2010-0126757 2010-12-13
KR1020100126757A KR101030763B1 (ko) 2010-10-01 2010-12-13 이미지 획득 유닛, 방법 및 연관된 제어 유닛

Publications (2)

Publication Number Publication Date
JP2012080517A JP2012080517A (ja) 2012-04-19
JP5506745B2 true JP5506745B2 (ja) 2014-05-28

Family

ID=45002568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011144829A Active JP5506745B2 (ja) 2010-10-01 2011-06-29 イメージ獲得ユニット、方法及び連関付けられた制御ユニット{imageacquisitionunit、acquisitionmethodandassociatedcontrolunit}

Country Status (6)

Country Link
US (1) US20120081544A1 (ja)
EP (1) EP2442134A1 (ja)
JP (1) JP5506745B2 (ja)
KR (1) KR101030763B1 (ja)
CN (1) CN102447911B (ja)
CA (1) CA2754278A1 (ja)

Families Citing this family (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5316562B2 (ja) * 2011-02-10 2013-10-16 株式会社デンソー 車載カメラ
US8897633B2 (en) 2010-12-21 2014-11-25 Denso Corporation In-vehicle camera unit having camera built into body
US10046716B2 (en) 2011-02-10 2018-08-14 Denso Corporation In-vehicle camera and vehicle control system
KR101071362B1 (ko) 2011-03-25 2011-10-07 위재영 차량의 물체 거리 인식 시스템 및 작동 방법
US20130027548A1 (en) * 2011-07-28 2013-01-31 Apple Inc. Depth perception device and system
CN102393190A (zh) * 2011-09-05 2012-03-28 南京德朔实业有限公司 测距仪
KR20130050113A (ko) * 2011-11-07 2013-05-15 현대자동차주식회사 위험단계별 경고기능을 갖는 차량 운행보조 시스템 및 그 방법
KR20130051681A (ko) * 2011-11-10 2013-05-21 한국전자통신연구원 노면 표식물 인식 시스템 및 방법
US9283846B2 (en) * 2011-12-23 2016-03-15 Automotive Research & Testing Center Vehicular warning system and method
DE102012210467A1 (de) * 2012-06-21 2013-12-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur automatischen Anpassung einer Fahrzeugbeleuchtung an eine Umgebung des Fahrzeugs
KR102051397B1 (ko) * 2012-07-02 2020-01-09 현대모비스 주식회사 안전운전 지원 장치 및 방법
KR20140006462A (ko) * 2012-07-05 2014-01-16 현대모비스 주식회사 안전운전 지원 장치 및 방법
CN102840853A (zh) * 2012-07-25 2012-12-26 中国航空工业集团公司洛阳电光设备研究所 一种用于车载夜视系统的障碍物检测及报警方法
US9297889B2 (en) 2012-08-14 2016-03-29 Microsoft Technology Licensing, Llc Illumination light projection for a depth camera
US9110196B2 (en) 2012-09-20 2015-08-18 Google, Inc. Detecting road weather conditions
US9499172B2 (en) * 2012-09-20 2016-11-22 Google Inc. Detecting road weather conditions
US9811880B2 (en) * 2012-11-09 2017-11-07 The Boeing Company Backfilling points in a point cloud
US9409504B2 (en) 2013-01-24 2016-08-09 Ford Global Technologies, Llc Flexible seatback system
US9399418B2 (en) 2013-01-24 2016-07-26 Ford Global Technologies, Llc Independent cushion extension and thigh support
US9415713B2 (en) 2013-01-24 2016-08-16 Ford Global Technologies, Llc Flexible seatback system
CN103139477A (zh) * 2013-01-25 2013-06-05 哈尔滨工业大学 一种3d相机及获得立体像的方法
US10032273B2 (en) * 2013-03-15 2018-07-24 Cognex Corporation Machine vision system calibration using inaccurate calibration targets
TW201441581A (zh) * 2013-04-29 2014-11-01 Hon Hai Prec Ind Co Ltd 車輛輔助系統及車輛輔助方法
HUP1300328A3 (en) 2013-05-23 2017-03-28 Mta Szamitastechnika Es Automatizalasi Ki Method and system for integrated three dimensional modelling
EP2808700B1 (en) * 2013-05-30 2019-10-02 Ricoh Company, Ltd. Drive assist device, and vehicle using drive assist device
JP6161429B2 (ja) * 2013-06-25 2017-07-12 東京航空計器株式会社 車両速度計測装置
US9215382B1 (en) * 2013-07-25 2015-12-15 The United States Of America As Represented By The Secretary Of The Navy Apparatus and method for data fusion and visualization of video and LADAR data
US9580014B2 (en) * 2013-08-08 2017-02-28 Convoy Technologies Llc System, apparatus, and method of detecting and displaying obstacles and data associated with the obstacles
KR20150081838A (ko) * 2014-01-07 2015-07-15 한국전자통신연구원 수배차량 검색 장치 및 그 방법
US9444988B2 (en) * 2014-01-23 2016-09-13 Kiomars Anvari Fast image sensor for body protection gear or equipment
US9315131B2 (en) 2014-01-23 2016-04-19 Ford Global Technologies, Llc Suspension seat back and cushion system having an inner suspension panel
US10018711B1 (en) * 2014-01-28 2018-07-10 StereoVision Imaging, Inc System and method for field calibrating video and lidar subsystems using independent measurements
US9421894B2 (en) 2014-04-02 2016-08-23 Ford Global Technologies, Llc Vehicle seating assembly with manual independent thigh supports
WO2016018392A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Three dimensional scanning system and framework
US9789790B2 (en) 2014-10-03 2017-10-17 Ford Global Technologies, Llc Tuned flexible support member and flexible suspension features for comfort carriers
US9517777B2 (en) * 2014-11-06 2016-12-13 Ford Global Technologies, Llc Lane departure feedback system
CN105654023B (zh) * 2014-11-12 2019-05-03 株式会社理光 识别物体危险性的方法和装置
US9984494B2 (en) * 2015-01-26 2018-05-29 Uber Technologies, Inc. Map-like summary visualization of street-level distance data and panorama data
US10142538B2 (en) * 2015-02-24 2018-11-27 Redrock Microsystems, Llc LIDAR assisted focusing device
KR101665590B1 (ko) * 2015-02-26 2016-10-12 동의대학교 산학협력단 블랙박스 및 avm 영상을 이용한 차선 이탈 감지 시스템 및 감지 방법
US9651658B2 (en) 2015-03-27 2017-05-16 Google Inc. Methods and systems for LIDAR optics alignment
US10148918B1 (en) 2015-04-06 2018-12-04 Position Imaging, Inc. Modular shelving systems for package tracking
US11416805B1 (en) 2015-04-06 2022-08-16 Position Imaging, Inc. Light-based guidance for package tracking systems
US11501244B1 (en) 2015-04-06 2022-11-15 Position Imaging, Inc. Package tracking systems and methods
US9880263B2 (en) * 2015-04-06 2018-01-30 Waymo Llc Long range steerable LIDAR system
US10408922B2 (en) * 2015-07-10 2019-09-10 Ams Sensors Singapore Pte. Ltd. Optoelectronic module with low- and high-power illumination modes
US10046682B2 (en) 2015-08-03 2018-08-14 Ford Global Technologies, Llc Back cushion module for a vehicle seating assembly
US10699476B2 (en) * 2015-08-06 2020-06-30 Ams Sensors Singapore Pte. Ltd. Generating a merged, fused three-dimensional point cloud based on captured images of a scene
US10282591B2 (en) 2015-08-24 2019-05-07 Qualcomm Incorporated Systems and methods for depth map sampling
US9969325B2 (en) 2015-09-15 2018-05-15 International Business Machines Corporation Projected surface markings
US9849817B2 (en) 2016-03-16 2017-12-26 Ford Global Technologies, Llc Composite seat structure
US10286818B2 (en) 2016-03-16 2019-05-14 Ford Global Technologies, Llc Dual suspension seating assembly
US9994135B2 (en) 2016-03-30 2018-06-12 Ford Global Technologies, Llc Independent cushion thigh support
US10220737B2 (en) 2016-04-01 2019-03-05 Ford Global Technologies, Llc Kinematic back panel
US9889773B2 (en) 2016-04-04 2018-02-13 Ford Global Technologies, Llc Anthropomorphic upper seatback
US9802512B1 (en) 2016-04-12 2017-10-31 Ford Global Technologies, Llc Torsion spring bushing
CN105957400B (zh) * 2016-06-01 2018-04-10 杨星 一种用于综合感知碰撞预警的车辆信息采集方法
US9845029B1 (en) 2016-06-06 2017-12-19 Ford Global Technologies, Llc Passive conformal seat with hybrid air/liquid cells
US9849856B1 (en) 2016-06-07 2017-12-26 Ford Global Technologies, Llc Side airbag energy management system
US9834166B1 (en) 2016-06-07 2017-12-05 Ford Global Technologies, Llc Side airbag energy management system
US10166895B2 (en) 2016-06-09 2019-01-01 Ford Global Technologies, Llc Seatback comfort carrier
US10377279B2 (en) 2016-06-09 2019-08-13 Ford Global Technologies, Llc Integrated decking arm support feature
US10286824B2 (en) 2016-08-24 2019-05-14 Ford Global Technologies, Llc Spreader plate load distribution
US10279714B2 (en) 2016-08-26 2019-05-07 Ford Global Technologies, Llc Seating assembly with climate control features
US10391910B2 (en) 2016-09-02 2019-08-27 Ford Global Technologies, Llc Modular assembly cross-tube attachment tab designs and functions
US10239431B2 (en) 2016-09-02 2019-03-26 Ford Global Technologies, Llc Cross-tube attachment hook features for modular assembly and support
US11436553B2 (en) 2016-09-08 2022-09-06 Position Imaging, Inc. System and method of object tracking using weight confirmation
CN106373394B (zh) * 2016-09-12 2019-01-04 深圳尚桥交通技术有限公司 一种基于视频和雷达的车辆检测方法及系统
JP7061071B2 (ja) * 2016-09-15 2022-04-27 株式会社小糸製作所 センサシステム、センサモジュール、およびランプ装置
CN106184037B (zh) * 2016-09-22 2018-08-10 奇瑞汽车股份有限公司 一种雷达摄像头安装结构及其安装方法
CN106257543B (zh) * 2016-09-23 2019-01-15 珠海市杰理科技股份有限公司 基于虚拟现实视角的行车记录系统
US10528055B2 (en) * 2016-11-03 2020-01-07 Ford Global Technologies, Llc Road sign recognition
US9914378B1 (en) 2016-12-16 2018-03-13 Ford Global Technologies, Llc Decorative and functional upper seatback closeout assembly
US11120392B2 (en) 2017-01-06 2021-09-14 Position Imaging, Inc. System and method of calibrating a directional light source relative to a camera's field of view
US11953599B2 (en) 2017-01-26 2024-04-09 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and LIDAR information
EP3373037B1 (en) * 2017-03-10 2023-06-28 The Hi-Tech Robotic Systemz Ltd Single casing advanced driver assistance system
US10596936B2 (en) 2017-05-04 2020-03-24 Ford Global Technologies, Llc Self-retaining elastic strap for vent blower attachment to a back carrier
DE102017210845A1 (de) * 2017-06-27 2018-12-27 Conti Temic Microelectronic Gmbh Kameravorrichtung sowie Verfahren zur umgebungsangepassten Erfassung eines Umgebungsbereichs eines Fahrzeugs
US10527711B2 (en) * 2017-07-10 2020-01-07 Aurora Flight Sciences Corporation Laser speckle system and method for an aircraft
CN109323701A (zh) * 2017-08-01 2019-02-12 郑州宇通客车股份有限公司 基于地图与多传感器检测相结合的定位方法及系统
CN109325390B (zh) * 2017-08-01 2021-11-05 郑州宇通客车股份有限公司 一种基于地图与多传感器检测相结合的定位方法及系统
US10447973B2 (en) * 2017-08-08 2019-10-15 Waymo Llc Rotating LIDAR with co-aligned imager
DE102017122711A1 (de) * 2017-09-29 2019-04-04 Claas E-Systems Kgaa Mbh & Co. Kg Verfahren für den Betrieb einer selbstfahrenden landwirtschaftlichen Arbeitsmaschine
WO2019069300A1 (en) * 2017-10-02 2019-04-11 Tower-Sec Ltd. DETECTION AND PREVENTION OF A PHYSICAL CYBERATTAKE FOR SENSORS
WO2019079211A1 (en) * 2017-10-19 2019-04-25 DeepMap Inc. LIDAR-CAMERA CALIBRATION TO GENERATE HIGH DEFINITION MAPS
WO2019088974A1 (en) * 2017-10-30 2019-05-09 Continental Automotive Systems, Inc Power circuit and method for a laser light source of a flash lidar sensor
JP7005326B2 (ja) * 2017-12-13 2022-01-21 株式会社Soken 路側物認識装置
US10628920B2 (en) 2018-03-12 2020-04-21 Ford Global Technologies, Llc Generating a super-resolution depth-map
KR102108953B1 (ko) * 2018-05-16 2020-05-11 한양대학교 산학협력단 센서 품질 저하에 강인한 딥러닝 기반 카메라, 라이더 센서 융합 인지 방법 및 시스템
US10591601B2 (en) * 2018-07-10 2020-03-17 Luminar Technologies, Inc. Camera-gated lidar system
US11258987B2 (en) * 2018-09-21 2022-02-22 Microsoft Technology Licensing, Llc Anti-collision and motion control systems and methods
CN113424197A (zh) 2018-09-21 2021-09-21 定位成像有限公司 机器学习辅助自改进对象识别系统和方法
MX2021004567A (es) * 2018-10-23 2021-06-15 Covestro Intellectual Property Gmbh & Co Kg Sistema de sensores y camara transparente ir para vehiculos con motor.
US10627512B1 (en) * 2018-11-29 2020-04-21 Luminar Technologies, Inc. Early fusion of lidar return data with camera information
KR20200069084A (ko) * 2018-12-06 2020-06-16 팅크웨어(주) 도로 제한 속도 판단 방법, 도로 제한 속도 판단 장치, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
US11381760B2 (en) * 2018-12-07 2022-07-05 James Scholtz Infrared imager and related systems
CN109489562A (zh) * 2018-12-07 2019-03-19 中国电子科技集团公司第四十四研究所 一种基于非扫描式单线激光雷达的隧道几何参量测量系统
US20200217954A1 (en) * 2019-01-07 2020-07-09 Velodyne Lidar, Inc. Systems and methods for a configurable sensor system
WO2020146861A1 (en) 2019-01-11 2020-07-16 Position Imaging, Inc. Computer-vision-based object tracking and guidance module
US11402477B2 (en) 2019-03-01 2022-08-02 Beijing Voyager Technology Co., Ltd System and methods for ranging operations using modulated signals
US11815598B2 (en) 2019-06-10 2023-11-14 Microsoft Technology Licensing, Llc Anti-collision and motion monitoring, control, and alerting systems and methods
CN112217966B (zh) * 2019-07-12 2022-04-26 杭州海康威视数字技术股份有限公司 监控装置
CN110781816A (zh) * 2019-10-25 2020-02-11 北京行易道科技有限公司 车辆在车道中的横向定位方法、装置、设备及存储介质
US11557127B2 (en) 2019-12-30 2023-01-17 Waymo Llc Close-in sensing camera system
US11493922B1 (en) 2019-12-30 2022-11-08 Waymo Llc Perimeter sensor housings
US11613275B2 (en) * 2020-04-27 2023-03-28 Baidu Usa Llc Grayscale-based camera perception
CN111695619A (zh) * 2020-06-05 2020-09-22 中国第一汽车股份有限公司 一种多传感器目标融合方法、装置、车辆及存储介质
US11823458B2 (en) * 2020-06-18 2023-11-21 Embedtek, LLC Object detection and tracking system
IL299022A (en) * 2020-06-25 2023-02-01 Lassen Peak Inc Systems and methods for non-invasive detection of unauthorized objects
CN112255642A (zh) * 2020-10-15 2021-01-22 安徽富煌科技股份有限公司 一种基于激光雷达技术的视频客流装置
CN112669262B (zh) * 2020-12-08 2023-01-06 上海交通大学 一种电机轮轴震动异常检测与预测系统与方法
CN113466836A (zh) * 2021-06-23 2021-10-01 深圳市欢创科技有限公司 一种测距方法、装置及激光雷达

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04278406A (ja) * 1991-03-07 1992-10-05 Sharp Corp 3次元計測方法
DE19615240A1 (de) * 1996-04-18 1997-10-23 Daimler Benz Ag Anordnung zur optischen Erfassung des Fahrbahnverlaufs
JP3631325B2 (ja) * 1996-06-19 2005-03-23 オリンパス株式会社 3次元画像入力装置
JPH1153551A (ja) * 1997-08-04 1999-02-26 Toyota Motor Corp ライン検出装置
JP2001304876A (ja) * 2000-04-25 2001-10-31 Nec Corp 車載カメラによる画像記録・再生方式
GB0115433D0 (en) * 2001-06-23 2001-08-15 Lucas Industries Ltd An object location system for a road vehicle
US6862537B2 (en) * 2002-03-21 2005-03-01 Ford Global Technologies Llc Sensor fusion system architecture
US6771208B2 (en) * 2002-04-24 2004-08-03 Medius, Inc. Multi-sensor system
JP4287647B2 (ja) * 2002-12-27 2009-07-01 株式会社Ihi 環境状況把握装置
US7583275B2 (en) * 2002-10-15 2009-09-01 University Of Southern California Modeling and video projection for augmented virtual environments
US6860350B2 (en) * 2002-12-20 2005-03-01 Motorola, Inc. CMOS camera with integral laser ranging and velocity measurement
DE10305861A1 (de) * 2003-02-13 2004-08-26 Adam Opel Ag Vorrichtung eines Kraftfahrzeuges zur räumlichen Erfassung einer Szene innerhalb und/oder außerhalb des Kraftfahrzeuges
JP2005037378A (ja) * 2003-06-30 2005-02-10 Sanyo Electric Co Ltd 奥行計測方法と奥行計測装置
DE10354945A1 (de) * 2003-11-25 2005-07-07 Siemens Ag Abdeckelelement, insbesondere für ein optisches Modul, sowie Verfahren zu dessen Herstellung
JP3906202B2 (ja) * 2003-12-15 2007-04-18 株式会社東芝 固体撮像装置およびそれを利用した撮像システム
US8134637B2 (en) * 2004-01-28 2012-03-13 Microsoft Corporation Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
JP2005284471A (ja) * 2004-03-29 2005-10-13 Omron Corp 画像処理装置及び画像処理方法
JP4274028B2 (ja) * 2004-04-07 2009-06-03 株式会社デンソー 車両用レーダ装置
DE102004026590A1 (de) * 2004-06-01 2006-01-12 Siemens Ag Assistenzsystem für Kraftfahrzeuge
US7187809B2 (en) * 2004-06-10 2007-03-06 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
WO2006015192A1 (en) * 2004-07-30 2006-02-09 Novalux, Inc. Apparatus, system, and method for junction isolation of arrays of surface emitting lasers
US20060045158A1 (en) * 2004-08-30 2006-03-02 Chian Chiu Li Stack-type Wavelength-tunable Laser Source
JP4923517B2 (ja) * 2004-10-27 2012-04-25 パナソニック株式会社 撮像装置、撮像方法、および半導体装置
JP2006151125A (ja) * 2004-11-26 2006-06-15 Omron Corp 車載用画像処理装置
US7363157B1 (en) * 2005-02-10 2008-04-22 Sarnoff Corporation Method and apparatus for performing wide area terrain mapping
JP2006306153A (ja) * 2005-04-26 2006-11-09 Nec Mobiling Ltd ドライブレコーダ、車両用事故状況記録方法、及び車両用事故状況記録プログラム
JP4557817B2 (ja) * 2005-06-17 2010-10-06 アイシン精機株式会社 運転支援装置
JP2007240314A (ja) * 2006-03-08 2007-09-20 Omron Corp 物体検出装置
JP4211809B2 (ja) * 2006-06-30 2009-01-21 トヨタ自動車株式会社 物体検出装置
WO2008008970A2 (en) * 2006-07-13 2008-01-17 Velodyne Acoustics, Inc High definition lidar system
US20080112610A1 (en) * 2006-11-14 2008-05-15 S2, Inc. System and method for 3d model generation
JP4568845B2 (ja) * 2007-04-26 2010-10-27 三菱電機株式会社 変化領域認識装置
JP5098563B2 (ja) 2007-10-17 2012-12-12 トヨタ自動車株式会社 物体検出装置
JP5114222B2 (ja) * 2008-01-18 2013-01-09 富士通テン株式会社 車両情報記録システム
CN101953165A (zh) * 2008-04-18 2011-01-19 电子地图有限公司 使用激光扫描的点云来形成选择性压缩遮掩的方法
JP2010003086A (ja) * 2008-06-19 2010-01-07 Toyota Motor Corp ドライブレコーダー
DE102008002560A1 (de) * 2008-06-20 2009-12-24 Robert Bosch Gmbh Bilddatenvisualisierung
US8334893B2 (en) 2008-11-07 2012-12-18 Honeywell International Inc. Method and apparatus for combining range information with an optical image
JP5470886B2 (ja) * 2009-02-12 2014-04-16 トヨタ自動車株式会社 物体検出装置
US8179393B2 (en) * 2009-02-13 2012-05-15 Harris Corporation Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment
US20100235129A1 (en) 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
US8482486B2 (en) * 2009-04-02 2013-07-09 GM Global Technology Operations LLC Rear view mirror on full-windshield head-up display
US8441622B2 (en) * 2009-07-28 2013-05-14 Applied Concepts, Inc. Lidar measurement device for vehicular traffic surveillance and method for use of same
JP3155695U (ja) * 2009-09-16 2009-11-26 井本刃物株式会社 カメラ支持具
CN101699313B (zh) * 2009-09-30 2012-08-22 北京理工大学 基于摄像机和三维激光雷达的外部参数标定方法及系统
US8736818B2 (en) * 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR

Also Published As

Publication number Publication date
CA2754278A1 (en) 2012-04-01
KR101030763B1 (ko) 2011-04-26
JP2012080517A (ja) 2012-04-19
CN102447911B (zh) 2016-08-31
US20120081544A1 (en) 2012-04-05
CN102447911A (zh) 2012-05-09
EP2442134A1 (en) 2012-04-18

Similar Documents

Publication Publication Date Title
JP5506745B2 (ja) イメージ獲得ユニット、方法及び連関付けられた制御ユニット{imageacquisitionunit、acquisitionmethodandassociatedcontrolunit}
US11390276B2 (en) Control device, control method, and non-transitory storage medium
JP7210589B2 (ja) ダイナミックレンジを拡大するための複数の動作モード
US20230123657A1 (en) Vehicle automated driving system
US6362773B1 (en) Method for determining range of vision
US10067506B2 (en) Control device of vehicle
US20170293299A1 (en) Vehicle automated driving system
CN112009356A (zh) 图像投射装置和方法
US10846833B2 (en) System and method for visibility enhancement
US10996469B2 (en) Method and apparatus for providing driving information of vehicle, and recording medium
US20090153662A1 (en) Night vision system for recording and displaying a surrounding area
KR20200059755A (ko) 라이다 센서 검증시험 모의장치
KR101986734B1 (ko) 차량 운전 보조 장치 및 이의 안전 운전 유도 방법
CN106643517B (zh) 一种车辆高度超限的测量及警告方法
KR101104833B1 (ko) 안전운전정보제공장치 및 안전운전정보제공방법
US10771665B1 (en) Determination of illuminator obstruction by known optical properties
KR101868293B1 (ko) 차량용 라이다 장치
KR101679017B1 (ko) Hud에서 가상이미지를 생성하는 장치 및 방법
US11648876B2 (en) System and method for visibility enhancement
US20230294706A1 (en) Systems and methods for eye gaze based alertness measurement
CN211032395U (zh) 自动驾驶车辆
TWI699999B (zh) 車載視覺輔助系統
US20230311770A1 (en) Vehicular camera focus test system using light collimator in controlled test chamber
SE542704C2 (en) Method and control arrangement in a vehicle for object detection

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20111208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20120621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130409

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130417

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20130621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140318

R150 Certificate of patent or registration of utility model

Ref document number: 5506745

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250