JP2015036684A - フィッシャー及びプロファイル署名を使用したレーザスキャナからの車両分類 - Google Patents

フィッシャー及びプロファイル署名を使用したレーザスキャナからの車両分類 Download PDF

Info

Publication number
JP2015036684A
JP2015036684A JP2014149655A JP2014149655A JP2015036684A JP 2015036684 A JP2015036684 A JP 2015036684A JP 2014149655 A JP2014149655 A JP 2014149655A JP 2014149655 A JP2014149655 A JP 2014149655A JP 2015036684 A JP2015036684 A JP 2015036684A
Authority
JP
Japan
Prior art keywords
vehicle
profile
optical profile
optical
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014149655A
Other languages
English (en)
Inventor
ハシムラット・シン・サンダワリア
Singh Sandhawalia Harsimrat
ホセ・アントニオ・ロドリゲス・セラーノ
Antonio Rodriguez Serrano Jose
エルヴェ・ポワリエ
Poirier Herve
ガブリエラ・クスルカ
Csurka Gabriela
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of JP2015036684A publication Critical patent/JP2015036684A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/30Writer recognition; Reading and verifying signatures
    • G06V40/37Writer recognition; Reading and verifying signatures based only on signature signals such as velocity or pressure, e.g. dynamic signature recognition
    • G06V40/382Preprocessing; Feature extraction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Abstract

【課題】精度の良い車両分類方法および装置を提供する。【解決手段】1台以上の車両は、レーザスキャナを利用して走査され、車両の光学プロファイルを示すデータをコンパイルすることができる。そして、車両と関連付けられた光学プロファイルは前処理される。特定の特徴は、光学プロファイルの前処理に続いて光学プロファイルから抽出される。そして、車両は、光学的特徴から抽出された特定の特徴に基づいて分類されることができる。セグメント化されたレーザプロファイルは画像として扱われ、画像の2方向のうちの一方における信号を積分するプロファイル特徴及び画像の局所「パッチ」の統計値を集計するフィッシャーベクトルが計算されて抽出及び分類処理の一部として利用される。【選択図】図1

Description

実施形態は、一般に、車両分類に関する。実施形態はまた、レーザスキャナに関する。実施形態はさらに、フィッシャー及びプロファイル署名に関する。
迅速に且つ効率的に車両を分類する能力は、多くの輸送及びセキュリティ用途において必要とされる。レーザスキャナ・センサは、車両分類に使用されてきた。一般に、レーザスキャナは、物体に向けて極めて短い光のパルスを放射する飛行時間型の測定装置である。これらの装置は、物体から反射された光の一部を検出し、放射と反射との間の時間差を測定し、物体までの距離を導出することができる。その動作は、角度の可変セットについて繰り返される。スキャナは、通常、走査面が横「スライス」で車両を切り取るように、下向きのレーザカーテンをともなって頭上に且つトラフィック方向に対して垂直に配置される。
それゆえに、これらのスキャナは、車両分類のための手段を提供する。電磁ループ検出器などの他のセンサもまた、この目的のために使用されているが、これらは、通常、道路工事をともない、橋梁などの繊細な場所に配置することができない。レーザスキャナは、特に通行車両の種類を決定するための一般的な種類の車両分類のための装置である。しかしながら、これは、通常、いくつかの高レベルの特徴の抽出及びそれらの分類(時には単純な規則を有する)、又は生のレーザプロファイルのマッチングなどの単純な解決策によって達成される。
一例として、いくつかのシステムは、レーザ走査から以下の特徴を抽出する車両分類のために開発されている。幅、高さ、長さ、車両ユニットの数、第1のユニットの高さ。このアプローチを用いて、車両は、予め指定された閾値と特徴値とを比較する単純な規則を使用して分類されることができる。そのようなアプローチは、初期の十分な性能を提供するかもしれないが、範囲及び効率が制限され、激しい人間の労働力及び専門知識を必要とし、学習分類能力を欠いている。
車両分類のための方法及びシステムが本願明細書に開示される。1台以上の車両が、車両の光学プロファイルを示すデータをコンパイルするようにレーザスキャナを利用して走査されることができる。そして、車両と関連付けられる光学プロファイルは前処理される。特定の特徴が、光学プロファイルの以下の前処理を行って光学プロファイルから抽出される。そして、車両は、光学的特徴から抽出された特定の特徴に基づいて分類されることができる。
前処理操作は、光学プロファイルを示すデータから少なくとも1つの個々のプロファイルを分離することと、レーザスキャナを利用した車両の走査に関連する読み取りエラーを訂正することと、光学プロファイルを示すデータから車体を示すデータをセグメント化することとを含むことができる。さらに、特定の特徴は、例えば、フィッシャーベクトルを含んで抽出されることができる。あるいは、特定の特徴は、光学プロファイルに関する水平方向及び/又は垂直方向における積分を計算することによってプロファイル特徴を含んで抽出されることができる。
光学的特徴から抽出された特定の特徴に基づく車両分類は、さらに、例えば線形SVM(サポート・ベクタ・マシン)などの少なくとも1つの分類器をトレーニングすることと、光学的特徴から抽出された特定の特徴を利用することと、分類器(例えば、線形SVM)から出力されたデータに基づいて車両を分類することとを含むことができる。光学的特徴から抽出された特定の特徴は、以下のうちの少なくとも1つを含むプロファイル画像から抽出された人間が使用する属性及び/又は特徴セットを含む。生のプロファイル特徴及びフィッシャー署名。
開示された実施形態は、レーザ・スキャナ・プロファイルからの車両分類の問題を扱う。レーザスキャナは、その下方を走行する車両の(3D)高さプロファイルを取得する飛行時間型の測定装置である。プロファイルを分類するための2つの以前の技術は、測定されたプロファイルからいくつかの高レベルの特徴(幅、高さなど)を抽出し、そして、分類器を使用すること、又は、予め記録されたテンプレートのデータベースにおける生のプロファイルを検索することを含む。
開示された実施形態は、上述した単に高レベルの特徴又は生のプロファイルよりも複雑な特徴を持つ線形分類器の使用を含む。特に、開示された実施形態は、コンピュータビジョン分野で知られている特徴を使用することが可能である。1つの変形例において、(画像として視認される)プロファイルの「パッチ」から抽出されたフィッシャーベクトルが使用されることができる。第2の変形例において、プロファイルの水平及び/又は垂直方向の積分を計算することによって得られるプロファイルの特徴が利用されることができる。そのような特徴は、本願明細書においてより詳細に示されているように、レーザスキャナ・プロファイルによる車両分類の状況において特有である。
添付の図全体を通して同様の参照符号が同一の又は機能的に類似の要素を指し、明細書に組み込まれてその一部を形成する添付の図面は、さらに本発明を図示し、本発明の詳細な説明とともに本発明の原理を説明するのに役立つ。
図1は、好ましい実施形態により実装されることができるレーザプロファイル分類方法の論理動作ステップを示す動作の高レベルのフローチャートである。 図2は、開示された実施形態にかかるレーザプロファイルに対応する2D画像の例を示すグラフである。 図3は、代替的実施形態により行うことができるフィッシャー画像署名計算の論理動作ステップを示す動作のフローチャートである。 図4は、開示された実施形態によりプロファイル画像に対応する5つの異なる車両クラスからの平均前面(上段)及び側面(下段)のプロファイルを示す例のグラフである。 図5は、代替的な実施形態により行うことができるフィッシャー画像署名計算の論理動作ステップを示す動作のフローチャートである。 図6は、以下のように左から右への車両クラスの6つの例についてのレーザスキャナ・プロファイルの3Dレンダリングを示すサンプルグラフである。乗用車、1台のトレーラーを有する乗用車、トラック、1台のトレーラーを有するトラック、2台のトレーラーを有するトラック、及び、オートバイ。 図7は、1つ以上の開示された実施形態により実装されることができるコンピュータシステムの概略図である。 図8は、1つ以上の実施形態により異常検出モジュール、オペレーティングシステム及びユーザインターフェースを含むソフトウェアシステムの概略図である。
図1は、好ましい実施形態にしたがって実装されることができるレーザプロファイル分類方法10の論理動作ステップを示す動作の高レベルのフローチャートを図示している。一般に、レーザ・プロファイル・データは、ブロック12に示されるように、レーザ走査動作から生成されることができる。その後、ブロック14に示されるように、無効なレーザ走査点を除去するように動作が行われることができる。そして、ブロック16に示されるように、生成されたデータは、ブロック18に示されるように最大接続要素を保持する動作を受ける。その後、ブロック20に示されるように、(ブロック18に示された動作の結果として)生成されたデータは、続いて、ブロック22に示されるように接続要素をセグメント化する動作を受ける。そして、ブロック24に示されるように得られたデータは、ブロック26に示されるように接続要素をサイズ変更する動作を受ける。そして、ブロック28に示された動作の結果として生成されたデータは、ブロック28に示されるように特徴抽出動作を受けた後、ブロック30に示されるように分類動作を受ける。最後に、ブロック32に記載されているように1つ以上の車両クラスを予測する動作が実施されることができる。
好ましい実施形態において、車両プロファイルは、レーザスキャナを使用して取得されることができる。そのようなレーザスキャナは、物体に向けて極めて短い光のパルスを放射する飛行時間型の測定装置である。レーザスキャナはまた、物体から反射される光の一部を検出し、放射と反射との間の時間差(典型的にはほんの一瞬)を測定し、物体までの距離を導出する。その動作は、各走査が最大100度の直線「行」を包含するように、角度の可変セットについて繰り返されることができる。
ある状況において、スキャナは、例えば、スキャナが横「スライス」において車両の高さを測定するように、下向きのレーザカーテンを有してレーンあたり1つのスキャナが3車線のガントリの上に且つトラフィック方向に対して直交して配置されることができる。現在の構成では、各「スライス」又は「行」は、91点を含むことができる一方で、行数は、車両の長さ(及び速度)に応じて変化し、一般に典型的な乗用車について20から30行である。
信号の前処理は、本願明細書に記載された処理の重要な部分である。前処理モジュールは、測定信号におけるノイズを低減し、個々の車両の信号をセグメント化し、一度に1台の車両からの情報を分類器に供給するのに使用されることができる。
(図1に示されている)以下の一連の動作が実行されることができる。
個々のトランザクションの分離:車両が存在しない場合、スキャナによって測定された高さは、略ゼロである。高さレベルに閾値を設定すると、99.5%の精度で異なる車両を正確に分離するのに十分である。
無効な走査点の訂正:いくつかの場合において、スキャナは、プロファイルにおけるいくつかの点について読み取る高さを提供することができない。これは、高速走行や時には天候条件に起因して、十分な反射率を呈さないいくつかの特定の素材の場合である。欠落点の集合は、通常、レーザプロファイルにおける全ての点のうちのほんのわずかであることから、最近傍に基づく単純な補間は、レーザプロファイルを再構成するのに十分であることが示されている。しかしながら、より複雑な方法が適用されることもできる。
速度訂正:速度は、外部ループ・センサ・システムを用いて正確に測定される。車両の速度がわかれば、プロファイルは、基準速度で走行する車両によって得られたであろう行数を有するように補間されることができる。
車体のセグメンテーション:走査範囲は比較的広く、最大100度までであることから、レーザプロファイルは、典型的には隣接車線を走行する車両の一部に対応するそれらのエッジ上にアーチファクトを時には示す。したがって、関心のある車両に対応するプロファイルの一部はトリミングされることができる。その目的のために、プロファイルにおける各点は、信号の単純な閾値に基づいて物体又は背景としてラベル付けされることができ、物体点を接続要素にグループ化することができる。最大接続要素を含む矩形領域は、トリミングのために保持されることができる。
車両分類(例えば、図1のブロック30を参照)は、全体に開示されるシステム/方法の重要な部分である。車両分類の目的は、車線上を通過する各車について、それが属する車両クラスを予測することである。そのような分類を構築するために、トレーニング・レーザプロファイルのセットが手動で注釈付けられることができ、本願明細書においてより詳細に記載されるように、各レーザプロファイルについて、異なる種類の特徴のセットが抽出されることができる。一般に、各種類の特徴及び各車両クラスについて、以下のように1対全ての線形分類器がトレーニングされることができる。
ここで、xは、前処理されたレーザプロファイルを表す特徴ベクトルであり、パラメータw及びbは、確率的勾配降下(SGD)などの学習アルゴリズムによって得られた。上述したように、レーザプロファイルは、最初に前処理される。したがって、全ての特徴記述子についての入力は、元のレーザプロファイルにおける最大接続要素に対応する2Dのトリミングされたレーザ信号である。
この信号を以下のように表す。
ijは、プロファイルの行i及び列j(i=1、・・・、L及びj=1、・・・、W)における高さ測定を表し、W及びHは、それぞれ、トリミングされたレーザプロファイルの列(幅)及び行(長さ)の総数を表す。
我々の目的は、最良の車両分類器を構築するために、このレーザプロファイルから抽出することができる特徴を研究することである。したがって、異なる種類の特徴が以下に詳細に記載されるように使用されることができる。
属性ベースの特徴(ATT)は、本願明細書に記載されたアプローチの状況で考えられることができる。すなわち、属性は、特に人間により、多くの場合、特にこれらのクラスが、それぞれトレーラーを有するか有しない乗用車、1台又は2台のトレーラーを有しないか有するトラック、及び、オートバイの場合におけるようなものである場合、車両を異なるクラスにカテゴリ化することである。したがって、我々の第1の特徴ベクトルは、2Dレーザプロファイルから抽出する以下の属性の設定とすることができる。
・プロファイルの幅(W)
・プロファイルの長さ(L)
・プロファイルの最大高さ(maxijij
・ユニットの数
・第1のユニットの最大高さ
後者の2つの属性を抽出するために、レーザプロファイルは、閾値発見的問題解決によってユニットにセグメント化される。みつかったユニットの数は、第4の属性として提供される。そして、FUによって表される第1のユニット内の最大高さは、以下の式(3)にしたがって計算されることができる。
ここで直感的に留意すべきは、最初の3つの属性は、通常は異なる車種が異なる大きさの分布を呈するという事実を捕捉するということである。属性4及び5は、車両に取り付けられたユニットの数(及び大きさ)が、車両クラスを示すこともあるという事実を利用する。最後に、5つの属性は、単一の特徴ベクトルxにまとめられることができ、属性ベースの特徴としてそれを参照する(ATTによって表される)。
図2は、開示された実施形態にかかるレーザプロファイルに対応する2D画像の例を示すグラフを図示している。図2に示される画像42、44、46、48、50及び52は、カラーマップ(図示しない)によって表されることができる。ここで、例えば、青色は、高さが低い値を表し、赤色は、より高い高さを示すことができる。ここで留意すべきは、3Dレーザプロファイルが2D画像として表されることができるということである。ここで、プロファイルの幅及び長さ(W×L)は、画像サイズを与え、各画素の値Uijは、対応する高さhijに等しい(すなわち、図2に示される例を参照)。
これは、この場合には、画像カテゴリ化問題として、レーザ・スキャナ・プロファイルのカテゴリ化を考えることができることを意味する。文献は、カテゴリ化のための異なる画像表現の提案において非常に豊富であるが、本発明は、主に2つの人気のある表現を用いて実験する。それゆえに、以下の実際の特徴が計算されることができる。第1の表現は、画像を小さな大きさにサイズ変更し、直接的に単一ベクトルに連結された画素を使用するという実験的証拠を提供し、いくつかのコンピュータ・ビジョン・タスクにおいて良好な結果を提供する。第2の表現は、カテゴリ化及び検索を含む異なるタスクにおける異なる種類の画像による最先端の画像表現を示している画像のフィッシャーベクトル表現である。
RAW(生のプロファイル特徴)が特定の状況において使用されることができる。すなわち、特徴ベクトルV={h11,・・・,hwl}に直接変換されたプロファイル画像の画素(高さ)を使用したい場合には、W及びHがある画像から他の画像へと変化するのにともない、異なる大きさのウィンドウを再度有する。したがって、
という固定サイズへの双線形補間に基づく標準的なサイズ変更動作を最初に適用することができる。
によってサイズ変更された「画像」を表す場合には、特徴ベクトル
は、積み重ね
によって構成されることができる。実験的には、例えば、
が最良の実用的な結果をもたらすことを発見した。
この特徴ベクトル
を1対全ての分類に供給する前に、この正規化アプローチがさらなる改善をもたらすことが示されているように分類器をL−正規化することができる。特徴は、生のプロファイル特徴と称され、RAWによって表されることができる。
FIS(フィッシャー画像署名)は、第2のプロファイルイメージング技術に関して使用されることができる。画像のフィッシャーベクトル表現は、いわゆる視覚語のバッグ(BOV)表現を拡張したものである。そのようなアプローチの主なアイディアは、低レベルの特徴空間に構築された中間表現、視覚的語彙に基づいて、局所的な特徴のセットを高レベルの表現に変換することである。局所パッチにおいて抽出される人気のあるSIFT記述子などの最も頻繁な勾配方向ヒストグラムは、PCA(主成分分析)を用いていくつかの低次元空間において直接的に又は最初に投影される低レベルの特徴として使用されることができる。我々の実験では、PCAによって128次元の勾配方向ヒストグラムを32次元に投影し、投影空間において64個のガウス分布の視覚的語彙を構築した。
視覚的語彙は、以下の式(4)によって示されるように、GMM(ガウシアン混合モデル)によってモデル化されることができる。
ここで、hは、局所的な低レベルの特徴(この場合は−勾配ヒストグラム)であり、λ={ω,μ,Σ;n=1,・・・,N}は、GMMの全てのパラメータのセットであり、各ガウス分布は、視覚語に対応している。
BOV表現の場合、低レベルの記述子I={h;i=1,・・・,T}のセットとしてみられるプロファイル画像は、全ての低レベル記述子にわたって累積することにより、高レベルのN次元の記述子γに変換され、各ガウス分布について、各記述子を生成する確率は、以下の式(5)及び(6)によって示される。
ここで、
である。
フィッシャーベクトルは、ゼロ次統計値(例えば、カウント)を超えることにより、且つ、各視覚語に割り当てられた局所記述子の分布に関する最大で二次までの統計値を符号化することにより、この「ソフト」BOV表現を拡張する。したがって、それは、式(7)によって示される低レベルの特徴空間におけるGMM分布からの偏差によって低レベルの特徴セットIを特徴付ける。
そのような2つの分布I及び
を比較するために、これらの勾配における自然カーネルは、以下の式(8)によって示さされるフィッシャーカーネルである。
ここで、Fλは、フィッシャー情報行列である。Fλ −1が対称正定であることから、それは、Lλ λによって表されるコレスキー分解を有する。したがって、
は、以下の式(9)に示されるように、マッピングГλを使用して正規化されたベクトル間のドット積として書き換えられることができる。
式(9)は、画像のフィッシャーベクトル(FV)と称されることができる。したがって、線形分類器は、フィッシャーベクトルによって表される画像をカテゴリ化するのによく適している。ここで留意すべきは、FVが、さらに、平方根及びL2−正規化されることができるということである。一般に、フィッシャーベクトル表現は、BOV表現よりも優れている。
画像カテゴリ化の場合には、空間ピラミッドを使用することが、画像のカテゴリ化性能を向上させつつ、画像の粗ジオメトリの捕捉をもたらすことができることが実証されている。したがって、本発明の発明者らはまた、空間ピラミッドを用いて実験しており、この場合には、1x2の空間ピラミッドが2つの水平部に画像を分割し、それらを単一特徴ベクトルxに連結することが最も良好に行われることを発見した。
図3は、代替的な実施形態にしたがって行われることができるフィッシャー画像署名計算方法60の論理動作ステップを示す動作のフローチャートを図示している。すなわち、フィッシャー画像署名(FIS)計算の概略図が図3に示されている。考慮すべき2つの種類のフィッシャーベクトル−−「フィッシャー画像署名」及び「フィッシャーレーザ署名」が実際に存在することを理解することが重要である。双方のフィッシャーベクトルは、ある場合には、プロファイルが画像として処理され、「局所パッチ」が勾配のヒストグラムが計算可能なサブ画像であり、第2の場合には、レーザ信号は、画像として処理されず、局所パッチは、投影プロファイルの行の生値であること以外は、同じ一般的なフレームワークにしたがう。
一般に、ブロック72として示されるように、行われるレーザ深さ投影から、局所「パッチ」のセットが抽出されることができる。局所パッチは、例えば、異なるスケールで座標の規則的なグリッドからサンプリングすることによって抽出されたレーザ署名のサブ領域である。図3に示されるブロック64及び66は、一般に、ヒストグラム68、70をもたらす局所的な特徴の計算を図示している。すなわち、ブロック72に示されたレーザ深さ投影動作の処理に続いて、ブロック74に示されるように、勾配ヒストグラムが行われることができる。
その後、ブロック76に示され、ブロック76の上方に位置しているヒストグラム86及びブロック76の下方に示された円78、80、82、84によってグラフィカルに図示されるように、主成分分析(PCA)動作が勾配ヒストグラムにおいて行われることができる。その後、ブロック92に示されるように、空間プーリング動作が行われることができる。プーリング動作は、定義された異なる空間領域について独立して、レーザ信号における全てのパッチを使用してGMMに関してフィッシャーベクトルを計算する。この動作の後には、ブロック100に示されるように、署名を正規化する動作が続く。ブロック92、100において記載された動作は、ブロック92及び正規化されたデータセット94、96、98によってグラフィカルに図示されている。最後に、ブロック102に示されるように、動作は、トレーニングセットにおいて学習されるプロファイル・スライス・クラスタにおいて行われることができる。
考慮すべき他の特徴の種類が次に記載される。ユーザプロファイルH(すなわち、式(2)を参照)から、側面及び前面投影プロファイルが、
及び
によって表される側面のそれぞれのセットの前面プロファイルデータを生み出す各行及び各列毎に抽出されることができる。ここで留意すべきは、前面投影プロファイルが、スキャナによって得られた(前処理された)横方向スライスと関連している一方で、側面プロファイルが、3Dスキャナデータから「再構築される」ということである。さらにまた、これらのベクトル(h及びf)は、プロファイル画像における行及び列のそれぞれにも対応している。
また、しかしながら、そのような特徴ベクトルは、可変サイズを有し、したがって、それらは、(例えば、1次元ベクトルをサイズ変更するか又はサイズ変更された画像から直接抽出することによって)再度同じサイズに再スケーリングされる。ここから、単純な表現は、与えられたレーザプロファイルについて側面毎の前面プロファイルを平均化するか又はフィッシャーレーザ署名を構築するために再度フィッシャーフレームワークを使用するなどして構成されることができる。
考慮すべき他の要因は、MPP(平均投影プロファイル)である。ここで留意すべきは、MSP(平均側面プロファイル)が、以下の式(10)によって示されるように、列にわたってプロファイル画像を平均することによって計算されることができるということである。
MFP(平均前面プロファイル)は、以下の式(11)によって示されるように、行にわたって合計することによって計算されることができる。
ここで留意すべきは、これらの平均投射プロファイルが、空間の方向のうちの一方において3DレーザプロファイルHを積分することによって得られた信号としてもわかることができるということである。
図4は、開示された実施形態にかかるプロファイル画像に対応する5つの異なる車両クラスからの平均前面(上段)及び側面(下段)のプロファイルを示す例のグラフを図示している。図4において、プロファイル画像に対応する平均側面及び平均前面プロファイルを示している。そのようなデータは、グラフ110、112、114、116、118、120及び122、124、126、128、130、132によって示されている。
分類器に特徴を供給する前に、そのような特徴は、補間によって固定長ベクトルに最初にサイズ変更されることができ、その後、L−正規化される。15から25次元の異なる次元及び長さによって実験した本願発明者らは、データセットについて最適であることを見出した。
FLS(フィッシャーレーザ署名)は、考慮すべき他の特徴である。ここで留意すべきは、これらの投影されたプロファイルを平均化する代わりに、レーザプロファイルHが、以下の式(12)で示されるように、投影されたファイルのセットSとして表されることができるということである。
ここで、
であり、サイズ変更された個々の側面投影プロファイルに対応する。しかしながら、図4及びいくつかの予備的経験が示すように、側面プロファイルは、前面プロファイルよりも特徴的であり、より良好な分類性能をもたらすことができる。
Sは、レーザプロファイルについて抽出されたセットの特徴
であることから、この表現を固定次元の高レベル表現に変換するために、(この場合、「側面投影プロファイルのバッグになる」)視覚語のバッグ(BOV)又はそのフィッシャーフレームワークベースの拡張を適用することができる。上述したように、これらの表現は、低レベルの特徴空間に構築された視覚的な語彙を必要とする。その場合、これらのベクトルの低レベルの特徴は、PCAによって削減されることができる。
を用いてこの空間に「視覚的語彙」(GMM)のパラメータを表す場合には、SのBOV表現は、式(5)と同様に等しくなる。
ここで、
である。
FLS(フィッシャーレーザ署名)とここで称される対応するフィッシャーベクトルは、以下のように表されることができる。
は、フィッシャー情報行列
のコレスキー分解に対応し、
である。
側面投影プロファイル空間におけるGMM分布
からのSのその偏差
プロファイル画像におけるフィッシャーベクトルのように、FLSは、さらに、平方根及びL2−正規化される。空間ピラミッドを使用するために、同様にレーザプロファイルをプロファイル画像に分解し、各部についてのFLSを計算することができる。ここで留意すべきは、これが、最初、中間及び最後のレーザスライスのセットにおけるレーザスキャナのスライスのサブ分割及び別個に再構成された対応する部分的レーザプロファイルからの側面投影の計算に対応するということである。フィッシャーレーザ署名計算の概略図が図5に示されている。
図5は、代替的な実施形態にしたがって行うことができるフィッシャー画像署名計算方法140の論理動作ステップを示す動作のフローチャートを図示している。一般に、ブロック144に示されるように、トリミングされたプロファイルが生成され、ブロック152に示されるように、その後、プロファイルスライシング動作が行われる。ここで留意すべきは、図形142及びヒストグラム146、148、150は、これらの特定のステップをグラフィカルに図示しているということである。その後、ブロック154に示されるように、PCA動作は、プロファイルスライスにおいて行われることができる。図形156、158、160、162は、この動作を図示している。次に、ブロック170に示されるように、空間プーリング動作が行われることができる。その後、ブロック180に示されるように、正規化されたプロファイル署名が生成される。図形172及びデータ174、176、178は、ブロック170、180に示される動作をグラフィカルに図示している。その後、ブロック182に示されるように、プロファイル・スライス・クラスタがトレーニングセットにおいて学習される。
ここで留意すべきは、実験に使用される実際のデータベースは、公道の状況において撮像されたレーザプロファイルのセットを含んでいたということである。各車両についてのスキャナプロファイルは、本願明細書に記載されるように得られた。場合によっては、以下の車両クラスが手動で注釈付けされた。乗用車、トレーラーを有する乗用車、トラック、トレーラーを有するトラック、2台のトレーラーを有するトラック、及び、オートバイ。これらのサンプルクラスについて得られたレーザプロファイルは、図6にグラフィカルに図示されている。すなわち、図6は、以下のように左から右への車両クラスの6つの例についてのレーザスキャナ・プロファイルの3Dレンダリングを示すサンプルグラフ192、194、196、198、200、202を図示している。乗用車、1台のトレーラーを有する乗用車、トラック、1台のトレーラーを有するトラック、2台のトレーラーを有するトラック、及び、オートバイ。
合計で3万台の車両が注釈付けられた。このセットは、トレーニング(40%)、検証(20%)及び試験(40%)にわけられた。トレーニングセットは、分類器モデル(w及びb)や、フィッシャー画像署名(FIS)及びフィッシャーレーザ署名(FLS)を表すフィッシャーベクトルに必要とされるPCA及びガウシアン混合モデル(GMM)などの特徴ベクトル計算に必要とされる任意の他のモデルを評価するのに使用される。
検証セットは、評価される各特徴種類についての全てのパラメータ(トレーニングパラメータ及び特徴パラメータ)を選択するのに使用される。これは、最終次元(サイズ変更又はPCA投影の場合)、ガウス分布の数、及び、SGD分類器をトレーニングするのに必要なパラメータを含む。最後に、各特徴種類について、最も良好なパラメータに対応するモデルが試験セットにおいて評価される。
我々の実験の目的は、同じフレームワークで異なる特徴を比較することであった。したがって、セクションII及びそれらの組み合わせのいくつかにおいて記載されている特徴において1対全ての線形分類器をトレーニングした。ここでは、組み合わせの下で、平均特徴連結、例えばMSP+ATTは、属性ベース(ATT)の特徴との平均側面プロファイル(MFP)特徴の連結である。
実験結果を示す前に、基本的な特徴を簡単に呼び出す。
・ATT:属性ベースの特徴
・RAW:生のプロファイル特徴
・FIS:フィッシャー画像署名
・MSP及びFSP:それぞれ、平均側面及び前面プロファイル
・FIS:フィッシャーレーザ署名は、フィッシャーベクトルである。考慮される特徴のそれぞれについて、グローバルな精度(正確に検出される車両台数)及びクラスあたりの精度(クラスにわたる平均精度)を測定する。
一見すると、全ての方法が車両精度毎の面で同様に行うように思われる。しかし、これは試験セットにおける乗用車の割合であることから、車両あたりの最小精度は、95.3%であることに留意されたい。これは、クラスの分布が強い偏りを有することを意味するが、この状況は、通常、道路において遭遇する。また、この設定において、料金徴収作業者にとって関心のある最後の図は、車両あたりの精度である。したがって、これらの状況において、観察される僅かな差異は問題である。
しかしながら、分類精度のより包括的な図を有するために、我々はまた、クラスあたりの平均精度を測定する。画像上のフィッシャーベクトルが最良の車両あたりの精度を得て、ベースラインよりも大幅に高いクラスあたりの精度を得ることが観察されることができる。また、投射プロファイルがベースラインと同様に実行することも観察されることができるが、高レベルの特徴と連結されるとき、それらは、最良のクラスあたりの精度と、2番目に高い車両あたりの精度も得る。これらの観察を考慮すると、画像にインスパイアされた特徴は、ベースラインに関して利点を示す。
本実施形態は、本発明の実施形態にかかる方法、システム及びコンピュータプログラム製品並びにデータ構造のフローチャート図及び/又はブロック図を参照しながら本願明細書において少なくとも部分的に記載されている。図の各ブロック及びブロックの組み合わせが、コンピュータプログラム命令によって実装されることができることが理解されるであろう。コンピュータ又は他のプログラム可能なデータ処理装置を介して実行される命令が、例えば、本願明細書における図に関して述べられて示された様々な命令などの本願明細書において述べられた1つのブロック又は複数のブロックに記載された機能/作用を実装するための手段を形成するように、これらのコンピュータプログラム命令は、マシンを生成するために、汎用コンピュータ、専用コンピュータ又は他のプログラム可能なデータ処理装置のプロセッサに提供されることができる。
これらのコンピュータプログラム命令はまた、コンピュータ読み取り可能なメモリに格納される命令が、1つのブロック又は複数のブロックに記載された機能/作用を実装する命令手段を含む製造品目を製造するように、特定の方法で機能するようにコンピュータ又は他のプログラム可能なデータ処理装置を指示することができるコンピュータ読み取り可能なメモリに格納されることができる。
コンピュータプログラム命令はまた、コンピュータ又は他のプログラム可能な装置上で実行される命令が、1つのブロック又は複数のブロックに記載された機能/作用を実装するためのステップを提供するように、コンピュータ実装プロセスを生成するように一連の動作ステップがコンピュータ又は他のプログラム可能な装置上で実行されるのを生じさせるためにコンピュータ又は他のプログラム可能なデータ処理装置にロードされることができる。
図7〜図8は、本発明の実施形態が実装されることができるデータ処理環境の例示的な図として提供される。当然のことながら、図7〜図8は、単なる例示にすぎず、開示された実施形態の態様又は実施形態が実装され得る環境に関するいかなる限定事項も主張又は暗示することを意図するものではない。図示された環境に対する多くの変更が開示された実施形態の精神及び範囲から逸脱することなく行われることができる。
図7に図示されるように、開示された実施形態は、例えば、中央処理装置301(又は他のプロセッサ)、メインメモリ302、コントローラ303及びいくつかの実施形態ではUSB(ユニバーサル・シリアル・バス)304又は他の適切な周辺接続を含むことができるデータ処理システム300の状況において実装されることができる。システム300はまた、入力装置305(例えば、キーボード、マウスなどのポインティングデバイスなど)、ディスプレイ306及びHDD(ハード・ディスク・ドライブ)307(例えば、大容量記憶装置)を含むことができる。図示されたように、データ処理システム300の様々な構成要素は、システムバス310又は同様のアーキテクチャを介して電子的に通信することができる。システムバス310は、例えば、データ処理システム300内のコンピュータ構成要素間で、又は、他のデータ処理装置、構成要素、コンピュータなどとの間でデータを転送するサブシステムとすることができる。
図8は、図7に示されたデータ処理システム300の動作を指示するために使用されることができるコンピュータ・ソフトウェア・システム350を図示している。メモリ302及び/又はHDD307に記憶されたソフトウェアアプリケーション354は、一般に、カーネル又はオペレーティングシステム351及びシェル又はインターフェース353を含むことができるか、及び/又は、それらと関連付けられることができる。モジュール352などの1つ以上のアプリケーションプログラムは、データ処理システム300による実行のために「ロード」される(すなわち、大容量記憶装置又はHDD307からメインメモリ302内に転送される)ことができる。図8に示される例において、モジュール352は、例えば、図1、図3、図5などの論理命令又は動作を実行するソフトウェアモジュールとして実装されることができる。
データ処理システム300は、ユーザ349によってアクセス可能なユーザインターフェース353を介してユーザコマンド及びデータを受信することができる。そして、これらの入力は、オペレーティングシステム351及び/又はソフトウェアアプリケーション354並びにその任意のソフトウェアモジュール352からの命令にしたがって、データ処理システム300によって作用されることができる。
それゆえに、本願明細書における議論は、システム及び方法が実装されることができる適切なコンピューティング環境の簡潔で一般的な説明を提供することを意図している。必須ではないものの、開示された実施形態は、単一コンピュータによって実行されるプログラムモジュールなどのコンピュータ実行可能な命令の一般的状況において説明される。ほとんどの場合、「モジュール」は、ソフトウェアアプリケーションを構成する。
一般に、プログラムモジュール(例えば、モジュール352)を含むことができるが、特定のタスクを実行するか又は特定の抽象データ型及び命令を実装する、ルーチン、サブルーチン、ソフトウェアアプリケーション、プログラム、オブジェクト、コンポーネント、データ構造などに限定されるものではない。また、当業者は、開示された方法及びシステムが、例えば、ハンドヘルド装置、マルチプロセッサシステム、データネットワーク、マイクロプロセッサベース又はプログラム可能な家庭用電気製品、ネットワーク化されたパーソナルコンピュータ、ミニコンピュータ、メインフレームコンピュータ、サーバなどの他のコンピュータシステム構成によって実施されるできることを理解するであろう。
ここで留意すべきは、本願明細書において利用される用語モジュールは、特定のタスクを実行するか又は特定の抽象データ型を実装するルーチン及びデータ構造の集合体を指すことができるということである。モジュールは、以下の2つの部分から構成されることができる。他のモジュール又はルーチンによってアクセスされることができる定数、データ型、変数及びルーチンを一覧記載するインターフェース、並びに、典型的には(そのモジュールに対してのみアクセス可能な)プライベートであって実際にモジュール内のルーチンを実装したソースコードを含む実装。用語モジュールはまた、ワープロ、会計、在庫管理などの特定のタスクの実行において支援するように設計されたコンピュータプログラムなどのアプリケーションを単に指すことができる。
インターフェース353(例えば、グラフィカル・ユーザ・インターフェース)は、ユーザが追加入力を供給するか又は特定のセッションを終了することができるとすぐに、結果を表示するのに役立つことができる。いくつかの実施形態において、オペレーティングシステム151及びインターフェース353は、「ウィンドウズ(登録商標)」システムの状況で行われることができる。当然のことながら、勿論、他の種類のシステムが潜在的可能である。例えば、従来の「ウィンドウズ(登録商標)」システムよりもむしろ、例えば、無線システムにおいてより一般的に使用されるリアル・タイム・オペレーティング・システム(RTOS)などの他のオペレーティングシステムもまた、オペレーティングシステム351及びインターフェース353に関して使用されることができる。
それゆえに、図7〜図8は、例として意図されるが、開示された実施形態のアーキテクチャ上の限定事項として意図されるものではない。さらに、そのような実施形態は、任意の特定のアプリケーション又はコンピューティング若しくはデータ処理環境に限定されるものではない。代わりに、当業者は、開示されたアプローチが、様々なシステム及びアプリケーションソフトウェアに有利に適用されることができることを理解するであろう。また、開示された実施形態は、Macintosh、UNIX(登録商標)、Linux(登録商標)などを含む様々な異なるコンピューティングプラットフォーム上で実施されることができる。

Claims (10)

  1. 車両分類方法であって、前記方法が、
    レーザスキャナを利用して少なくとも1台の車両を走査し、前記少なくとも1台の車両の光学プロファイルを示すデータをコンパイルすることと、
    前記少なくとも1台の車両と関連付けられた前記光学プロファイルを前処理することと、
    前記光学プロファイルの処理後に前記光学プロファイルから特定の特徴を抽出することと、
    前記光学的特徴から抽出された前記特定の特徴に基づいて、前記少なくとも1台の車両を分類することと、を備える方法。
  2. 前記少なくとも1台の車両と関連付けられた前記光学プロファイルを前処理することが、
    前記光学プロファイルを示す前記データから少なくとも1つの個々のプロファイルを分離することと、
    前記レーザスキャナを利用した前記少なくとも1台の車両の走査に関連する走査読み取りエラーを訂正することと、
    前記光学プロファイルを示す前記データから車体を示すデータをセグメント化することのうちの少なくとも1つをさらに備える、請求項1に記載の方法。
  3. 前記光学プロファイルの処理後に前記光学プロファイルから特定の特徴を抽出することが、
    フィッシャーベクトルを含む前記特定の特徴を抽出することをさらに備える、請求項1に記載の方法。
  4. 前記光学プロファイルの処理後に前記光学プロファイルから特定の特徴を抽出することが、
    前記光学プロファイルに関する水平方向及び/又は垂直方向における積分を計算することによってプロファイル特徴を含む前記特定の特徴を抽出することをさらに備える、請求項1に記載の方法。
  5. 前記光学的特徴から抽出された前記特定の特徴に基づいて前記少なくとも1台の車両を分類することが、
    前記光学的特徴から抽出された前記特定の特徴を利用して少なくとも1つの線形分類器をトレーニングすることと、
    前記少なくとも1つの線形分類器から出力されたデータに基づいて、前記少なくとも1台の車両を分類することと、をさらに備える、請求項1に記載の方法。
  6. 車両分類システムであって、前記システムが、
    プロセッサと、
    コンピュータ・プログラム・コードを具現化するコンピュータ使用可能な媒体であって、プロセッサと通信することができるコンピュータ使用可能な媒体とを備え、前記コンピュータ・プログラム・コードが、前記プロセッサによって実行可能な命令を含み、
    レーザスキャナを利用して少なくとも1台の車両を走査し、前記少なくとも1台の車両の光学プロファイルを示すデータをコンパイルし、
    前記少なくとも1台の車両と関連付けられた前記光学プロファイルを前処理し、
    前記光学プロファイルの処理後に前記光学プロファイルから特定の特徴を抽出し、
    前記光学的特徴から抽出された前記特定の特徴に基づいて、前記少なくとも1台の車両を分類するように構成されているシステム。
  7. 前記少なくとも1台の車両と関連付けられた前記光学プロファイルを前処理するための前記命令が、さらに、
    前記光学プロファイルを示す前記データから少なくとも1つの個々のプロファイルを分離することと、
    前記レーザスキャナを利用した前記少なくとも1台の車両の走査に関連する走査読み取りエラーを訂正することと、
    前記光学プロファイルを示す前記データから車体を示すデータをセグメント化することのうちの少なくとも1つのために構成された命令を含む、請求項6に記載のシステム。
  8. 前記光学プロファイルの処理後に前記光学プロファイルから特定の特徴を抽出するための前記命令が、
    フィッシャーベクトルを含む前記特定の特徴を抽出するために構成された命令をさらに含む、請求項6に記載のシステム。
  9. 車両分類用の処理を生じさせる命令を表すコードを格納するプロセッサ読み取り可能な媒体であって、前記コードが、
    レーザスキャナを利用して少なくとも1台の車両を走査し、前記少なくとも1台の車両の光学プロファイルを示すデータをコンパイルし、
    前記少なくとも1台の車両と関連付けられた前記光学プロファイルを前処理し、
    前記光学プロファイルの処理後に前記光学プロファイルから特定の特徴を抽出し、
    前記光学的特徴から抽出された前記特定の特徴に基づいて、前記少なくとも1台の車両を分類するためのコードを含むプロセッサ読み取り可能な媒体。
  10. 前記少なくとも1台の車両と関連付けられた前記光学プロファイルを前処理するための前記コードが、
    前記光学プロファイルを示す前記データから少なくとも1つの個々のプロファイルを分離することと、
    前記レーザスキャナを利用した前記少なくとも1台の車両の走査に関連する走査読み取りエラーを訂正することと、
    前記光学プロファイルを示す前記データから車体を示すデータをセグメント化するためのコードをさらに含む、請求項9に記載のプロセッサ読み取り可能な媒体。
JP2014149655A 2013-08-09 2014-07-23 フィッシャー及びプロファイル署名を使用したレーザスキャナからの車両分類 Pending JP2015036684A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/963,472 2013-08-09
US13/963,472 US9683836B2 (en) 2013-08-09 2013-08-09 Vehicle classification from laser scanners using fisher and profile signatures

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019168596A Division JP2020080141A (ja) 2013-08-09 2019-09-17 フィッシャー及びプロファイル署名を使用したレーザスキャナからの車両分類

Publications (1)

Publication Number Publication Date
JP2015036684A true JP2015036684A (ja) 2015-02-23

Family

ID=51454526

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014149655A Pending JP2015036684A (ja) 2013-08-09 2014-07-23 フィッシャー及びプロファイル署名を使用したレーザスキャナからの車両分類
JP2019168596A Pending JP2020080141A (ja) 2013-08-09 2019-09-17 フィッシャー及びプロファイル署名を使用したレーザスキャナからの車両分類

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019168596A Pending JP2020080141A (ja) 2013-08-09 2019-09-17 フィッシャー及びプロファイル署名を使用したレーザスキャナからの車両分類

Country Status (3)

Country Link
US (1) US9683836B2 (ja)
EP (1) EP2846290A3 (ja)
JP (2) JP2015036684A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022550291A (ja) * 2019-12-27 2022-12-01 中興通訊股▲ふん▼有限公司 レーザーレーダーに基づく検出方法、装置及びコンピュータ読み取り可能な記憶媒体

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104391339B (zh) * 2014-12-17 2018-02-09 同方威视技术股份有限公司 车型识别方法以及利用该方法的车辆快速检查系统
US10036812B2 (en) 2015-06-24 2018-07-31 Blackmore Sensors and Analytics Inc. Method and system for three dimensional digital holographic aperture synthesis
US10586102B2 (en) * 2015-08-18 2020-03-10 Qualcomm Incorporated Systems and methods for object tracking
US9984704B2 (en) 2016-08-05 2018-05-29 Electronics And Telecommunications Research Institute Vehicle classification system and method
CN114296093A (zh) 2016-11-29 2022-04-08 布莱克莫尔传感器和分析有限责任公司 用于以点云数据集合对对象进行分类的方法和系统
CN113985427A (zh) 2016-11-30 2022-01-28 布莱克莫尔传感器和分析有限责任公司 对光学啁啾距离检测进行多普勒检测和校正的方法和系统
WO2018102188A1 (en) * 2016-11-30 2018-06-07 Blackmore Sensors and Analytics Inc. Method and system for automatic real-time adaptive scanning with optical ranging systems
US11624828B2 (en) 2016-11-30 2023-04-11 Blackmore Sensors & Analytics, Llc Method and system for adaptive scanning with optical ranging systems
US10422880B2 (en) 2017-02-03 2019-09-24 Blackmore Sensors and Analytics Inc. Method and system for doppler detection and doppler correction of optical phase-encoded range detection
US10401495B2 (en) 2017-07-10 2019-09-03 Blackmore Sensors and Analytics Inc. Method and system for time separated quadrature detection of doppler effects in optical range measurements
US10534084B2 (en) 2017-07-27 2020-01-14 Blackmore Sensors & Analytics, Llc Method and system for using square wave digital chirp signal for optical chirped range detection
FR3078810B1 (fr) * 2018-03-08 2020-04-03 Idemia Identity And Security Dispositif et procede pour differencier un poids lourd de transport de marchandises d’un autocar
WO2019209727A1 (en) 2018-04-23 2019-10-31 Blackmore Sensors and Analytics Inc. Method and system for controlling autonomous vehicle using coherent range doppler optical sensors
US11822010B2 (en) 2019-01-04 2023-11-21 Blackmore Sensors & Analytics, Llc LIDAR system
CN113361547A (zh) * 2021-06-30 2021-09-07 深圳证券信息有限公司 一种签章识别方法、装置、设备及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007235951A (ja) * 2006-02-28 2007-09-13 Alpine Electronics Inc 車両画像認識装置およびその方法
JP2011154687A (ja) * 2010-01-26 2011-08-11 Xerox Corp 画像データセットをナビゲートするための方法、装置、及びプログラム
US20120045134A1 (en) * 2010-08-20 2012-02-23 Xerox Corporation Large scale image classification
WO2013040121A2 (en) * 2011-09-13 2013-03-21 Osi Optoelectronics Improved laser rangefinder sensor

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225490A (ja) 1992-02-07 1993-09-03 Toshiba Corp 車種判別装置
US6304321B1 (en) 1992-11-23 2001-10-16 Schwartz Electro-Optics, Inc. Vehicle classification and axle counting sensor system and method
US6195019B1 (en) * 1998-01-20 2001-02-27 Denso Corporation Vehicle classifying apparatus and a toll system
US6337640B2 (en) 1999-03-31 2002-01-08 Diamond Consulting Services Limited Inductive loop sensor for traffic detection, and traffic monitoring apparatus and method using such a loop sensor
US7970644B2 (en) 2003-02-21 2011-06-28 Accenture Global Services Limited Electronic toll management and vehicle identification
WO2009046359A2 (en) 2007-10-03 2009-04-09 University Of Southern California Detection and classification of running vehicles based on acoustic signatures
US8009062B2 (en) 2008-09-22 2011-08-30 Rothschild Leigh M Vehicle traffic flow data acquisition and distribution
US8364334B2 (en) 2008-10-30 2013-01-29 Honeywell International Inc. System and method for navigating an autonomous vehicle using laser detection and ranging
CA2779672C (en) 2009-11-02 2017-03-21 Infinity Laser Measuring Llc Laser measurement of a vehicle frame
US9298982B2 (en) 2011-07-26 2016-03-29 Xerox Corporation System and method for computing the visual profile of a place

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007235951A (ja) * 2006-02-28 2007-09-13 Alpine Electronics Inc 車両画像認識装置およびその方法
JP2011154687A (ja) * 2010-01-26 2011-08-11 Xerox Corp 画像データセットをナビゲートするための方法、装置、及びプログラム
US20120045134A1 (en) * 2010-08-20 2012-02-23 Xerox Corporation Large scale image classification
WO2013040121A2 (en) * 2011-09-13 2013-03-21 Osi Optoelectronics Improved laser rangefinder sensor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022550291A (ja) * 2019-12-27 2022-12-01 中興通訊股▲ふん▼有限公司 レーザーレーダーに基づく検出方法、装置及びコンピュータ読み取り可能な記憶媒体
JP7305884B2 (ja) 2019-12-27 2023-07-10 中興通訊股▲ふん▼有限公司 レーザーレーダーに基づく検出方法、装置及びコンピュータ読み取り可能な記憶媒体

Also Published As

Publication number Publication date
EP2846290A3 (en) 2015-08-26
JP2020080141A (ja) 2020-05-28
US9683836B2 (en) 2017-06-20
EP2846290A2 (en) 2015-03-11
US20150046119A1 (en) 2015-02-12

Similar Documents

Publication Publication Date Title
US9683836B2 (en) Vehicle classification from laser scanners using fisher and profile signatures
Vetrivel et al. Identification of damage in buildings based on gaps in 3D point clouds from very high resolution oblique airborne images
Peng et al. A UAV-based machine vision method for bridge crack recognition and width quantification through hybrid feature learning
US9607228B2 (en) Parts based object tracking method and apparatus
US9355320B2 (en) Blur object tracker using group lasso method and apparatus
US10423827B1 (en) Image text recognition
CN110879994A (zh) 基于形状注意力机制的三维目测检测方法、系统、装置
CN109284664B (zh) 驾驶员辅助系统和护栏检测方法
JP5223675B2 (ja) 車両検知装置,車両検知方法並びに車両検知プログラム
US11693090B2 (en) Multi-domain neighborhood embedding and weighting of sampled data
KR102269750B1 (ko) Cnn을 활용한 카메라 및 라이다 센서 기반 실시간 객체 탐지 방법
Ding et al. Fast lane detection based on bird’s eye view and improved random sample consensus algorithm
CN108399424B (zh) 一种点云分类方法、智能终端及存储介质
CN106157283A (zh) 道路分割物的检测方法和装置
Sandhawalia et al. Vehicle type classification from laser scanner profiles: A benchmark of feature descriptors
JP3078166B2 (ja) 物体認識方法
Haselhoff et al. On visual crosswalk detection for driver assistance systems
Habib et al. Multi-class simultaneous adaptive segmentation and quality control of point cloud data
US9519060B2 (en) Methods and systems for vehicle classification from laser scans using global alignment
EP3825904A1 (en) Method and apparatus with three-dimensional object display
US9064156B2 (en) Pattern discriminating apparatus
Liu et al. Visual object tracking with partition loss schemes
CN110235177B (zh) 图像处理装置、图像识别装置、以及存储介质
JP2023152480A (ja) 地図データ生成方法、地図データ生成装置及び地図データ生成プログラム
Tiwari et al. Use of laser range and height texture cues for building identification

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20140731

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141024

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190514