JP2015079497A - プライバシー保護のための延滞車両特定 - Google Patents

プライバシー保護のための延滞車両特定 Download PDF

Info

Publication number
JP2015079497A
JP2015079497A JP2014199498A JP2014199498A JP2015079497A JP 2015079497 A JP2015079497 A JP 2015079497A JP 2014199498 A JP2014199498 A JP 2014199498A JP 2014199498 A JP2014199498 A JP 2014199498A JP 2015079497 A JP2015079497 A JP 2015079497A
Authority
JP
Japan
Prior art keywords
image
visual
signature
identifier
visual signature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014199498A
Other languages
English (en)
Other versions
JP6527678B2 (ja
Inventor
ホセ・アントニオ・ロドリゲス−セラーノ
Antonio Rodriguez-Serrano Jose
フロラン・シー・ペロナン
C Perronnin Florent
エルヴェ・ポワリエ
Poirier Herve
フレデリック・ローランド
Roulland Frederic
ヴィクター・シリザ
Ciriza Lope Victor
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of JP2015079497A publication Critical patent/JP2015079497A/ja
Application granted granted Critical
Publication of JP6527678B2 publication Critical patent/JP6527678B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ナンバープレートなどの識別子を特定する方法を提供する。【解決手段】複数の対象ごとに、第1の位置で取り込まれた、車両などの各対象の第1の画像から抽出された第1の視覚シグニチャー、およびタイムスタンプなどの第1の取り込まれた画像に関連する第1の情報を格納するステップを含む。第2の位置で取り込まれた第2の対象の第2の画像から抽出された第2の視覚シグニチャー、および第2の取り込まれた画像に関連する第2の情報を取得する。第2の視覚シグニチャーと、第1の視覚シグニチャーのうちの少なくともいくつかのとの間の類似点の測定値を計算して、一致したものを特定する。一致したシグニチャーに関連する第1の情報と第2の情報との関数であるテストが行われる。テストが満たされたことが確認されたときにだけ、識別子の認識が行われて、第2の対象の識別子を特定する。【選択図】図1

Description

例示的な実施形態は対象の認識に関し、条件が満たされるまで車両に関する識別子の特定を遅らせるシステムおよび方法と連動させる特定の目的を見つけ出す。
車両の特定とは、1つまたは複数のセンサを用いて、一連の車両の特性を測定し、一意の識別子にマッピングする処理として定義することができる。大抵の場合、視覚センサ(例えば、カメラ)を用いて、ナンバープレートが写った画像を取り込み、そして自動ナンバープレート認識(ALPR)処理を適用する。車両のナンバープレートが写った画像を受信すると、ALPRシステムは、通常、一意の識別子をなす車両のナンバープレートの数字を出力する。認識された識別子は、通行料金の自動徴収、スピード違反の検知などの取り締まり、駐車場の管理、交通パターンの分析のためのデータマイニングなど、様々な目的で使用可能である。
しかし、駐車場のオーナーなどの車両の識別子を取得することは、大抵の場合、車両のオーナーを追跡可能なデータを処理することであるため、この自動車両特定により、プライバシーの権利に関する、いくつかの懸念すべき問題が引き起こされている。データが関係者以外の人間よりアクセスされ、本来その情報が集められる合法的な目的以外の目的で使用可能となってしまう恐れもある。
したがって、いくつかの国では、そのようなデータが集められることに対して、政府や国民がよりいっそう懸念を抱くようになり、そのようなデータの収集に対して制限が設けられている。ヨーロッパの国の中には、車両識別子を永続メモリ内に格納することが、プライバシーの権利の侵害とみなされる国もある。こういった問題に対処するため、通過する車両の識別子をそれぞれ一時的な記憶装置内に記憶させ、その車両識別子に直接リアルタイムにアクセスして、異常な状況(制限速度を超過している車両など)に対する確認を行う、ナンバープレート認識システムが開発されてきた。異常な状況と確認できない場合は、そのデータは恒久的に格納されない。
たとえ政府が規制しなかったとしても、駐車場のユーザのプライバシーを保護するために、身元情報の処理および格納を含む、駐車場およびその他の場所での自動の車両特定処理を修正すべきという圧力がかかっている。
識別子を処理することが特に必要ない場合には、識別子に関する人間のプライバシーを保護しながら、車両などの対象の一意の識別子を認識するシステムおよび方法が依然として必要である。
例示的な実施形態の一様態に従って、識別子を特定する方法が提供される。この方法には、複数の対象ごとに、第1の位置で取り込まれた対象の第1の画像の少なくとも一部から抽出された第1の視覚シグニチャー、および第1の取り込み画像に関連する第1の情報を格納するステップが含まれる。第2の視覚シグニチャーと、第1の視覚シグニチャーの少なくともいくつかとの間の類似点の測定値を計算して、この計算された類似点の測定値に基づいて、第1の視覚シグニチャーのうちの一致したものを特定する。第2の視覚シグニチャーが、第2の画像の少なくとも一部に基づいて、第2の位置で取り込まれた第2の対象の第2の画像の少なくとも一部から抽出されている。第1の視覚シグニチャーのうちの一致したものに関連する第1の格納情報、および第2の取り込まれた画像に関連する第2の格納情報の両方を検索する。検索された第1の格納情報と第2の格納情報との関数であるテストを行う。この方法には、テストが満たされたことが確認されると、取り込まれた第2の対象の画像に基づいて、第2の対象の識別子の認識を供給するステップがさらに含まれる。この方法のステップのうちの1つ以上は、コンピュータのプロセッサを用いて行われる。
別の様態では、識別子を特定するシステムが提供される。このシステムは、複数の対象ごとに、第1の視覚シグニチャー、および第2の視覚シグニチャーを格納するメモリを含む。第1の視覚シグニチャーは、第1の位置で取り込まれた対象の第1の画像の少なくとも一部から抽出されたものである。第2の視覚シグニチャーは、第2の位置で取り込まれた対象の第2の画像の少なくとも一部から抽出されたものである。メモリには、第1の視覚シグニチャーに関する第1の情報、および第2の視覚シグニチャーに関する第2の情報が格納されている。シグニチャー照合コンポーネントが、第2の視覚シグニチャーのうちの1つと、第1の視覚シグニチャーのうちの少なくともいくつかのそれぞれとの間の類似点の測定値を計算して、この計算された類似点の測定値に基づいて、第1の視覚シグニチャーのうちの一致したものを特定する。情報処理コンポーネントが、第1の視覚シグニチャーのうちの一致したものに関する検索された第1の格納情報と、第2の視覚シグニチャーのうちの一致したものに関する第2の格納情報との関数であるテストを行う。テストが満たされたことが確認されると、取り込まれた第2の対象の画像に基づいて、識別子認識コンポーネントがその対象のうちの1つの識別子を認識する。プロセッサは、シグニチャー照合コンポーネント、情報処理コンポーネント、および識別子認識コンポーネントを実装する。
例示的な実施形態の別の様態に従って、車両識別子を認識する方法が提供される。この方法には、複数の車両ごとに、第1の時間に第1の位置で車両の第1の画像を取り込むステップと、第1の時間より後の第2の時間に第2の位置でその車両の第2の画像を取り込むステップと、第1の画像の取り込みに関する第1の情報、および第2の画像の取り込みに関する第2の情報を取得するステップであって、第1の情報および第2の情報のそれぞれが、それぞれのタイムスタンプを含む、ステップと、が含まれる。第1の視覚シグニチャーは、車両の第1の画像の少なくとも一部に基づいて計算される。第2の視覚シグニチャーは、車両の第2の画像の少なくとも一部に基づいて計算される。第1の視覚シグニチャーはそれぞれ格納され、それぞれの第1の情報にリンクされる。第2の視覚シグニチャーはそれぞれ格納され、それぞれの第2の情報にリンクされる。第2の視覚シグニチャーのうちの1つと、第1の視覚シグニチャーのうちの少なくともいくつかとの間の類似点の測定値を計算して、この計算された類似点の測定値に基づいて、第1の視覚シグニチャーのうちの一致したものを特定する。第1の視覚シグニチャーのうちの一致したものに関する第1の格納情報、および第2の視覚シグニチャーのうちの1つに関連する第2の格納情報の両方を検索する。検索された第1の格納情報と検索された第2の格納情報のタイムスタンプの関数であるテストを実行する。テストが満たされたことが確認されると、車両の撮影された第2の画像に基づいて、車両のうちの1つの識別子の認識が提供される。この方法のステップのうちの1つ以上は、コンピュータのプロセッサを用いて行うことができる。
図1は、例示的なシステムおよび方法の概略図である。 図2は、例示的な一実施形態に従った、対象の識別子の遅延認識を行うシステムが動作する環境の機能ブロック図である。 図3は、別の例示的な実施形態に従った、対象の識別子の遅延認識を行う方法における視覚シグニチャーの計算を図で示した図である。 図4は、別の例示的な実施形態に従った、対象の識別子の遅延認識の方法を示すフローチャートである。 図5は、ある例における、異なる車両特定の方法の精度を示すグラフである。 図6は、この例における、2つの異なる車両特定の方法でのエラーを示すスクリーンショットである。
図1を参照すると、プライバシーを保護する対象の識別子の遅延認識を行うための例示的なシステムおよび方法の概略図が示されている。例示的な実施形態では、この対象は原動機付き車両などの車両であり、その識別子は車両のナンバープレートの数字である、あるいは車両のナンバープレートの数字を含む。しかし、人間と、各個人の指紋、および/または、アイスキャン、船積み小包とそれらの追跡情報またはアドレス情報などの、その他の移動する対象、およびそれらの識別子も考慮可能であることは理解されよう。図1には、1から8までの数字が示され、これらの数字により、例示的な方法のステップが実行され得る順番が示されているが、これらの順番は制限を意図したものではない。
車両の特定は、例えば、駐車場の出入り口、あるいは道路上の異なるポイントといった複数の位置、および/または、異なる時間で所望され得る。XおよびYは同じ位置でも、あるいは同じ位置に近くてもよいが、簡略化する目的で、距離Zだけ互いに間隔を開けた2つの位置XおよびYを考察する。
ある実施形態では、XとYとの車両の身元情報の間の対応関係を見つけ出し、2つの身元情報の間の対応関係が確立されたとき、XとYで取り込まれた情報に依存する特定の条件が満たされているかどうかを判定することが目的である。この条件が満たされている場合にのみ、ナンバープレート認識などの特定な動作が起動される。
例えば、スピードの取り締まりの用途では、XとYで取り込まれた画像から、XとYにおける車両の身元情報の間の対応関係が確立された場合、取り込まれた画像に関する情報には、車両がXとYに存在したタイムスタンプ(T,T)、および、例えば、XとYの地理上の座標である、それぞれの地理上の位置(L,L)が含まれ得る。確認される条件は、特定された車両の速度が閾値を超えているかどうかでよい。この速度は、LとLの間の距離ZをT−Tの時間差で除算して計算された平均速度でよい。この条件が満たされていれば、例えば、この速度は前もって規定された閾値を超えており、例えば、ポイントYで取り込まれた車両の画像からの識別子が認識される。さらに起動され得る動作は、スピード違反を犯した特定された車両に警告を発し、スピード違反チケットを発行することなどの好適な対応処理を開始することなどの処理を実施することである。
自動ナンバープレート認識(ALPR)に基づく標準的なアプローチでは、画像が取り込まれた全ての車両の身元情報が認識されている。これとは対照的に、このシステムおよび方法では、例えば、請求目的のために違反車両の身元情報のみ認識する。非違反車両の身元を認識する必要がないため、このシステムおよび方法では、膨大な数の車両(非違反車両)の匿名性を尊重し、必要なときだけ車両を特定している。
例示的な実施形態では、車両など移動していている対象を認識する処理は、2つの別の動作に分けられている。
1.ポイントXとポイントYの間の車両照合(識別子の認識(例えば、ALPRによる)に依存しない)。
2.ポイントXでの車両身元の認識、ポイントYでの車両身元の認識、または両方の位置での車両身元の認識(例えば、ALPRに依存する)。
1)ナンバープレートを認識しないで行う動作は車両照合に関して非常に満足いくものであり得るということが分かってきた。例えば、下記の例で実証される通り、この動作は、ALPRを用いて2つのポイントで車両を特定し、その後、ナンバープレートの数字がきっちりと一致したことを確認することよりも精度がある。
例示的な実施形態では、車両の照合は、シグニチャーを照合することにより行われる。シグニチャーとは、車両、またはその一部を表す一連の値である。同じ車両で2回発生するシグニチャーは、2つの異なる車両のシグニチャーよりも類似している。シグニチャー間の類似点が、事前に規定された閾値を超えた場合、2台の車両は、同じ身元を有すると考えられる。
この例示的なシグニチャーは、ナンバープレートの画像領域から計算された一連の視覚の特徴、例えば、フィッシャーベクトル(Fisher Vector)から派生し得る。この場合、シグニチャー間の類似点は、ベクトルからベクトルへの類似点により計算可能である。その他の視覚のキューを用いて、車両製造および/または車両のモデルあるいはキズ(キズの形状、位置など)の存在などの車両の示差的な特徴などの視覚的な特徴を補完することができる。これらのキューの有効性は、取り込まれた画像内でその車をどの程度見ることができるかに部分的に依存する。
視覚シグニチャーを用いる1つの利点として、車両を特定しようと明示的に試みることなしに、2つのシグニチャーが同じ車両に対応しているか(していないか)に関して判定を行うことができることが挙げられる。例として、ポイントYを通過して移動する車両ごとに、ポイントYで計算されたシグニチャーとポイントXでのシグニチャーとの間の一致部分を見つけようと試みることができる。一致部分が見つかると、それに関連するデータ(タイムスタンプなどの)を抽出し、使用して好適な条件を確認する。この処理全体を通して、この車両はシステムから見て匿名のままである。条件が満たされた場合にのみ、車両のALPRによる特定が要求され対応する動作が起動する。
プライバシーを保護する局面に加えて、精度に関して、シグニチャーを直接照合する方式の方が、2つのALPRの出力の照合する方式よりも堅牢である傾向があることが判明してきた。
図2には、実質的に図1に示した通り、動作可能な動作環境における、対象の識別子の遅延認識を行うための例示的なシステム10が示されている。この説明では、車両の識別子は匿名となっている。
位置XおよびYで、これらの位置に配置されたカメラなどの画像取り込み装置16および18により画像IおよびIが取り込まれ、これらの画像IおよびIの集合12および14をシステム10が、例えば、ネットワークインターフェース19を介して、入力として受け取る。これらの画像取り込み装置16および18を、それぞれの位置を通過する各車両の画像を自動的に取り込むよう設定することができる、あるいは、用途により車両のうちの何台かのみの画像を取り込むよう設定することができる。取り込まれた各画像IおよびIには、例えば、2か所の位置の間の道路、バスルート、駐車のレーンなどの、予め規定された経路24に沿って、2か所の位置XとYの間を移動可能な車両20および22の少なくとも一部が含まれる。各画像取り込み装置16および18、または分離した情報取り込みコンポーネント26および28は、例えば、各タイムスタンプ、および/または、その他の種類の有効な情報などの画像のメタデータMおよびMの形態で、各画像の取り込みに関連する情報30および32を取り込む。例示的な実施形態では、所与の車両に関して、画像I、およびそれに関連するメタデータMが、画像I、およびそれに関連するメタデータMよりも早い時間に取り込まれるように位置Xは位置Yから上流の経路上の位置に配置される。
このシステムはメモリ40を含み、このメモリ40には、画像12と14、およびそれらに関連するメタデータ30と32を処理するための命令42が格納されている。プロセッサ44は、メモリ40と通信し命令42を実行する。図示された命令40には、シグニチャー計算コンポーネント44、シグニチャー照合コンポーネント46、情報処理コンポーネント48、識別子認識コンポーネント50、および、処理実施コンポーネント52が含まれている。
簡単に説明すると、シグニチャー計算コンポーネント44は、位置Xで取り込まれた各車両20および22の画像Iを入力として受信し、各画像Iから視覚シグニチャーV62を抽出する。受信した画像12が車両の大部分の場合、例えば、図3に示される通り、シグニチャー計算コンポーネント44は、切り取りコンポーネントを含むことができ、この切り取りコンポーネントが受信画像12から切り取られた画像60を自動的に抽出する。この切り取られた画像60には、関心の対象(例えば、ナンバープレートのナンバーを含む領域)が含まれると予測される。次いで、このシグニチャー計算コンポーネント44は、例えば、切り取り領域の画素にのみ基づいて、視覚シグニチャーを計算し、計算された視覚シグニチャーVをデータベース64内に格納する。シグニチャーVを計算した後、オリジナルの画像12、および切り取られた画像60は保持されることなく、メモリから削除される、あるいは暗号化された形態で暗号化画像66として格納され得る。
視覚シグニチャーの計算の前、および/または、その最中ならいつでも、取り込まれた画像12および60に、縮小・拡大、傾き除去、画素解像度の削減、画像向上技術、カラーから白黒への変換などのいくつかの前処理を施すことができることは理解されよう。
例えば、切り取られた画像70を生成し、そこから視覚シグニチャー72を抽出することにより、シグニチャー計算コンポーネント44、または分離シグニチャー計算コンポーネントは、同様に画像Iから視覚シグニチャーVを抽出する。これらの視覚シグニチャーは、データベース64、分離データベース、またはこのシステムの一時的なメモリ内に格納可能である。
シグニチャー照合コンポーネント46が、それぞれの新しい視覚シグニチャーVを伴ってデータベース64にアクセスして、位置Xで以前に取り込まれた画像の車両に関して計算された視覚シグニチャーVから1つ以上の一致したシグニチャーを特定する。シグニチャー照合コンポーネントは、最も一致している視覚シグニチャーV(Vと呼ぶ)をそれに関連するメタデータM(Mと呼ぶ)と一緒に検索する。
情報処理コンポーネント48はテストを行って、MとMとの関数である条件が満たされているかどうかを判定する。例えば、コンポーネント48は、MとMとの間の時間差に基づいて平均速度を計算する。テストが満たされている場合(例えば、テストの結果が陽性の場合)にのみ、情報処理コンポーネント48は、識別子認識コンポーネント52を呼び出し、テストが満たされたことを確認する情報74を出力する。テストが満たされていない場合、識別子認識コンポーネント50は、識別子の認識を行うための呼び出しを受け取らない。
識別子認識コンポーネント50は、(テストが満たされたことを確認すると)画像I70上で文字認識(ALPR)を行って、ナンバープレートの数字などの認識された車両の識別子に対応する文字シーケンス76を生成する。その後、処理実施コンポーネント52が、例えば、下記の出力のうちの1つ以上を含むことができる証拠パッケージ78の出力など好適な動作を行うことができる。:シグニチャー照合コンポーネント(例えば、必要な場合、オリジナル画像Iを検索させることが可能な識別子)の出力、情報処理コンポーネントの出力74、および識別子認識コンポーネントの出力76。このパッケージ78を、システム10からネットワークインターフェース79を介して出力することができ、かつ/または、さらなる処理のためにメモリ40内に格納することもできる。この動作には、例えば、用途によりスピード違反チケット、車両通行料金の未払い、駐車券などの違反が発生したことの通知の自動生成も含まれ得る。
このシステム10は、画像取り込み装置16および18などの外部装置と、電話線、ローカルエリアネットワーク、またはインターネットなどのワイドエリアネットワークなどの有線接続または無線接続80を介して通信することができる。いくつかの実施形態では、画像取り込み装置からのデータ12、30、14、32が、中間サーバを介して、システム10に転送される。システムのハードウェアの構成要素19、40、44、79は、データ/制御バス82を介して通信可能である。
システム10は、デスクトップコンピュータ、ラップトップコンピュータなどのPC、パームトップコンピュータ、携帯デジタル端末(PDA)、サーバコンピュータ、携帯電話、タブレットコンピュータ、ポケットベル、およびそれらの組み合わせ、または例示的な方法を行うための命令を実行可能なその他のコンピュータ装置などの1つ以上のコンピュータ装置84上に常駐可能である。システム10の一部が、2つ以上のコンピュータ装置に分配されてもよいことは理解されよう。例えば、画像12に関する画像シグニチャーを装置84から分割したコンピュータ装置で計算し、コンピュータ装置84からアクセス可能なデータベース64内に格納することが可能である。
ユーザに情報を表示するためのLCDスクリーンまたはコンピュータモニタなどの1つ以上のディスプレイ装置86と、テキストを入力するため、かつユーザの入力情報および命令の選択をプロセッサ44に通信するためなどの、キーボード、あるいはタッチスクリーンまたは書き込み可能スクリーン、および/または マウス、トラックボールなどのカーソル制御装置などのユーザ入力装置88と、入力/出力インターフェース79を介してシステム10は通信可能である。ディスプレイ装置およびユーザ入力装置は、クライアントコンピュータ装置90の一部として示されているが、他の実施形態では、これらをコンピュータ84に直接接続することもできる。
メモリ40は、ランダム・アクセス・メモリ(RAM)、リード・オンリ・メモリ(ROM)、磁気ディスクまたは磁気テープ、光ディスク、フラッシュメモリ、またはホログラフィックメモリなどのあらゆる種類の非一時的なコンピュータ可読媒体を表すことができる。ある実施形態では、メモリ40には、ランダム・アクセス・メモリとリード・オンリ・メモリの組み合わせが含まれる。いくつかの実施形態では、プロセッサ44およびメモリ40を、単一のチップに組み合わせることができる。
ネットワークインターフェース19および79により、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)、すなわちインターネットなどのコンピュータネットワークを介した、このコンピュータとその他の装置との通信が可能となり、これらのインターフェース19および79は、変調器/復調器(モデム)、ルータ、ケーブル、および/またはイーサネット(登録商標)ポートを含むことができる。
単一コアのプロセッサ、デュアルコアのプロセッサ(または、より一般的に、マルチコアのプロセッサ)、デジタルプロセッサ、および協働する数値演算コプロセッサ、デジタル制御装置などとして様々なかたちでデジタルプロセッサ44を具体化することができる。コンピュータ84の動作の制御に加えて、デジタルプロセッサ44は、図4に概説された方法を行うための、メモリ40内に格納された命令を実行する。
図4を参照すると、図2のシステムを用いて実行することができる、遅延識別子認識に関する方法が示されている。この方法はS100から始まる。
S102で、位置Xで取り込まれた各車両の第1の画像Iを受信する。
S104で、シグニチャー計算コンポーネント44により、第1の画像Iから視覚シグニチャーVが抽出される。
S106で、例えば、第1の画像取り込み装置16内のメタデータ抽出コンポーネント26、および/または情報処理コンポーネント48により、取り込まれた第1の画像に関するメタデータMを抽出する。
S108で、各第1の画像に関する視覚シグニチャーV、およびそれに関連するメタデータMをデータベース64に格納する。このデータベース64は、位置Xを通過する多くの車両に関する、このようなデータを集めるために用いられる。後程、視覚シグニチャーVに基づいて、情報Mを、例えば、この2つにリンクする索引を通して、検索できるように、各視覚シグニチャーVは、それぞれの情報Mとリンクする。
そして、一連の各視覚シグニチャーVは、後で取得される画像Iに関する一致候補とみなすことができる。いくつかの実施形態では、データベース64を定期的に切り詰めて、例えば、所定の期間より長い間格納された、すなわち関連している可能性が少なくなった視覚シグニチャーV、およびそれに関連する情報Mを取り除くことができる。例えば、速度を確認するよう設計されたアプリケーションのケースでは、その後に車両画像が一致した場合でも、時間延滞の閾値が速度条件に対して長くなりすぎて一致しなくなる可能性があるため、データベースを1時間に1度あるいは1日に1度、切り詰めることができる。
S110で、例えば、画像Iを削除、あるいは暗号化することにより、オリジナルの(および、切り取られた)画像Iへのアクセスを制限、あるいは拒否することができる。
S112で、位置Yで取り込まれた各車両の第2の画像Iを受信する。
S114で、第2の画像Iから視覚シグニチャーVを抽出する。
S116で、取り込まれた画像に関連するメタデータMを抽出する。
S118で、視覚シグニチャーV、およびそれに関連するメタデータMを、例えば、データベース64、および/または、システム10の一時的なメモリに格納する。各視覚シグニチャーVは、それぞれの情報Mにリンクされる。
S120で、視覚シグニチャーVごとに、同様の視覚シグニチャーVに対するデータベース64内の検索を行い、最も近い一致Vを特定する。いくつかのケースでは、類似点の閾値を確立することができ、この閾値に少なくとも一致していない画像シグニチャーを一致とはみなさない。
S122で、一致したシグニチャー(複数可)Vに関するメタデータMを検索する。S124で、MおよびMに基づく条件を含むテストを行って、テストが満たされるかどうかを判定する。
S126で、テストが満たされたことが確認された場合(テストが満たされた場合、およびその場合に限って)、次いで、この方法はS128に続き、例えば、I(および/またはI)に対して、ALPRを実行することにより、この車両に関する識別子を認識する。そうでない場合には、この方法はS130に進み、テストされる画像シグニチャーVがまだ存在すれば、この方法はS120に戻り、そうでない場合には、この方法はS132で終了する。
認識された識別子に基づいた情報78が出力され、かつ/または、コンピュータで実施する処理でさらに用いられる場合、この方法はS128からS134に進むことができる。次いで、この方法はS130またはS132に進むことができる。
図4に示されている方法は、コンピュータ上で実行されるコンピュータプログラム製品内で実施可能である。このコンピュータプログラム製品には、制御プログラムが記録された(格納された)、ディスク、ハードドライブ、CD−ROM、DVD、またはその他の全ての光媒体、RAM、PROM、EPROM、FLASH−EPROM、あるいは、その他のメモリチップまたはカートリッジ、あるいは、コンピュータが読み出し使用可能な、その他の全ての非一時的な媒体などの非一時的なコンピュータ可読記録媒体が含まれ得る。
この例示的な方法は、1つ以上の汎用コンピュータ、専用コンピュータ(複数可)、プログラム済マイクロプロセッサ、またはマイクロ制御装置、および周辺集積回路の要素、あるいは図4に示されるフローチャートを実施可能な有限状態機械を実施可能な全ての装置上で実施可能である。
次に、このシステムおよび方法をさらに詳細に説明する。
画像およびメタデータの取り込み(S102、S112、S106、S116)
取り込まれた画像12および14(IおよびI)は、JPEG、GIF、JBIG、BMP、TIFFなどの、あらゆる便利なファイル形式、または画像に対して用いられる、その他の普通のファイル形式でシステム10により受信され得、かつ処理する前に、随意的に別の好適な形式に変換可能である。処理中、データメモリに入力画像を格納可能である。画像は、ビデオ画像などの画像のシーケンスから抽出された、写真または画像などの個々の画像でよい。一般に、入力された各デジタル画像には、画像を形成する画素のアレイに関する画像データが含まれている。画像データは、L、またはRGBなどの一連の色分解ごとに、グレースケール値などの着色剤値を含むことができる、あるいは、異なる色を表すことができる別々の色空間で表すことができる。一般に、「グレースケール」とは、全ての単一のカラーチャネルの光学密度値のことを指し、(L、RGB、YCbCrなど)で表される。この方法は、白黒(モノクロ)の画像に関しても適している。「色」という用語を用いて、色相、彩度、明度などの絶対色値、および色相、彩度、明度の差などの相対色値を含む、規定可能な全ての色の様態を指すことができるが、これらには限定されない。実施形態によっては、色とは、約800nmから2500nmの近赤外線(NIR)領域などの電磁スペクトルの非視覚領域を指すこともできる。
所与の位置XおよびYでの画像の取り込みは、全ての好適な方式で開始させることができる。ある実施形態では、ループセンサを局所的、例えば、地中に配置することができ、このループセンサが車両の存在を検知し、撮影(もしかすると、フラッシュ)を開始する。ある実施形態では、カメラ16および18が、画像のシーケンスを含むビデオを撮影し、動作検出アルゴリズムまたは対象検出アルゴリズム(または両方の組み合わせ)が用いられ、これらのアルゴリズムにより、画像シーケンス内の車両が検知され、それに応じて、このシーケンスから1枚の画像が選択される。車両検知技術は周知であり、例えば、米国特許第4,433,325号明細書、同第5,083,200号明細書、同第5,592,567号明細書、同第5,809,161号明細書、同第5,995,900号明細書、同第6,996,255号明細書、および米国特許公開番号第20140063263号明細書で開示されている。画像は、フルカラー、モノクロ、NIR(近赤外線)、またはそれらの組み合わせの状態で取り込むことができる。
いくつかの実施形態では、駐車場などで、同じ画像取り込み装置を用いて、画像IおよびIの両方を取り込むことができる。
関連するメタデータ30および32にはそれぞれ、所定の条件が満たされているかどうかの判定を下すことができるよう十分な情報が含まれ得る。1種類以上の異なる種類の情報を取得することができる。例として、タイムスタンプ、車両の現在速度、GPSの位置、支払状況、気象情報などの1種類以上の情報が挙げられる。
視覚シグニチャーの計算(S104、S114)
例示的な実施形態では、視覚シグニチャー62および72には、車両(または、車両の一部)を一意に特定するための十分な情報を含まれるが、これらの視覚シグニチャー62および72は、視点または照明条件のばらつきに対応するために十分に堅牢なものでなければならない。視覚シグニチャーを考慮するとき、オリジナル画像および識別子のどちらもその視覚シグニチャーから再構築できないよう、この視覚シグニチャーは構築される。
例示的な実施形態では、視覚シグニチャー62および72は、ナンバープレート、または少なくともナンバープレートの数字を含むその一部を包含する領域などの、識別子が含まれると予想される画像領域から抽出される。この領域を特定するために、画像の対応する部分を抽出する検知アルゴリズムを稼働させることができる。より大きな画像において、関心の領域を特定する方法は、例えば、米国特許公開番号第20130182909号明細書、および米国特許出願第13/592,961号明細書に記載されている。
関心の領域が特定されこの領域を含む切り取られた画像60および70が生成されると、切り取り領域上で視覚シグニチャー62および72を計算することができる。一般に、視覚シグニチャーとは、切り取られた画像の画素の統計的な表現形式のことである。例えば、グリッド上の1つのまたは複数のスケールに密集した、切り取られた画像の一連のパッチが抽出される。画像を区分すること、特定関心位置検知子を適用すること、規則的なグリッドとみなすこと、あるいは、簡単に画像のパッチをランダムにサンプリングすることなどにより、パッチを取得することができる。例示的な実施形態では、切り取られた画像全体、または少なくとも画像の一部、あるいは画像の大部分を覆った、随意的な複数のスケールの規則的なグリッド上でパッチを抽出する。例えば、少なくとも10個のパッチ、または少なくとも20個のパッチ、または少なくとも50個のパッチが、それぞれの切り取られた画像から抽出される。各パッチには、少なくとも40画素、または少なくとも100画素、および1,000,000画素以上までの画素が含まれ得る。
パッチごとに、形状、色、および/または、階調(SIFT)の特徴などの低レベルの特徴が抽出される(D.Loweによる「Distinctive image features from scale−invariant keypoints」(2004年IJCV)参照)。パッチに関して、抽出された低レベルの特徴の表現形式である、ベクトルまたはヒストグラムなどのパッチの記述子を生成する。全てのパッチの記述子に基づいて、その画像全体の視覚シグニチャーを生成する。具体的には、これらのパッチの記述子に対する数値が計算され、次いで、それらの数値が合計される。
各視覚シグニチャーは、D次元空間内の(切り取られた)画像の固定長のベクトル表現形式である。ある実施形態では、この視覚シグニチャーはフィッシャーベクトル(FV)に基づく。例えば、PerronninおよびDanceによる、「Improving the Fisher kernel for large−scale image classification」(2007年CVPR)、Perronnin、SanchezおよびMensinkによる、「Improving the Fisher kernel for large−scale image classification」の143〜156ページ(2010年ECCV)、SanchezおよびPerronninによる、「High−dimensional signature compression for large−scale image classification」(2011年CVPR)、ならびに米国特許公開番号第20120076401号明細書、および同第20120045134号明細書を参照。訓練されたGMMは、関心の範囲の中の全ての画像のコンテンツ(例えば、関心の範囲がナンバープレートの場合、全てのナンバープレートの画像)を記述することを目的とする。フィッシャーベクトルを合計することにより、フィッシャーカーネルの表現形式を生成することができる。Csurkaらの「bag−of−visual−words」表現、「Visual Categorization with Bags of Keypoints」(2004年ECCV Workshop)などの、その他の画像表現形式を用いることも可能である。
フィッシャーベクトルは、ナンバープレートの処理で見られる、光測定および幾何学のばらつきの範囲に対して堅牢さを示す。簡単に説明すると、フィッシャーベクトルは、局所的なパッチの記述子を集めて固定長の表現形式にすることで機能する。最初に、規則的なグリッド上の複数のスケールから抽出されたパッチからSIFT記述子が抽出され、それらの次元数は主成分分析(PCA)を用いて随意的に減らされる。提供された画像の集合から抽出されたパッチ記述子を用いて、ガウス混合モデル(GMM)を推定することにより、視覚ボキャブラリー(visual vocabulary)を増やす。その他のアプローチでは、画像のパッチの局所的な記述子がクラスタに割り当てられる。例えば、視覚ボキャブラリーは、K平均クラスタリング分析を用いて、画像を訓練することにより抽出される局所的な記述子をクラスタリングすることで、前もって取得することができる。次いで、各パッチベクトルは、最も近いクラスタに割り当てられ、割り当てられたパッチベクトルのヒストグラムを生成することができる。その他のアプローチでは、上記のフィッシャーベクトルのケースで確率論的フレームワークが用いられる。例えば、ガウス混合モデル(GMM)などの下部の生成モデルが存在し、そこから全ての局所的な記述子が放出されていると仮定すると、ベクトルの重み、すなわち、一連の(例えば、少なくとも5個または10個の)混合モデルを形成するガウス関数の1つの重みにより、各パッチを特徴付けることができる。この場合、期待値最大化(EM)アルゴリズム用いて、視覚ボキャブラリーを推定することができる。いずれの場合でも、ボキャブラリー内の各視覚ワードは、一般的な低レベルの特徴のグループに対応する。これらの視覚ワードは、例えば、(デジタルよりもむしろ)視覚の対象(例えば、直線、曲線などの文字の特徴)、固有の背景(例えば、明るい面または暗い面など)などの種類などの中レベルの画像の特徴にそれぞれ(おおよそに)対応することができる。視覚シグニチャーに割り当てられる画像を考慮すると、それぞれに抽出された局所的な記述子が、前もって訓練されたボキャブラリーの中のその最も近い視覚ワードに割り当てられる、あるいは、確率的モデルの場合、全ての視覚ワードに確率的に割り当てられる。各視覚ワードの出現を合計することにより、ヒストグラムが計算される。このヒストグラムは、視覚シグニチャーとして機能することができる、あるいは、それに基づいて視覚シグニチャーを出力する生成モデルに入力される。
切り取られた画像に関する特別な情報を含めるため、この画像を、例えば、少なくとも3つの領域に分けることができ、パッチごとの数値を領域レベルで合計し、次いで、領域レベルの表現形式を鎖状につないで画像の表現形式を形成する。
例示的な視覚シグニチャーは、固定された次元Dを有する、すなわち、各画像の表現形式が同じ数の要素を有する。一般に、各画像の表現形式は、少なくとも30個、または少なくとも60個、または少なくとも100個、または少なくとも500個の次元、および1000個以上の次元を有し、各次元がそれぞれの特徴値を有するが、これらをより少ない次元に減らすことができる。
一例として、低レベルの特徴には、パッチごとに1つのSIFT記述子などの勾配特徴が含まれる。例えば、Loweによる、「Distinctive image features from scale−invariant keypoints」(2004年、IJCV、vol.60)を参照。SIFT特徴を用いるある説明例では、これらの特徴が、5つのスケールでの規則的なグリッド(16画素ごとに)上の32×32画素のパッチから抽出される。これらの記述子の次元数を、128次元から32次元に減らすことができる。その他の抽出可能な好適な局所的な記述子には、単純な96次元の色の特徴が含まれ、この色の特徴では、パッチは4×4のサブ領域にさらに分割され、各サブ領域では、3つのチャネル(R、G、およびB)に関する平均と標準偏差が計算される。これらは単なる説明例であり、付加的な、および/または、その他の特徴を使用することもできる。下記の例では、GMMにおいて64ガウシアン(Gaussians)の視覚ボキャブラリーが用いられ、平均パラメータに対する勾配だけを考慮する。切り取られた画像は4つの領域に分けられる(4本の垂直なストライプ)。その結果、32×64×4=8,192次元のFV表現形式となる。この表現形式には、従来の技術(局所性鋭敏型ハッシュ(LSH)、直積量子化、主成分分析(PCA)など)を用いて、索引をつけ圧縮して処理の速度を速くすることができる。
この視覚シグニチャーは、その視覚シグニチャーからの識別子の認識を認めないシグニチャーである。FVなどの視覚シグニチャーは、それに対するオリジナル画像の再構築ができないという所望の特性を満たしており、したがって、その視覚シグニチャーからオリジナル画像(すなわち、ナンバープレートの数字)を回復させるための実行可能な方法がないため、オリジナル画像のハッシュ鍵として見ることができる。これは、集計処理の際に個々のパッチの身元が失われるためである。したがって、サービスオペレータが全ての車両の身元情報にアクセスしないで、開始する動作を引き起こす車両(例えば、制限速度を超えて走行する車両)の非常に小さい部分だけにアクセスするため、これによりプライバシーに対する懸念が小さくなる。パスワードを格納するために用いられるハッシュ関数と同様に、オリジナル画像を回復させるための唯一の方法は、全ての可能性のある画像と総当たりの照合を行うことである。
その他の例示的な画像の表現形式を計算する方法は、例えば、米国特許公開番号第20030021481号明細書、同第2007005356号明細書、同第20070258648号明細書、同第20080069456号明細書、同第20080240572号明細書、同第20080317358号明細書、同第20090144033号明細書、同第20090208118号明細書、同第20100040285号明細書、同第20100082615号明細書、同第20100092084号明細書、同第20100098343号明細書、同第20100189354号明細書、同第20100191743号明細書、同第20100226564号明細書、同第20100318477号明細書、同第20110026831号明細書、同第20110040711号明細書、同第20110052063号明細書、同第20110072012号明細書、同第20110091105号明細書、同第20110137898号明細書、同第20110184950号明細書、同第20120045134号明細書、同第20120076401号明細書、同第20120143853号明細書、および同第20120158739号明細書に開示されている。
格納(S108)
シグニチャー照合コンポーネント46が、新しい画像IのシグニチャーVと視覚シグニチャーVとの間の一致が見つかったときにいつでも、関連するメタデータを戻すことができるように、このシグニチャー/メタデータの組(V,M)は、互いにリンクして、データベース64に格納される。
アクセスの制限(S110)
オリジナルの画像Iおよび/またはIへのアクセスの制御は、用途および/または、個人情報の使用を制限する現地のプライバシーに関する法律に依存し得る。いくつかのアプリケーションでは、シグニチャーの照合が正確であるという視覚の証拠が必要な場合のために、オリジナル画像を保持することが可能である。しかし、オリジナル画像は、許可された場合、例えば、車両のオーナー、または法執行機関、あるいは裁判所により承認を受けた場合に、承認されたユーザだけが、暗号化された画像を復号することができる暗号方式、例えば、公開鍵/非公開鍵方式、を用いて暗号化することができる。その他の実施形態では、画像シグニチャーが計算された後すぐに、オリジナル画像I、およびその全てのコピー/切り取られたバージョンをコンピュータのメモリから削除することができる。画像を取り込む間、およびシグニチャーを計算する間の時間に、人による取り込まれた画像へのアクセスを防ぐための予防策を講じることができる。いくつかの実施形態では、画像シグニチャーの計算を、画像取り込み装置16および18内でソフトウェアの構成要素を用いて行うことで、画像自体が傍受されてしまうことを避けることが可能である。
画像Iが削除される、または暗号化される場合、S106からS128(テストが満たされた場合)またはS130(テストが満たされなかった場合)のうちの少なくとも1つの前に、これを実行することができる。ある実施形態では、S112の前にS110を実行することができる。
視覚検索(S120)
クエリーの視覚シグニチャーVを考慮すると、その最も近い一致(複数可)を求めてデータベース64を検索する。使用する類似点の測定値は、用いられる視覚シグニチャーの種類に依存し得る。FVに関する好適な類似点の測定値としてコサイン距離が示されてきた。しかし、ユークリッド距離およびマンハッタン距離などのその他の類似点の測定値も検討することができる。例えば、「in the bag−of」視覚ワード法などの、その他の種類の視覚シグニチャーに関する類似点の計算に、ユークリッド距離、ドット積、「chi」距離、「Kullback−Leibler」(KL)発散、「Jensen−Shannon」発散などを用いることができる。
データベース64内に格納される視覚シグニチャーVの数が、十分に少ない場合(例えば、約数千の視覚シグニチャー)、最も近い一致Vを求める検索は網羅的な方法、すなわち、その視覚クエリーを全てのデータベースの入力と比較することにより行うことが可能である。データベース64により大きな画像の数が含まれる場合には、この網羅的な検索は時間の浪費となり得る。このような場合、近接検索の技術を用いることができる。高次元ベクトルの近接検索に関する技術は、例えば、Jegouらによる「Aggregating local image descriptors into compact codes」(2012年、IEEE TPAMI,34(9)1704−1716)に開示されている。
フィッシャーベクトルは、フィッシャーカーネルの明示的な埋め込みであるため、このような2つの画像記述子VとVの間の対応するコサインの類似点の測定値は、ドット積「V 」となる。ナンバープレートの候補がデータベース内の全ての画像と比べられ、類似点が十分に高い場合、最も近い一致の身元が割り当てられる。
ある実施形態では、例えば、ベクトル空間に視覚シグニチャーを埋め込むための、計量を学習することにより得ることができる投影を適用することにより、視覚シグニチャー(例えば、FV)をより特徴的にすることができ、このベクトル空間では、類似点が実際の類似点(識別子を形成する文字のシーケンスに関して)に関する好適な指標となる。一例として、低ランクのMahalanobis計量を用いることができる。例えば、Rodriguez−Serranoらによる、「Data−Driven Vehicle Identification by Image Matching」(コンピュータ視覚(ECCV)ワークショップに関する第12回ヨーロッパ会議、2012年10月7〜13日、のコンピュータサイエンスのレクチャーノートvol.7584、pp 536〜545)を参照。また、例示的な埋め込み技術の明細書である米国特許出願番号第20140056520号明細書、同第13/757,014号明細書、および同第13/903,218号明細書を参照。具体的には、特に学習した投影と組み合わせたナンバープレートの画像の照合に、FVが非常に適していることを実験的に示してきた。フィッシャーベクトルは、標準的なナンバープレートの照合のアプローチより優れたものとして下記にも示される。この標準的なアプローチでは、ALPRを行い、次いでシーケンスを比較する。
メタデータの処理(S124)
情報処理コンポーネント48は、2つの位置(2つより多い位置)で集められたメタデータに基づいて種々の計量を計算することができる。例えば、タイムスタンプとGPS座標を用いて、平均速度を推測することが可能である。この平均速度を閾値速度(例えば、最大制限速度)と比較して、制限速度を超えているかどうかを判定可能である。気象条件(例えば、検知された降雨または可視性)に関する情報の場合、これを用いて車両の平均速度が、通常掲示されている制限速度より遅い天候に関する速度制限を超えているかどうか判定可能である。
いくつかの用途では、「入口」で取り込まれた画像は「チケット」に関連する。したがって、メタデータには、チケットID、チケットステータス(支払い済、未払い)、支払金額、承認時間(例えば、支払金額に基づく)などが含まれ得る。例えば、ユーザが2時間駐車することを承認するためにチケットの支払いが行われていたが、そのユーザが4時間駐車をした場合、ペナルティと共に未払いの金額を随意的に計算することができる。この場合、S124で適用されたテスト条件で、計算された時間と承認された時間の間の関係を規定して、例えば、多少の余裕を認めることができる。例えば、5分、10分、または15分、あるいは承認時間の一定の割合などの少なくとも所定の量だけ計算された時間が承認された時間を超過した場合に、この条件によりテストが満たされたことを規定することができる。
このテストには、複数の条件が含まれ得、所与のテストが満たされるためには、そのテストは、その1つ以上の条件(または全ての条件)が満たされることが必要であり得ることは理解されよう。いくつかのケースでは、条件を選択的に評価することが可能である。例えば、ある条件では、次のように規定することができる。:条件1が満たされた場合、条件2をテストする、そうでない場合には、条件3をテストする。異なる条件が、メタデータの同じ部分、またはメタデータの異なる部分に依存し得る。例えば、ある条件は、その日の/その週の日の天候または時間に関連し得、別の条件は、計算された車両の速度、駐車場に停められた長さなどに関連する。
ALPR(S128)
S124において、メタデータ上で行われたテストが陽性の場合にのみ(例えば、掲示される制限速度より速い速度、支払金額に対応しない駐車時間、チケットの支払いを行わないで駐車場を出る場合)、識別子が認識され、例えば、ALPRが実行される。このALPRは、切り取り処理、またはその他の処理の前後に、画像I上で実行することができる。例えば、切り取られた画像70に基づいて、ナンバープレートの数字を認識するために、全ての好適なALPRシステムを用いることができる。複数の位置Yで画像Iがビデオシーケンスとして取得される場合、それらは画像Iと同じものとみなされる。
ナンバープレートの数字の認識の場合、この識別子(時として、位置合わせ識別子と呼ばれる)は、文字と数字などの予め規定されたアルファベットから書かれた文字のシーケンス(文字の有限集合)を含む。ナンバープレートの数字は、その車両を一意に特定する、発行地域のデータベース内の数字または英数字コードでよく、このナンバープレートの数字はその車両に取り付けられる。
ナンバープレート認識コンポーネント50は、光学文字認識(OCR)を単独で、あるいは、その他の技術と組み合わせて用いて、切り取られた画像70内の文字に対応すると予測される有限アルファベットで書かれた文字のシーケンスを特定することができる。有限アルファベット内の空間および文字以外のものは無視することができる。いくつかの実施形態では、認識コンポーネント50は、発行の状態などの付加的な文字情報を抽出することができる。格納されたロゴのデータベースからのロゴを認識することもできる。
ナンバープレートの数字およびナンバープレートの画像は例示のためだけのものであり、例示的な実施形態を説明するために用いられていることは言うまでもない。その他の実施形態では、ASCII、UNICODE、および/または、UTF−8の文字のより大きな集合をアルファベットとして用いることができる。
使用可能なナンバープレート認識の方法は、例えば、上記の米国特許公開番号第20130129151号明細書、同第20130129152号明細書、同第20130182909号明細書、および同第20130259314号明細書、および米国特許出願第13/592,961号明細書、同第13/757,014号明細書、同第13/836,310号明細書、および同第13/903,218号明細書、およびJ−A内の、Rodriguez−Serrano,H.Sandhawalia,R.Bala,F.Perronnin、およびC.Saundersによる「Data−Driven Vehicle Identification by Image Matching(コンピュータ視覚(ECCV)ワークショップに関する第12回ヨーロッパ会議、2012年10月7〜13日、のコンピュータサイエンスのレクチャーノートvol.7584、pp 536〜545)に開示されている。ある実施形態では、Xerox社製のナンバープレート認識(XLPR)ソフトウェアが用いられている。
動作(S134)
処理実施コンポーネント52により開始される動作は、用途の種類に依存し得る。ナンバープレートの場合、引き起こされた動作は、S128で特定されたそれぞれのナンバープレートの数字に関連する(例えば、違反者の告訴、パーキングオペレータの警告、駐車違反の罰金の送金など)。
不完全な一致の説明
いくつかの実施形態では、視覚シグニチャー照合コンポーネント46が、100%の精度を発揮することを前提とした方が都合いい。このような場合、次のような動作を実行することができる。
1.位置Xで、シグニチャーが計算された後、位置Xで取り込まれた全ての画像を破棄することができる。
2.位置Yで、S126の後、非違反車両の全ての画像およびシグニチャーを破棄することができる。
しかし、実際には100%の精度がいつも可能であるとは限らない。例えば、次のような失敗の原因が見受けられ得る。第1に、例えば、最も近い一致の信頼性が低すぎるために、S122で、視覚シグニチャー照合コンポーネント46がときどき結果を戻さない。このような場合、ステップS124およびS126などは単純に実行されない。このことは、Vとして検索されたはずの対応するシグニチャーが、ひょっとすると無制限に、データベース内に残ったままになることを意味する。2度と必要とされ得ないシグニチャーでデータベース内が一杯になることを避けるために、このデータベースは、定期的にパージ処理を行って、例えば、最も古い項目が所定の長さの時間よりも長くシステム内に駐在した場合、その項目を取り除くことができる。S124でテストされた条件が、所定の長さの時間経過した後満たされない場合(例えば、計算された速度がもはや制限速度を超過し得ない場合)、特定の条件を満たすことができないシグニチャーVをパージ処理することができる。
第2の失敗の原因は偽陽性である。つまり、シグニチャー照合コンポーネント46が 、所定の信頼性の閾値より高い信頼性で不正確な結果を戻してしまう可能性があることである。これにより、車両のオーナーが誤って駐車違反チケット/スピード違反チケットを受けてしまう、またはその他の実行される、動作を受けてしまう恐れがある。このような場合、そのエラーに気が付いた人間のオペレータが、そのようなエラーを修正できることが確実であることが所望され得る。例えば、車両のドライバ、サービスプロバイダ、法律の執行当局が、システムに異議を申し立てる手順を確立することができる。失敗が発生したことの立証をアシストするために、画像Iをデータベースに格納することができ(例えば、暗号化形式で)、かつIおよびIの両方を証拠パッケージに含ませることができる。そして、この証拠パッケージをS134で出力する。画像は非暗号化形式で格納することができるが、Xを通過したが、まだYを通過していない関係者以外の人間が、データベース内の画像を目で見て検査することによって、ユーザの身元へのアクセスができてしまうリスクが残る。この問題に対処するために、例えば、各画像(および/または、切り取られた画像)を公開鍵で暗号化することにより、画像を暗号化形式で格納することができる。証拠パッケージ78にアクセスする承認を受けた人(例えば、法の役人)だけが、画像を復号するために必要な非公開鍵にアクセスすることができる。
例示的なシステムの使用
例示的なシステムおよび方法が、用いられる用途の例として以下のものが含まれる。:
1.ポイントからポイントの取り締まり、例えば、中間範囲/長い範囲での速度の取り締まり。
2.駐車場の出入り口の監視。車両が駐車場を出るとき、シグニチャー照合コンポーネント46が、その視覚シグニチャーを入口のトランザクションと関連付ける。チケットが入口で顧客に渡されると想定すると、メタデータにはタイムスタンプ、チケット番号、およびそのチケットに関する支払状況が含まれ得る。出口で、S124でのメタデータの処理により、チケットが支払われ、かつ支払金額が正確な時間に対応しているかが確認される。チケットが出入り口で同じ車に関連しているかを確認して、チケットが交換されることを避けることも可能である。壁のある駐車場では、オペレータが行って問題を解決するよう警告を出すことができる。壁のない駐車場では、罰金を顧客に送ることができる。
3.自動通行料金徴収:これには、自動支払のための銀行口座/クレジットカード(ドライバが加入している)に車両IDを関連付けることが含まれ得る。
4.違反の取り締まり:これには、告訴のために車両オーナーの身元に車両IDを関連付けることが含まれ得る。
5.駐車場管理:これには、発行されるパーキングチケットに車両IDを関連付け、駐車場の出口で壁を自動的に開く、あるいは加入している顧客の口座に車両IDを関連付け、全ての壁を自動的に開くことが含まれ得る。
6.交通量分析/データマイニング:これには、同時に存在する車両IDを追跡して移動時間を測定し、移動パターンなどを分析することが含まれ得る。
例示的な実施形態の範囲を制限することを意図しないで、この方法をナンバープレートの認識に適用する例について以下に説明する。
画像照合(フィッシャーベクトルを用いた、例示的な視覚シグニチャーを用いた)の精度を、駐車場の出入り口の位置で同じ車両を特定する方法として評価した。出入りに関連する正確な数をカウントした。図5に示されるプロットには、精度を無視した2つの従来のALPRシステム(ALPR1およびALPR2で示される)を用いたシグニチャー照合の特性が比較されている。視覚シグニチャーの照合の方法では、入口と出口で約96%を正確に関連付ける。これとは対照的に、各画像で特定された文字のシーケンスがきっちりとした一致することに依存するOCRシステムでは、90%より下の精度を有する結果しか産み出さない。厳密ではないOCR照合を適用することにより、シグニチャーの照合の方法と同様の精度を産み出すが、ナンバープレートの数字が細かい場合、厳密ではない照合を行うことは可能ではない。
図6は、この評価で用いられた駐車場で取り込まれたデータを実演したスクリーンショットである。このスクリーンショットには、シグニチャーの照合とALPRベース(OCR)の照合により読み出された、駐車場の出口で取り込まれた画像と、それに関連する入口での画像が表示されている。両方の方法で同じ画像を読み出したが、この場合平均で、この視覚シグニチャーの照合システム(3.41%)よりも多くのエラー(11.2%)がALPRシステムで発生した。それに加えて、この視覚シグニチャーの照合の方法を最適化させて、照明などの要因を考慮することができる。

Claims (10)

  1. 識別子を認識する方法であって、
    複数の対象ごとに、第1の位置で取り込まれた前記対象の第1の画像の少なくとも一部から抽出された第1の視覚シグニチャー、および前記第1の取り込まれた画像に関連する第1の情報を格納するステップと、
    第2の視覚シグニチャーと前記第1の視覚シグニチャーのうちの少なくともいくつかとの間の類似点の測定値を計算して、前記計算された類似点の測定値に基づいて、前記第1の視覚シグニチャーのうちの一致したものを特定するステップであって、前記第2の視覚シグニチャーは、前記第2の画像の少なくとも一部に基づいて、第2の位置で取り込まれた第2の対象の第2の画像の少なくとも一部から抽出された、ステップと、
    前記第1の視覚シグニチャーのうちの前記一致したものに関連する前記第1の格納情報、および前記第2の取り込まれた画像に関連する第2の格納情報を検索するステップと、
    前記検索された第1の格納情報と前記第2の格納情報との関数であるテストを行うステップと、
    前記テストが満たされたことが確認されると、前記第2の対象の取り込まれた画像に基づいて、前記第2の対象の識別子の認識を提供するステップと
    を含む方法。
  2. 前記複数の対象ごとに、
    前記第1の位置で取り込まれた前記対象の前記第1の画像、および前記第1の取り込まれた画像に関連する前記情報を受信するステップと、
    前記第1の画像の少なくとも一部に基づいて、前記第1の視覚シグニチャーを抽出するステップと、
    前記第1の視覚シグニチャー、および前記第1の画像に関連する前記情報を格納するステップと
    をさらに含む請求項1に記載の方法。
  3. 前記それぞれの視覚シグニチャーを抽出した後で、少なくとも前記識別子の前記認識の前に、各第1の画像を削除または暗号化するステップをさらに含む請求項2に記載の方法。
  4. 前記第2の位置で取り込まれた前記第2の対象の前記第2の画像、および前記第2の画像に関連する前記情報を受信するステップと、
    前記第2の画像の少なくとも一部に基づいて、前記第2の視覚シグニチャーを抽出するステップと、をさらに含む請求項1に記載の方法。
  5. 前記第1の視覚シグニチャーおよび前記第2の視覚シグニチャーはそれぞれ、前記各画像の前記少なくとも一部の画素の多次元の統計的表現形式を含む、請求項1に記載の方法。
  6. 各対象には車両が含まれ、各識別子には文字のシーケンスが含まれる、請求項1に記載の方法。
  7. 前記識別子の前記認識には、前記第1の画像または前記第2の画像上で自動ナンバープレート認識を行うことが含まれる、請求項6に記載の方法。
  8. 前記第1の情報には、第1のタイムスタンプが含まれ、前記第2の情報には、前記第1のタイムスタンプより後の時間である、第2のタイムスタンプが含まれる、請求項1に記載の方法。
  9. 前記認識された識別子に基づいて、処理を実施するステップをさらに含む請求項1に記載の方法。
  10. 識別子を認識するシステムであって、
    複数の対象ごとに、
    第1の位置で取り込まれた前記対象の第1の画像の少なくとも一部から抽出された第1の視覚シグニチャー、および前記第1の視覚シグニチャーに関連する第1の情報と、
    第2の位置で取り込まれた前記対象の第2の画像の少なくとも一部から抽出された第2の視覚シグニチャー、および前記第2の視覚シグニチャーに関連する第2の情報と
    を格納するメモリと、
    前記第2の視覚シグニチャーのうちの1つと前記第1の視覚シグニチャーのうちの少なくともいくつかとの間の類似点の測定値を計算して、前記計算された類似点の測定値に基づいて、第1の視覚シグニチャーのうちの一致したものを特定するシグニチャー照合コンポーネントと、
    前記第1の視覚シグニチャーのうちの一致したものに関連する前記検索された第1の格納情報と、前記第2の視覚シグニチャーのうちの前記1つに関連する前記第2の格納情報との関数であるテストを行う情報処理コンポーネントと、
    前記テストが満たされたことが確認されると、前記第2の対象の取り込まれた画像に基づいて、前記対象のうちの1つの識別子を認識する識別子認識コンポーネントと、
    前記シグニチャー照合コンポーネント、前記情報処理コンポーネント、および前記識別子認識コンポーネントを実装するプロセッサと
    を含むシステム。
JP2014199498A 2013-10-16 2014-09-29 プライバシー保護のための延滞車両特定 Expired - Fee Related JP6527678B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/054,998 2013-10-16
US14/054,998 US9412031B2 (en) 2013-10-16 2013-10-16 Delayed vehicle identification for privacy enforcement

Publications (2)

Publication Number Publication Date
JP2015079497A true JP2015079497A (ja) 2015-04-23
JP6527678B2 JP6527678B2 (ja) 2019-06-05

Family

ID=51687830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014199498A Expired - Fee Related JP6527678B2 (ja) 2013-10-16 2014-09-29 プライバシー保護のための延滞車両特定

Country Status (3)

Country Link
US (1) US9412031B2 (ja)
EP (1) EP2863338B1 (ja)
JP (1) JP6527678B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017053612A1 (en) * 2015-09-25 2017-03-30 Nyqamin Dynamics Llc Automated capture of image data for points of interest
JP6990147B2 (ja) 2018-05-30 2022-01-12 ヤマハ発動機株式会社 部品実装システム

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10515285B2 (en) 2014-06-27 2019-12-24 Blinker, Inc. Method and apparatus for blocking information from an image
US10540564B2 (en) 2014-06-27 2020-01-21 Blinker, Inc. Method and apparatus for identifying vehicle information from an image
US9558419B1 (en) 2014-06-27 2017-01-31 Blinker, Inc. Method and apparatus for receiving a location of a vehicle service center from an image
US9589202B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for receiving an insurance quote from an image
US9600733B1 (en) 2014-06-27 2017-03-21 Blinker, Inc. Method and apparatus for receiving car parts data from an image
US9607236B1 (en) 2014-06-27 2017-03-28 Blinker, Inc. Method and apparatus for providing loan verification from an image
US9754171B1 (en) 2014-06-27 2017-09-05 Blinker, Inc. Method and apparatus for receiving vehicle information from an image and posting the vehicle information to a website
US9594971B1 (en) 2014-06-27 2017-03-14 Blinker, Inc. Method and apparatus for receiving listings of similar vehicles from an image
US9760776B1 (en) 2014-06-27 2017-09-12 Blinker, Inc. Method and apparatus for obtaining a vehicle history report from an image
US10867327B1 (en) 2014-06-27 2020-12-15 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US9818154B1 (en) 2014-06-27 2017-11-14 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US9589201B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for recovering a vehicle value from an image
US9773184B1 (en) 2014-06-27 2017-09-26 Blinker, Inc. Method and apparatus for receiving a broadcast radio service offer from an image
US10733471B1 (en) 2014-06-27 2020-08-04 Blinker, Inc. Method and apparatus for receiving recall information from an image
US9779318B1 (en) 2014-06-27 2017-10-03 Blinker, Inc. Method and apparatus for verifying vehicle ownership from an image
US9892337B1 (en) 2014-06-27 2018-02-13 Blinker, Inc. Method and apparatus for receiving a refinancing offer from an image
US10572758B1 (en) 2014-06-27 2020-02-25 Blinker, Inc. Method and apparatus for receiving a financing offer from an image
US10579892B1 (en) 2014-06-27 2020-03-03 Blinker, Inc. Method and apparatus for recovering license plate information from an image
US9563814B1 (en) 2014-06-27 2017-02-07 Blinker, Inc. Method and apparatus for recovering a vehicle identification number from an image
CN105809088B (zh) * 2014-12-30 2019-07-19 清华大学 车辆识别方法和系统
US9721186B2 (en) * 2015-03-05 2017-08-01 Nant Holdings Ip, Llc Global signatures for large-scale image recognition
CN104851284B (zh) * 2015-05-20 2017-08-15 浙江宇视科技有限公司 一种车辆管理方法及装置
US10635949B2 (en) 2015-07-07 2020-04-28 Xerox Corporation Latent embeddings for word images and their semantics
CN105095435A (zh) 2015-07-23 2015-11-25 北京京东尚科信息技术有限公司 一种图像高维特征的相似比较方法及装置
KR20170038378A (ko) * 2015-09-30 2017-04-07 삼성전자주식회사 이미지를 처리하는 전자 장치 및 그 제어 방법
CN105243668B (zh) * 2015-10-13 2018-04-27 中山大学 一种车牌图像去隐私的方法
CN105389812B (zh) * 2015-10-31 2018-09-11 重庆信息通信研究院 基于计算机视觉的车载信息终端功能自动测试方法
US9785855B2 (en) 2015-12-17 2017-10-10 Conduent Business Services, Llc Coarse-to-fine cascade adaptations for license plate recognition with convolutional neural networks
CN106878002B (zh) * 2016-07-05 2020-04-24 阿里巴巴集团控股有限公司 一种权限撤销方法及装置
CN106469299B (zh) * 2016-08-31 2019-07-19 北京邮电大学 一种车辆搜索方法及装置
US9928426B1 (en) * 2016-09-16 2018-03-27 Hong Kong Applied Science and Technology Research Institute Company Limited Vehicle detection, tracking and localization based on enhanced anti-perspective transformation
US20180082249A1 (en) * 2016-09-19 2018-03-22 Wal-Mart Stores, Inc. Autonomous Vehicle Content Identification System and Associated Methods
CN107609483B (zh) * 2017-08-15 2020-06-16 中国科学院自动化研究所 面向驾驶辅助系统的危险目标检测方法、装置
EP3447695B1 (en) * 2017-08-25 2020-09-30 Kapsch TrafficCom AG Method for surveilling a tolling system
US11284062B2 (en) * 2017-09-05 2022-03-22 Texas Instruments Incorporated Automotive display validation
AU2019235551B2 (en) 2018-03-12 2022-02-03 Jayant RATTI On-demand artificial intelligence and roadway stewardship system
US10250383B1 (en) * 2018-03-20 2019-04-02 Mocana Corporation Dynamic domain key exchange for authenticated device to device communications
US11036997B2 (en) 2018-06-04 2021-06-15 Genetec Inc. Automated association of media with occurrence records
EP3855358A4 (en) * 2018-10-16 2021-10-27 Huawei Technologies Co., Ltd. OBJECT DETECTION METHOD AND TERMINAL DEVICE
US11595217B2 (en) 2018-12-06 2023-02-28 Digicert, Inc. System and method for zero touch provisioning of IoT devices
GB2580630B (en) * 2019-01-17 2021-03-24 Siemens Mobility Ltd Method and system for data collection in a road network
CN110930730B (zh) * 2019-12-26 2021-07-09 浙江省计量科学研究院 电子栅栏及压电触发辅助的测速雷达车辆判别装置及方法
EP3869396A1 (de) 2020-02-24 2021-08-25 Toll Collect GmbH Verfahren und system zur korrektur eines kennzeichens
US11537701B2 (en) * 2020-04-01 2022-12-27 Toyota Motor North America, Inc. Transport related n-factor authentication
US20210358066A1 (en) * 2020-05-17 2021-11-18 Ahmad Abusaad Intelligent Traffic Violation Detection System
CN112633281B (zh) * 2020-12-30 2022-11-22 广东赛诺科技股份有限公司 一种基于Hash算法车辆身份认证方法及系统
CN117173416B (zh) * 2023-11-01 2024-01-05 山西阳光三极科技股份有限公司 基于图像处理的铁路货运车号图像清晰化处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6341000A (ja) * 1986-08-05 1988-02-22 オムロン株式会社 車両速度計測装置
JP2000231693A (ja) * 1999-02-10 2000-08-22 Hitachi Ltd 自動車通行監視・管理装置
JP2012235355A (ja) * 2011-05-02 2012-11-29 Canon Inc ネットワークカメラシステム及びネットワークカメラシステムの制御方法
US20130266139A1 (en) * 2012-04-06 2013-10-10 Kapsch Trafficcom Ag Method for Detecting a Speed Violation of a Vehicle

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4433325A (en) 1980-09-30 1984-02-21 Omron Tateisi Electronics, Co. Optical vehicle detection system
US5081685A (en) * 1988-11-29 1992-01-14 Westinghouse Electric Corp. Apparatus and method for reading a license plate
FR2645310B1 (fr) 1989-03-31 1991-06-21 Elsydel Procede d'identification d'objets en mouvement, notamment de vehicules, et systemes pour sa mise en oeuvre
EP0631683B1 (en) 1992-03-20 2001-08-01 Commonwealth Scientific And Industrial Research Organisation An object monitoring system
DE59305180D1 (de) 1992-11-10 1997-02-27 Siemens Ag Verfahren zur detektion und abspaltung des schattens sich bewegender objekte in einer digitalen bildsequenz
US5995900A (en) 1997-01-24 1999-11-30 Grumman Corporation Infrared traffic sensor with feature curve generation
US6076026A (en) * 1997-09-30 2000-06-13 Motorola, Inc. Method and device for vehicle control events data recording and securing
EP1056064B1 (en) 1999-05-28 2007-12-12 Nippon Telegraph and Telephone Corporation Apparatus and method for speed measurement of vehicles with an image processing system
US6317668B1 (en) * 1999-06-10 2001-11-13 Qualcomm Incorporated Paperless log system and method
CA2277633C (en) * 1999-07-19 2009-10-20 Certicom Corp. Split-key key-agreement protocol
US6747687B1 (en) * 2000-01-11 2004-06-08 Pulnix America, Inc. System for recognizing the same vehicle at different times and places
US7093131B1 (en) * 2000-09-29 2006-08-15 Seiko Epson Corporation Information authenticating apparatus and authenticating station
US6754564B2 (en) * 2001-01-30 2004-06-22 Archie L. Newport Integrated vehicle information system
JP4527322B2 (ja) 2001-07-25 2010-08-18 日本電気株式会社 画像検索装置、画像検索方法、及び画像検索用プログラム
WO2006020337A2 (en) * 2004-07-20 2006-02-23 E-Views Safety Systems, Inc. Distributed, roadside-based real-time id recognition system and method
EP1864505B1 (en) * 2005-03-29 2020-01-15 Sportvu Ltd. Real-time objects tracking and motion capture in sports events
US7756341B2 (en) 2005-06-30 2010-07-13 Xerox Corporation Generic visual categorization method and system
US7579965B2 (en) * 2006-03-03 2009-08-25 Andrew Bucholz Vehicle data collection and processing system
US7680341B2 (en) 2006-05-05 2010-03-16 Xerox Corporation Generic visual classification with gradient components-based dimensionality enhancement
US7554440B2 (en) * 2006-07-25 2009-06-30 United Parcel Service Of America, Inc. Systems and methods for monitoring travel conditions
US8788118B2 (en) * 2006-09-06 2014-07-22 Jeffrey A. Matos Systems and methods for detecting and managing the unauthorized use of an unmanned aircraft
US7885466B2 (en) 2006-09-19 2011-02-08 Xerox Corporation Bags of visual context-dependent words for generic visual categorization
US20080198159A1 (en) 2007-02-16 2008-08-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for efficient and flexible surveillance visualization with context sensitive privacy preserving and power lens data mining
US20080240572A1 (en) 2007-03-26 2008-10-02 Seiko Epson Corporation Image Search Apparatus and Image Search Method
JP4379483B2 (ja) * 2007-04-05 2009-12-09 富士ゼロックス株式会社 情報処理装置及びプログラム
US7933454B2 (en) 2007-06-25 2011-04-26 Xerox Corporation Class-based image enhancement system
US7885794B2 (en) 2007-11-30 2011-02-08 Xerox Corporation Object comparison, retrieval, and categorization methods and apparatuses
PT103960B (pt) * 2008-02-07 2010-05-10 Brisa Auto Estradas De Portuga Sistema reconhecimento automático de matrículas integrado num sistema de cobranças electrónica de portagens
US8009921B2 (en) 2008-02-19 2011-08-30 Xerox Corporation Context dependent intelligent thumbnail images
US8229168B2 (en) * 2008-02-20 2012-07-24 International Business Machines Corporation Fast license plate verifier
JP4561863B2 (ja) * 2008-04-07 2010-10-13 トヨタ自動車株式会社 移動体進路推定装置
US8111923B2 (en) 2008-08-14 2012-02-07 Xerox Corporation System and method for object class localization and semantic class based image segmentation
US8805110B2 (en) * 2008-08-19 2014-08-12 Digimarc Corporation Methods and systems for content processing
US9183227B2 (en) 2008-09-19 2015-11-10 Xerox Corporation Cross-media similarity measures through trans-media pseudo-relevance feedback and document reranking
US8463051B2 (en) 2008-10-16 2013-06-11 Xerox Corporation Modeling images as mixtures of image models
US8249343B2 (en) 2008-10-15 2012-08-21 Xerox Corporation Representing documents with runlength histograms
US8865293B2 (en) * 2008-12-15 2014-10-21 3M Innovative Properties Company Optically active materials and articles and systems in which they may be used
US8374920B2 (en) * 2009-01-21 2013-02-12 Nike, Inc. Anti-counterfeiting system and method
US8774498B2 (en) 2009-01-28 2014-07-08 Xerox Corporation Modeling images as sets of weighted features
US8150858B2 (en) 2009-01-28 2012-04-03 Xerox Corporation Contextual similarity measures for objects and retrieval, classification, and clustering using same
US8175376B2 (en) 2009-03-09 2012-05-08 Xerox Corporation Framework for image thumbnailing based on visual similarity
CA2761794C (en) * 2009-04-03 2016-06-28 Certusview Technologies, Llc Methods, apparatus, and systems for acquiring and analyzing vehicle data and generating an electronic representation of vehicle operations
US8280828B2 (en) 2009-06-12 2012-10-02 Xerox Corporation Fast and efficient nonlinear classifier generated from a trained linear classifier
US8644622B2 (en) 2009-07-30 2014-02-04 Xerox Corporation Compact signature for unordered vector sets with application to image retrieval
US8380647B2 (en) 2009-08-14 2013-02-19 Xerox Corporation Training a classifier by dimension-wise embedding of training data
GB2472793B (en) * 2009-08-17 2012-05-09 Pips Technology Ltd A method and system for measuring the speed of a vehicle
US9355337B2 (en) 2009-08-25 2016-05-31 Xerox Corporation Consistent hierarchical labeling of image and image regions
US8171049B2 (en) 2009-09-18 2012-05-01 Xerox Corporation System and method for information seeking in a multimedia collection
US20110137898A1 (en) 2009-12-07 2011-06-09 Xerox Corporation Unstructured document classification
US8775424B2 (en) 2010-01-26 2014-07-08 Xerox Corporation System for creative image navigation and exploration
US8532399B2 (en) 2010-08-20 2013-09-10 Xerox Corporation Large scale image classification
US8731317B2 (en) 2010-09-27 2014-05-20 Xerox Corporation Image classification employing image vectors compressed using vector quantization
US8401230B2 (en) * 2010-11-01 2013-03-19 Xerox Corporation Signature based drive-through order tracking system and method
US8781169B2 (en) * 2010-11-03 2014-07-15 Endeavoring, Llc Vehicle tracking and locating system
US8370338B2 (en) 2010-12-03 2013-02-05 Xerox Corporation Large-scale asymmetric comparison computation for binary embeddings
US8447767B2 (en) 2010-12-15 2013-05-21 Xerox Corporation System and method for multimedia information retrieval
US8483440B2 (en) * 2011-04-13 2013-07-09 Xerox Corporation Methods and systems for verifying automatic license plate recognition results
DE102011053052B3 (de) * 2011-08-26 2013-02-28 Jenoptik Robot Gmbh Verfahren und Vorrichtung zur Identifikation von Kraftfahrzeugen zur Verkehrsüberwachung
US8533204B2 (en) 2011-09-02 2013-09-10 Xerox Corporation Text-based searching of image data
US8873813B2 (en) * 2012-09-17 2014-10-28 Z Advanced Computing, Inc. Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities
US20130093886A1 (en) * 2011-10-18 2013-04-18 Ariel Inventions, Llc Method and system for using a vehicle-based digital imagery system to identify another vehicle
US8582819B2 (en) 2011-11-18 2013-11-12 Xerox Corporation Methods and systems for improving yield in wanted vehicle searches
US8588470B2 (en) 2011-11-18 2013-11-19 Xerox Corporation Methods and systems for improved license plate signature matching by similarity learning on synthetic images
US8917910B2 (en) * 2012-01-16 2014-12-23 Xerox Corporation Image segmentation based on approximation of segmentation similarity
US20130208121A1 (en) * 2012-02-10 2013-08-15 Xerox Corporation Traffic camera diagnostics via test targets
US8781172B2 (en) 2012-03-30 2014-07-15 Xerox Corporation Methods and systems for enhancing the performance of automated license plate recognition applications utilizing multiple results
US9760789B2 (en) * 2012-04-17 2017-09-12 Conduent Business Services, Llc Robust cropping of license plate images
US8698896B2 (en) * 2012-08-06 2014-04-15 Cloudparc, Inc. Controlling vehicle use of parking spaces and parking violations within the parking spaces using multiple cameras
US8879796B2 (en) * 2012-08-23 2014-11-04 Xerox Corporation Region refocusing for data-driven object localization
US9641763B2 (en) 2012-08-29 2017-05-02 Conduent Business Services, Llc System and method for object tracking and timing across multiple camera views
US9641806B2 (en) * 2013-03-12 2017-05-02 3M Innovative Properties Company Average speed detection with flash illumination
US9122928B2 (en) * 2013-04-11 2015-09-01 International Business Machines Corporation Determining images having unidentifiable license plates
US9002066B2 (en) * 2013-05-06 2015-04-07 Xerox Corporation Methods, systems and processor-readable media for designing a license plate overlay decal having infrared annotation marks
US9405988B2 (en) * 2013-08-13 2016-08-02 James Alves License plate recognition
US20150077548A1 (en) * 2013-09-13 2015-03-19 At&T Mobility Ii Llc Mobile device intermediary for content analysis
US9779284B2 (en) * 2013-12-17 2017-10-03 Conduent Business Services, Llc Privacy-preserving evidence in ALPR applications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6341000A (ja) * 1986-08-05 1988-02-22 オムロン株式会社 車両速度計測装置
JP2000231693A (ja) * 1999-02-10 2000-08-22 Hitachi Ltd 自動車通行監視・管理装置
JP2012235355A (ja) * 2011-05-02 2012-11-29 Canon Inc ネットワークカメラシステム及びネットワークカメラシステムの制御方法
US20130266139A1 (en) * 2012-04-06 2013-10-10 Kapsch Trafficcom Ag Method for Detecting a Speed Violation of a Vehicle

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017053612A1 (en) * 2015-09-25 2017-03-30 Nyqamin Dynamics Llc Automated capture of image data for points of interest
US10810444B2 (en) 2015-09-25 2020-10-20 Apple Inc. Automated capture of image data for points of interest
US11676395B2 (en) 2015-09-25 2023-06-13 Apple Inc. Automated capture of image data for points of interest
JP6990147B2 (ja) 2018-05-30 2022-01-12 ヤマハ発動機株式会社 部品実装システム

Also Published As

Publication number Publication date
EP2863338A2 (en) 2015-04-22
US9412031B2 (en) 2016-08-09
EP2863338B1 (en) 2018-12-05
US20150104073A1 (en) 2015-04-16
JP6527678B2 (ja) 2019-06-05
EP2863338A3 (en) 2015-05-06

Similar Documents

Publication Publication Date Title
JP6527678B2 (ja) プライバシー保護のための延滞車両特定
JP6464338B2 (ja) Alprの応用例におけるプライバシーを保護する証拠
US9158995B2 (en) Data driven localization using task-dependent representations
EP2808827B1 (en) System and method for OCR output verification
JP6687364B2 (ja) 画像署名をフィッシャーベクトルとマッチングするための適応型語彙
US9195908B2 (en) Snow classifier context window reduction using class t-scores and mean differences
WO2020181910A1 (zh) 识别风险商家的方法及装置
Wang et al. An effective method for plate number recognition
CN112381775A (zh) 一种图像篡改检测方法、终端设备及存储介质
Yousef et al. SIFT based automatic number plate recognition
JP2018513495A (ja) デュアル埋め込み型光学文字認識(ocr)エンジン
US20160125404A1 (en) Face recognition business model and method for identifying perpetrators of atm fraud
CN105893813A (zh) 生物信息登记装置和生物信息登记方法
Sikirić et al. Image representations on a budget: Traffic scene classification in a restricted bandwidth scenario
Lin et al. Convolutional neural networks for face anti-spoofing and liveness detection
CN110619256A (zh) 道路监控检测方法及装置
Al Nasim et al. An automated approach for the recognition of bengali license plates
JP2013092905A (ja) 車両情報登録方法、車両情報登録装置、及び車両情報登録プログラム
Ramajo-Ballester et al. Dual license plate recognition and visual features encoding for vehicle identification
CN112560711B (zh) 非机动车交通违法判定方法、系统、装置及存储介质
Pinthong et al. The License Plate Recognition system for tracking stolen vehicles
CN106778765B (zh) 一种车牌识别的方法及装置
JP2014115961A (ja) 情報処理装置、車両識別方法、及び車両識別プログラム
Thaiparnit et al. Tracking vehicles system based on license plate recognition
Musthafa et al. Smart Authentication System Using Deep Learning Techniques Based on Face and License Plate Recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190513

R150 Certificate of patent or registration of utility model

Ref document number: 6527678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees