JP2016110635A - 画像署名をフィッシャーベクトルとマッチングするための適応型語彙 - Google Patents
画像署名をフィッシャーベクトルとマッチングするための適応型語彙 Download PDFInfo
- Publication number
- JP2016110635A JP2016110635A JP2015221043A JP2015221043A JP2016110635A JP 2016110635 A JP2016110635 A JP 2016110635A JP 2015221043 A JP2015221043 A JP 2015221043A JP 2015221043 A JP2015221043 A JP 2015221043A JP 2016110635 A JP2016110635 A JP 2016110635A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- generation model
- universal
- dependent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 title description 66
- 238000000034 method Methods 0.000 claims abstract description 66
- 230000006978 adaptation Effects 0.000 claims abstract description 59
- 230000001419 dependent effect Effects 0.000 claims abstract description 43
- 238000012549 training Methods 0.000 claims description 32
- 230000003044 adaptive effect Effects 0.000 claims description 19
- 239000000203 mixture Substances 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 abstract description 29
- 230000001603 reducing effect Effects 0.000 abstract 1
- 238000009826 distribution Methods 0.000 description 34
- 238000012360 testing method Methods 0.000 description 15
- 230000000007 visual effect Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 6
- 238000002372 labelling Methods 0.000 description 6
- 238000000513 principal component analysis Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000002085 persistent effect Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000007850 fluorescent dye Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
撮像された画像12,14(IXおよびIY)および訓練画像34,66,68は、システム10により、JPEG、GIF、JBIG、BMP、TIFFなど、任意の好都合なファイル形式で、または、画像に使用される他の共通ファイル形式であって、処理の前に選択的に別の適切な形式へ変換されてよい形式で、受信されてよい。入力画像は、処理中、データメモリに保存されてよい。画像は、写真など個別の画像であってよく、または、ビデオ画像などの連続する画像から抽出される画像であってよい。一般的に、各入力デジタル画像は、画像を形成する画素配列のための画像データを含む。画像データは、グレースケール値などの着色剤値を、L*a*b*またはRGBなどの色分離のセットごとに含んでよく、または、異なる色が表され得る別の他の色空間において表現されてよい。一般的に、「グレースケール」は、任意の単一色チャネルであるが、表現される(L*a*b*、RGB、YCbCrなど)、光学的な濃度値を指す。本方法は、白黒(モノクロ)画像および多色画像に適している。「色」という単語は、色彩、彩度、および明度などの絶対的色値、および、色彩、彩度、および明度の違いなどの相対的色値を含むが、それらに限定されない、特定される場合がある色の任意の態様を指すために、使用される。一部の実施形態において、色は、近赤外線(NIR)領域など、約800nm〜2500nmである、電磁スペクトルの非可視領域を指し得る。
局所的な記述子は、訓練およびテスト画像34,66,68,12,14から、同じ手法で抽出される。例えば、選択的にクロッピングされた画像のパッチのセットが、例えば、密に、1つまたは多重尺度で格子状に抽出される。パッチは、画像分割により、特定の対象点検出器を適用することにより、正規の格子を考慮することにより、または、単に画像パッチの無作為なサンプリングにより、取得され得る。例示的な実施形態において、パッチは、正規の格子上に、選択的に多重尺度で、クロッピングされた画像全体で、または、画像の少なくとも一部または大部分で、抽出される。例えば、少なくとも10個、または少なくとも20個、または少なくとも50個のパッチが、各クロッピングされた画像から抽出される。各パッチは、少なくとも40個、または少なくとも100個の画素を備えてよく、最大で1,000,000個以上の画素を備えてよい。
各画像レベルの記述子または「画像署名」70,72などは、D次元空間の(選択的にクロッピングされた)画像の固定長ベクトル表現である。1つの実施形態において、画像レベル記述子は、フィッシャーベクトル(FV)に基づく。例えば、以下を参照されたい:PerronninおよびDanceによる、「Fisher kernels on visual vocabularies for image categorization(画像カテゴリ化のための視覚語彙のフィッシャーカーネル)」(CVPR,2007);Perronninらによる、「Improving the Fisher kernel for large−scale image classification(大規模な画像分類のためのフィッシャーカーネルの向上)」(ECCV,143−156(2010));Sanchezらによる、「High−dimensional signature compression for large−scale image classification(大規模な画像分類のための高次元署名圧縮)」(CVPR 2011);2012年3月29日に発行された、Jorge Sanchezらによる、米国公開番号第20120076401号「IMAGE CLASSIFICATION EMPLOYING IMAGE VECTORS COMPRESSED USING VECTOR QUANTIZATION(ベクトル量子化を使用して圧縮される画像ベクトルを利用する画像分類)」;および、2012年2月23日に発行された、Florent Perronninらによる、米国公開番号第20120045134号「LARGE SCALE IMAGE CLASSIFICATION(大規模な画像分類)」。フィッシャーベクトルは、画像分類、画像検索、物体検出、および、人物再同定を含む、様々な用途において良好な結果を見せた。したがって、フィッシャーベクトルを向上させ得る任意の改善は、多くの用途に大きな影響を与えるであろう。以下にフィッシャーベクトル抽出が記載され、続いて適応技術が記載される。
例示的な方法において、普遍的な生成モデルuΘ60は、パラメータΘ={πk,μk,Σk,k=1,…,K}を伴う、Kコンポーネントガウス混合モデル(GMM)である。ここで、πk、μkおよびΣkは、それぞれ重み、平均ベクトルであり、k番目のガウス分布の共分散行列である。利便性のため、以下とする:
例示的な画像レベル記述子70,72は、テスト画像12,14から同様の手法で抽出される、フィッシャーベクトルである。しかしながら、フィッシャーベクトルを生成するために使用される生成モデル62および64は、異なる。
例示的な適応プロセスは、完全に監視されない:カメラ16または18と関連付けられる画像のセットを考慮すると、これらの画像(例えば、ラベル)の内容に関する情報は、UBM60を適用してカメラ特有のモデル62,64を生成するのに必要でない。
混合重みに対して:
一部の実施形態において、位置Xの画像署名はデータベース38に保存され、その後、これらの保存された署名の中での最も近い一致の検索が、位置Yで以降に取得される各画像署名に対して網羅的な手法で行われる。データベース38が多数の画像を含有する場合、網羅的な検索は時間がかかる場合がある。この事例において、近接した検索技術が適用されてよい。高次元ベクトルの近接した検索のための技術は、例えば、Jegouらによる、「Aggregating local image descriptors into compact codes(局所的な画像記述子のコンパクト符号への統合)」(IEEE TPAMI,34(9)1704−1716(2002))に開示される。最も近い一致の正体が割り当てられ、少なくとも所定の閾値に適合する類似性が提供される。
S122で使用されてよい、ナンバープレート認識方法は、例えば、米国発行番号第20130129151号、第20130129152号、第20130182909号、第20130259314号、第20140056520号、第20140270381号、および第20140219563号、および、米国出願番号第13/903,218号、および、J−A Rodriguez−Serranoらによる、「Data−Driven Vehicle Identification by Image Matching(画像マッチングによるデータ駆動型の車両同定)」(12th European Conf. on Computer Vision (ECCV) Workshops, October 7−13,2012, Lecture Notes in Computer Science, vol.7584,pp.536−545)に開示される。1つの実施形態において、Xerox License Plate Recognition(XLPR)ソフトウェアが利用される。留意されるように、ナンバープレートのナンバーおよびナンバープレートの画像は、単なる例にすぎず、例示的な実施形態を図示するために使用される。他の実施形態において、多数のASCII、UNICODE、および/またはUTF−8文字が、アルファベットとして使用されてよい。
本方法が、車両ナンバープレートマッチング/再同定の問題に利用された。カメラは、駐車場の様々な入口−出口車線に配置される。目的は、駐車場にある車両のナンバープレートが、この車両が区画に入った時に撮像されたナンバープレートの画像と一致することである。しかしながら、両方の事例における撮像条件は、大幅に異なる場合がある。異なる撮像条件は、異なる配置、異なるカメラ品質、異なる照明条件などを含んでよい。このシナリオは、UBMの適応に関する良好な候補であり、マッチングに役立つよう、フィッシャーベクトル計算の前にカメラ特有(車線特有)のGMMを学習する。
異なる街における2つの実際の駐車施設から生じる2つの施設内データセットは、AおよびBで示される。両方のデータセットは、ナンバープレート領域を抽出して、50個の画素の高さを正規化することにより、前処理される。データセットAは、11個の車線/カメラからの13,006個の画像(6503個の入口−出口の組)を有する。種々の入口−出口統計値の分散により、11個のうちの5個は入口車線であり、残りは出口車線である。データセットBでは、2つの車線からの9,629個の画像が使用された。
特徴および局所的な記述子は、画像からの重複するパッチから抽出された。各データセットは、3つの部分に分割される。第1の部分は、局所的な記述子およびUBM予測の次元的削減のためのPCAモデルを学習するために使用され、第2の部分は、UBM適応のために使用され、第3の部分はテストのために使用される。テスト中、既存のナンバープレートは、入ってくるナンバープレートとマッチングされ、結果は正しくマッチングされた組の割合として報告される。
表1〜表4は、GMMにおける異なる数のガウス分布(Nmix)を使用して、MAP適応あり(MAP Adapt.)、MAP適応なし(No Adapt.)、および、平均および標準偏差調整あり(Mean−Std. Adj.)の結果を示す。表1および表2は、平均ベクトルが適用される場合にのみ結果をもたらし、一方で表3および表4は、平均ベクトルおよび共分散行列の両方が適用される場合の結果をもたらす。「Inc.」は、適応なし全体でのMAP適応ありの性能向上を示す。
適応を評価するために、UBM/GMMにおける異なるガウス分布に対する特徴の割り当ての内部機構が、評価される。例として、データセットBで32個のガウス分布により学習されたUBMが使用された。その後、データセットAからの適応データが取得された。データセットAからのデータは、11個の車線からの画像を包含する。その後、各車線からの画像は、車線/カメラ依存のGMMを学習するために使用される。その後、p(k|xi)が、UBMおよび各車線/カメラ依存のGMMのガウス分布kに対する特徴xiから、方程式(6)を介して計算される。
Claims (10)
- 局所的な記述子の普遍的な生成モデルを提供すること、
前記普遍的な生成モデルを第1のカメラに適用して、第1のカメラ依存の生成モデルを取得すること、
前記普遍的な生成モデルを第2のカメラに適用して、第2のカメラ依存の生成モデルを生成すること、または、前記普遍的な生成モデルを前記第2のカメラ依存の生成モデルとして使用すること、
前記第1のカメラにより撮像される第1の画像から、第1の画像レベル記述子を前記第1のカメラ依存の生成モデルを使用して抽出すること、
前記第2のカメラにより撮像される第2の画像から、第2の画像レベル記述子を前記第2のカメラ依存の生成モデルを使用して抽出すること、
前記第1の画像レベル記述子と前記第2の画像レベル記述子との間の類似性を計算すること、および、
前記計算される類似性に基づく情報を出力することであって、前記普遍的な生成モデルを前記第1および第2のカメラに適用すること、前記第1および第2の画像レベル記述子を抽出すること、および、前記類似性を前記計算すること、のうちの少なくとも1つは、コンピュータプロセッサで行われる、出力すること、
を備える、方法。 - 前記普遍的な生成モデルはガウス混合モデルである、請求項1に記載の方法。
- 前記第1および第2のカメラ依存の生成モデルはガウス混合モデルであり、各々が同じ数のガウス関数を前記普遍的な生成モデルとして備える、請求項2に記載の方法。
- 前記普遍的な生成モデルを前記第1および第2のカメラへ前記適用することは、監視されない適応方法で行われる、請求項1に記載の方法。
- 前記普遍的な生成モデルを前記第1および第2のカメラへ前記適用することは、前記普遍的な生成モデルのパラメータの最大事後確率(MAP)適応を備える、請求項4に記載の方法。
- 前記普遍的な生成モデルを前記第1および第2のカメラへ前記適用することは、前記第1および第2のカメラにより撮像された画像から局所的な記述子を、前記普遍的な生成モデルを前記第1のカメラへ適用するために使用される、前記第1のカメラにより撮像された画像から前記局所的な記述子を、前記普遍的な生成モデルを前記第2のカメラへ適用するために使用される、前記第2のカメラにより撮像された前記画像から前記局所的な記述子を、抽出すること、を備える、請求項1に記載の方法。
- 局所的な記述子の普遍的な生成モデルを保存するメモリ、および、
前記普遍的な生成モデルを第1のカメラへ適用して第1のカメラ依存の生成モデルを取得し、前記普遍的な生成モデルを第2のカメラへ適用して第2のカメラ依存の生成モデルを取得する、適応コンポーネント、および、
前記適応コンポーネントを実装するプロセッサ、
を備える、システム。 - 第1の画像レベル記述子と第2の画像レベル記述子との間の類似性を計算するマッチングコンポーネントであって、前記第1の画像レベル記述子は、前記第1のカメラにより撮像された第1の画像から、前記第1のカメラ依存の生成モデルを使用して抽出され、前記第2の画像レベル記述子は、前記第2のカメラにより撮像された第2の画像から、前記第2のカメラ依存の生成モデルを使用して抽出される、マッチングコンポーネント、
をさらに備える、請求項7に記載のシステム。 - 第1の画像レベル記述子および第2の画像レベル記述子のうちの少なくとも1つを抽出する署名生成コンポーネントであって、前記第1の画像レベル記述子は、前記第1のカメラにより撮像された第1の画像から、前記第1のカメラ依存の生成モデルを使用して抽出され、前記第2の画像レベル記述子は、前記第2のカメラにより撮像された第2の画像から、前記第2のカメラ依存の生成モデルを使用して抽出される、署名生成コンポーネント、
をさらに備える、請求項7に記載のシステム。 - 訓練セットの画像から抽出される局所的な記述子を使用して生成される、普遍的な生成モデルを提供すること、
コンピュータプロセッサで、前記普遍的な生成モデルを第1のカメラへ適用して、前記第1のカメラにより撮像される画像から抽出される局所的な記述子を使用して、第1のカメラ依存の生成モデルを取得すること、
コンピュータプロセッサで、前記普遍的な生成モデルを第2のカメラへ適用して、前記第1のカメラにより撮像される画像から抽出される局所的な記述子を使用して、第2のカメラ依存の生成モデルを取得すること、
提供することであって、
前記第1のカメラ依存の生成モデルを使用する、第1の画像の画像レベル表現と、
前記第1のカメラ依存の生成モデルを使用する、第1の画像の画像レベル表現と、
のうちの少なくとも1つを計算するためのコンポーネントを提供すること、および、
前記第1の画像レベル記述子と前記第2の画像レベル記述子との間の類似性を計算するためのコンポーネントを提供すること、
を備える、物体再同定のためのシステムを生成する方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/557,891 US9607245B2 (en) | 2014-12-02 | 2014-12-02 | Adapted vocabularies for matching image signatures with fisher vectors |
US14/557,891 | 2014-12-02 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016110635A true JP2016110635A (ja) | 2016-06-20 |
JP6687364B2 JP6687364B2 (ja) | 2020-04-22 |
Family
ID=54697474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015221043A Expired - Fee Related JP6687364B2 (ja) | 2014-12-02 | 2015-11-11 | 画像署名をフィッシャーベクトルとマッチングするための適応型語彙 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9607245B2 (ja) |
EP (1) | EP3035239B1 (ja) |
JP (1) | JP6687364B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022137337A1 (ja) * | 2020-12-22 | 2022-06-30 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106205144B (zh) * | 2016-09-07 | 2018-06-19 | 东南大学 | 高速公路应急车道占用监督处罚方法和系统 |
US10990830B2 (en) | 2016-09-13 | 2021-04-27 | Genetec Inc. | Auto-calibration of tracking systems |
CN108509408B (zh) * | 2017-02-27 | 2019-11-22 | 芋头科技(杭州)有限公司 | 一种句子相似度判断方法 |
US11055538B2 (en) * | 2017-03-31 | 2021-07-06 | Disney Enterprises, Inc. | Object re-identification with temporal context |
US10474929B2 (en) * | 2017-04-25 | 2019-11-12 | Nec Corporation | Cyclic generative adversarial network for unsupervised cross-domain image generation |
US10503981B2 (en) | 2017-06-27 | 2019-12-10 | Canon Kabushiki Kaisha | Method and apparatus for determining similarity of objects in images |
US10496880B2 (en) | 2017-06-27 | 2019-12-03 | Canon Kabushiki Kaisha | Method and apparatus for comparing objects in images |
GB2563952A (en) * | 2017-06-29 | 2019-01-02 | Cirrus Logic Int Semiconductor Ltd | Speaker identification |
US11055989B2 (en) * | 2017-08-31 | 2021-07-06 | Nec Corporation | Viewpoint invariant object recognition by synthesization and domain adaptation |
US11699207B2 (en) * | 2018-08-20 | 2023-07-11 | Waymo Llc | Camera assessment techniques for autonomous vehicles |
US11227409B1 (en) | 2018-08-20 | 2022-01-18 | Waymo Llc | Camera assessment techniques for autonomous vehicles |
CN109815784A (zh) * | 2018-11-29 | 2019-05-28 | 广州紫川物联网科技有限公司 | 一种基于红外热像仪的智能分类方法、系统及存储介质 |
CN111738039B (zh) * | 2019-05-10 | 2024-05-24 | 北京京东尚科信息技术有限公司 | 一种行人重识别方法、终端及存储介质 |
CN110263864A (zh) * | 2019-06-24 | 2019-09-20 | 北京精英路通科技有限公司 | 车辆的匹配方法、装置、计算机设备及存储介质 |
CN111274973B (zh) * | 2020-01-21 | 2022-02-18 | 同济大学 | 基于自动划分域的人群计数模型训练方法及应用 |
CN112185395B (zh) * | 2020-09-04 | 2021-04-27 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种基于差分隐私的联邦声纹识别方法 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4433325A (en) | 1980-09-30 | 1984-02-21 | Omron Tateisi Electronics, Co. | Optical vehicle detection system |
FR2645310B1 (fr) | 1989-03-31 | 1991-06-21 | Elsydel | Procede d'identification d'objets en mouvement, notamment de vehicules, et systemes pour sa mise en oeuvre |
ATE203844T1 (de) | 1992-03-20 | 2001-08-15 | Commw Scient Ind Res Org | Gegenstands-überwachungsystem |
EP0669034B1 (de) | 1992-11-10 | 1997-01-15 | Siemens Aktiengesellschaft | Verfahren zur detektion und abspaltung des schattens sich bewegender objekte in einer digitalen bildsequenz |
US5995900A (en) | 1997-01-24 | 1999-11-30 | Grumman Corporation | Infrared traffic sensor with feature curve generation |
EP0930585B1 (en) * | 1998-01-14 | 2004-03-31 | Canon Kabushiki Kaisha | Image processing apparatus |
DE60037360T2 (de) | 1999-05-28 | 2008-12-04 | Nippon Telegraph And Telephone Corp. | Verfahren und Vorrichtung zur Geschwindigkeitsmessung von Fahrzeugen mit ein Bildverarbeitungssystem |
US7039239B2 (en) * | 2002-02-07 | 2006-05-02 | Eastman Kodak Company | Method for image region classification using unsupervised and supervised learning |
US7885466B2 (en) | 2006-09-19 | 2011-02-08 | Xerox Corporation | Bags of visual context-dependent words for generic visual categorization |
US7885794B2 (en) * | 2007-11-30 | 2011-02-08 | Xerox Corporation | Object comparison, retrieval, and categorization methods and apparatuses |
US8229168B2 (en) * | 2008-02-20 | 2012-07-24 | International Business Machines Corporation | Fast license plate verifier |
TWI416068B (zh) * | 2009-12-10 | 2013-11-21 | Ind Tech Res Inst | 跨感測器間之物體追蹤方法與系統 |
GB2482127B (en) * | 2010-07-19 | 2015-01-14 | Ipsotek Ltd | Apparatus, system and method |
US8532399B2 (en) | 2010-08-20 | 2013-09-10 | Xerox Corporation | Large scale image classification |
US8731317B2 (en) | 2010-09-27 | 2014-05-20 | Xerox Corporation | Image classification employing image vectors compressed using vector quantization |
IL210427A0 (en) * | 2011-01-02 | 2011-06-30 | Agent Video Intelligence Ltd | Calibration device and method for use in a surveillance system for event detection |
US10027952B2 (en) * | 2011-08-04 | 2018-07-17 | Trx Systems, Inc. | Mapping and tracking system with features in three-dimensional space |
US8582819B2 (en) | 2011-11-18 | 2013-11-12 | Xerox Corporation | Methods and systems for improving yield in wanted vehicle searches |
US8588470B2 (en) | 2011-11-18 | 2013-11-19 | Xerox Corporation | Methods and systems for improved license plate signature matching by similarity learning on synthetic images |
AU2011265430B2 (en) * | 2011-12-21 | 2015-03-19 | Canon Kabushiki Kaisha | 3D reconstruction of partially unobserved trajectory |
US8917910B2 (en) | 2012-01-16 | 2014-12-23 | Xerox Corporation | Image segmentation based on approximation of segmentation similarity |
US8781172B2 (en) * | 2012-03-30 | 2014-07-15 | Xerox Corporation | Methods and systems for enhancing the performance of automated license plate recognition applications utilizing multiple results |
US8824742B2 (en) | 2012-06-19 | 2014-09-02 | Xerox Corporation | Occupancy detection for managed lane enforcement based on localization and classification of windshield images |
US9031331B2 (en) | 2012-07-30 | 2015-05-12 | Xerox Corporation | Metric learning for nearest class mean classifiers |
US8879796B2 (en) | 2012-08-23 | 2014-11-04 | Xerox Corporation | Region refocusing for data-driven object localization |
US9641763B2 (en) | 2012-08-29 | 2017-05-02 | Conduent Business Services, Llc | System and method for object tracking and timing across multiple camera views |
US9008429B2 (en) | 2013-02-01 | 2015-04-14 | Xerox Corporation | Label-embedding for text recognition |
US8971581B2 (en) | 2013-03-15 | 2015-03-03 | Xerox Corporation | Methods and system for automated in-field hierarchical training of a vehicle detection system |
US8913791B2 (en) * | 2013-03-28 | 2014-12-16 | International Business Machines Corporation | Automatically determining field of view overlap among multiple cameras |
JP5896084B2 (ja) * | 2013-08-01 | 2016-03-30 | パナソニック株式会社 | 類似症例検索装置、類似症例検索装置の制御方法、およびプログラム |
US20150262033A1 (en) * | 2014-03-14 | 2015-09-17 | Xiaomi Inc. | Method and terminal device for clustering |
US10037345B2 (en) * | 2014-03-14 | 2018-07-31 | Xiaomi Inc. | Clustering method and device |
US10043101B2 (en) * | 2014-11-07 | 2018-08-07 | Adobe Systems Incorporated | Local feature representation for image recognition |
-
2014
- 2014-12-02 US US14/557,891 patent/US9607245B2/en active Active
-
2015
- 2015-11-11 JP JP2015221043A patent/JP6687364B2/ja not_active Expired - Fee Related
- 2015-11-20 EP EP15195657.0A patent/EP3035239B1/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022137337A1 (ja) * | 2020-12-22 | 2022-06-30 | ||
WO2022137337A1 (ja) * | 2020-12-22 | 2022-06-30 | 日本電気株式会社 | 学習装置、学習方法、及び、記録媒体 |
JP7416284B2 (ja) | 2020-12-22 | 2024-01-17 | 日本電気株式会社 | 学習装置、学習方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3035239A1 (en) | 2016-06-22 |
US20160155020A1 (en) | 2016-06-02 |
EP3035239B1 (en) | 2024-04-17 |
JP6687364B2 (ja) | 2020-04-22 |
US9607245B2 (en) | 2017-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6687364B2 (ja) | 画像署名をフィッシャーベクトルとマッチングするための適応型語彙 | |
CN109740478B (zh) | 车辆检测及识别方法、装置、计算机设备及可读存储介质 | |
US10346464B2 (en) | Cross-modiality image matching method | |
US9412031B2 (en) | Delayed vehicle identification for privacy enforcement | |
US7869657B2 (en) | System and method for comparing images using an edit distance | |
US9911055B2 (en) | Method and system for detection and classification of license plates | |
US9626594B2 (en) | Method and system to perform text-to-image queries with wildcards | |
US8345921B1 (en) | Object detection with false positive filtering | |
Bhunia et al. | Text recognition in scene image and video frame using color channel selection | |
US11055538B2 (en) | Object re-identification with temporal context | |
JP2016058079A (ja) | クラス事前確率を用いる画像分類のドメイン適応化 | |
US20150286884A1 (en) | Machine learning approach for detecting mobile phone usage by a driver | |
US10331968B2 (en) | One shot color calibrated metric learning for object re-identification | |
TW200529093A (en) | Face image detection method, face image detection system, and face image detection program | |
Awang et al. | Vehicle counting system based on vehicle type classification using deep learning method | |
US11921774B2 (en) | Method for selecting image of interest to construct retrieval database and image control system performing the same | |
Gowda | Age estimation by LS-SVM regression on facial images | |
Liang et al. | Pedestrian detection based on sparse coding and transfer learning | |
Adak et al. | Automatic number plate recognition (ANPR) with YOLOv3-CNN | |
Lyu | Research on subway pedestrian detection algorithm based on big data cleaning technology | |
Singh et al. | Cloud-Based License Plate Recognition for Smart City Using Deep Learning | |
Bennur et al. | Face Mask Detection and Face Recognition of Unmasked People in Organizations | |
CN110717544A (zh) | 一种垂直鱼眼镜头下行人属性分析方法及系统 | |
Nalawati et al. | Vehicle Number Plate Recognition in Intelligent Transportation System using YOLO v8 and EasyOCR | |
US20240161483A1 (en) | In-situ model adaptation for privacy-compliant image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20151207 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160212 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20181010 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200402 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6687364 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |