JP7198922B2 - タイヤ・サイドウォール撮像方法 - Google Patents
タイヤ・サイドウォール撮像方法 Download PDFInfo
- Publication number
- JP7198922B2 JP7198922B2 JP2021523062A JP2021523062A JP7198922B2 JP 7198922 B2 JP7198922 B2 JP 7198922B2 JP 2021523062 A JP2021523062 A JP 2021523062A JP 2021523062 A JP2021523062 A JP 2021523062A JP 7198922 B2 JP7198922 B2 JP 7198922B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- interest
- tire
- histogram
- hog
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 83
- 238000000034 method Methods 0.000 claims description 76
- 238000012549 training Methods 0.000 claims description 31
- 238000012545 processing Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims 2
- 230000001419 dependent effect Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 30
- 210000004027 cell Anatomy 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000012015 optical character recognition Methods 0.000 description 8
- 238000005286 illumination Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000003909 pattern recognition Methods 0.000 description 6
- 230000002829 reductive effect Effects 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 6
- 230000004807 localization Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000012356 Product development Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000135 prohibitive effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000004049 embossing Methods 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- YLJREFDVOIBQDA-UHFFFAOYSA-N tacrine Chemical compound C1=CC=C2C(N)=C(CCCC3)C3=NC2=C1 YLJREFDVOIBQDA-UHFFFAOYSA-N 0.000 description 1
- 229960001685 tacrine Drugs 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M17/00—Testing of vehicles
- G01M17/007—Wheeled or endless-tracked vehicles
- G01M17/02—Tyres
- G01M17/027—Tyres using light, e.g. infrared, ultraviolet or holographic techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/2433—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures for measuring outlines by shadow casting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/146—Aligning or centring of the image pick-up or image-field
- G06V30/147—Determination of region of interest
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/1801—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
- G06V30/18019—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
- G06V30/18038—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
- G06V30/18048—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
- G06V30/18057—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/18086—Extraction of features or characteristics of the image by performing operations within image blocks or by using histograms
- G06V30/18095—Summing image-intensity values; Projection and histogram analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Biodiversity & Conservation Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
- Investigating Or Analysing Biological Materials (AREA)
Description
低コントラスト、低色差イメージ上の関心領域をより正確かつ効率的に識別することにより、普通なら見落とされていたはずのタイヤの型押しおよび/または彫刻マーキング付近の裂傷などの欠陥が、より容易に識別され、特定のタイヤに関連付けられ、追跡され得、それによってタイヤ安全性を改善する効果を実現する。さらに、タイヤ識別情報ならびに関連するタイヤ欠陥および/または安全性情報の中央データベースが更新され得る。次いで、中央データベースは、タイヤを修理または交換する必要があるときを判定するために使用され得る。
「タイヤ検出」-タイヤのイメージ内のどのピクセルがタイヤに対応するか、およびどのピクセルが、車両のハブキャップや車体などの背景に対応するかを識別すること、
「アンワーピング(unwarping)」-湾曲したタイヤ・サイドウォールのイメージを、曲線が除去され、またはまっすぐにされたイメージにマッピングすること、
「畳込みフィルタのスタック」-畳込みニューラルネットワークまたはその一部を共に形成する、畳込みフィルタを含むイメージ処理操作のカスケード、
「全結合畳込み層(fully connected convolutional layer)」-そのマスクサイズの高さ、幅、およびチャネル数が前の層の特徴マップのサイズと同一である畳込みフィルタ。全結合畳込み層は、全結合層が生成するのと同一の出力サイズの特徴マップを生成する。
前述のように、WO2017060739A1で提案されているような撮像システムが、型押しおよび/または彫刻テキストまたはマーキングがその上に存在するタイヤのサイドウォールのデジタルイメージを取得するために使用され得る。このシステムは、所与のイメージ内のタイヤ・サイドウォールの一部のみを取り込み、したがってタイヤが通過するときに通常は一連のイメージが撮影され、タイヤ・サイドウォールの外周全体が取り込まれること、したがって型押しおよび/または彫刻マーキングを有するサイドウォールの任意の部分も取り込まれることが保証される。
イメージが取得されると、円形ハフ変換(Circular Hough Transform)(CHT)または他の適切な技法を使用してタイヤの円形セグメントが検出され得る(すなわち、内半径および外半径の位置が特定される)。CHTを実施する前に、照射を正規化するだけでなく、エッジも向上させるDifference of Gaussian(DoG)フィルタを使用して、イメージが前処理され得る。前処理の一部として、任意選択で、イメージが元のサイズの1/4~1/8の間までダウンサンプリングされ得、ダウンサンプリングは、タイヤ検出の効率と精度のどちらも改善する。次いで、タイヤの中心が、カメラによって取り込まれたイメージフレームの外部にあり得るので、ダウンサンプリング後のイメージが黒色ピクセルで埋められる(すなわち、CHTがタイヤ中心を識別し得る適切なサイズの座標系を与えるために、ブラック・ピクセルが追加される)。前処理が行われた後に、次いでハブキャップの円形接合を検出するためにCHTが使用され、したがってCHTは、図2aに示されるように、ある程度の安全なオフセットを有するタイヤの内半径204と、外半径203とを検出し、これらは、図2(b)に示されるように、実際のタイヤの内半径201および外半径202に対応する。しかしながら、より高いコントラストの結果として時にはより支配的となり得るイメージ内の別の支配的な円さ(circularity)(図2(b)に示されるようなホイールアーチやハブキャップの円さなど)の存在のために、時には別の誤った円が検出される。この状況を回避するために、特定のタイヤ(車軸)に関連する、取り込まれたイメージのすべてが、n個の半径範囲について(並列スレッドで)処理される。次いで、検出された円が半径範囲ヒストグラムを生成するために使用される。その中で検出された円の最高数を有する半径範囲ビンに対応する半径が、最良の検出されたタイヤ内半径201として選択される。この手法は単純であり(すなわち、リソース効率が良く)、所与のイメージの視野の結果としてタイヤの円さが支配的となる移動中のタイヤから生じるコンセンサスのために、どんな異常値も効果的に、首尾よく除去することができる。
テキスト検出104ステージでは、テキスト検出および位置特定のための機械学習ベースの手法が利用される。タイヤ・アンワーピング・ステージ103からのアンワーピング済みイメージが使用される。業界の規定により、ほとんどの市販のタイヤ・サイドウォール・コードの先頭には、米国運輸省を表す文字シーケンス「D」、「O」、および「T」が付けられている。この例では、DOT文字シーケンスは、タイヤ・サイドウォール・コードに関するテキストの位置を特定するためのアンカとして使用される。しかしながら、他の文字シーケンス、英字、数字、ロゴ、記号、ピクトグラム、および/または任意の他の情報の視覚的表現も、タイヤ・サイドウォール・コードのテキストの位置が特定され得るアンカとして使用され得ることが想定される。例えば、フリートオペレータが1つのブランドのタイヤのみを使用する場合、関連するブランド・ロゴまたは商標が、タイヤ・サイドウォール上のテキストの位置を特定するために使用され得る。
テキストは非常に低いコントラストであるので、提案生成のために、低レベル特徴ベースの手法(「ZitnickおよびDollar、Edge Boxes: Locating object Proposals from Edges、ECCV、European Conference on Computer Vision、2014」によって提案されるエッジ・ボックスなど)は本発明者らによって不適切であることが判明した。タイヤの他のセグメントからの強いエッジが支配的となり(そのほとんどはテキストを含まない)、その結果、どんなテキストも含まない多数の提案が生じるからである。これらの提案のうちのどれがテキストを含むか否かを判定することは、リソースオーバヘッドを著しく増大させる。
本明細書で論じられるすべてのCNNトレーニング実行は、確率的勾配降下法を、A VedadiおよびLenc (2015) MatConvNet- Convolutional Neural Networks for Matlab、Proceedings of the ACM、Int. Conf. on Multimediaで説明されているようにA.VedaldiおよびLenc(2015)によるMatConvNetライブラリを使用するMatlab内の逆伝播を伴うオプティマイザとして使用する。しかしながら、TensorFlow、Caffe、Torchなどの任意の適切な代替トレーニングおよび最適化技法およびライブラリも使用され得ることが想定される。さらに、一例として、テキストクラストレーニングデータが合成的に生成され得るのに対して、背景クラストレーニングデータが現実のタイヤイメージから抽出され得る。しかしながら、例えば現実のタイヤイメージから十分なデータが利用可能である場合、合成データ生成が全く不要であり得ることが想定される。さらに、過学習を防止するためにドロップアウト層が使用され得る。さらに、本明細書で説明されるネットワークは、過学習(over-fitting)を防止するためにトレーニング中に1つまたは複数の50%ドロップアウト層を使用したが、その代わりに、交差検証、より多くのデータを用いたトレーニング、特徴の除去、早期打切り(early-stopping)、正則化(regularisation)などの、過学習を防止するために使用される他の技法も使用され得ることが想定される。照明正規化およびエッジ強調のために、Difference of Gaussian(DoG)フィルタリングが入力データに適用された。ヒストグラム等化(histogram equalization)や適応ヒストグラム等化などの、コントラスト正規化の他の技法も使用され得る。
前述のように、十分な現実のイメージデータが利用可能ではない場合、任意選択で、合成データ生成が使用され得る。自然環境内に配置された自動タイヤ・サイドウォール・テキスト・リーダは様々な光、天候、摩耗の条件でサイドウォール・テキストを読み取らなければならないので、良好な一般化を達成するためにかなりの量のトレーニングデータが必要とされ得る。自然環境で大量のデータセットを収集することは非常に費用がかかり、時間がかかるプロセスである。その代わりに、いくつかの異なるフォントおよびテキストレンダリングエンジンを使用して、トレーニングデータが合成的に生成され得る。最初に、ランダムなサイズの様々なフォントを使用して白黒テキストマスクが作成される。次いで、マスクが漸進的に不鮮明にされ得る(複数のコピーを追加する、または狭い近傍(dx,dyピクセル)内でレンダリング位置をシフトする)。これが様々な方向(回転する影を表すため)および長さ(様々な影の長さを表すため)で行われる。次いで、イメージ・マスクがタイヤ背景と融合され、現実のタイヤ・サイドウォール・イメージ上に現れるはずの、現実的な型押し/彫刻テキスト・イメージが再現される。勾配方向ヒストグラム特徴がCNN分類器への入力に使用されるとすると、いくつかの実施形態では、トレーニングデータは、タイヤ・サイドウォールの複数のデジタルイメージから生成された複数の勾配方向ヒストグラム特徴マップを含み得る。
図3は、図1の提案生成ステップ104aに対応する、本発明の一実施形態である提案ジェネレータ方法304のステップを示すフローチャートである。例えば前述のように取得された、アンワーピング済みタイヤ・サイドウォールの一部のデジタルイメージ300が入力として使用される。タイヤ・サイドウォールは、その上にタイヤ・サイドウォール・コードなどの1つまたは複数の型押しおよび/または彫刻マーキングを有する。デジタルイメージの勾配方向ヒストグラムおよびそれに関連する特徴マップが生成される(301)。生成された勾配方向ヒストグラムがトレーニング済みニューラルネットワーク302に入力される。トレーニング済みニューラルネットワークは、入力された勾配方向ヒストグラムおよびそれに関連する特徴マップに基づいて、デジタルイメージのピクセルの領域が型押しおよび/または彫刻マーキングを含む第1の確率を出力する(303)ように構成される。第1の確率が第1の所定のしきい値以上である場合(305a)、ピクセルの領域が関心領域として受け入れられ、出力される(306)。そうでない場合、ピクセルの領域は棄却される(305b)。このようにして、提案ジェネレータ方法104aは1つまたは複数の型押しおよび/または彫刻マーキングに関連付けられるデジタルイメージ上の関心領域を生成し得る。
図6aは、一実施形態によるHOG-CNNアーキテクチャのブロック図である。全結合畳込みネットワークが、畳込みフィルタのスタック、すなわちHOG特徴生成層を構成するHOG分解層で終了するイメージ処理操作のカスケードの終わりにプラグインされる。それと共に、これは、所与の入力イメージが型押しおよび/または彫刻マーキングを含む確率を出力するクロスエントロピー損失層(トレーニング用)またはソフトマックス層(テスト用または適用用または動作用)で終了する完全なCNNアーキテクチャを提供する。そのようなネットワークは、ディープ特徴を生成するためにCNN層が使用されるようなディープネットワークよりも少ない畳込み層およびチャネルを有する浅いものである。したがって、ネットワークの深さが浅いことは、著しい速度の改善を実現し、自然環境でのタイヤ・サイドウォール・テキスト読取りにずっと適したものとなる。
HOG-MLPでは、統合CNNアーキテクチャを使用するのではなく、VLFeatライブラリ(VedaldiおよびFulkerson 2008、An Open and Portable Library of Computer Vision Algorithms、ver(0.9.16)、p、http://www.vlfeat.org)などの独立型HOG実装610を使用して、HOGが入力601から抽出され、次いで図6bに示されるようにマルチクラスMLP(HOG-MLP)ネットワークに供給され得る。この例で使用されるVLFEAT HOG実装610では、勾配が3*O+4テクスチャ成分についてビニングされる。したがって、60(H)×130(W)の入力601イメージ・サイズ、8×8のHOGセルサイズ、および12の方向では(合計で40成分)、ネットワーク内の第1の層611は8×16×40CHであった。セルサイズおよび方向数は、交差検証データセットに対して可能な最良の検出精度を達成するように系統的探索を通じて選ばれた。他のセルサイズおよび方向数も使用され得る。交差検証データセットに対する精度。他のセルサイズおよび方向数も使用され得る。プレーン背景、非DOTテキスト、およびエッジ/テクスチャの間で分割された4つの背景クラスと共に、丸/四角/細字および太字のフォント、はっきりした外観と拡散した外観、長い影と短い影、文字間のシングルスペーシングとダブルスペーシング、および他の変形について7つの合成されたDOTクラスを含む百万個超のイメージの11クラス(nC=11)のデータセットに関してネットワークがトレーニングされた。第2の層612もクロスエントロピー損失層613と共に設けられた。クロスエントロピー損失層の出力クラスのうちのどれがDOTコードに対応し、どれが対応しないかを事前決定することによって、出力614がバイナリクラス確率すなわちDOT/非DOTにマッピングされた。この多クラス表現は、前の知識をトレーニングに組み込むことを可能にし、それによって、例えばネットワークの一般化を向上させ、その結果、設置、較正、および/またはハードウェア製品開発の間のイメージ取得の照明構成の変化に対処し得る。
HOG-CNNとHOG MLPという2つの提案生成方法を比較すると、イメージ500×3000ピクセルについての走査時間は、Intel Corei7 3.6GHz CPU上でそれぞれ約550および250msであった。HOG-CNNとHOG-MLPのどちらについても、これは、スライディングウィンドウ方式の手作りのHOG+SVM実装、またはディープCNNベースの実装の数分程度よりも著しく高速である。
フィルタリング後の提案からタイヤ・サイドウォール・テキスト(すなわち、タイヤ・サイドウォールDOTコード)の位置を最終的に特定し、検証するために、生成された関心領域に分類器が適用され、関心領域のうちの1つまたは複数が偽陽性として受け入れられ、または棄却され得る。
コード読取り105は、図1に示されるように、テキストまたは文字検出/位置特定105a(コードの文字の位置が特定される)と、テキストまたは文字認識105b(文字が認識され、出力される)という2つのステージから構成され得る。ステップ105aおよび105bは、単一のステップで同一の分類器によって実施され、または別々の分類器によって実施され得る。イメージのコードパッチ(すなわち、DOTコードおよび「DOT」アンカ位置に続く文字を含むイメージの部分)がまず前処理され、低レベル・エッジ・フィルタリングを使用してテキスト高さまで切り取られる。次いで、パッチ高さがコード検出ネットワークのストライド(入力イメージ上の2つの連続する検出ウィンドウ間でスキップされるピクセル数)に従って40~50ピクセルにサイズ変更される。
提案されるシステムは産業システムであるので、精度と効率がどちらも等しく重要である。具体的には、ステップ104aでの前述の提案/関心領域ジェネレータは、精度の顕著な低下を受けることなく、タイヤ・サイドウォール読取りシステムの効率の著しい向上を実現する。したがって、その方法が提案/関心領域の生成を必要とする、タイヤ・サイドウォール読取りに適用される任意の周知のコンピュータビジョンおよびOCR技法と共に提案/関心領域ジェネレータが使用され得ることを本発明者らは想定する。
精度は、最終的には解析中のデータサンプルに依存する。本明細書で説明されるアーキテクチャのトレーニング誤差は5%未満であった。合成トレーニングデータが現実のイメージデータと混合され、かつ/またはアフィン変形などのトレーニング時間データ増強が追加される場合、ネットワークによる過学習はさらに低減され得る。したがって、HOG-CNNおよびHOG-MLPは、タイヤ・サイドウォール・テキストに関する関心領域生成について5%未満の偽陽性率を実現する。これは、タイヤ高、半径、およびホイールアーチに対する位置が多種多様であっても実現される。
産業システムでは、エンド・ユーザが結果を待っているので、効率が非常に重要である。ディープラーニングベースのシステムではGPU(グラフィカル処理装置)が広く使用されているが、GPUを配置することは、各撮像場所にGPUが配置されるので全システムコストが増大することを意味する。需要が増大し、場所ごとに2つのユニット(車両の右側および左側について1つずつ)が必要となることにより、全コストを低く保つことは主要な属性となる。したがって、前述のように、理想的にはCPUベースのシステムが求められている。
Claims (15)
- タイヤのサイドウォールのデジタルイメージ上の関心領域を生成するためのコンピュータ実装方法であって、前記サイドウォールが1つまたは複数の型押しおよび/または彫刻マーキングを有し、
タイヤの円さに関連する複数のn個の半径範囲を検出し、半径範囲ヒストグラムを生成し、前記半径範囲ヒストグラムからタイヤ内半径および外半径を特定することによって、前記デジタルイメージをアンワーピングすることと、
アンワーピングされた前記デジタルイメージの勾配方向ヒストグラム特徴マップを生成することと、
前記勾配方向ヒストグラム特徴マップをトレーニング済みニューラルネットワークに入力することであって、前記トレーニング済みニューラルネットワークが、入力された前記勾配方向ヒストグラム特徴マップに基づいて、アンワーピングされた前記デジタルイメージのピクセルの領域が前記型押しおよび/または彫刻マーキングを含む第1の確率を出力するように構成される、入力することと、
前記第1の確率が第1の所定のしきい値以上である場合、ピクセルの前記領域を前記関心領域として受け入れることと
を含むコンピュータ実装方法。 - 勾配方向ヒストグラム特徴マップを前記生成することが、トレーニング済み畳込みニューラルネットワーク内の畳込みフィルタのスタックによって実施される、請求項1に記載のコンピュータ実装方法。
- 勾配方向ヒストグラム特徴マップを前記生成することが、前記トレーニング済みニューラルネットワークとは別々の勾配方向ヒストグラムジェネレータによって実施される、請求項1に記載のコンピュータ実装方法。
- 前記トレーニング済みニューラルネットワークが1つまたは2つの全結合層を含む、請求項1から3のいずれかに記載のコンピュータ実装方法。
- 前記トレーニング済み畳込みニューラルネットワークが、タイヤ・サイドウォールの複数のアンワーピングされたデジタルイメージから生成された複数の勾配方向ヒストグラム特徴マップを含むトレーニングデータに関してトレーニングされる、請求項2、または請求項2に従属する請求項4に記載のコンピュータ実装方法。
- 前記トレーニングデータが合成データをさらに含む、請求項5に記載のコンピュータ実装方法。
- 前記第1の確率が前記第1の所定のしきい値未満である場合、ピクセルの前記領域を関心領域として棄却することをさらに含む、請求項1から6のいずれかに記載のコンピュータ実装方法。
- 前記関心領域に分類器を適用することであって、
前記分類器が、前記関心領域が前記型押しおよび/または彫刻マーキングを含む第2の確率を出力するように構成される、適用することと、
前記第2の確率が第2の所定のしきい値未満である場合、前記関心領域が偽陽性であると判定することと
をさらに含む、請求項1から7のいずれかに記載のコンピュータ実装方法。 - タイヤのサイドウォール上の型押しおよび/または彫刻マーキングを読み取る方法であって、
前記タイヤの前記サイドウォールのデジタルイメージを提供することと、
タイヤの円さに関連する複数のn個の半径範囲を検出し、半径範囲ヒストグラムを生成し、前記半径範囲ヒストグラムからタイヤ内半径および外半径を特定することによって、前記デジタルイメージをアンワーピングすることと、
アンワーピングされた前記デジタルイメージ上の関心領域を生成することと、
前記関心領域が偽陽性であるかどうかを判定するように分類器を適用し、前記関心領域が偽陽性である場合、前記関心領域を廃棄すること、または前記関心領域が偽陽性ではない場合、前記関心領域を選択することと、
選択した前記関心領域に隣接するアンワーピングされた前記デジタルイメージのエリアを選択することと、
前記関心領域に隣接する前記デジタルイメージの前記エリアに分類器を適用し、前記型押しおよび/または彫刻マーキングを読み取ることと、
を含み、
関心領域を前記生成することが、
アンワーピングされた前記デジタルイメージの勾配方向ヒストグラム特徴マップを生成することと、
前記勾配方向ヒストグラム特徴マップをトレーニング済みニューラルネットワークに入力することであって、前記トレーニング済みニューラルネットワークが、入力された前記勾配方向ヒストグラム特徴マップに基づいて、アンワーピングされた前記デジタルイメージのピクセルの領域が前記型押しおよび/または彫刻マーキングを含む確率を出力するように構成される、入力することと、
前記確率が所定のしきい値以上である場合、ピクセルの前記領域を前記関心領域として受け入れることと、
を含む方法。 - 勾配方向ヒストグラム特徴マップを前記生成することが、トレーニング済み畳込みニューラルネットワーク内の畳込みフィルタのスタックによって実施される、請求項9に記載の方法。
- 勾配方向ヒストグラム特徴マップを前記生成することが、前記トレーニング済みニューラルネットワークとは別々の勾配方向ヒストグラムジェネレータによって実施される、請求項9に記載の方法。
- 請求項1から11のいずれかに記載の方法のステップを実施するための手段を備えるデータ処理装置。
- 前記ステップが中央プロセッサ処理装置(CPU)によって実施される、請求項12に記載のデータ処理装置。
- 命令を含むコンピュータプログラムであって、前記命令は、前記プログラムがコンピュータによって実行されるとき、請求項1から11のいずれかに記載の方法のステップを前記コンピュータに実施させる、コンピュータプログラム。
- 請求項14に記載のコンピュータプログラムを記憶したコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1900915.8 | 2019-01-23 | ||
GB1900915.8A GB2580675A (en) | 2019-01-23 | 2019-01-23 | Tyre sidewall imaging method |
PCT/GB2020/050105 WO2020152440A1 (en) | 2019-01-23 | 2020-01-20 | Tyre sidewall imaging method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022517471A JP2022517471A (ja) | 2022-03-09 |
JP7198922B2 true JP7198922B2 (ja) | 2023-01-04 |
Family
ID=65656022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021523062A Active JP7198922B2 (ja) | 2019-01-23 | 2020-01-20 | タイヤ・サイドウォール撮像方法 |
Country Status (13)
Country | Link |
---|---|
US (1) | US11922683B2 (ja) |
EP (1) | EP3915042B1 (ja) |
JP (1) | JP7198922B2 (ja) |
KR (1) | KR20210114383A (ja) |
CN (1) | CN112740223A (ja) |
AU (1) | AU2020211766B2 (ja) |
BR (1) | BR112021014182A2 (ja) |
CA (1) | CA3110975A1 (ja) |
ES (1) | ES2947935T3 (ja) |
GB (1) | GB2580675A (ja) |
PL (1) | PL3915042T3 (ja) |
WO (1) | WO2020152440A1 (ja) |
ZA (1) | ZA202104551B (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11763546B1 (en) | 2017-07-26 | 2023-09-19 | Vizit Labs, Inc. | Systems and methods for managing computer memory for scoring images or videos using selective web crawling |
US11417085B2 (en) | 2017-07-26 | 2022-08-16 | Vizit Labs, Inc. | Systems and methods for automating benchmark generation using neural networks for image or video selection |
US12118769B1 (en) | 2017-07-26 | 2024-10-15 | Vizit Labs, Inc. | Machine learning architecture for peer-based image scoring |
US20230145252A1 (en) * | 2020-01-24 | 2023-05-11 | Oswego Innovations Two Inc. | Portable tire scanners and related methods and systems |
CN112883957B (zh) * | 2020-09-23 | 2022-04-22 | 浙江浩腾电子科技股份有限公司 | 一种车胎文本检测和识别方法 |
WO2022152821A1 (en) | 2021-01-13 | 2022-07-21 | Monte Rosa Therapeutics Ag | Isoindolinone compounds |
US20220301297A1 (en) * | 2021-03-16 | 2022-09-22 | 9419-6979 Québec inc. | System, method and apparatus for obtaining sensitive and specific predictions from deep neural networks |
US20220379332A1 (en) * | 2021-05-19 | 2022-12-01 | Paolozzi Investments, Inc. | Systems and methods for universal tire dressing application |
CN114660321B (zh) * | 2022-03-22 | 2022-09-20 | 江阴市精奇数控有限公司 | 电机轴承转速测量系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160162761A1 (en) | 2014-12-09 | 2016-06-09 | Xerox Corporation | Method and system for ocr-free vehicle identification number localization |
US20180181826A1 (en) | 2016-12-27 | 2018-06-28 | Datalogic Usa, Inc. | Robust String Text Detection for Industrial Optical Character Recognition |
JP2018173818A (ja) | 2017-03-31 | 2018-11-08 | キヤノン株式会社 | 携帯型の情報処理装置及び当該情報処理装置を用いた方法及びプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9400936B2 (en) | 2014-12-11 | 2016-07-26 | Xerox Corporation | Methods and systems for vehicle tag number recognition |
KR101714185B1 (ko) * | 2015-08-05 | 2017-03-22 | 엘지전자 주식회사 | 차량 운전 보조장치 및 이를 포함하는 차량 |
GB201517926D0 (en) | 2015-10-09 | 2015-11-25 | Wheelright Ltd | Tyre condition analysis |
US11423651B2 (en) * | 2016-02-09 | 2022-08-23 | Hrl Laboratories, Llc | System and method for the fusion of bottom-up whole-image features and top-down enttiy classification for accurate image/video scene classification |
JP2017162148A (ja) * | 2016-03-09 | 2017-09-14 | キヤノン株式会社 | 情報処理装置、プログラム、情報処理方法 |
CN105976392B (zh) * | 2016-05-30 | 2018-12-14 | 北京智芯原动科技有限公司 | 基于最大输出概率的车辆轮胎检测方法及装置 |
GB2554435B (en) * | 2016-09-27 | 2019-10-23 | Univ Leicester | Image processing |
JP2018088116A (ja) * | 2016-11-29 | 2018-06-07 | キヤノン株式会社 | 情報処理装置、プログラム、情報処理方法 |
US10078892B1 (en) * | 2017-03-16 | 2018-09-18 | GM Global Technology Operations LLC | Methods and systems for vehicle tire analysis using vehicle mounted cameras |
CN107122776A (zh) * | 2017-04-14 | 2017-09-01 | 重庆邮电大学 | 一种基于卷积神经网络的交通标志检测与识别方法 |
CN108052865A (zh) * | 2017-07-06 | 2018-05-18 | 同济大学 | 一种基于卷积神经网络和支持向量机的火焰检测方法 |
WO2019084385A1 (en) * | 2017-10-26 | 2019-05-02 | Tire Profiles, Llc | TIRE CODE READER |
CN108171232B (zh) * | 2017-11-15 | 2021-12-28 | 中山大学 | 基于深度学习算法的细菌性与病毒性儿童肺炎的分类方法 |
CN108287914A (zh) * | 2018-02-09 | 2018-07-17 | 辽宁工程技术大学 | 一种基于卷积神经网络的果树病害识别与防治方法 |
CN109255344B (zh) * | 2018-08-15 | 2022-02-18 | 华中科技大学 | 一种基于机器视觉的数显式仪表定位与读数识别方法 |
-
2019
- 2019-01-23 GB GB1900915.8A patent/GB2580675A/en not_active Withdrawn
-
2020
- 2020-01-20 KR KR1020217017131A patent/KR20210114383A/ko unknown
- 2020-01-20 WO PCT/GB2020/050105 patent/WO2020152440A1/en active Search and Examination
- 2020-01-20 JP JP2021523062A patent/JP7198922B2/ja active Active
- 2020-01-20 PL PL20702345.8T patent/PL3915042T3/pl unknown
- 2020-01-20 CA CA3110975A patent/CA3110975A1/en active Pending
- 2020-01-20 AU AU2020211766A patent/AU2020211766B2/en active Active
- 2020-01-20 ES ES20702345T patent/ES2947935T3/es active Active
- 2020-01-20 US US17/299,720 patent/US11922683B2/en active Active
- 2020-01-20 CN CN202080004934.6A patent/CN112740223A/zh active Pending
- 2020-01-20 EP EP20702345.8A patent/EP3915042B1/en active Active
- 2020-01-20 BR BR112021014182-0A patent/BR112021014182A2/pt unknown
-
2021
- 2021-06-30 ZA ZA2021/04551A patent/ZA202104551B/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160162761A1 (en) | 2014-12-09 | 2016-06-09 | Xerox Corporation | Method and system for ocr-free vehicle identification number localization |
US20180181826A1 (en) | 2016-12-27 | 2018-06-28 | Datalogic Usa, Inc. | Robust String Text Detection for Industrial Optical Character Recognition |
JP2018173818A (ja) | 2017-03-31 | 2018-11-08 | キヤノン株式会社 | 携帯型の情報処理装置及び当該情報処理装置を用いた方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
GB201900915D0 (en) | 2019-03-13 |
CN112740223A (zh) | 2021-04-30 |
PL3915042T3 (pl) | 2023-12-04 |
AU2020211766B2 (en) | 2022-02-10 |
US20220058417A1 (en) | 2022-02-24 |
CA3110975A1 (en) | 2020-07-30 |
AU2020211766A1 (en) | 2021-05-27 |
ZA202104551B (en) | 2024-04-24 |
BR112021014182A2 (pt) | 2021-09-21 |
KR20210114383A (ko) | 2021-09-23 |
US11922683B2 (en) | 2024-03-05 |
GB2580675A (en) | 2020-07-29 |
EP3915042B1 (en) | 2023-06-07 |
EP3915042C0 (en) | 2023-06-07 |
ES2947935T3 (es) | 2023-08-24 |
EP3915042A1 (en) | 2021-12-01 |
WO2020152440A1 (en) | 2020-07-30 |
JP2022517471A (ja) | 2022-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7198922B2 (ja) | タイヤ・サイドウォール撮像方法 | |
CN112686812B (zh) | 银行卡倾斜矫正检测方法、装置、可读存储介质和终端 | |
Mohammad et al. | Optical character recognition implementation using pattern matching | |
US8447114B2 (en) | Method and apparatus for calculating pixel features of image data | |
US9294665B2 (en) | Feature extraction apparatus, feature extraction program, and image processing apparatus | |
US20080205764A1 (en) | Information processing apparatus, method, and program | |
US20070058856A1 (en) | Character recoginition in video data | |
US20060018521A1 (en) | Object classification using image segmentation | |
Kazmi et al. | An efficient industrial system for vehicle tyre (tire) detection and text recognition using deep learning | |
Ap et al. | Automatic number plate detection in vehicles using faster R-CNN | |
US20150016679A1 (en) | Feature extraction device, feature extraction method, and feature extraction program | |
JP2008251029A (ja) | 文字認識装置、ナンバープレート認識システム | |
CN114219402A (zh) | 物流托盘码放识别方法、装置、设备及存储介质 | |
Kazmi et al. | Vehicle tire (tyre) detection and text recognition using deep learning | |
Al-Shemarry et al. | Identifying License Plates in Distorted Vehicle Images: Detecting Distorted Vehicle Licence Plates Using a Novel Preprocessing Methods With Hybrid Feature Descriptors | |
Arafat et al. | A vehicular license plate recognition framework for skewed images | |
JP2005149395A (ja) | 文字認識装置、ナンバープレート認識システム | |
Hernández | Structural analysis of textures based on LAW´ s filters | |
Al-Shemarry et al. | Detecting Distorted Vehicle Licence Plates Using Novel Preprocessing Methods With Hybrid Feature Descriptors | |
Olmí et al. | Numeric character recognition system for chilean license plates in semicontrolled scenarios | |
Jipeng et al. | Chinese numeral recognition using gabor and svm | |
CN107194328B (zh) | 一种圆形图像的特征提取方法 | |
Sharma et al. | Maximum entropy-based semi-supervised learning for automatic detection and recognition of objects using deep ConvNets | |
Kasaraneni | Autonomous Vehicle Number Plate Recognition Using a YOLO and ESRGAN Framework | |
Koponen et al. | Recent advancements in machine vision methods for product code recognition: A systematic review [version 1; peer review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210521 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7198922 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |